Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1735 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  36  37  38  ..  804  805  806  807  808  809
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11140804
havoc_28
Posté le 05-08-2022 à 16:53:21  profilanswer
 

Reprise du message précédent :

Xantar_Eozenn a écrit :


 
Ca reste du MCM comme le MI250X ou les Ryzen si tu préfères. Plusieurs dies plus ou moins proche avec des fonctions différentes selon les besoins.


 
Sur MI 250X y a deux DIES principaux identiques, entourés d'autres plus petits avec des fonctions différentes.  
 
Sur RNDA c'est moins avancé ... un unique DIE classique et les contrôleur mémoire + portion de cache IF déportés sur des plus petits.

Message cité 1 fois
Message édité par havoc_28 le 05-08-2022 à 16:55:14
mood
Publicité
Posté le 05-08-2022 à 16:53:21  profilanswer
 

n°11140805
Xantar_Eoz​enn
Posté le 05-08-2022 à 16:55:56  profilanswer
 

havoc_28 a écrit :

Sur MI 250X y a deux DIES principaux identiques, entourés d'autres plus petits avec des fonctions différentes.  
 
Sur RNDA 3; y un DIE unique.


 
Et ? Ca reste du MCM ... , tu peux avoir x dies de calculs, x dies d'IO, x dies de caches, ca reste du MCM.

n°11140806
havoc_28
Posté le 05-08-2022 à 16:58:36  profilanswer
 

Xantar_Eozenn a écrit :


 
Et ? Ca reste du MCM ... , tu peux avoir x dies de calculs, x dies d'IO, x dies de caches, ca reste du MCM.


 
Oui, mais y a pas plusieurs DIE de "calculs". C'est comme si on avait un GPU classique duquel on aurait juste déporté les contrôleurs mémoires et Cache Infinity. Quand y aura plusieurs DIE embarquant les unités de calculs principales d'un GPU là faudra voir.
 
CDNA sur MI 250X y a deux DIES avec les grosses unités de calculs habituelles d'un GPU, sur RDNA 3, ça ne serait pas le cas, on est sur du MCM oui mais un un peu moins complexe que sur CNDA façon MI-250X.
 
C'est plus pour optimiser les coûts avec des puces plus petites, que pour avoir un gros boost niveau performance, d'ailleurs N33 resterait sur un design monolithique.


Message édité par havoc_28 le 05-08-2022 à 17:03:33
n°11140808
quentincc
It's all ogre now
Posté le 05-08-2022 à 17:03:31  profilanswer
 

C'est pas le type de MCM qui augmente drastiquement les performances, c'est plutôt du MCM pour réduire un peu les coûts et avoir un peu plus de liberté/plus de modularité (par exemple la possibilité d'avoir plus tard une 7900X3D avec deux fois plus de cache grace à des modules "amélioré" ).
Ce qui a fait le succès du MCM sur le Ryzen c'est la possibilité d'avoir plusieurs die "CPU" dans le même package, ce qui a permis un super yield et des prix tirés vers le bas :)


---------------
Mon topic d'achat/vente :)
n°11140810
Xantar_Eoz​enn
Posté le 05-08-2022 à 17:07:15  profilanswer
 

Enfin bref, on a bien vu qu'avec les Ryzen 3000/5000, le MCM a été bénéfique.
On sait qu'AMD va arriver avec la même techno sur les cartes graphiques, là ou NVidia aura 1 GEN de retard, voir une adaptation d'Hopper en lui rajoutant des RT Core.

n°11140813
Scrabble
Posté le 05-08-2022 à 17:22:09  profilanswer
 

ben shinobi a écrit :

Oui certes, mais attention à ne pas s'emballer.  
Ma "théorie" se base surtout sur l'impossibilité actuelle de dissiper efficacement (au delà des 400 watts) par air cooling . Question de taille max des ventilos et du ventirad, de poids, de surface, taille/espace dans les boitiers actuels.
 
D'un autre côté, Y a peut-etre des progrès en matière d'aircooling possibles :  des nouveaux matériaux, des fans plus performants etc...à venir aussi


D'accord avec ta limite de 400 W, de toutes manières, même si la CG est bien refroidie en elle-même, il faut ensuite sortir les 400 W du boitier fermé, forcément sous forme d'air chaud
 
Pour les progrès en matière d'aircooling, j'y crois pas trop : On est limité en taille, en poids
Le seul truc possible, à la limite, serait de brancher un gros tuyau d'air, style aspirateur, sur la carte graphique, qui sortirait du boitier, et serait branché sur un extracteur d'air chaud extérieur au boitier, style VMC ou clim, le tout avec un débit commandé par la température de la carte graphique, naturellement

n°11140823
ben shinob​i
Posté le 05-08-2022 à 18:08:20  profilanswer
 

Scrabble a écrit :


D'accord avec ta limite de 400 W, de toutes manières, même si la CG est bien refroidie en elle-même, il faut ensuite sortir les 400 W du boitier fermé, forcément sous forme d'air chaud
 
Pour les progrès en matière d'aircooling, j'y crois pas trop : On est limité en taille, en poids
Le seul truc possible, à la limite, serait de brancher un gros tuyau d'air, style aspirateur, sur la carte graphique, qui sortirait du boitier, et serait branché sur un extracteur d'air chaud extérieur au boitier, style VMC ou clim, le tout avec un débit commandé par la température de la carte graphique, naturellement


 Bah tu décris plus ou moins les fonctionnalités d'un blower, là ^^


Message édité par ben shinobi le 05-08-2022 à 18:13:41
n°11140831
Profil sup​primé
Posté le 05-08-2022 à 18:32:00  answer
 

Scrabble a écrit :

[..]
Le seul truc possible, à la limite, serait de brancher un gros tuyau d'air, style aspirateur, sur la carte graphique, qui sortirait du boitier, et serait branché sur un extracteur d'air chaud extérieur au boitier, style VMC ou clim, le tout avec un débit commandé par la température de la carte graphique, naturellement

Y'a moua'Y [:rfv:5]

n°11140833
havoc_28
Posté le 05-08-2022 à 18:34:20  profilanswer
 

Scrabble a écrit :


D'accord avec ta limite de 400 W, de toutes manières, même si la CG est bien refroidie en elle-même, il faut ensuite sortir les 400 W du boitier fermé, forcément sous forme d'air chaud
 
Pour les progrès en matière d'aircooling, j'y crois pas trop : On est limité en taille, en poids
Le seul truc possible, à la limite, serait de brancher un gros tuyau d'air, style aspirateur, sur la carte graphique, qui sortirait du boitier, et serait branché sur un extracteur d'air chaud extérieur au boitier, style VMC ou clim, le tout avec un débit commandé par la température de la carte graphique, naturellement


 
https://preview.redd.it/x0xn16vxl0691.jpg?width=640&crop=smart&auto=webp&s=74d83af8af4e2e84c3aa7caa1899e1e30bfa4962
 
 :lol:

Message cité 2 fois
Message édité par havoc_28 le 05-08-2022 à 18:34:50
n°11140864
MSchumache​r
Posté le 05-08-2022 à 20:27:12  profilanswer
 

:hello:  

Valaint67130 a écrit :

Bon comme prévu, la 4080 ne seras pas mienne, oh non, mais la 4080 Ti oui  [:daphne:3]  
 
https://wccftech.com/nvidia-geforce [...] -ti-rumor/


 :heink:  
 
Pourquoi pas la 4080 mais plutot la 4080Ti ? (C'est quoi la raison ou les raisons ?)

mood
Publicité
Posté le 05-08-2022 à 20:27:12  profilanswer
 

n°11140865
Miky 2001
N'y pense même pas !!!
Posté le 05-08-2022 à 20:39:30  profilanswer
 


Réchauffement climatique qu’ils disaient !!

n°11140868
Scrabble
Posté le 05-08-2022 à 20:57:50  profilanswer
 


Haha, c'est exactement ce que j'avais en tête  :love:

n°11140869
Valaint671​30
Cinquième soleil
Posté le 05-08-2022 à 20:59:40  profilanswer
 


 

MSchumacher a écrit :


 :heink:  
 
Pourquoi pas la 4080 mais plutot la 4080Ti ? (C'est quoi la raison ou les raisons ?)


 
Parce que la 4080 Ti seras très proche du monstre 4090 pour bien moins cher, après à voir le prix bien sur :D
 
Pour ceux qui sont en 3090 les 35% de perfs annoncés de la 4080 ça ne change pas la vie, surtout en UHD, c'est loin d'être assez pour faire une vraie différence factuelle.
 
Si la 4080 Ti apporte ~60% de perfs comparé à une 3090 là ça seras intéressant, mais en restant objectif, ça ne changeras pas la vie non plus :o

Message cité 1 fois
Message édité par Valaint67130 le 05-08-2022 à 21:01:05

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11140903
LeMakisar
Posté le 05-08-2022 à 23:36:25  profilanswer
 

surtout si les 35% de perfs concernent pas l'UHD :o :D


---------------
Feedback
n°11140909
MSchumache​r
Posté le 06-08-2022 à 00:50:05  profilanswer
 

Valaint67130 a écrit :


 
Parce que la 4080 Ti seras très proche du monstre 4090 pour bien moins cher, après à voir le prix bien sur :D
 
Pour ceux qui sont en 3090 les 35% de perfs annoncés de la 4080 ça ne change pas la vie, surtout en UHD, c'est loin d'être assez pour faire une vraie différence factuelle.
 
Si la 4080 Ti apporte ~60% de perfs comparé à une 3090 là ça seras intéressant, mais en restant objectif, ça ne changeras pas la vie non plus :o


 :jap:

n°11140922
campi
V8 FTW
Posté le 06-08-2022 à 04:24:59  profilanswer
 

Non mais tant qu'on a pas de tests ça sert à rien de se faire des films, ça va envoyer du gros c'est certain, mais à quel prix et quelle consommation?


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11140933
mazinga
Posté le 06-08-2022 à 08:39:02  profilanswer
 

oui le pire serait de ne pas pouvoir faire de multigpu, parce que la conso d'une seule carte serait trop grande ;)

n°11140934
katkar
Posté le 06-08-2022 à 08:47:19  profilanswer
 

campi a écrit :

Non mais tant qu'on a pas de tests ça sert à rien de se faire des films, ça va envoyer du gros c'est certain, mais à quel prix et quelle consommation?


+1

n°11140941
ifalna
Posté le 06-08-2022 à 09:10:15  profilanswer
 

 

L'AD104 aurait été dévoilé officieusement
https://zupimages.net/up/22/31/78vh.jpg
C'est donc un AD104 complet pour la 4070. A voir ce qu'ils font pour la TI (4080 castrée?)


Message édité par ifalna le 06-08-2022 à 12:19:12
n°11140942
Tartifless
Posté le 06-08-2022 à 09:17:05  profilanswer
 

A date, vu les bestiaux et la conso/chauffe, ça va être chaud pour une config itx ...

n°11140944
ben shinob​i
Posté le 06-08-2022 à 09:24:41  profilanswer
 

Encore une fois, une mise à jour des connecteurs ATX PCIE ne signifie en rien une envolée des consos pour les lovelace. Nvidia ne décide ni ne contraint les normes ATX. C'est juste une mise à jour qui aurait du être faite depuis longtemps car elle colle plus à la réalité des consommations qui augmentent, il est vrai, mais progressivement, sur des années et des années.
DE toute façon, je pense qu'on va arriver à une solution embarquée d'undervoltage optionnel beaucoup plus simple et intuitive sur ce genre de périphérique que msi afterburner (genre une saisie de powerlimit dans un intervalle limité (min/max)).
 
On a bien vu avec Ampere que les 50-100 derniers watts ne servent quasiment à rien en terme de performance, à part plomber le ratio perf/watt, pour 2 - 5% de gain superfétatoire comme dirait l'autre.


Message édité par ben shinobi le 06-08-2022 à 09:44:21
n°11140956
havoc_28
Posté le 06-08-2022 à 11:18:27  profilanswer
 

ben shinobi a écrit :

Est il utile de rappeler que rien n'est officiel à ce jour en matière de communication autour de ces LOVELACE et que nos inquiétudes, légitimes certes, se fondent essentiellement sur une compilation de gossips, de bruits de chiottes, de fake news et de marketing viral issue des mêmes sources inépuisables de bullshit que sont Igor's lab et videocardz (en gros)?
Donc, attendons un peu (les reviews indépendantes de qualité) avant de parler rapport perf/watt :o


 
Par contre pour ADA, c'est kopite7kimi une des principales sources des specs qui changent toutes les semaines :o. Videocardz eux se contentent de reprendre et de les classer soit en "Leak" soit en "rumors".  
 
Igor's Lab avait même fait une news disant pourquoi Kopite se trompait de temps à autre.  
 
https://www.igorslab.de/en/what-the [...] mes-wrong/

n°11141062
ben shinob​i
Posté le 06-08-2022 à 20:03:44  profilanswer
 

Oui, certes. Mais peu importe. Ces gens vivent de la rumeur, on ne peut pas les prendre au sérieux, ni eux, ni leur baratin putaclic... Qu'ils le classifient ou qu'ils l'annotent  (le bullshit) ne les crédibilise pas pour autant, à mes yeux tout du moins.
 
Après, y a pire... Mais, Je ne vais pas me lancer dans un laïus sur les "influenceurs" hardware youtubers, je vous en fais grâce. :jap:


Message édité par ben shinobi le 06-08-2022 à 20:09:38
n°11141087
cyberfred
Posté le 06-08-2022 à 22:35:36  profilanswer
 

j'avoue que j'ai tendance à me méfier des rumeurs aussi , surtout quand ca semble un peu trop excellent (genre la 4070 Ti avec les perfs d'une 3090 Ti) , tant mieux si c'est le cas , je serai le premier heureux si Lovelace apporte un gros boost de perf :jap:  
mais tant qu'il n'y a rien d'officiel , je pense qu'il vaut mieux ne pas trop s'emballer

n°11141089
Profil sup​primé
Posté le 06-08-2022 à 22:51:33  answer
 

S'emballer pour acheter du matériel en circulation actuellement ?
C'est certain à la vue de ces rumeurs [:krezke:3]

n°11141093
Miky 2001
N'y pense même pas !!!
Posté le 06-08-2022 à 23:10:02  profilanswer
 

cyberfred a écrit :

j'avoue que j'ai tendance à me méfier des rumeurs aussi , surtout quand ca semble un peu trop excellent (genre la 4070 Ti avec les perfs d'une 3090 Ti) , tant mieux si c'est le cas , je serai le premier heureux si Lovelace apporte un gros boost de perf :jap:  
mais tant qu'il n'y a rien d'officiel , je pense qu'il vaut mieux ne pas trop s'emballer


A chaque génération c’est pareil chez nvidia, la xx70 a les perfs de la plus puissante de la génération précédente…
 
Donc ne soyez pas étonné de rumeur parlant de la 4070 équivalente à la 3090 ! :heink:  
 
 
970 = 780 Ti
1070 = 980 Ti
2070 = 1080 Ti
3070 = 2080 Ti
4070 = ??? Je vous laisse deviner  ;) (en sachant que les xx90 sont apparues avec la 3090…) :jap:

n°11141099
Profil sup​primé
Posté le 07-08-2022 à 00:20:12  answer
 

Sauf qu'ici, on a un (très) léger glissement niveau consommations (3 fois rien [:plop10:5])

n°11141100
dmduncan37
Posté le 07-08-2022 à 00:33:27  profilanswer
 


 
Oui, effectivement, très légers  :sarcastic:  

n°11141115
Miky 2001
N'y pense même pas !!!
Posté le 07-08-2022 à 08:05:46  profilanswer
 


Je parlais uniquement des perfs  :jap:  
 
Pour la conso déjà avec les 3xxx ils ont déliré ! Et pour autant ca ne cest jamais aussi bien vendu alors pourquoi arrêter !
 
D’autant que sur les 3xxx ils auraient pu en sacrifiant les 10 derniers pour cents de perfs faire des cartes relativement économes…  
 
En ce moment vu les chaleurs je fais tourner une 3070 a 0,7v pour 1600 MHz environ… c’est déjà du 12000 sur timespy et sa consomme autour des 80w… mais bon c’est pas vendeur… seules les performances pures font vendre… vivement que ça change


Message édité par Miky 2001 le 07-08-2022 à 08:06:06
n°11141117
cyberfred
Posté le 07-08-2022 à 08:33:30  profilanswer
 


 
Hello bierman, pas compris ta remarque pour le coup :(
Je suis pas certains que les rtx 4000 soient en circulation actuellement.

n°11141124
mazinga
Posté le 07-08-2022 à 10:09:43  profilanswer
 

le boost des RTX 3000 par rapport aux RTX 2000 c'était la Bar redimensionnable, et des RTX 2000 par rapport à avant c'était le Ray tracing.  
s'il n'y a pas de techno ajoutée et seulement du watt, ça va pas faire délirer tout le monde vu que les RTX 3000 sont suffisamment perf et seront moins chères et largement suffisantes pour la plupart des gens pendant au moins deux ans, si ce n'est plus.  
Donc j'attends au minimum des meilleures gestions des AI, et des meilleurs drivers studios, comme dit plus haut... sinon c'est juste pour dire, je passe de 300 fps à 500 fps woooooahhh
et les rumeurs sont souvent faites quand même pour lâcher des infos importantes... Nvidia n'aurait pas trop d'intérêt de ne pas dire en quoi sa quatrième série serait beaucoup plus intéressante pour les clients

n°11141136
havoc_28
Posté le 07-08-2022 à 11:39:28  profilanswer
 

mazinga a écrit :

le boost des RTX 3000 par rapport aux RTX 2000 c'était la Bar redimensionnable, et des RTX 2000 par rapport à avant c'était le Ray tracing.


 
Le Resizeable Bar sur Ampère apporte pas grand chose contrairement aux radeons, ce n'est pas ça l'argument de vente des RTX 3000, le boost de performance vient principalement du doublement des FP32 et c'est ce gain de performance notable qui a intéressé les gens.
 
De 300 FPS à 500 FPS ça va changer pas la vie de grand monde, mais passer de 60 à 100 fps, ça sera touchera déjà une plus grande part de la population :o.


Message édité par havoc_28 le 07-08-2022 à 11:42:57
n°11141137
jujuf1
Je suis un chat
Posté le 07-08-2022 à 11:41:49  profilanswer
 

C clair que c’est bizarre de dire que le resize bar est un breakthrough alors que c’est un gain à la marge et pas sur tous les jeux, d’autant plus que c’est arrivé près de 6 mois après la sortie des 3000.


---------------
Du coup du coup …
n°11141139
Scrabble
Posté le 07-08-2022 à 11:50:25  profilanswer
 

mazinga a écrit :

le boost des RTX 3000 par rapport aux RTX 2000 c'était la Bar redimensionnable, et des RTX 2000 par rapport à avant c'était le Ray tracing.  
s'il n'y a pas de techno ajoutée et seulement du watt, ça va pas faire délirer tout le monde vu que les RTX 3000 sont suffisamment perf et seront moins chères et largement suffisantes pour la plupart des gens pendant au moins deux ans, si ce n'est plus.  
Donc j'attends au minimum des meilleures gestions des AI, et des meilleurs drivers studios, comme dit plus haut... sinon c'est juste pour dire, je passe de 300 fps à 500 fps woooooahhh
et les rumeurs sont souvent faites quand même pour lâcher des infos importantes... Nvidia n'aurait pas trop d'intérêt de ne pas dire en quoi sa quatrième série serait beaucoup plus intéressante pour les clients


Le boost des RTX 4000 par rapport aux RTX 3000, il est déjà trouvé : C'est le cache L2 de 48 Mo sur la RTX 4070, par exemple :
https://www.techpowerup.com/gpu-spe [...] 4070.c3924
Ca sera la seule vraie nouveauté des RTX 4000, avec bien sûr les améliorations de l'architecture, toujours bonnes à prendre (Et la nouvelle finesse de gravure, naturellement)

Message cité 1 fois
Message édité par Scrabble le 07-08-2022 à 12:07:16
n°11141163
Profil sup​primé
Posté le 07-08-2022 à 13:45:46  answer
 

cyberfred a écrit :

Hello bierman, pas compris ta remarque pour le coup :(
Je suis pas certains que les rtx 4000 soient en circulation actuellement.

Spoiler :

[:krezke:3] = [:lex123:2] + [:marchandise]

De l'art de vendre du vent
Ou de faire attendre, pour s'assurer de meilleures marges (elles seront chères et pas données à leur sortie)
 [:poogz:5] actuellement, ces rumeurs font "rêver", c'est le but [:lex123:2]  
MAIS > les meilleures affaires sur ce qui est dispo., c'est en ce moment [:marchandise] Veut simplement dire qu'il n'y a pas de meilleur choix
Les cartes en stock le sont à des prix qui continuent de baisser, c'est qu'il y a une raison
Décider, c'est souvent se priver de quelque chose ..


Message édité par Profil supprimé le 07-08-2022 à 16:03:48
n°11141169
cyberfred
Posté le 07-08-2022 à 14:29:11  profilanswer
 

Oki au temps pour moi, je comprends mieux, vu sous cet angle, +1  ;)

n°11141171
dmduncan37
Posté le 07-08-2022 à 14:33:08  profilanswer
 

Scrabble a écrit :


Le boost des RTX 4000 par rapport aux RTX 3000, il est déjà trouvé : C'est le cache L2 de 48 Mo sur la RTX 4070, par exemple :
https://www.techpowerup.com/gpu-spe [...] 4070.c3924
Ca sera la seule vraie nouveauté des RTX 4000, avec bien sûr les améliorations de l'architecture, toujours bonnes à prendre (Et la nouvelle finesse de gravure, naturellement)


 
Avec une bonne dose de l'augmentation du TDP pour les gpu haut de gamme
dans la ligné des 3090...

n°11141316
Geek2go
Posté le 08-08-2022 à 11:48:27  profilanswer
 

Hello tout le monde, j'ai une question.  
 
Est ce que deux câbles d'alim pcie 8 pins suffiront pour alimenter une 4080 ?
 

n°11141318
Valaint671​30
Cinquième soleil
Posté le 08-08-2022 à 11:52:07  profilanswer
 

Geek2go a écrit :

Hello tout le monde, j'ai une question.  
 
Est ce que deux câbles d'alim pcie 8 pins suffiront pour alimenter une 4080 ?
 


 
Si elle consomme moins de 450w ça passe


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11141322
aliss
Rhyme the Rhyme Well
Posté le 08-08-2022 à 12:02:58  profilanswer
 

Ce n'est plus 75w via le bus pci-e ?  
 
Car dans ce cas avec 2x8 pin's à 150w c'est plutôt 375w max (en respectant la norme pci-sig).

n°11141335
jujuf1
Je suis un chat
Posté le 08-08-2022 à 12:23:01  profilanswer
 

aliss a écrit :

Ce n'est plus 75w via le bus pci-e ?  
 
Car dans ce cas avec 2x8 pin's à 150w c'est plutôt 375w max (en respectant la norme pci-sig).


Et sachant que tout ne passe pas forcément par le pcie, c’est à dire qu’on peut dépasser le max sur les câbles avant que le pcie soit full.  
 
On en a déjà parlé ici, certains n’ont pas peur de depasser, d’autres ont des scrupules, dont moi.


---------------
Du coup du coup …
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  36  37  38  ..  804  805  806  807  808  809

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)