Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1653 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  105  106  107  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8238923
0b1
There's good in him
Posté le 08-03-2012 à 15:35:48  profilanswer
 

Reprise du message précédent :
Reste l'inconnue prix...

mood
Publicité
Posté le 08-03-2012 à 15:35:48  profilanswer
 

n°8238926
salva52
Posté le 08-03-2012 à 15:38:29  profilanswer
 

là elle est moins floue
http://www.techpowerup.com/img/12-03-08/117a.jpg

n°8238928
Profil sup​primé
Posté le 08-03-2012 à 15:39:51  answer
 

Bon, j'attendrai la 780 avec ces 2084 cuda core ^^

n°8238931
0b1
There's good in him
Posté le 08-03-2012 à 15:42:27  profilanswer
 

Fouge a écrit :

Non, juste en conclure que la puissance actuelle n'est pas démesurée, loin de là.
Quant à une puissance supérieure elle serait rapidement utilisée et ne pourrait pas non plus recevoir le qualificatif de "démesurée". C'est ce qui arrive à chaque nouvelle génération de GPU.
A mon avis le jour où un GPU sera "trop puissant" n'arrivera jamais : au mieux peut-on espérer que le nombre de compromis à faire (côté dev de jeux) va diminuer avec le temps.


Sur les jeux actuels, la puissance est suffisante. Sur les jeux de demain, certainement pas.
On n'est plus à une époque de Crysis 1 où il fallait attendre les générations N+2 ou 3 pour pouvoir y jouer sans compromis.
 
Le terme démesuré n'est sans doute pas approprié, je te rejoins. En revanche, une puissance supérieure n'est pas foncièrement utile.
La faute selon moi aux développeurs qui ne sont pas foutu d'exploiter nos GPU de manière satisfaisante. La priorité étant donnée aux consoleux, quand on voit les GPU qui les équipe et les résultats proposés, je me pose des questions.
 
Si on est capable sur une Xbox 360 de jouer à des jeux récents avec un GPU datant de Mathusalem, j'ai envie de te demander jusqu'à quand serions-nous tranquilles avec une GTX580?
 
Alors OK, sur PC on fait la fine bouche et on demande ouat-mille filtres, m'enfin bon, je suis pas sûr que seuls les filtres justifient une GTX580 face au GPU d'une Xbox 360.

n°8238934
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-03-2012 à 15:43:31  profilanswer
 

Une photo plus claire :
 
http://tof.canardpc.com/view/ef69a081-6e8b-4145-b704-6a2fd0e4a401.jpg
 
http://translate.googleusercontent [...] DNdgmfU_eQ
 
edit : Burned  [:grilled]


Message édité par Invite_Surprise le 08-03-2012 à 15:44:08
n°8238938
Profil sup​primé
Posté le 08-03-2012 à 15:48:33  answer
 

0b1 > dans ton texte, remplace pour chaque occurence 'GTX 580' par 'la dernière plus puissante carte tous constructeurs confondus' ;)
& tu verras que ça fonctionne tout autant, voire mieux :d ...

n°8238939
Profil sup​primé
Posté le 08-03-2012 à 15:49:39  answer
 

Le Bi GPU de gk104 à l'air fort intéréssant !! Un Sli de BiGPU GK ça pourrait être simpa ^^ Bon après le prix... "disponible en très petite quantitée"

n°8238943
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-03-2012 à 15:56:26  profilanswer
 

Citation :

Korrrhonen (SF3D) has already confirmed from a reliable source that GK100/110 is going to be a G80 kind of revolution.


 
http://www.overclock.net/t/1226058 [...] t_16656947

n°8238949
0b1
There's good in him
Posté le 08-03-2012 à 16:04:05  profilanswer
 


Le contraire serait étonnant :o
 

Invite_Surprise a écrit :

Citation :

Korrrhonen (SF3D) has already confirmed from a reliable source that GK100/110 is going to be a G80 kind of revolution.


 
http://www.overclock.net/t/1226058 [...] t_16656947


Ça laisse rêveur, mais bon, hautement improbable quand même selon les leaks qu'on a.

n°8238950
salva52
Posté le 08-03-2012 à 16:04:31  profilanswer
 

Nvidia a changé son logo
http://chinese.vr-zone.com/wp-content/uploads/2012/03/geforce_gtx-665x383.jpg

mood
Publicité
Posté le 08-03-2012 à 16:04:31  profilanswer
 

n°8238952
aliss
Rhyme the Rhyme Well
Posté le 08-03-2012 à 16:05:24  profilanswer
 

0b1 a écrit :


Ça laisse rêveur, mais bon, hautement improbable quand même selon les leaks qu'on a.

 

Il ne fait pas allusion au GK104 d'après ce que je comprends.  ;)

 

Message cité 1 fois
Message édité par aliss le 08-03-2012 à 16:07:19
n°8238953
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 16:06:56  profilanswer
 

Tombe bien pour le 2 GK104 sur la même carte en Mai  :love:  sera mon cadeaux d'annif  :D


---------------
Je suis néerlandophone une fois
n°8238956
thepilot64
Posté le 08-03-2012 à 16:07:56  profilanswer
 


spa la police habituelle non plus ? :o
 
Fake AMHA !

n°8238957
Agent heav​y
Posté le 08-03-2012 à 16:08:10  profilanswer
 

M'enfin si le GK110 est basé sur l'archi GK104 mais avec plus de CUDA core, pourquoi ca serait une révolution ? :?

 

edit : Ceci dit on en sait rien si c'est tout à fait pareil


Message édité par Agent heavy le 08-03-2012 à 16:09:41

---------------
Feed-back
n°8238960
aliss
Rhyme the Rhyme Well
Posté le 08-03-2012 à 16:09:40  profilanswer
 

SF3D est avant tout un overclockeur, je suppose donc que sa "révolution" c'est une GK110 2x plus perf qu'un GF110 dans les benchs synthétiques.


Message édité par aliss le 08-03-2012 à 16:10:11
n°8238970
0b1
There's good in him
Posté le 08-03-2012 à 16:20:55  profilanswer
 

aliss a écrit :


 
Il ne fait pas allusion au GK104 d'après ce que je comprends.  ;)  
 


Non en effet, il fait allusion au GK100 dont on peut légitimement penser qu'il a été jeté à la poubelle, ainsi qu'au GK110 dont on ne sait rien :D
Du coup, parler d'une révolution comme l'a été le G80 me paraît présomptueux d'autant qu'il faudra comparer ce GK110 aux cartes AMD.

n°8238971
burnout62
Posté le 08-03-2012 à 16:21:58  profilanswer
 

+10% comparé à la 7970 sur BF3 mouais...c'est bien mais pas une révolution.
Après reste à voir le prix.
 
J'aurais voulu les perfs d'une 590...

n°8238976
Gigathlon
Quad-neurones natif
Posté le 08-03-2012 à 16:31:15  profilanswer
 

serthus a écrit :

sur ces grosses productions exclu, c'est codé direct en hard, sans passer par dx ou ogl


Justement, non... c'est juste qu'ils ont mieux utilisé les resources à disposition.
 
On pouvait déjà faire des rendus bluffants à l'époque du R300 ou du NV30, voire avant, mais depuis quelque temps la mode est à l'utilisation de shaders "plus corrects" qui bouffent juste 10-20x plus de puissance pour un résultat pas franchement dément.
 
On pourrait mettre ça en parallèle d'un hypothétique basculement complet vers du BRDF, ça serait plus correct, mais la puissance de calcul requise exploserait.

n°8238979
Fouge
Posté le 08-03-2012 à 16:35:14  profilanswer
 

0b1 a écrit :

Sur les jeux actuels, la puissance est suffisante. Sur les jeux de demain, certainement pas.
On n'est plus à une époque de Crysis 1 où il fallait attendre les générations N+2 ou 3 pour pouvoir y jouer sans compromis.

Ils hésitent effectivement de plus en plus à proposer des niveaux graphique non utilisable de suite (mais par la génération N+1 ou +2). C'est dommage, j'trouvais que ça coutait rien de le proposer, et le jeu vieillit moins vite (graphiquement). Ca frustrait sans doute ceux qui veulent jouer TAF dès la sortie du jeu.

 
0b1 a écrit :

Le terme démesuré n'est sans doute pas approprié, je te rejoins. En revanche, une puissance supérieure n'est pas foncièrement utile.
La faute selon moi aux développeurs qui ne sont pas foutu d'exploiter nos GPU de manière satisfaisante. La priorité étant donnée aux consoleux, quand on voit les GPU qui les équipe et les résultats proposés, je me pose des questions.

Le problème n'est pas que la faute des dev : c'est aussi les différents niveaux d'abstraction qui provoque un certain overhead et la diversité des plateformes qui font qu'il devient long et difficile de d'optimiser à fond pour chaque hardware, faut se contenter d'optimisations "génériques" et prier à chaque fois que ça ne génère pas de contre-performance sur certaines plateformes et que ça ne s'emmêle pas avec les optimisations côté driver.

 
0b1 a écrit :

Si on est capable sur une Xbox 360 de jouer à des jeux récents avec un GPU datant de Mathusalem, j'ai envie de te demander jusqu'à quand serions-nous tranquilles avec une GTX580 ?

Au vu du hardware, le résultat est bon. Mais faut voir aussi les compromis utilisés : textures dégueulasses dignes d'il y a 8 ans sur PC, basse réso upscalée, filtres +/- cache misère, AA souvent cheap (quand il y en a). Bref, c'est un autre monde.

 
0b1 a écrit :

Alors OK, sur PC on fait la fine bouche et on demande ouat-mille filtres, m'enfin bon, je suis pas sûr que seuls les filtres justifient une GTX580 face au GPU d'une Xbox 360.

Ce serait intéressant de voir quel hardware il faudrait pour avoir un rendu d'une Xbox 360 (sur un même jeu), juste pour l'ordre de grandeur.

 

Ceci dit, en dehors du débat sur l'optimisation et du problème du nivellement par le bas des consoles, la puissance hardware actuel reste encore un facteur très limitant. Trop puissant ? Les dev reverraient d'avoir 1000 fois plus pour pouvoir se débarrasser de tous ces compromis qu'ils doivent utiliser et qu'ils trainent comme des boulets au pied depuis des années faute de mieux [:razorbak83]

Message cité 1 fois
Message édité par Fouge le 08-03-2012 à 16:35:31
n°8238981
Gigathlon
Quad-neurones natif
Posté le 08-03-2012 à 16:39:47  profilanswer
 

Fouge a écrit :

Ceci dit, en dehors du débat sur l'optimisation et du problème du nivellement par le bas des consoles, la puissance hardware actuel reste encore un facteur très limitant. Trop puissant ? Les dev reverraient d'avoir 1000 fois plus pour pouvoir se débarrasser de tous ces compromis qu'ils doivent utiliser et qu'ils trainent comme des boulets au pied depuis des années faute de mieux [:razorbak83]


Ce qui rejoint totalement mon point de vue... la mode est au "moins j'en fais, mieux je me porte", donc plus il y aura de puissance, plus les devs studios feront un boulot de goret :o


Message édité par Gigathlon le 08-03-2012 à 16:41:25
n°8238982
ced334
Posté le 08-03-2012 à 16:41:31  profilanswer
 

+10% comparé à la 7970 sur BF3  
 
Impossible de savoir si la 680 va sortir avec une fréquence de base "normale" aussi, je veux dire la 7970 sors avec une freq clairement plus basse qu'elle ne peut, ils suffit que la 680 s'oc moins bien et pour moi la 7970 sera > 680....  
 
( apparemment 20% de perf gagné en oc sur bf3 )

n°8238984
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 16:45:43  profilanswer
 

ced334 a écrit :

+10% comparé à la 7970 sur BF3  
 
Impossible de savoir si la 680 va sortir avec une fréquence de base "normale" aussi, je veux dire la 7970 sors avec une freq clairement plus basse qu'elle ne peut, ils suffit que la 680 s'oc moins bien et pour moi la 7970 sera > 680....  
 
( apparemment 20% de perf gagné en oc sur bf3 )


 
 
Tu as oublier le turbo boost, avoir presque toujours le même FPS même dans les moment les plus difficile.  :kaola:


---------------
Je suis néerlandophone une fois
n°8238985
Profil sup​primé
Posté le 08-03-2012 à 16:46:49  answer
 

J'ai remarqué que les ATI s'O.C plus que les nvidia, quésaquo ?

n°8238986
0b1
There's good in him
Posté le 08-03-2012 à 16:48:17  profilanswer
 

ced334 a écrit :

+10% comparé à la 7970 sur BF3  
 
Impossible de savoir si la 680 va sortir avec une fréquence de base "normale" aussi, je veux dire la 7970 sors avec une freq clairement plus basse qu'elle ne peut, ils suffit que la 680 s'oc moins bien et pour moi la 7970 sera > 680....  
 
( apparemment 20% de perf gagné en oc sur bf3 )


On n'a pas encore les performances définitives qu'on cherche déjà à voir l'argument qui fait que... :lol:
Et 20% tu les sors d'où, à quelle fréquence : 900Mhz ou 1.5 GigoHertz?
 
Par contre, on parle de ~750Mhz pour le GPU de la GTX680.
nVIDIA pratique très rarement la grosse fréquence, tout simplement parce-que les shaders sont en x2 (bien qu'on pourrait les délier comme au bon vieux temps :o)
 
A partir de là :
1) On n'a pas connaissance de la fréquence définitive de la GTX680
2) On n'a pas connaissance de la capacité d'O/C de la GTX680
3) On n'a pas connaissance du scaling de la GTX680
4) On n'est pas sûr qu'elle s'appellera GTX680
5) On n'est pas sur que Wirmish n'achètera pas une GTX680


Message édité par 0b1 le 08-03-2012 à 16:49:09
n°8238989
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 16:49:03  profilanswer
 


 
 
En 2010, la société-mère (AMD) a choisi de faire disparaître cette marque
 
Lien: http://fr.wikipedia.org/wiki/ATI_Technologies
 
Maintenant on dit AMD HD. :o


---------------
Je suis néerlandophone une fois
n°8238990
Gigathlon
Quad-neurones natif
Posté le 08-03-2012 à 16:49:09  profilanswer
 


Faudrait déjà avoir une base de comparaison, car ce que tu dis est plutôt faux :o
 
Les HD6k et même HD5k supportaient assez mal l'overclocking, à l'inverse des GTX400/500.
 
Comparer les HD7k @28nm aux GTX500 n'est pas du tout équitable.

n°8238991
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 16:51:10  profilanswer
 

Gigathlon a écrit :


Faudrait déjà avoir une base de comparaison, car ce que tu dis est plutôt faux :o
 
Les HD6k et même HD5k supportaient assez mal l'overclocking, à l'inverse des GTX400/500.
 
Comparer les HD7k @28nm aux GTX500 n'est pas du tout équitable.


 
Bien vrai  :jap:  
 
+1


---------------
Je suis néerlandophone une fois
n°8238992
0b1
There's good in him
Posté le 08-03-2012 à 16:51:42  profilanswer
 

Gigathlon a écrit :


Faudrait déjà avoir une base de comparaison, car ce que tu dis est plutôt faux :o
 
Les HD6k et même HD5k supportaient assez mal l'overclocking, à l'inverse des GTX400/500.
 
Comparer les HD7k @28nm aux GTX500 n'est pas du tout équitable.


Toutafé :jap:
Sur ma GTX470 j'avais pratiquement du +50% en fréquences.
 
Le tout pour la modique consommation de [].
 

Spoiler :

Désolé ça a coupé, coupure électrique :o

n°8238995
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 16:53:25  profilanswer
 

0b1 a écrit :


Toutafé :jap:
Sur ma GTX470 j'avais pratiquement du +50% en fréquences.
 
Le tout pour la modique consommation de [].
 

Spoiler :

Désolé ça a coupé, coupure électrique :o



 
 
Menteur menteur, pas de coupure maintenant tu as une Evga GTX580  :whistle:


---------------
Je suis néerlandophone une fois
n°8238997
Profil sup​primé
Posté le 08-03-2012 à 16:53:59  answer
 

ah, moi sur ma 560ti le max c'est de 822->915 ^^ Bon apres c'est un model de ref :p Mais j'espere que L'O.C pourra être conséquent !

n°8239003
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 16:58:52  profilanswer
 

OC avec le turbo boost il ne risque pas d'avoir des soucis ?


---------------
Je suis néerlandophone une fois
n°8239006
0b1
There's good in him
Posté le 08-03-2012 à 17:00:23  profilanswer
 

wnorton a écrit :

OC avec le turbo boost il ne risque pas d'avoir des soucis ?


As-tu des soucis pour O/C ton CPU Intel ou AMD récent?
Tu as donc ta réponse théorique.

n°8239010
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 17:02:13  profilanswer
 

0b1 a écrit :


As-tu des soucis pour O/C ton CPU Intel ou AMD récent?
Tu as donc ta réponse théorique.


 
Perso non, mais désactive le turbo pour, sinon écran bleu à très haute fréquences  :whistle:  


---------------
Je suis néerlandophone une fois
n°8239014
Gigathlon
Quad-neurones natif
Posté le 08-03-2012 à 17:03:57  profilanswer
 

wnorton a écrit :

OC avec le turbo boost il ne risque pas d'avoir des soucis ?


C'est le même principe que PowerTune en face, donc tu peux te référer à l'article sur les HD6900 de Tridam.
 
La différence est que chez nVidia ils annonceront probablement des fréquences plus faibles correspondant au TDP et un "boost" pour les cas qui ne chargeront pas beaucoup le GPU. Pour faire des comparaisons architecturales ça compliquera, mais sinon ça reste le même principe.

n°8239015
mightmagic
Posté le 08-03-2012 à 17:04:48  profilanswer
 

serthus a écrit :

Optimisation, multiplateforme, surcouche logicielle toussa.
La puissance on l'a np. C'est à un autre niveau qu'il faudrai voir.
 
Tu fous dans les mains de gros dev ( genre naughty dog ) une grosse config pc, et ils se basent uniquement la dessus pour dev ( donc codage en hard, sans passer par une surcouche dx11 ), et sans avoir aucun multiplateforme, tu verrai l'effet que ca fait.
 
Vivement la prochaine gen console aussi, qu'on ai du multi vraiment de qualité pendant 1 à 2 ans puis rebelote avec les portages castrés techniquement.


 ;)  

n°8239019
0b1
There's good in him
Posté le 08-03-2012 à 17:09:05  profilanswer
 

Gigathlon a écrit :


C'est le même principe que PowerTune en face, donc tu peux te référer à l'article sur les HD6900 de Tridam.
 
La différence est que chez nVidia ils annonceront probablement des fréquences plus faibles correspondant au TDP et un "boost" pour les cas qui ne chargeront pas beaucoup le GPU. Pour faire des comparaisons architecturales ça compliquera, mais sinon ça reste le même principe.


Je vois plutôt PowerTune comme une barrière, pas vraiment comme un boost.
Après je peux me tromper :/

n°8239020
mightmagic
Posté le 08-03-2012 à 17:11:53  profilanswer
 

0b1 a écrit :


Sur les jeux actuels, la puissance est suffisante. Sur les jeux de demain, certainement pas.
On n'est plus à une époque de Crysis 1 où il fallait attendre les générations N+2 ou 3 pour pouvoir y jouer sans compromis.

 

Le terme démesuré n'est sans doute pas approprié, je te rejoins. En revanche, une puissance supérieure n'est pas foncièrement utile.
La faute selon moi aux développeurs qui ne sont pas foutu d'exploiter nos GPU de manière satisfaisante. La priorité étant donnée aux consoleux, quand on voit les GPU qui les équipe et les résultats proposés, je me pose des questions.

 

Si on est capable sur une Xbox 360 de jouer à des jeux récents avec un GPU datant de Mathusalem, j'ai envie de te demander jusqu'à quand serions-nous tranquilles avec une GTX580?

 

Alors OK, sur PC on fait la fine bouche et on demande ouat-mille filtres, m'enfin bon, je suis pas sûr que seuls les filtres justifient une GTX580 face au GPU d'une Xbox 360.


Sur x360 les jeux sortent rarement plus que du 720p et souvent moins même. De plus quand tu compares un jeu sur console et sur PC, le niveau de détails n'est pas le même.

 

Quand tu regardes skyrim et que tu vois qu'il y a les mêmes limitations que sur oblivion en 2006 pour le nombre de cellules chargées (5 seulement) et qu'on doit se taper des textures toutes moches dès qu'on regarde un petit peu loin ce qui arrive très souvent dans ce jeu (je ne parle même pas des textures de près qui entre un mod comme 2k et le jeu de base, il y a presque un monde), tu peux te dire qu'on a besoin de beaucoup plus de puissance graphique qu'aujourd'hui.

 


Le jour où les développeurs n'auront plus besoin de se farcir des LODs, d'introduire du clipping, de minimiser la qualité des textures, de limiter la quantité de polygones (on a encore énormément de jeux où une roue n'est pas ronde), d'avoir des objets qu'existant que sous la forme de texture et non de vrais objets (il y en a un paquet dans les jeux aujourd'hui) etc.... là oui on aura atteint une limite graphique, mais on en est excessivement loin.

 

Dans 15 ou 20 ans peut être mais ce n'est pas demain.

Message cité 1 fois
Message édité par mightmagic le 08-03-2012 à 17:12:36
n°8239023
Marc
Chasseur de joce & sly
Posté le 08-03-2012 à 17:17:08  profilanswer
 

aliss a écrit :

 

Pas vraiment étant donné que la 7970 ne brille pas sur ce jeu vs le GF100.


En High ça vas. Moins en Ultra oui. Donc oui pas étonnant :D


Message édité par Marc le 08-03-2012 à 17:19:29
n°8239030
NoradII
Il y a 17 ans naquit un PC
Posté le 08-03-2012 à 17:23:52  profilanswer
 

Marc a écrit :

Epic a fait une démo sur Kepler au GDC. Aucune autre info
http://www.geforce.com/News/articl [...] kepler-gpu

 

Ah si, une photo d'une carte Kepler (ou d'une autre, va savoir :D ) dans un sac :o
http://venturebeat.com/2012/03/07/ [...] echnology/

Ça fait combien de temps qu'elle tourne cette démo ? Mmh .. [:million dollar baby]

0b1 a écrit :

J'ai surtout l'impression qu'une telle puissance paraît démesurée à l'heure actuelle pour le gamer.
(...)

Et alors ?

Message cité 1 fois
Message édité par NoradII le 08-03-2012 à 17:24:22

---------------
valid.x86.fr/575505 /842925 /902578
n°8239031
Marc
Chasseur de joce & sly
Posté le 08-03-2012 à 17:23:54  profilanswer
 

0b1 a écrit :


On peut donc en conclure qu'une puissance supérieure serait inutile.

Même en 1080p dans certains jeux avec les settings poussés à fond on est en dessous de 60 fps, alors que pour une fluidité parfaite en vsync on à 60 Hz il faudrait être au delà (et je ne parle du 120 Hz).

n°8239034
hifibuff
Posté le 08-03-2012 à 17:24:52  profilanswer
 

Marc, tu as des infos croustillantes sur Kepler que tu ne peux pas divulguer? :whistle:
Un oui me suffira :D


---------------
"Every man dies, not every man really lives"
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  105  106  107  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)