Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2226 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  204  205  206  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7379776
wolfflyter
Posté le 26-03-2010 à 14:35:36  profilanswer
 

Reprise du message précédent :

Gigathlon a écrit :


Dépasser de 100w la conso de la carte concurrente la plus proche pour quelque chose comme 10% de perfs (entre les chiffres donnés par nVidia et les quelques leaks que ça a rendu crédibles), ça n'est pas justifiable en même temps.
 
Il ne faut pas perdre de vue qu'ils ont quand même réussi à établir un nouveau record de consommation, enfin si tu n'as pas suivi les mésaventures d'hier tu n'as peut-être pas aperçu la chose :o


 
Avec 300 CFM dessus dans des serveurs j'aimerai bien savoir a quelle température vont etre les cartes :o
Quelle est le rapport Perf/Watt ? (pas FPS/Watt :D )
 
il semble y avoir deux mondes pour Fermi lequel est le plus important ?
 
 :)  
 
 
 


---------------
該反思的是,往往有幫助
mood
Publicité
Posté le 26-03-2010 à 14:35:36  profilanswer
 

n°7379778
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 26-03-2010 à 14:36:39  profilanswer
 

Atta atta gigathlon ^^ Attendons les tests ce soir avant.


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7379781
Gigathlon
Quad-neurones natif
Posté le 26-03-2010 à 14:40:32  profilanswer
 

super_newbie_pro a écrit :

Atta atta gigathlon ^^ Attendons les tests ce soir avant.


En effet, pour ce qui est des perfs exactes j'attend aussi les articles, ceci dit je ne me fais vraiment pas d'illusion :o
 
Quant au marché HPC, il faudrait plus qu'un pauvre "benchmark" perdu pour avoir une idée de l'intérêt de la puce (tique? :o)

n°7379790
wolfflyter
Posté le 26-03-2010 à 14:47:56  profilanswer
 

Gigathlon a écrit :


En effet, pour ce qui est des perfs exactes j'attend aussi les articles, ceci dit je ne me fais vraiment pas d'illusion :o
 
Quant au marché HPC, il faudrait plus qu'un pauvre "benchmark" perdu pour avoir une idée de l'intérêt de la puce (tique? :o)


 
justement , c'est pas avec Frap's que les ingenieurs vérifies la viabilité d'une solution. Pour ce domaine on peut penser
que Nvidia a longuement étudier la question.
 
 :)


---------------
該反思的是,往往有幫助
n°7379793
couillesho​t
Les bouboules et la boubouche
Posté le 26-03-2010 à 14:50:40  profilanswer
 

de toute façon en automne nvidia avait surtout communiqué sur le potentiel du fermi en GPU computing, 2 mois plus tard Intel annulait larabee (reportait plutôt  :o ), coïncidence?


Message édité par couilleshot le 26-03-2010 à 14:51:24

---------------
:o :o :o
n°7379794
Boba_Fett
Posté le 26-03-2010 à 14:50:51  profilanswer
 

Question Pour Marc : Est-ce-que Metro 2033 a été inclu dans le test des GTX4x0 ? Vu qu'à priori il semble être le jeu le + lourd du moment.
 
Merci d'avance pour votre réponse.

Message cité 2 fois
Message édité par Boba_Fett le 26-03-2010 à 14:51:08
n°7379799
Gigathlon
Quad-neurones natif
Posté le 26-03-2010 à 14:53:29  profilanswer
 

wolfflyter a écrit :

justement , c'est pas avec Frap's que les ingenieurs vérifies la viabilité d'une solution. Pour ce domaine on peut penser
que Nvidia a longuement étudier la question.
 
 :)


Je vois pas le rapport...
 
On parle de jeux, tu parles de HPC.
On parle de HPC, tu parles de FRAPS.
 
Faudrait arrêter de dévier continuellement la discution comme ça...
 
Dans chacun des 2 cas, il faut plus qu'un unique benchmark pour tirer une conclusion, et accessoirement c'est bien de savoir aussi ce qu'on lui fait bouffer pour juger de ce qu'il se passe en coulisses.
 
Sinon je peux te resortir les vids de la GTC'09 où on voyait le fameux "Fermi" se ramasser en 64bits face au GT200 en 32bits malgré une puissance de calcul comparable et une BP 50% supérieure, mais ça apporte quoi au débat?
 
 
Les changements architecturaux majeurs sont clairement axés HPC, notamment pour l'exécution de certains algorithmes fort logiquement pas encore répandus puisque totalement inefficaces sur les GPU "classiques".

Message cité 1 fois
Message édité par Gigathlon le 26-03-2010 à 14:58:19
n°7379800
Sam Erousi​s
Posté le 26-03-2010 à 14:53:49  profilanswer
 

Je pense que Marc répondra à tout le monde, suffit de patienter 9 heures  :D .
 
 [:cosmoschtroumpf]


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°7379805
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 26-03-2010 à 14:57:22  profilanswer
 

Boba_Fett a écrit :

Question Pour Marc : Est-ce-que Metro 2033 a été inclu dans le test des GTX4x0 ? Vu qu'à priori il semble être le jeu le + lourd du moment.
 
Merci d'avance pour votre réponse.

ah ?  :??:  
 


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7379806
Marc
Chasseur de joce & sly
Posté le 26-03-2010 à 14:58:24  profilanswer
 

Boba_Fett a écrit :

Question Pour Marc : Est-ce-que Metro 2033 a été inclu dans le test des GTX4x0 ? Vu qu'à priori il semble être le jeu le + lourd du moment.
 
Merci d'avance pour votre réponse.


Oui

mood
Publicité
Posté le 26-03-2010 à 14:58:24  profilanswer
 

n°7379811
westside7
Posté le 26-03-2010 à 15:00:12  profilanswer
 

Marc c'est toi qui a testé ou Damien ?

n°7379814
glrpignolo
Posté le 26-03-2010 à 15:01:18  profilanswer
 

D'après Stéphane de PCW, nvidia pousse les testeurs à mettre Metro 2033 dans leurs articles, on se demande bien pourquoi :D
Lui ne le fera apparement pas avant que ATI puisse optimiser ses pilotes  histoire d'équité.

n°7379815
Gigathlon
Quad-neurones natif
Posté le 26-03-2010 à 15:02:43  profilanswer
 

glrpignolo a écrit :

D'après Stéphane de PCW, nvidia pousse les testeurs à mettre Metro 2033 dans leurs articles, on se demande bien pourquoi :D
Lui ne le fera apparement pas avant que ATI puisse optimiser ses pilotes  histoire d'équité.


D'après ce qu'on a pu voir ça n'a pas grand intérêt, c'est du même ordre que Crysis VH du temps du G80... :/

n°7379816
couillesho​t
Les bouboules et la boubouche
Posté le 26-03-2010 à 15:04:00  profilanswer
 

d'après le test de xbitlabs, ATI est déjà opérationnel sur metro 2033, la HD5870 égale la GTX295, et la HD5970 caracole


Message édité par couilleshot le 26-03-2010 à 15:04:46

---------------
:o :o :o
n°7379817
sapphire a​depte xd
Posté le 26-03-2010 à 15:04:36  profilanswer
 

C'est Damien qui s'occupe de la partie GPU des test, Marc ça doit être CPU plutôt.

n°7379820
glrpignolo
Posté le 26-03-2010 à 15:05:57  profilanswer
 

Enfin, si nvidia pousse le jeu, il y a bien une raison.
Moi je vois la 470 au niveau voir au dessus de la 5870 dedans.
Ca rassurera les fans.


Message édité par glrpignolo le 26-03-2010 à 15:06:36
n°7379821
cpagrave
Posté le 26-03-2010 à 15:06:04  profilanswer
 

Woww vous avez déjà écrit 200 pages sur un produit encore indisponible

n°7379823
wolfflyter
Posté le 26-03-2010 à 15:06:46  profilanswer
 

Gigathlon a écrit :


Je vois pas le rapport...
 
On parle de jeux, tu parles de HPC.
On parle de HPC, tu parles de FRAPS.
 
Faudrait arrêter de dévier continuellement la discution comme ça...
 
Dans chacun des 2 cas, il faut plus qu'un unique benchmark pour tirer une conclusion, et accessoirement c'est bien de savoir aussi ce qu'on lui fait bouffer pour juger de ce qu'il se passe en coulisses.


 
Mais c'est en rapport directe avec le produit Fermi !
 
Il est prévu pour deux choses et non pas une seule chose , la question c'est quel est la part qui impute sur l'autre !
 
Vous pouvez parler que de jeu , c'est compréhensible , ce qui l'est moins c'est de critiquer sans savoir le pourquoi
du comment.
 
Dès le départ nvidia a indiqué que le produit a pour vocation gpgpu.
 
Bien sur on peut penser que le produit ne sera pas adapté pour un usage Home Pc bench/HFR mais ça c'est justement
l'interet des tests effectués par la presse spécialisé qui doit prendre en compte que le produit a deux usages et non
plus un seul comme précédement , c'est mon point de vue.
 
 :)  
 

Message cité 1 fois
Message édité par wolfflyter le 26-03-2010 à 15:09:57

---------------
該反思的是,往往有幫助
n°7379824
Marc
Chasseur de joce & sly
Posté le 26-03-2010 à 15:07:20  profilanswer
 

sapphire adepte xd a écrit :

C'est Damien qui s'occupe de la partie GPU des test, Marc ça doit être CPU plutôt.


 
 
Voilà.
 
Sinon que NV le pousse, c'est une chose, et pour ce jeu là vu les résultats il n'y a rien de suspect, donc pas de raison de ne pas l'utiliser, ce qui était prévu avant que NV le pousse ;)
 
C'est un jeu récent avec un moteur évolué, ce serait dommage à notre sens de le mettre de côté


Message édité par Marc le 26-03-2010 à 15:18:39
n°7379834
Gigathlon
Quad-neurones natif
Posté le 26-03-2010 à 15:13:20  profilanswer
 

wolfflyter a écrit :

Mais c'est en rapport directe avec le produit Fermi !
 
Il est prévu pour deux choses et non pas une seule chose , la question c'est quel est la part qui impute sur l'autre !
 
Vous pouvez parler que de jeu , c'est compréhensible , ce qui l'est moins c'est de critiquer sans savoir le pourquoi
du comment.
 
Dès le départ nvidia a indiqué que le produit a pour vocation gpgpu.


Et je te renvoie à la question: comment on teste le "GPGPU"?
 
Il n'y a pas de réponse correcte à cette question, puisque comme je l'ai dit, sur la véritable cible de ce marché nVidia a une approche qui ne va pas vraiment dans le sens des développeurs.
 
Faciliter la programmation de haut niveau, c'est bon pour du mainstream, pas pour le HPC où les algos et implémentations sont soigneusement choisis pour tirer le maximum du hard, et donc avec ce qu'il existe de plus bas niveau.

Message cité 3 fois
Message édité par Gigathlon le 26-03-2010 à 15:14:35
n°7379837
MEI
|DarthPingoo(tm)|
Posté le 26-03-2010 à 15:14:49  profilanswer
 

glrpignolo a écrit :

D'après Stéphane de PCW, nvidia pousse les testeurs à mettre Metro 2033 dans leurs articles, on se demande bien pourquoi :D
Lui ne le fera apparement pas avant que ATI puisse optimiser ses pilotes  histoire d'équité.


Comme ci AMD n'avais peu eu Metro 2033 dans les mains depuis tout ce temps... Le jeu est sortir depuis 3 semaines... ;) Et franchement si les perfs étaientt si augmentables que ça, un hotfix en 3 semaines ils le font sans soucis... ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7379840
Boba_Fett
Posté le 26-03-2010 à 15:18:12  profilanswer
 


 
Cool, merci  :)

n°7379841
MEI
|DarthPingoo(tm)|
Posté le 26-03-2010 à 15:18:17  profilanswer
 

Gigathlon a écrit :


Et je te renvoie à la question: comment on teste le "GPGPU"?
 
Il n'y a pas de réponse correcte à cette question, puisque comme je l'ai dit, sur la véritable cible de ce marché nVidia a une approche qui ne va pas vraiment dans le sens des développeurs.
 
Faciliter la programmation de haut niveau, c'est bon pour du mainstream, pas pour le HPC où les algos et implémentations sont soigneusement choisis pour tirer le maximum du hard, et donc avec ce qu'il existe de plus bas niveau.


Sauf qu'autant en CPU on peut optimiser de l'assembleur sans trop de soucis, on a plein d'infos sur les CPU, toutes les archis étant relativement proche, etc, autant en GPU quoiqu'il arrive on a au moins une couche d'abstraction...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7379842
Hyrius
Posté le 26-03-2010 à 15:19:33  profilanswer
 

Wow je croyais que c'était 450€ la GTX 480. :o

n°7379843
Boba_Fett
Posté le 26-03-2010 à 15:19:43  profilanswer
 


 
Ben DX11 + Tesselation + Advanced DOF = Encore + lourd que Crysis

n°7379847
MEI
|DarthPingoo(tm)|
Posté le 26-03-2010 à 15:22:52  profilanswer
 

Boba_Fett a écrit :


 
Ben DX11 + Tesselation + Advanced DOF = Encore + lourd que Crysis


Oui, et au moins ça se vois...
 
Je me demande ce que pourrai donner 5870 + GT240 pour la PhysX dans ce jeu. Je sais pas si quelqu'un a oser tester... :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7379848
alexreunio​n
Posté le 26-03-2010 à 15:25:02  profilanswer
 

MEI a écrit :


Comme ci AMD n'avais peu eu Metro 2033 dans les mains depuis tout ce temps... Le jeu est sortir depuis 3 semaines... ;) Et franchement si les perfs étaientt si augmentables que ça, un hotfix en 3 semaines ils le font sans soucis... ;)


Il est sorti le 19 de ce mois donc il y a 7 jours.


Message édité par alexreunion le 26-03-2010 à 15:26:02

---------------
Mon feedback
n°7379849
Gigathlon
Quad-neurones natif
Posté le 26-03-2010 à 15:25:31  profilanswer
 

MEI a écrit :

Sauf qu'autant en CPU on peut optimiser de l'assembleur sans trop de soucis, on a plein d'infos sur les CPU, toutes les archis étant relativement proche, etc, autant en GPU quoiqu'il arrive on a au moins une couche d'abstraction...


L'assembleur est aussi une couche d'abstraction, si t'avais pas remarqué.
 
Et contrairement à ce que tu dis, chez AMD comme nVidia on a un accès de niveau comparable à l'assembleur.

n°7379851
couillesho​t
Les bouboules et la boubouche
Posté le 26-03-2010 à 15:28:27  profilanswer
 

MEI a écrit :


Oui, et au moins ça se vois...
 
Je me demande ce que pourrai donner 5870 + GT240 pour la PhysX dans ce jeu. Je sais pas si quelqu'un a oser tester... :D


 
ça change rien quand on ajoute une gtx285 à une HD5970 (voir le topic du jeu), dx11, le DOF et l'AA sont tellements gourmands que c'est pas le physx qui limite le plus  :sweat:  


---------------
:o :o :o
n°7379854
wolfflyter
Posté le 26-03-2010 à 15:29:30  profilanswer
 

Gigathlon a écrit :


Et je te renvoie à la question: comment on teste le "GPGPU"?
 
Il n'y a pas de réponse correcte à cette question, puisque comme je l'ai dit, sur la véritable cible de ce marché nVidia a une approche qui ne va pas vraiment dans le sens des développeurs.
 
Faciliter la programmation de haut niveau, c'est bon pour du mainstream, pas pour le HPC où les algos et implémentations sont soigneusement choisis pour tirer le maximum du hard, et donc avec ce qu'il existe de plus bas niveau.


 
Pour les jeux c'est la meme chose, il n'y a pas de standards, chacuns y va de son dernier drivers ou autre pour ajuster au fur et a mesure quitte a déshabiller Paul pour habiller Jacques.
Pour le matériel recevant la carte vidéo c'est la meme chose, pas de standard excluant toutes influences.
 
 :)


---------------
該反思的是,往往有幫助
n°7379855
Marc
Chasseur de joce & sly
Posté le 26-03-2010 à 15:30:28  profilanswer
 

:)

n°7379860
bjone
Insert booze to continue
Posté le 26-03-2010 à 15:33:53  profilanswer
 

Gigathlon a écrit :


Et je te renvoie à la question: comment on teste le "GPGPU"?
 
Il n'y a pas de réponse correcte à cette question, puisque comme je l'ai dit, sur la véritable cible de ce marché nVidia a une approche qui ne va pas vraiment dans le sens des développeurs.
 
Faciliter la programmation de haut niveau, c'est bon pour du mainstream, pas pour le HPC où les algos et implémentations sont soigneusement choisis pour tirer le maximum du hard, et donc avec ce qu'il existe de plus bas niveau.


 
Oui & non.
Le milieu scientifique & industriel a besoin d'outils unifiés, donc l'approche "faciliter la programmation de haut niveau" dans le sens réduire les restrictions hardware et exposer du software plus standard et moins spécifique, donc pérenne aide à la démocratisation du GPGPU.
 
Après on est d'accord que tester l'aspect GPGPU est compliqué, car entre du GPGPU utilisé dans un jeu, et celui pour un traitement spécifique, y'a tellement d'aléas qu'ont pourrait faire un test donnant une conclusion à l'ouest par rapport à ce que vers quoi les divers domaines (jeu/hpc/autre...) vont converger. Seul le temps dira...

n°7379865
Cizia
Posté le 26-03-2010 à 15:36:54  profilanswer
 

couilleshot a écrit :


 
ça change rien quand on ajoute une gtx285 à une HD5970 (voir le topic du jeu), dx11, le DOF et l'AA sont tellements gourmands que c'est pas le physx qui limite le plus  :sweat:  


 
 
de toute façons PhysX est tellement accessoire,voir ridicule dans ce jeu qu'autant décoché la case dans le menu   :lol:  :p


Message édité par Cizia le 26-03-2010 à 15:40:51

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7379867
Boba_Fett
Posté le 26-03-2010 à 15:38:51  profilanswer
 

Pour le GPGPU il existe pas de bench pour le DirectCompute 5.0 ?
Ca permettrait de comparer la puissance du Fermi et du Cypress sur un système non propriétaire.

n°7379872
MEI
|DarthPingoo(tm)|
Posté le 26-03-2010 à 15:40:43  profilanswer
 

Gigathlon a écrit :


L'assembleur est aussi une couche d'abstraction, si t'avais pas remarqué.
 
Et contrairement à ce que tu dis, chez AMD comme nVidia on a un accès de niveau comparable à l'assembleur.


Oui et non car il y a correspondance directement entre les mnemonique et le code binaire de l'instruction.
 
Tandis qu'une instruction de shaders n'aura pas de correspondance directe avec une instruction d'un RV870 ou d'un GF100.
C'est un peu comme du bytecode de JVM quoi... :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7379877
Marc
Chasseur de joce & sly
Posté le 26-03-2010 à 15:43:14  profilanswer
 

Boba_Fett a écrit :

Pour le GPGPU il existe pas de bench pour le DirectCompute 5.0 ?
Ca permettrait de comparer la puissance du Fermi et du Cypress sur un système non propriétaire.


Il y'a quelques trucs qui existent mais bon, ca ne vaut pas grand chose, car c'est pas tant le language qui importe que les algos utilisés dans le "bench".

n°7379880
MEI
|DarthPingoo(tm)|
Posté le 26-03-2010 à 15:45:12  profilanswer
 

Boba_Fett a écrit :

Pour le GPGPU il existe pas de bench pour le DirectCompute 5.0 ?
Ca permettrait de comparer la puissance du Fermi et du Cypress sur un système non propriétaire.


Le problème c'est qu'on va avoir au moins 2 aproches :
- faire un shader générique
- faire deux shaders peaufiner au petit oignons pour chaque archi
 
Et là du coup soit :
- on va bencher la partialité du journaliste suivant le shader choisi
- on va bencher les compétences en dev' du journaliste vu qu'on ai jamais sur que chaque shaders soit optimisé au mieux
 
Du coup on en arrive toujours au même point et a tourner en rond.
 
Et à ce jeu là c'est toujours ATI qui sera dans la panade du fait de son archi. Car chez NVIDIA a priori le rendement est relativement fixe, l'écart en le worst et best case est beaucoup plus petit que chez ATI ou le rendement dépends vraiment du boulot a faire a cause du VLIW.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7379881
alexreunio​n
Posté le 26-03-2010 à 15:45:32  profilanswer
 

couilleshot a écrit :


 
ça change rien quand on ajoute une gtx285 à une HD5970 (voir le topic du jeu), dx11, le DOF et l'AA sont tellements gourmands que c'est pas le physx qui limite le plus  :sweat:  


Ce sont mes résultats qui te font dire ça je pense ;)


---------------
Mon feedback
n°7379884
Gigathlon
Quad-neurones natif
Posté le 26-03-2010 à 15:47:35  profilanswer
 

bjone a écrit :

Oui & non.
Le milieu scientifique & industriel a besoin d'outils unifiés, donc l'approche "faciliter la programmation de haut niveau" dans le sens réduire les restrictions hardware et exposer du software plus standard et moins spécifique, donc pérenne aide à la démocratisation du GPGPU.
 
Après on est d'accord que tester l'aspect GPGPU est compliqué, car entre du GPGPU utilisé dans un jeu, et celui pour un traitement spécifique, y'a tellement d'aléas qu'ont pourrait faire un test donnant une conclusion à l'ouest par rapport à ce que vers quoi les divers domaines (jeu/hpc/autre...) vont converger. Seul le temps dira...


Bref, on revient à la problématique de:
 
- quoi tester
- comment tester
 
:o
 
La meilleure approche est bien l'implémentation d'algos plus ou moins modifiés sur différents systèmes pour en tirer le maximum dans un temps donné, mais ça fait intervenir une part de subjectivité. Un post dans un thread du forum B3D en section "GPU computing" était assez intéressant à ce titre, puisqu'il faisait le parallèle temps passé/gain constaté.
 
Le problème que je vois dans l'ajout d'une couche d'abstraction trop épaisse (càd nettement moins proche du hard ne serait-ce que des CS), c'est qu'on perd totalement le contrôle sur ce qu'il se passe en-dessous, du coup on est surtout tributaires du compilateur.

n°7379888
fricandell​e
Les chtis biloutes en force!
Posté le 26-03-2010 à 15:49:13  profilanswer
 

Est-ce que Heaven 2.0 sera inclut dans les tests de ce soir?

n°7379891
Hyrius
Posté le 26-03-2010 à 15:50:54  profilanswer
 

Y'en a qui restent éveillés juste pour les tests ? :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  204  205  206  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)