Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3929 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  71  72  73  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8215481
raptor68
Pouet !
Posté le 12-02-2012 à 18:00:25  profilanswer
 

Reprise du message précédent :
ça changera rien au SLI bien au contraire, c'est une gestion Software qu'il faudrait améliorer et non Hardware
 
le tri sli est limité par l'interconnexion entre les cartes et le cpu qui ne peux pas attribuer toutes les taches.
 
après l'archi d'une ALU c'est les opérations logiques de bases, OR, AND, ADD et MUL et on met plein d'alu quand on veux maximiser la performance en multi tache. Ensuite on modifie à une petite échelle, (taille des liens, des caches, interconnexion entre les unités) ce qui permet de grappiller pour l’efficacité

mood
Publicité
Posté le 12-02-2012 à 18:00:25  profilanswer
 

n°8215485
peanuthunt​er
Posté le 12-02-2012 à 18:04:23  profilanswer
 

Les premières GTX 6XX n'étaient pas censées sortir en février ?

n°8215487
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 12-02-2012 à 18:04:33  profilanswer
 

Vous me sidérez, à acheter des GPU/CPU pour leur archi, leur marque, soit disant écosystème logiciel inutile ou consomation.
J'me suis jamais posé ce genre de questions. J'ai X euros, je prends celui qui a la barre la plus longue dans les benchs HFR pour ce prix ou un peu moins moi :D (bon faut pas déconner, faut quand même pas que ca fasse un bruit horrible)
Ca m'a fait voir un peu tous les constructeurs, j'ai jamais été déçu, et savoir qu'il fallait 1536 unités A au lieu de 512 unités B m'a pas empeché de dormir.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8215511
Fouge
Posté le 12-02-2012 à 18:14:17  profilanswer
 

NoradII a écrit :

Plutôt performance par unité, voire performance/unité/cycle, ratio communément appelé IPC.  
Curieusement et au vu des derniers commentaires, on dirait que cette façon de voire les choses s'appliquerait qu'au CPU (n'en déplaise aux untelliste, j'en conviens, c'est tellement plus simple, pour "voir la concurrence" ) ?
Ou les GPU y ont-il droit, eux aussi ?

Clairement les CPU grand public et les gros GPU sont 2 mondes différents, de même pour les critères. Moi moi l'efficience d'un GPU c'est plutôt les perfs obtenues en fonctionne du budget transistor et du budget power utilisé. Après, s'il y a 100, 1 000 ou 10 000 unités (remplacer "unités" par ce qui sort du cerveau des marketeux d'AMD et nVidia), je m'en fous un peu. Chez AMD le faible rendement de l'archi VLIW5 ne me gênait pas plus que ça, au final le résultat était même très bon.
 
Si nVidia a décidé d'un changement architectural (ce qui n'est qu'une rumeur) et qu'il est mauvais, on le saura rien qu'en voyant les perf. C'est quand même prématuré d'annoncer qu'un tel choix est mauvais.
J'vois pas pourquoi tu parles de Zambezi sur ce topic. Peur que Kepler soi moisi et soit à peine plus perf que le GF110 [:quardelitre dei]

n°8215530
raptor68
Pouet !
Posté le 12-02-2012 à 18:31:07  profilanswer
 

darkstalker a écrit :

Vous me sidérez, à acheter des GPU/CPU pour leur archi, leur marque, soit disant écosystème logiciel inutile ou consomation.
J'me suis jamais posé ce genre de questions. J'ai X euros, je prends celui qui a la barre la plus longue dans les benchs HFR pour ce prix ou un peu moins moi :D (bon faut pas déconner, faut quand même pas que ca fasse un bruit horrible)
Ca m'a fait voir un peu tous les constructeurs, j'ai jamais été déçu, et savoir qu'il fallait 1536 unités A au lieu de 512 unités B m'a pas empeché de dormir.


 
après tout le monde ne fait pas que jouer, pour de la prog orienté GPU, pour de la modèlisation 3D ou du folding, l'archi est super importante (pourquoi tu crois que certaines entreprises utilisent encore les quatro de la série 8 over amorties alors qu'ils pourraient obtenir le top du top)
 
si c'est vraiment plus performant, ouai je vais pas cracher sur le changement, mais je regrette malgré tout l’arrêt de l'exploitation d'une archi efficace et qui à rendu bien des services.
 
Si jamais c'est bien mieux, je reconnaîtrais publiquement sur ce topix (après essai personnel) que j'ai eu tord, en attendant, je ne fais qu'exprimer un regret qui est d'abandonner les concepts avant leurs pleine maturité

n°8215533
NoradII
Il y a 17 ans naquit un PC
Posté le 12-02-2012 à 18:35:37  profilanswer
 

actaruxs a écrit :

Je crois comprendre ce que tu veux dire
La simplification des unités de calcul, pour garder les meme perf, oblige a multiplier ces nouvelles unités, ce qui augmente également le nombre d'interconnexion... Après... Faut pas se louper... ça peut favoriser des goulet d'étranglement pour le transit des données.   C'est ce que tu pense ???

Le major le dit mieux que moi :
 

Citation :

À force de nous spécialiser nous devenons vulnérable. Et c'est la mort !


http://t3.gstatic.com/images?q=tbn:ANd9GcT_QHpHvXsrdW-bOq0uKnp-e-3Rj7JJrNqiAyk2i7BP9kXA-fz5
 
Comprend par là, que fusionner des unités diverses et varier, les rendre pluripotentes, ça permet d'effacer les limites de calcul. Ou tout du moins d'en estomper les contours dans un premier temps. AMD n'ayant fait que la moitié du chemin. Je suis inquiet de voir NVIDIA en faire de même

actaruxs a écrit :

Ben, j'y connais pas grand chose en archi (donc je simplifie le raisonnement), mais... probablement dû au fait qu'en tri-sli (par ex) les perfs sont pas vraiment là... Et pour les augmenter (les perf) faut s'arranger pour éviter  que des unités se tournent les pouces pendant que les autres donnent tout ce qu'elles ont dans le ventre  :??:

aucun rapport avec le SLI.

Fouge a écrit :

Clairement les CPU grand public et les gros GPU sont 2 mondes différents, de même pour les critères. Moi moi l'efficience d'un GPU c'est plutôt les perfs obtenues en fonctionne du budget transistor et du budget power utilisé. Après, s'il y a 100, 1 000 ou 10 000 unités (remplacer "unités" par ce qui sort du cerveau des marketeux d'AMD et nVidia), je m'en fous un peu. Chez AMD le faible rendement de l'archi VLIW5 ne me gênait pas plus que ça, au final le résultat était même très bon.
 
Si nVidia a décidé d'un changement architectural (ce qui n'est qu'une rumeur) et qu'il est mauvais, on le saura rien qu'en voyant les perf. C'est quand même prématuré d'annoncer qu'un tel choix est mauvais.
J'vois pas pourquoi tu parles de Zambezi sur ce topic. Peur que Kepler soi moisi et soit à peine plus perf que le GF110 [:quardelitre dei]

-Mais tout le monde s'en fout alors ?
Vous étiez tous là, à bougonner que les CPU avait trop de cores que c'était majoritairement inutile dans les applis d'aujourd'hui, et là : le même présage se dessine à l'horizon, et les seules réactions sont :
*M'en branle !
*ça consommera pas, au moins ?
*ça chauffera pas j'espère ?
*j'vais payer ça combien ?
*je tournerai à 75 FPS mini sous Skyrim ?
 
Mais merde, que l'efficacité des unités soit divisé par 2 voire 5 ça ne vous fait pas tiquer ? Il n'y a que moi, et en design/RI, qui pleure sur le fait qu'il faudrait 1536 unités pour faire le boulot de 768 ?
Qu'il y aura donc 2 fois plus de rappel de boucle 2 fois plus d'adresse, 2 fois plus de requêtes interface, etc ... ?
 
-expliqué dessus.

Message cité 2 fois
Message édité par NoradII le 12-02-2012 à 18:48:47

---------------
valid.x86.fr/575505 /842925 /902578
n°8215540
glrpignolo
Posté le 12-02-2012 à 18:41:01  profilanswer
 

L'efficacité, on met ce qu'on veut derrière.
Que ça soit l'efficacité perf/watt, perf/mm², perf/prix, ça reste de l'efficacité, les critères ne sont tout simplement pas les mêmes.

 

Puis j'ai du mal à comprendre, alors nvidia, c'etait les meilleurs parce que 512 cuda core c'est mieux que 1536 vliw4 mais maintenant que le nombre de sp augmente avec une nouvelle archi, ils n'ont rien compris à la vie ?!

 

Ce qui va compter c'est, pour le haut de gamme, qui a les meilleurs perfs et pour le reste de la gamme, la rapport prix/perf (et conso/chauffe un peu).
Bref, vraiment rien de nouveau sous le soleil.

 

Ps : il ne fallait pas se leurrer, nividia n'allait pas pouvoir continuer à doubler le nombre de ses cc indéfiniment non plus.


Message édité par glrpignolo le 12-02-2012 à 18:42:09
n°8215542
lndic
Posté le 12-02-2012 à 18:42:01  profilanswer
 


 
Temps qu'on a un bon rapport perf/prix/watt et une concurrence entre les deux constructeurs, on s'en tappe un peu tu crois pas ?  :o

n°8215543
actaruxs
Posté le 12-02-2012 à 18:42:11  profilanswer
 

NoradII a écrit :


[quotemsg=8215533,2845,99825]aucun rapport avec le SLI.


Euh, oui :jap:
 
 
Reste a attendre les 1ers tests et surtout... le prix
Mais faut pas se faire d'illusions 400€ pour une bonne cg


Message édité par actaruxs le 12-02-2012 à 18:48:14
n°8215555
NoradII
Il y a 17 ans naquit un PC
Posté le 12-02-2012 à 18:51:13  profilanswer
 

Tout le monde s'en branle, c'est dingue [:dream49]
 
Pas étonnant alors, que sarkozy va se taper un deuxième mandat !


---------------
valid.x86.fr/575505 /842925 /902578
mood
Publicité
Posté le 12-02-2012 à 18:51:13  profilanswer
 

n°8215557
Profil sup​primé
Posté le 12-02-2012 à 18:53:23  answer
 

Mais va terminer la rédaction de tes Topics aussi [:harrypotdefleur:2]

n°8215564
Activation
21:9 kill Surround Gaming
Posté le 12-02-2012 à 19:00:17  profilanswer
 

fire du 57 a écrit :


 
 
Les derniers BETA date de fin janvier et les derniers WHQL date de fin Octobre !  :ouch:  C'est du foutage de gueule ! Ma 220M fonctionne pas avec les BETA ( OpenGL qui saute au bout de 20min )  depuis le 285.62 alors que normalement je peux les installer...  Merci Nvidia :sol:  
 
En tout cas c'est vrai que c'est le calme plat !  :kaola:


 
cékoi hop en gel

n°8215573
glrpignolo
Posté le 12-02-2012 à 19:04:06  profilanswer
 

NoradII a écrit :

Tout le monde s'en branle, c'est dingue [:dream49]

 

Pas étonnant alors, que sarkozy va se taper un deuxième mandat !

 


Tin mais sérieux, tu te rends compte de ce que tu racontes parfois ?

Message cité 1 fois
Message édité par glrpignolo le 12-02-2012 à 19:04:16
n°8215584
kikou2419
Posté le 12-02-2012 à 19:07:48  profilanswer
 

Moi je croyais que le développement de l'architecture de Fermi avait coûté cher et que elle serait développée et améliorer dans le futur. La si ils rechargent d'archi je vois pas trop le raisonnement. Autant amortir l'architecture en lui faisant donner tout ce qu'elle a


---------------
TU Nvidia Shield Android TV
n°8215585
NoradII
Il y a 17 ans naquit un PC
Posté le 12-02-2012 à 19:07:52  profilanswer
 

Occupe toi de "ta fleur" !

glrpignolo a écrit :

Tin mais sérieux, tu te rends compte de ce que tu racontes parfois ?

[:mareek] Il me veut quoi, l'original ?

Message cité 1 fois
Message édité par NoradII le 12-02-2012 à 19:08:23

---------------
valid.x86.fr/575505 /842925 /902578
n°8215587
fire du 57
The futur is Fusion
Posté le 12-02-2012 à 19:08:38  profilanswer
 

NoradII a écrit :

Tout le monde s'en branle, c'est dingue [:dream49]

 

Pas étonnant alors, que sarkozy va se taper un deuxième mandat !

 


ça change au final pas grand chose pour nous , les ingé' de Nvidia sont peut-être arrivé à une limite technique avec l'archi' Fermi ?


Message édité par fire du 57 le 12-02-2012 à 19:09:10

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8215592
NoradII
Il y a 17 ans naquit un PC
Posté le 12-02-2012 à 19:10:03  profilanswer
 

en une année :??: bonjour l'archi à chier, alors [:mouais]


Message édité par NoradII le 12-02-2012 à 19:10:14

---------------
valid.x86.fr/575505 /842925 /902578
n°8215597
lndic
Posté le 12-02-2012 à 19:12:44  profilanswer
 

NoradII a écrit :

Tout le monde s'en branle, c'est dingue [:dream49]
 
Pas étonnant alors, que sarkozy va se taper un deuxième mandat !


 
A ouais tu planes haut dis moi  :sol:

n°8215598
Activation
21:9 kill Surround Gaming
Posté le 12-02-2012 à 19:12:51  profilanswer
 

moi je comprend surtout pas pourquoi il change d'archi alors qu'elle parait somme toutes très efficace déjà
 
surtout si ils nous pondent un truc genre vSMP pour les cuda core
 
le nombre de SP en soit je m'en tape.... c'est plutôt le pourquoi changer alors que le seul fail actuel de la dites archi affiné au fil de l'eau depuis la 8800gtx c'est que jusqu'à maintenant, c'est tout simplement que nvidia s'en ai toujours battu les couilles de l aspect énergétique
 
mais depuis tegra 3 et avec surement de plus grande ambition au niveau serveur dans les années à venir core ARM (v8) couplé à des cuda core
 
ils ne pouvaient plus occulté ce problème
 
doit y avoir moyen de mieux géré cet aspect énergétique sans pour autant changer en profondeur l'archi non ?
 
vu que la gestion de l'énergie sur les gpu nvidia ça a été proche du 0  :o (avec un bête castrassage de fréquence)
 
après perso du moment que j'ai un gk100 "gtx780" qui tape 80% plus perf en moyenne dans les jeux qu'une gtx580 à conso égale.... le reste osef :D
 


Message édité par Activation le 12-02-2012 à 19:16:47
n°8215627
couillesho​t
Les bouboules et la boubouche
Posté le 12-02-2012 à 19:24:17  profilanswer
 

se poser des questions et y répondre tout seul en un post, voilà une architecture efficace :o


---------------
:o :o :o
n°8215687
maerens
Posté le 12-02-2012 à 19:45:44  profilanswer
 

NoradII a écrit :

-qu'elle consomme moins n'est pas le propos, et tu le sais, arrête de tourner autour du pot .. s'il te plaît.  
 
-dans le FX en plus d'être passé de 6x3 à 4x(2x2) on est passé de 0.875 à 0.57 d'IPC brute par unité ! Et ce avec 1 GHz de plus !!
Je ne te parle même pas des chaînes complexe (MT) ni des optimisés (instruction) ! j'ai même pas osé faire les mesures à fréquence identique tellement ça me débecte !
 
Et maintenant NVIDIA fait pareil :ouch: !!!
 
Mais c'est quoi la prochaine étape, hein ?
3072 unités d'addition
3072 unités de soustraction
3072 unités de division
3072 unités de multiplication
 
Trop cool on a 12.288 SP à 2 GHz tout ça dans un TDP de 200W gravé en 20nm. heu bon on a les perf d'une Matroc parhelia 512, mais bon on est les premier à avoir dépassé les 10.000 unités de calculs sur un bout de silicium !!!
 
Et t'en fais quoi d'ton truc ? hein ? Rien !
Kepler est perf ? je sais !
kepler redéfini "efficacité énergétique" chez NVIDIA ? sans aucun doute !
Ce que je pige pas c'est pourquoi changé d'archi comme de chemise ! marre à la fin [:russ] !


 
comme de chemise, pas trop d'accord c'est depuis 2007 que l'archis a pas bougée... pour innover il faut essayer et nvidia vas essayer


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8215696
Activation
21:9 kill Surround Gaming
Posté le 12-02-2012 à 19:49:27  profilanswer
 

y avait déjà l'approche scalaire avec le g80.... même si bien moins "accouché" que le G92  
qui a été l'occasion de rectifié des choses par rapport au besoin des devs en gpgpu

n°8215697
Profil sup​primé
Posté le 12-02-2012 à 19:49:40  answer
 

NoradII a écrit :

Occupe toi de "ta fleur" !


Mais attends, tu parles tu parles et le Topic ASUS AM3+ il attend depuis combien, 9 mois
Tu ne ferais même pas la fleur d'une naissance, ou d'un gros *bip* nauséabond plutôt :d !?
Un Topic comme celui-là, ça se sort (les doigts) en 3 jours au pire :o ...


Message édité par Profil supprimé le 12-02-2012 à 19:50:38
n°8215732
hifibuff
Posté le 12-02-2012 à 20:33:03  profilanswer
 

lndic a écrit :


 
Temps qu'on a un bon rapport perf/prix/watt et une concurrence entre les deux constructeurs, on s'en tappe un peu tu crois pas ?  :o


 
 :ouch:  :ouch:  :ouch:


---------------
"Every man dies, not every man really lives"
n°8215847
Agent heav​y
Posté le 12-02-2012 à 22:27:41  profilanswer
 

En ce qui concerne le GK110, on parle d'une sortie plus proche d'avril ou de septembre-octobre 2012 ?


---------------
Feed-back
n°8215850
Invite_Sur​prise
Racaille de Shanghaï
Posté le 12-02-2012 à 22:29:24  profilanswer
 

A priori + pour septembre. Mais bon, on devrait en savoir + à la sortie du GK104.

n°8215861
Agent heav​y
Posté le 12-02-2012 à 22:39:13  profilanswer
 

C'est plutôt impressionant si ce tableau donne les vrais scores.
http://we.pcinlife.com/thread-1831876-1-1.html

 

On aurait donc une 660Ti plus puissante que la HD7970.
Je n'imagine pas le GK110 (GTX780?) pour le milieu-fin de l'année.

Message cité 1 fois
Message édité par Agent heavy le 12-02-2012 à 22:40:01

---------------
Feed-back
n°8215863
mightmagic
Posté le 12-02-2012 à 22:39:54  profilanswer
 

Agent heavy a écrit :

En ce qui concerne le GK110, on parle d'une sortie plus proche d'avril ou de septembre-octobre 2012 ?


mai juin d'après les rumeurs (1er semestre 2012 d'après les infos distillées par nvidia)


Message édité par mightmagic le 12-02-2012 à 22:40:03
n°8215865
mightmagic
Posté le 12-02-2012 à 22:41:20  profilanswer
 

Agent heavy a écrit :

C'est plutôt impressionant si ce tableau donne les vrais scores.  
http://we.pcinlife.com/thread-1831876-1-1.html
 
On aurait donc une 660Ti plus puissante que la HD7970.  
Je n'imagine pas le GK110 (GTX780?) pour le milieu-fin de l'année.


http://tof.canardpc.com/view/44fb3643-a6fc-40a8-a228-468068124b78.jpg

n°8215869
Invite_Sur​prise
Racaille de Shanghaï
Posté le 12-02-2012 à 22:47:42  profilanswer
 
n°8215892
sasuke87
Posté le 12-02-2012 à 23:32:29  profilanswer
 

Content de voir que j'avais vu juste, du moins j'avais envisagé recommandé cette stratégie (petit GPU qui consomme peu mais costaux) depuis le début. En faisant du AMD mais en mieux, c'est le meilleur moyen de déstabiliser la stratégie de l'adversaire. Perso moi je ne vois que des avantages pour nvidia (et pour le consommateur)!
 
nvidia revient en force sur les perf/watt
nvidia est paré pour lutter sur les prix tout en continuant à faire du profit (bien entendu si le gk104 coûte moins cher à produire que tahiti)
nvidia peut augmenter ses pdm
...


Message édité par sasuke87 le 12-02-2012 à 23:33:49
n°8215903
sasuke87
Posté le 12-02-2012 à 23:44:33  profilanswer
 

Le nombre de sp a l'air d'être confirmé!

n°8215933
salva52
Posté le 13-02-2012 à 00:13:46  profilanswer
 

Invite_Surprise a écrit :


1 post, inscrit le 12/02/2012
 
Crédible ...
 
[:implosion du tibia]


D'un autre côté, c'est pas le gars qui est connu et qui a 150000 posts qui peut poster des infos sous NDA.

Message cité 1 fois
Message édité par salva52 le 13-02-2012 à 00:13:59
n°8215951
kikou2419
Posté le 13-02-2012 à 00:52:54  profilanswer
 

Effectivement ce n'est pas faux


---------------
TU Nvidia Shield Android TV
n°8215978
Invite_Sur​prise
Racaille de Shanghaï
Posté le 13-02-2012 à 05:26:45  profilanswer
 

salva52 a écrit :


D'un autre côté, c'est pas le gars qui est connu et qui a 150000 posts qui peut poster des infos sous NDA.


Et pourtant, ça c'est souvent vu ...  :lol:
 

laborizer a écrit :

encore un fake de ces enculés de bridés


 
Tu crois que c'est la fête à NeuNeu ce topal ou quoi ? Tu fais un concours de posts pourris avec maerens et fire du 57 ?


Message édité par Invite_Surprise le 13-02-2012 à 05:29:26
n°8215982
NoradII
Il y a 17 ans naquit un PC
Posté le 13-02-2012 à 07:01:45  profilanswer
 

+1


---------------
valid.x86.fr/575505 /842925 /902578
n°8216029
Fouge
Posté le 13-02-2012 à 09:28:48  profilanswer
 

NoradII a écrit :

-Mais tout le monde s'en fout alors ?
Vous étiez tous là, à bougonner que les CPU avait trop de cores que c'était majoritairement inutile dans les applis d'aujourd'hui.

Ya que moi qui pense que les applications grand-public qui tournent sur CPU et les jeux qui tournent sur GPU n'ont pas tout à fait le même niveau de parallélisme ?
Qu'ils passent de 512CC à 1500 ou 3000SP en soit j'men tape, d'autant plus que l'unité n'est pas la même et si c'est en utilisant une méthode de calcul sorti du cerveau de marketeux alors c'est même pas exploitable.
Clairement je regarderai d'autres critères pour apprécier l'efficience de cette archi, et si les résultats sont mauvais je n'hésiterai pas à critiquer le changement d'architecture (si c'est bien lui la cause). Pour l'instant, je préfère patienter avant d'annoncer que le choix d'nVidia est mauvais, ça me parait un peu prématuré de le faire :o
 
Zambezi a clairement était la plus grosse déception d'AMD de ces 10 dernières années, mais c'est complètement HS, on est sur un topic GPU donc les contraintes architecturales sont bien différentes [:razorbak83]  
 

Ca me parait un peu trop optimistes comme scores, non ?
Faire 20 à 30% de mieux que la HD7970 avec moins (moins de transistors 3.2 vs 4, die plus petit 340 vs 365, TDP plus faible 225 vs 250), c'est un peut trop beau pour être vrai.
D'un autre côté tous ces chiffres viennent de différentes rumeurs et sans doute qu'aucun d'entre eux n'est vrai...

n°8216066
mum1989
Posté le 13-02-2012 à 10:42:05  profilanswer
 

Quelques petites infos supplémentaires via des pc portables Samsung à base de Kepler :
Le GK104 Kepler de nVidia se dévoile.
La nVidia Kepler GTX675M confirmée dans un portable Samsung (GTX675m)
 
Edit :  
Les specs du samsung sont encore disponible via googlecache.

Message cité 1 fois
Message édité par mum1989 le 13-02-2012 à 11:08:06
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  71  72  73  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)