Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2620 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  128  129  130  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8244576
Kenshin011
Posté le 14-03-2012 à 14:33:09  profilanswer
 

Reprise du message précédent :

Fouge a écrit :

Sachant que ce +15% c'est du made in nVidia et donc plutôt optimiste. Mais on en attendait pas plus du GK104, si ?


 
Sa serait décevant pour le flagship, mais pour du GK104, c'est plutôt bien. Supérieur à ce à quoi on avait été habitué par le passé


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
mood
Publicité
Posté le 14-03-2012 à 14:33:09  profilanswer
 

n°8244580
seu
M 41
Posté le 14-03-2012 à 14:40:02  profilanswer
 

Kenshin011 a écrit :


 
Sa serait décevant pour le flagship, mais pour du GK104, c'est plutôt bien. Supérieur à ce à quoi on avait été habitué par le passé


Sur les anciennes générations on a souvent été habitués à du +50% à chaque nouvelle Gen. La ça serait dans les 35/45% , c'est déjà pas mal non?

n°8244588
Forza971sb​h
Suppresseur depuis 1939.
Posté le 14-03-2012 à 14:45:39  profilanswer
 

seu a écrit :


Sur les anciennes générations on a souvent été habitués à du +50% à chaque nouvelle Gen. La ça serait dans les 35/45% , c'est déjà pas mal non?

 

Ok pour les perfs, mais je me demande quand même si 2go c'est une solution d'avenir... :??:


---------------
"La M60 a un rate of fun supérieur" © foestus MMXI.
n°8244600
Le bon viv​ant
Posté le 14-03-2012 à 14:56:00  profilanswer
 

Forza971sbh a écrit :


 
Ok pour les perfs, mais je me demande quand même si 2go c'est une solution d'avenir... :??:


 
Jusqu'en 2014 ce sera largement suffisant 2go, quand les consoles next gen sortiront (PS4 & Xbox), là je pense que ce sera léger !
Après ce n'est que mon avis  :jap:

n°8244607
seu
M 41
Posté le 14-03-2012 à 15:03:00  profilanswer
 

Forza971sbh a écrit :


 
Ok pour les perfs, mais je me demande quand même si 2go c'est une solution d'avenir... :??:


Etant donné le bus mémoire, ils peuvent très bien sortir des versions 4 go sans trop changer le PCB  :jap:   Et ça serait sans doutes adaptés aux gens comme toi qui font du Multiscreen (2go ça deviens limite :/ )

n°8244611
Rayaki
Posté le 14-03-2012 à 15:07:51  profilanswer
 

Alis_70 a écrit :

moi ce que j'attends sourtout, c'est de savoir quand sort le GK110 :o
 
c'est vraiment pourri la com' dans l'informatique chez nvidia et ATI


 
fixed  [:negro]


---------------
Clan Torysss.
n°8244612
serioussam
Plouf
Posté le 14-03-2012 à 15:08:20  profilanswer
 

Le bon vivant a écrit :


 
Jusqu'en 2014 ce sera largement suffisant 2go, quand les consoles next gen sortiront (PS4 & Xbox), là je pense que ce sera léger !
Après ce n'est que mon avis  :jap:


Pour du mono ecran probablement, pour du multi ecran 2go n'est deja plus suffisant.

n°8244614
Charles K
Posté le 14-03-2012 à 15:12:35  profilanswer
 

on en parlait déjà l'autre jour, eh bien j'ai pas trouvé de test ou ça manque de ram pour des cartes de 1.5go et 2 go en 3x1920x1080, donc si vous en avez vu ce serait bien de les linker avec vos affirmations  :o

Message cité 1 fois
Message édité par Charles K le 14-03-2012 à 15:14:49
n°8244618
mightmagic
Posté le 14-03-2012 à 15:15:51  profilanswer
 

Alis_70 a écrit :

moi ce que j'attends sourtout, c'est de savoir quand sort le GK110 :o

 

c'est vraiment pourri la com' dans l'informatique chez nvidia


Ne pas faire de comm avant d'annoncer un produit c'est pourri?

 

Bizarre car tout le monde fait la même chose. Tu ne trouveras pas une seule entreprise sauf rares  cas même si ça tend à de venir un peu plus répandu avec internet, qui lâche des infos avant une annonce.

 

Si nvidia lachait des infos avant, les gens crieraient au paper launch  pour faire patienter. Déjà que parfois on y a droit quand ils font l'annonce globale mais là ce serait toujours le cas.

 

Ce n'est pas la faute d'nvidia si pas mal de gens lâchent des rumeurs sur le net.

 

La faute vient plutôt de nous qui ne pouvons pas attendre une annonce officielle que d'nvidia.

Message cité 1 fois
Message édité par mightmagic le 14-03-2012 à 15:16:28
n°8244624
Fouge
Posté le 14-03-2012 à 15:21:42  profilanswer
 

serioussam a écrit :

Pour du mono ecran probablement, pour du multi ecran 2go n'est deja plus suffisant.

Un poil exagéré, non ? Les jeux consommant strictement plus de 2Go en multi-screen doivent se compter sur les doigts d'1 seule main, et sur 1 seul doigt si l'on met de côté l'utilisation des mods.

mood
Publicité
Posté le 14-03-2012 à 15:21:42  profilanswer
 

n°8244627
Kenshin011
Posté le 14-03-2012 à 15:23:12  profilanswer
 

seu a écrit :


Sur les anciennes générations on a souvent été habitués à du +50% à chaque nouvelle Gen. La ça serait dans les 35/45% , c'est déjà pas mal non?


 
+ 50% entre quoi et quoi ? On aura probablement bien plus entre le GF110 et le GK110.
Moi je parlais de comparer la puce la plus performante de la gen n (pour pas dire HDG  :D ) avec la puce juste en dessous de la plus performante de la gen n+1 (pour pas dire MDG  :D )


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
n°8244629
Rayaki
Posté le 14-03-2012 à 15:23:15  profilanswer
 

Charles K a écrit :

on en parlait déjà l'autre jour, eh bien j'ai pas trouvé de test ou ça manque de ram pour des cartes de 1.5go et 2 go en 3x1920x1080, donc si vous en avez vu ce serait bien de les linker avec vos affirmations  :o


 
AOC en mono écran tout à fond, déjà tu es limite en sortie raids pour 2GO et la balade dans le kithai prend méchamment des ressources...
maintenant... je n'ai pas d'autres exemples en tete, je suis full orienté mmo :o
 

Spoiler :

d'ailleurs faudrait que je vois avec les tous derniers


Message édité par Rayaki le 14-03-2012 à 15:28:42

---------------
Clan Torysss.
n°8244646
hifibuff
Posté le 14-03-2012 à 15:42:22  profilanswer
 

BF3 à ma réso de 2560x1600 en ultra avec filtres dépasse mes 1.5go et je pense que 2go, ce sera limite!  
 
On a des cartes haut de gamme, autant nous mettre la quantité de mémoire qui va avec; c'est pas fait pour jouer en 1680x1050 quand on claque 500-550 par carte!


---------------
"Every man dies, not every man really lives"
n°8244654
poiuytr
\o/
Posté le 14-03-2012 à 15:49:12  profilanswer
 


Pas de problème de surchauffe chez Anand, l'Acer de PCPer devait être foireux. :D

n°8244655
fire du 57
The futur is Fusion
Posté le 14-03-2012 à 15:49:48  profilanswer
 

Le pire c'est les cas de Cfx et de SLI , sous des titres comme BF3 la mémoire doit facilement monté à plus de 2Go si l'on met un maximum de filtre ;)

 

Et y a des filtres comme le SSAA ou le MSAA qui pompe vraiment beaucoup dans la mêmoire , alors en plus si tu rajoute la haute résolution les 2Go peuvent limiter ;)

 

Bien sur la situation ne se verra pas en test ( et dans très peu de jeux ), car bien souvent fait dans le solo mais dans une partie sur Caspian ou Karg à 64joueurs je peux vous dire que la VRAM est très rapidement rempli !

 

Tout en minimum en réso 800*600 BF3 utilise déjà 600Mo sur mon Laptop alors j'imagine pas en haute résolution voir en triple-screen avec le mode ultra activé...

 

Donc je pense que les 2Go du GK104 pourra limiter dans certain cas ( 3D , haute résolution , SLI , les gens qui aime les filtres, certains jeux ect... )  ! ;)

Message cité 1 fois
Message édité par fire du 57 le 14-03-2012 à 15:51:09

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8244666
salva52
Posté le 14-03-2012 à 16:06:51  profilanswer
 

Avec 2go, obliger de changer de GPU dans 2 ans, pareil que pour ceux qui ont acheter une cg avec 1go il y a 2 ans. (i'm in)


Message édité par salva52 le 14-03-2012 à 16:07:23
n°8244667
mightmagic
Posté le 14-03-2012 à 16:06:54  profilanswer
 

hifibuff a écrit :

BF3 à ma réso de 2560x1600 en ultra avec filtres dépasse mes 1.5go et je pense que 2go, ce sera limite!  
 
On a des cartes haut de gamme, autant nous mettre la quantité de mémoire qui va avec; c'est pas fait pour jouer en 1680x1050 quand on claque 500-550 par carte!


 :heink:

n°8244674
hifibuff
Posté le 14-03-2012 à 16:17:43  profilanswer
 

Quoi, ça ne te parait pas logique?
Bien sûr je pousse le bouchon un peu, mais c'est clair que c'est pas logique de sortir une carte à ce prix avec "si peu" de mémoire pour les jeux d'aujourd'hui en haute réso / 3d / multi screen, alors pour demain...


---------------
"Every man dies, not every man really lives"
n°8244676
kaiser52
Posté le 14-03-2012 à 16:18:44  profilanswer
 

hifibuff a écrit :

Quoi, ça ne te parait pas logique?
Bien sûr je pousse le bouchon un peu, mais c'est clair que c'est pas logique de sortir une carte à ce prix avec "si peu" de mémoire pour les jeux d'aujourd'hui en haute réso / 3d / multi screen, alors pour demain...


 
surement car ces techno ne sont pas assez mûre pour représenter l'avenir ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°8244688
mightmagic
Posté le 14-03-2012 à 16:25:52  profilanswer
 

hifibuff a écrit :

Quoi, ça ne te parait pas logique?
Bien sûr je pousse le bouchon un peu, mais c'est clair que c'est pas logique de sortir une carte à ce prix avec "si peu" de mémoire pour les jeux d'aujourd'hui en haute réso / 3d / multi screen, alors pour demain...


Je ne suis pas contre ce que tu dis. J'aimerais aussi avoir plus de mémoire pour ne pas être bloqué un jour par un nouveau jeu, surtout qu'en ce moment le prix de la mémoire n'est pas des plus chères.

 

D'ailleurs il n'y a pas que la 3d/ les hautes résos et le multi screen qui consomme de la mémoire. Si tous les jeux dit "HD" avaient réellement que des textures HD (souvent tu as la moitié des textures qui sont SD et moches dès qu'on s'approche) et en plus de bonnes qualité càd tout sauf le pack HD officiel de skyrim qui n'est qu'une augmentation de résolution de texture non pensée pour cela, un jeu comme TES ou bien d'autres auraient besoin de plusieurs Go de mémoire dans la carte graphique.

 

Je répondais qu'à la partie soulignée.

 

Tu peux acheter une carte à 500 euros pour jouer qu'en 1680*1050 car tout dépend ce dont tu désires.


Message édité par mightmagic le 14-03-2012 à 16:28:22
n°8244690
gta007
Posté le 14-03-2012 à 16:27:55  profilanswer
 

poiuytr a écrit :


Pas de problème de surchauffe chez Anand, l'Acer de PCPer devait être foireux. :D

 

Et c'est la version LE GT640M hâte de voir ce que donnera la version 2GO TDP 25w qui sera dans l'ultrabook gigabyte qui me semble le plus complet à l'heure actuelle.

 

Pour la version desktop je compte conserver ma HD6950 sauf gros écart de perfs mais c'est mal parti...


---------------
Mon Feed-back
n°8244703
thepilot64
Posté le 14-03-2012 à 16:40:42  profilanswer
 
n°8244712
Nomain
Carpe diem
Posté le 14-03-2012 à 16:48:24  profilanswer
 


Cette photo a déjà été postée précédemment et certains considèrent qu'il s'agirait d'un fake (unité de vitesse de la GDR, boost de seulement 50MHz de plus...).

  

Concernant les prises d'alimentation en "tour", j'ai vraiment peur que la prise enfoncée soit difficile d'accès. Je ne vois même pas comment on pourrait déclipser le câble PCIe pour l'extraire. A mon avis, elle ne dispose tout simplement pas de "clip" pour sécuriser le câble.  :pfff:
http://pulpomain.free.fr/680.jpg

Message cité 3 fois
Message édité par Nomain le 14-03-2012 à 16:52:45
n°8244715
mightmagic
Posté le 14-03-2012 à 16:53:48  profilanswer
 

Nomain a écrit :


Cette photo a déjà été postée précédemment et certains considèrent qu'il s'agirait d'un fake (unité de vitesse de la GDR, boost de seulement 50MHz de plus...).
 
 
 
Concernant les prises d'alimentation en "tour", j'ai vraiment peur que la prise enfoncée soit difficile d'accès. Je ne vois même pas comment on pourrait déclipser le câble PCIe pour l'extraire. A mon avis, elle ne dispose tout simplement pas de "clip" pour sécuriser le câble.  :pfff:  
http://pulpomain.free.fr/680.jpg


Ce ne serait pas la première fois que nvidia déconne dans la conception du boitier de la carte graphique.
 
Ils avaient déconné avec la gtx280 pas sur la même chose mais ils ont corrigé après sur les autres cartes.

n°8244720
Invite_Sur​prise
Racaille de Shanghaï
Posté le 14-03-2012 à 16:55:57  profilanswer
 

Pour les curieux, y'a un dossier Kepler chez EXPreview ...
 
http://www.expreview.com/18768.html
 

Citation :

but based on feedback from manufacturers GTX 680 easily exceed the HD 7 970 is no problem


Message édité par Invite_Surprise le 14-03-2012 à 17:00:09
n°8244722
badping
Posté le 14-03-2012 à 16:57:03  profilanswer
 

La 680 viendrai remplacer la 580, et ya t'il des infos ( des rumeurs koua...) pour la remplaçante de la 570 ?  ( désolé je débarque )

Message cité 1 fois
Message édité par badping le 14-03-2012 à 16:58:08
n°8244726
fire du 57
The futur is Fusion
Posté le 14-03-2012 à 16:59:30  profilanswer
 

badping a écrit :

La 680 viendrai remplacer la 580, et ya t'il des infos ( des rumeurs koua...) pour la remplaçante de la 570 ?  ( désolé je débarque )


 
Bin normalement GTX670 ( peut-être GTX670Ti ) ! ;)  
 


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8244733
okinawa02
Posté le 14-03-2012 à 17:08:14  profilanswer
 

Oui la remplaçante de la 570 ?
car là ok la 680 va bientôt sortir à 500-600€ sans doute...
mais quand est-il du reste ? c'est bien beau, mais c'est long d'attendre...

n°8244734
Space
Profil: Maux des rateurs
Posté le 14-03-2012 à 17:08:51  profilanswer
 

Nomain a écrit :


Cette photo a déjà été postée précédemment et certains considèrent qu'il s'agirait d'un fake (unité de vitesse de la GDR, boost de seulement 50MHz de plus...).
 
 
 
Concernant les prises d'alimentation en "tour", j'ai vraiment peur que la prise enfoncée soit difficile d'accès. Je ne vois même pas comment on pourrait déclipser le câble PCIe pour l'extraire. A mon avis, elle ne dispose tout simplement pas de "clip" pour sécuriser le câble.  :pfff:  
http://pulpomain.free.fr/680.jpg

t'es tombé dans le panneau , bonhomme [:prodigy]


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°8244739
thepilot64
Posté le 14-03-2012 à 17:13:11  profilanswer
 

Ca leak encore plus la ... :
http://www.nokytech.net/la_gtx680_ [...] 569-a.html
 
Et ça parait soit disant officiel !

n°8244745
Nomain
Carpe diem
Posté le 14-03-2012 à 17:21:19  profilanswer
 

Space a écrit :

t'es tombé dans le panneau , bonhomme [:prodigy]


 
Le panneau ?  
J'avais lu que ces prises en tour servaient aux exemplaires de tests.
Mais depuis, cette photo est réapparu sur divers sites plutôt sérieux. J'avais donc pensé que les prises en tour étaient conservées sur le modèle public.
 
Ta remarque me laisse penser que non.

n°8244747
NoradII
Il y a 17 ans naquit un PC
Posté le 14-03-2012 à 17:23:41  profilanswer
 

Invite_Surprise a écrit :

Eclaire-nous de ton savoir ! A moins que tu ne puisses pas en parler pour cause de raison professionnelle ... [:power600]

:??:
Ben Cf. la news d'arrêt de production, qui c'est soldé par une reprise d'une partie des chaines 4 semaines et demi après et dont ATI en fait parties.

 

Tu veux que j'en dise, plus ?
La révision actuelle (A3) de Kepler va devoir subir une modification en cours de route, peut-être pas être identifié comme A4, mais du travail à dû être rajouté avant la disponibilité massive du produit.

 

Tu en veux encore ?
NVIDIA ne parviens pas à faire cohabiter ses ROPs et son BUS 512 bits, ils songent à le retarder sortant ainsi complètement des possibilités, de la gamme actuelle GTX600. On aurait donc à nouveau 384 bits au maximum. La faute à qui ? à la désynchronisation du ROP Domain, dans les fréquences. Si tu en veux encore, MP tes questions je tâcherai d'y répondre .. va savoir tu n'as peut être pas finis de rire ;)

Message cité 1 fois
Message édité par NoradII le 14-03-2012 à 17:24:31

---------------
valid.x86.fr/575505 /842925 /902578
n°8244750
glrpignolo
Posté le 14-03-2012 à 17:27:09  profilanswer
 

thepilot64 a écrit :

Ca leak encore plus la ... :
http://www.nokytech.net/la_gtx680_ [...] 569-a.html

 

Et ça parait soit disant officiel !

 


Euh ... depuis qd Sapphire distribue du nvidia ?!

 

Et ca me semble bizarre ce turbo boost de seulement 50mhz.
Quel interet ?

 

Ca fait pas très sérieux comme news.


Message édité par glrpignolo le 14-03-2012 à 17:27:57
n°8244751
hifibuff
Posté le 14-03-2012 à 17:28:44  profilanswer
 

Norad, on sait pourquoi le bus 512 bits pose problème sur Kepler concrètement? Quel est le rapport avec les ROPs?  
Merci d'avance d'éclairer ma lanterne de geek qui ne connait rien aux process de fabrication ;)


---------------
"Every man dies, not every man really lives"
n°8244754
NoradII
Il y a 17 ans naquit un PC
Posté le 14-03-2012 à 17:30:56  profilanswer
 

[:bakk18] j'attends sa réponse d'abord.


---------------
valid.x86.fr/575505 /842925 /902578
n°8244759
Chrismatiq​ue
Posté le 14-03-2012 à 17:36:20  profilanswer
 

thepilot64 a écrit :

Ca leak encore plus la ... :
http://www.nokytech.net/la_gtx680_ [...] 569-a.html
 
Et ça parait soit disant officiel !


 
 
Dans cette article ils disent: "A commencer par deux photos de la GTX680, avec notamment l'arrière de son PCB, il s'agit d'une carte de référence produite pour le compte de Sapphire (on peut voir le nom de la marque sur la boite en haut à gauche)."
 
Mais Sapphire n'a jamais fait de carte Nvidia... Vont ils s'y mettre maintenant?
 
Edit: je viens de voir que quelqu'un d'autre c 'est posé la meme question que moi...

Message cité 1 fois
Message édité par Chrismatique le 14-03-2012 à 17:37:27
n°8244761
franck7511
Posté le 14-03-2012 à 17:38:49  profilanswer
 

Hum... C'est marrant, y a une photo de CM Sapphire, et on croit que c'est la CG :)

 

Regardez du côté des Sapphire PURE...

 

Et en plus, la CG tiendrait pas dans cet emballage. Le kit presse est plus épais à vue d'oeil...


Message édité par franck7511 le 14-03-2012 à 17:47:11
n°8244770
kyky
Je suis newbie et alors,
Posté le 14-03-2012 à 17:51:04  profilanswer
 

mightmagic a écrit :


Ce ne serait pas la première fois que nvidia déconne dans la conception du boitier de la carte graphique.
 
Ils avaient déconné avec la gtx280 pas sur la même chose mais ils ont corrigé après sur les autres cartes.


Si je me trompe pas l'ergot de la prise d'alimentation 6 pins se trouve bien sur les deux prises sauf que celui du haut est a l'envers par rapport a celui de bas.  


---------------
le progrès ne vaut que s'il est partage par tous.Ce que je vends
n°8244773
Alis_70
Posté le 14-03-2012 à 17:52:10  profilanswer
 

fire du 57 a écrit :


 
Tu peux attendre encore quelques mois...


 
ben ouais mais entre 2/3 mois et 6/7 mois, c'est pas vraiment la même chose ...
 

mightmagic a écrit :


Ne pas faire de comm avant d'annoncer un produit c'est pourri?
 
Bizarre car tout le monde fait la même chose. Tu ne trouveras pas une seule entreprise sauf rares  cas même si ça tend à de venir un peu plus répandu avec internet, qui lâche des infos avant une annonce.
 
Si nvidia lachait des infos avant, les gens crieraient au paper launch  pour faire patienter. Déjà que parfois on y a droit quand ils font l'annonce globale mais là ce serait toujours le cas.
 
Ce n'est pas la faute d'nvidia si pas mal de gens lâchent des rumeurs sur le net.
 
La faute vient plutôt de nous qui ne pouvons pas attendre une annonce officielle que d'nvidia.


 
qu'ils ne lâchent pas d'infos sur les specs ou les perfs, pas de problème, mais ça me parait la moindre des choses de définir officiellement une date (ou tout du moins un mois) de commercialisation connue de tous à l'avance (même si c'est retardé au final pour problème technique)
tu crois qu'on fait comment dans l'automobile ?


Message édité par Alis_70 le 14-03-2012 à 18:04:37
n°8244776
Activation
21:9 kill Surround Gaming
Posté le 14-03-2012 à 17:57:15  profilanswer
 

Nomain a écrit :


Cette photo a déjà été postée précédemment et certains considèrent qu'il s'agirait d'un fake (unité de vitesse de la GDR, boost de seulement 50MHz de plus...).
 
 
 
Concernant les prises d'alimentation en "tour", j'ai vraiment peur que la prise enfoncée soit difficile d'accès. Je ne vois même pas comment on pourrait déclipser le câble PCIe pour l'extraire. A mon avis, elle ne dispose tout simplement pas de "clip" pour sécuriser le câble.  :pfff:  
http://pulpomain.free.fr/680.jpg


 
 
les 2 clip sont l un en face de l autre au centre de ce double connecteur
 
donc genre t es obligé d'enlever le premier cable pour pouvoir déclipser le second  sinon tu ne peut accéder à la "languette" de celui ci (plus ou moins caché par la languette du premier)

Message cité 1 fois
Message édité par Activation le 14-03-2012 à 17:59:58
n°8244788
Martin_G
Sacrament Of Wilderness
Posté le 14-03-2012 à 18:14:25  profilanswer
 

Chrismatique a écrit :


 
 
Dans cette article ils disent: "A commencer par deux photos de la GTX680, avec notamment l'arrière de son PCB, il s'agit d'une carte de référence produite pour le compte de Sapphire (on peut voir le nom de la marque sur la boite en haut à gauche)."
 
Mais Sapphire n'a jamais fait de carte Nvidia... Vont ils s'y mettre maintenant?
 
Edit: je viens de voir que quelqu'un d'autre c 'est posé la meme question que moi...


 
Sapphire non, mais si je ne dis pas de bêtises (je ne suis pas certain du tout), Zotac est une filiale de sapphire non ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  128  129  130  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)