Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3001 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  38  39  40  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7028929
Yoyo_5
Posté le 08-07-2009 à 20:21:58  profilanswer
 

Reprise du message précédent :

dragonlore a écrit :

eux grid sans assistance on gagne facilement même au pad.


Je joue au clavier...! :o
Et surtout, je n'ai testé qu'une seule fois... [:spamafoote]
Maintenant, j'aimerai bien voir ça... [:nedurb]


---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le 08-07-2009 à 20:21:58  profilanswer
 

n°7029298
marllt2
Posté le 09-07-2009 à 02:45:42  profilanswer
 

Kirok a écrit :

sinon personne a une idée "concrete" des perfs du GT300 ?


Si, mais ça a été noyé dans le flot de HS.
 

mikestewart a écrit :

Mon petit doigt me dit qu'au moment des premières reviews de la carte DX11 ATI, Nvidia donnera quelque chose pour faire patienter.


Comme ça par exemple ? http://www.nvidia.com/content/arey [...] ready.html
 

Wirmish a écrit :

Ouais, nVidia va sûrement sortir une GTX299, formée de 2 PCB de GTX295 collés ensemble, afin de gâcher le lancement des HD 58x0.

Yoyo_5 a écrit :


Ce ne serait pas si con que ça...! [:obanon]


Facile, il suffit de prendre deux GTX 295 mono-PCB et de les mettre en sandwich. :o  
 
http://img13.imageshack.us/img13/5898/img1287rda.jpg
 
http://www.extrahardware.cz/files/images/clanky/2009/03brezen/gtx390/IMG_1283.jpg
 
http://www.extrahardware.cz/files/images/clanky/2009/03brezen/gtx390/IMG_1284.jpg

Message cité 2 fois
Message édité par marllt2 le 09-07-2009 à 02:49:15
n°7029351
Yoyo_5
Posté le 09-07-2009 à 08:49:24  profilanswer
 


Tout à fait, mais oseraient-ils...? :p


---------------
¤ Paix et félicité ¤

n°7029367
Kirok
Habite à l'intérieur de son pc
Posté le 09-07-2009 à 09:14:05  profilanswer
 

Yoyo_5 a écrit :


Tout à fait, mais oseraient-ils...? :p


 
Il faudra contenir la chauffe aussi... :/

n°7029396
mikestewar​t
Air Roll Spinnin'
Posté le 09-07-2009 à 09:43:38  profilanswer
 

Yoyo_5 a écrit :

Mon petit doigt me dit qu'au moment des premières reviews de la carte DX11 ATI, Nvidia donnera quelque chose pour faire patienter.
Comme ça par exemple ? http://www.nvidia.com/content/arey [...] ready.html

 


Un truc un peu différent histoire de ne pas faire penser à un remake. :D

 
Yoyo_5 a écrit :


Tout à fait, mais oseraient-ils...? :p

 

Si la "HD5870" est plus performante qu'une GTX295, ce qui est peu probable, pourquoi pas. :ange: Toujours la logique "d'avoir la plus grosse". :o

 

J'y crois pas une seconde. :p

 


Message cité 1 fois
Message édité par mikestewart le 09-07-2009 à 09:47:32
n°7029397
Yoyo_5
Posté le 09-07-2009 à 09:47:37  profilanswer
 

mikestewart a écrit :

Si la "HD5870" est plus performante qu'une GTX295, ce qui est peu probable, pourquoi pas. Toujours la logique "d'avoir la plus grosse".


Ce serait bien fendard... [:ddr555]


---------------
¤ Paix et félicité ¤

n°7029398
Kirok
Habite à l'intérieur de son pc
Posté le 09-07-2009 à 09:48:57  profilanswer
 

Yoyo_5 a écrit :


Ce serait bien fendard... [:ddr555]


 
Je voudrai bien voir le prix de la bête. :lol:


Message édité par Kirok le 09-07-2009 à 09:49:13
n°7029409
mikestewar​t
Air Roll Spinnin'
Posté le 09-07-2009 à 09:55:50  profilanswer
 

Yoyo_5 a écrit :


Ce serait bien fendard... [:ddr555]

 

En écrivant, j'avais oublié qu'il va y avoir une 5870X2 aussi, là c'est quasi-sûr que la GTX295 va perdre sa couronne. ;)

 

Mais Nvidia n'aura aucune réponse à proposer à part un truc genre une MARS en édition non-limitée, qui réglerait pas le problème de toute façon...


Message édité par mikestewart le 09-07-2009 à 09:56:11
n°7029410
Yoyo_5
Posté le 09-07-2009 à 09:56:59  profilanswer
 

Bha si ce n'est ni DX10.1, ni DX11, aucun intérêt franchement... :p


---------------
¤ Paix et félicité ¤

n°7029412
mikestewar​t
Air Roll Spinnin'
Posté le 09-07-2009 à 09:59:20  profilanswer
 

C'est pas ce que dit Nvidia.  [:fading]

mood
Publicité
Posté le 09-07-2009 à 09:59:20  profilanswer
 

n°7029415
Yoyo_5
Posté le 09-07-2009 à 10:01:56  profilanswer
 

[:obanon]


---------------
¤ Paix et félicité ¤

n°7029418
TsuM
Posté le 09-07-2009 à 10:04:13  profilanswer
 

Je rajouterais que pour ce qu'on exploite DX 10 le .1 est useless le 11 aura de l'interet que si les dev se mettent vraiment dessus et ça pour le moment ;)
 


---------------
Feed-Back   Président du PiseptO (Paidai i7 Owner)
n°7029425
Yoyo_5
Posté le 09-07-2009 à 10:09:12  profilanswer
 

TsuM a écrit :

Je rajouterais que pour ce qu'on exploite DX 10 le .1 est useless le 11 aura de l'interet que si les dev se mettent vraiment dessus et ça pour le moment ;)


[:cerveau autobot]
 
Si c'était l'inverse, tu crierais sur tous les toits que DX10.1 et DX11 sont indispensables...! :o
 

Spoiler :

En même temps tu n'aurais pas tort, nVidia aurait tout fait pour que les dev exploitent leur CG à fond... :D


Spoiler :

Alors qu'en ce moment ils essaient plutôt de les convaincre de ne pas exploiter à fond celle du concurrent... [:ddr555]

Message cité 1 fois
Message édité par Yoyo_5 le 09-07-2009 à 10:10:13

---------------
¤ Paix et félicité ¤

n°7029439
TsuM
Posté le 09-07-2009 à 10:18:00  profilanswer
 

Non mais faut etre honnete DX 10 est loin d'avoir pris le pas.
 
Vraiment peu de jeu l'exploite vraiment à part Crysis et encore ils sont loin du rendu final du DX 10
 
alors DX 11 j'en parle meme pas car d'une tous les gros blockbusters a venir sont péniblement DX 10, fin bref je me base pas sur le DX pour acheter une carte, pour moi c'est du marketeux plus qu'autre chose ;)


---------------
Feed-Back   Président du PiseptO (Paidai i7 Owner)
n°7029441
Kirok
Habite à l'intérieur de son pc
Posté le 09-07-2009 à 10:18:30  profilanswer
 

Yoyo_5 a écrit :


[:cerveau autobot]
 
Si c'était l'inverse, tu crierais sur tous les toits que DX10.1 et DX11 sont indispensables...! :o
 

Spoiler :

En même temps tu n'aurais pas tort, nVidia aurait tout fait pour que les dev exploitent leur CG à fond... :D


Spoiler :

Alors qu'en ce moment ils essaient plutôt de les convaincre de ne pas exploiter à fond celle du concurrent... [:ddr555]



 
C'est pas nouveau que plus de jeu son opti sur Nvidia que sur ATI, n'empêche que sur les jeu opti ATI les Nvidia ne peuvent strictement rien faire niveau perfs. :O

n°7029443
Yoyo_5
Posté le 09-07-2009 à 10:21:49  profilanswer
 

TsuM a écrit :

Non mais faut etre honnete DX 10 est loin d'avoir pris le pas.
 
Vraiment peu de jeu l'exploite vraiment à part Crysis et encore ils sont loin du rendu final du DX 10
 
alors DX 11 j'en parle meme pas car d'une tous les gros blockbusters a venir sont péniblement DX 10, fin bref je me base pas sur le DX pour acheter une carte, pour moi c'est du marketeux plus qu'autre chose ;)


C'est seulement à cause de la mauvaise image de Vista, autrement ça aurait pas mal changé la donne. DX10.1, on voit bien que ça avoine puisque les CG ATI qui l'utilisent sont d'office plus perfs que les nVidia... ;)
Et les jeux DX11, y en a déjà 2 prévus pour avant la fin de l'année. :jap:


---------------
¤ Paix et félicité ¤

n°7029446
Ramichou
Posté le 09-07-2009 à 10:24:23  profilanswer
 

C'est sur que de faire du matos qui n'est pas DX10.1 ca va pas encourager les développeurs a travailler dessus. Avant d'optimiser un jeu DX10.1 on fiat une étude de marché pour savoir quel pourcentage serait touché. Grâce a Nvidia, pas grand monde :)
 
Sinon, avant de sortir 4 GPU sur une même carte, faudrait peut être maitriser le rendu à 4 GPUs ? Parce chez Nvidia comme chez ATI, 1 et 2 Gpu ca scale pas trop mal, mais 3 et 4 plus vraiment, enfin plus du tout !
 
Je parierait pas que cette carte soit plus perfs qu'une HD5870X2, ou alors ils ont bien travaillé leur techno pour 4 GPUs.
 
Sinon, cette carte parait parfaite pour faire du folding @ home : on pourra mettre 8 GPUS sur une CM à 2 slots et 16 GPUs sur certaines :D

Message cité 1 fois
Message édité par Ramichou le 09-07-2009 à 10:25:37
n°7029448
Kirok
Habite à l'intérieur de son pc
Posté le 09-07-2009 à 10:24:36  profilanswer
 

Yoyo_5 a écrit :


C'est seulement à cause de la mauvaise image de Vista, autrement ça aurait pas mal changé la donne. DX10.1, on voit bien que ça avoine puisque les CG ATI qui l'utilisent sont d'office plus perfs que les nVidia... ;)
Et les jeux DX11, y en a déjà 2 prévus pour avant la fin de l'année. :jap:


 
Oui mais une question les jeux du coup ne seront pu codé en DX9 mais les jeux DX11 pourront quand même être jouable sur XP qui lui ne supporte que DX9 ? :??:

n°7029452
TsuM
Posté le 09-07-2009 à 10:28:49  profilanswer
 

Yoyo_5 a écrit :


C'est seulement à cause de la mauvaise image de Vista, autrement ça aurait pas mal changé la donne. DX10.1, on voit bien que ça avoine puisque les CG ATI qui l'utilisent sont d'office plus perfs que les nVidia... ;)
Et les jeux DX11, y en a déjà 2 prévus pour avant la fin de l'année. :jap:


 
Je trouve ça un peu leg de se dire non on dev pas sur Vista c'est du blabla de codeur en bois. Depuis que je l'ai acheté ( gratuitement merci RDV  :sol: ) j'ai rien à lui reprocher, 7 étant il est vrai un cran au dessus.
 
Mais bon c'est du marketing pur et dur entre DX 10 et DX 10.1 tu gagnes pas 10 fps et pas une finesse texture vraiment surprenante.
 
Pour DX 11 possible que ça apporte mais je te dis il vaudrait mieux qu'il arrete de créer des DX à la pelle ça sert à rien..


---------------
Feed-Back   Président du PiseptO (Paidai i7 Owner)
n°7029453
mikestewar​t
Air Roll Spinnin'
Posté le 09-07-2009 à 10:28:51  profilanswer
 

Ramichou a écrit :

C'est sur que de faire du matos qui n'est pas DX10.1 ca va pas encourager les développeurs a travailler dessus. Avant d'optimiser un jeu DX10.1 on fiat une étude de marché pour savoir quel pourcentage serait touché. Grâce a Nvidia, pas grand monde :)

 

Sinon, avant de sortir 4 GPU sur une même carte, faudrait peut être maitriser le rendu à 4 GPUs ? Parce chez Nvidia comme chez ATI, 1 et 2 Gpu ca scale pas trop mal, mais 3 et 4 plus vraiment, enfin plus du tout !

 

Je parierait pas que cette carte soit plus perfs qu'une HD5870X2, ou alors ils ont bien travaillé leur techno pour 4 GPUs.

 

Sinon, cette carte parait parfaite pour faire du folding @ home : on pourra mettre 8 GPUS sur une CM à 2 slots et 16 GPUs sur certaines :D

 

Mais c'est quasi-impossible, les photos plus haut c'était des fakes (ils étaient où les Nvio2 ?  :o ).

 

Va faire une 4-GT200 avec 2 PCB de GTX295 single-PCB comme ça... :D

 

http://www.guru3d.com/imageview.php?image=18764

 

Ça donnerait :

 

- Longueur : 40 cm (facile avec le ventilo à l'arrière)
- Refroidissement ultra-puissant (qui puisse aérer l'espace entre les 2 PCB avec ses 4 GT200)
- Consommation digne de ses connecteurs d'alim (4 6 pins mini)

 

Etc...


Message édité par mikestewart le 09-07-2009 à 10:30:09
n°7029458
Yoyo_5
Posté le 09-07-2009 à 10:33:17  profilanswer
 

TsuM a écrit :

Je trouve ça un peu leg de se dire non on dev pas sur Vista c'est du blabla de codeur en bois. Depuis que je l'ai acheté ( gratuitement merci RDV  :sol: ) j'ai rien à lui reprocher, 7 étant il est vrai un cran au dessus.

 

Mais bon c'est du marketing pur et dur entre DX 10 et DX 10.1 tu gagnes pas 10 fps et pas une finesse texture vraiment surprenante.

 

Pour DX 11 possible que ça apporte mais je te dis il vaudrait mieux qu'il arrete de créer des DX à la pelle ça sert à rien..


Je ne dirai rien de plus pour ne pas te froisser mon TsuM, mais attends-toi à quelques fustigations d'autres membres... :jap:

Message cité 1 fois
Message édité par Yoyo_5 le 09-07-2009 à 10:34:45

---------------
¤ Paix et félicité ¤

n°7029462
Kirok
Habite à l'intérieur de son pc
Posté le 09-07-2009 à 10:34:34  profilanswer
 

+1 je te dit pas l'alim qui faudra, de plus comme je l'ai dit plus haut il faudrai savoir maitriser la chauffe qui me semble hardu avec 4 GPUs.
 
PS : J'ai une question :/ :
 
"les jeux du coup ne seront pu codé en DX9 mais les jeux DX11 pourront quand même être jouable sur XP qui ne supporte que DX9 ?"
 
EDIT : On a pas a ce plaindre 10.1 et completement gratuit et utile qui fait gagner quelque FPS tout de même, alors pour une techno gratuit je trouve sa très utile même si pas beaucoup de jeu le supporte. :)

Message cité 1 fois
Message édité par Kirok le 09-07-2009 à 10:35:53
n°7029465
Yoyo_5
Posté le 09-07-2009 à 10:36:50  profilanswer
 

Kirok a écrit :

"les jeux du coup ne seront pu codé en DX9 mais les jeux DX11 pourront quand même être jouable sur XP qui ne supporte que DX9 ?"


Bonne question...j'en doute sévèrement. :jap:


---------------
¤ Paix et félicité ¤

n°7029499
TsuM
Posté le 09-07-2009 à 11:02:56  profilanswer
 

Yoyo_5 a écrit :


Je ne dirai rien de plus pour ne pas te froisser mon TsuM, mais attends-toi à quelques fustigations d'autres membres... :jap:


 
Je vois pas pourquoi mais soit j'attends :p


---------------
Feed-Back   Président du PiseptO (Paidai i7 Owner)
n°7029553
dragonlore
Posté le 09-07-2009 à 11:47:18  profilanswer
 

TsuM a écrit :

Non mais faut etre honnete DX 10 est loin d'avoir pris le pas.

 

Vraiment peu de jeu l'exploite vraiment à part Crysis et encore ils sont loin du rendu final du DX 10

 

alors DX 11 j'en parle meme pas car d'une tous les gros blockbusters a venir sont péniblement DX 10, fin bref je me base pas sur le DX pour acheter une carte, pour moi c'est du marketeux plus qu'autre chose ;)


le problème est que l'arrivée de dx10 a correspondu plus ou moins avec l'arrivée en masse de jeux multiplateforme développés principalement pour les consoles et l'abandon des jeux exclus PC un tant soit peu ambitieux techniquement.
Or les consoles étant basé sur dx9, dx10 n'a guère été utilisé. De plus les geometry shader, une des principales nouveautés de dx10, n'ont semble-t-il pas beaucoup été exploité sans parler des perfs assez moindre en mode dx10 pour les premiers jeux sortit vu la faible différence entre dx9 et dx10 sur les effets utilisés.

 

un mauvais concours de circonstance de plus relayé par la mauvaise image de vista et donc moins de joueur potentiel.

 

Je suis persuadé que si dx10 avait été aussi porté sur xp, dx10 aurait mieux pris. ça n'aurait surement pas été l'explosion je pense mais ça aurait surement été plus conséquent.

 
Kirok a écrit :

+1 je te dit pas l'alim qui faudra, de plus comme je l'ai dit plus haut il faudrai savoir maitriser la chauffe qui me semble hardu avec 4 GPUs.

 

PS : J'ai une question :/ :

 

"les jeux du coup ne seront pu codé en DX9 mais les jeux DX11 pourront quand même être jouable sur XP qui ne supporte que DX9 ?"

 



normalement oui .

Message cité 1 fois
Message édité par dragonlore le 09-07-2009 à 11:53:48
n°7029596
White Sh4d​ow
GHz-O-Meter !
Posté le 09-07-2009 à 12:12:36  profilanswer
 


 
Je sais pas pour vous, mais ca m'a tout l'air d'être du rendu 3D... de toute facon, aucune chose qui ne s'approcherai même de cette apparence ne vera jamais le jour, il y aurai bien trop de problèmes


Message édité par White Sh4dow le 09-07-2009 à 12:13:00
n°7029648
Profil sup​primé
Posté le 09-07-2009 à 12:55:32  answer
 

& c'est reparti sur le débat de l'utilité (ou pas) de Dx10.1
De XP vs Vista/7
La GT300 sera Dx11; qui lui-même sera porté sous Vista
Alors où est le problème :o!???
 

Yoyo_5 a écrit :

Je ne dirai rien de plus pour ne pas te froisser mon TsuM, mais attends-toi à quelques fustigations d'autres membres... :jap:


Par exemple [:obanon]

TsuM a écrit :

Je vois pas pourquoi mais soit j'attends :p


Voilà [:syl_83]


Message édité par Profil supprimé le 09-07-2009 à 13:00:43
n°7029655
bjone
Insert booze to continue
Posté le 09-07-2009 à 13:00:36  profilanswer
 

Yoyo_5 a écrit :


Bonne question...j'en doute sévèrement. :jap:


 
Non, D3D11 exposant des capacités améliorées en multi-threading, il a certainement encore plus besoin que D3D10 du modèle de pilote video de Vista et 7 (qui a été amélioré).


Message édité par bjone le 09-07-2009 à 13:01:34
n°7029663
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 09-07-2009 à 13:05:54  profilanswer
 

Asus va peut-être lancer une carte à base de quatre GTX 285 sous le nom de GeForce GTX299 ROG JUPITER Limited Edition.
Elle fera 3 slots d'épais et coûtera la bagatelle de 2499€... et ira rejoindre la Voodoo 6000 dans un musée.

n°7029666
Profil sup​primé
Posté le 09-07-2009 à 13:08:12  answer
 

Ce sera la carte la plus rapide de l'univers Terre alors [:gros bidon]

n°7029706
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 09-07-2009 à 13:33:26  profilanswer
 

TsuM a écrit :


 
Je vois pas pourquoi mais soit j'attends :p


 [:paradise974] sortez vos bonnets et vos écharpes...demain il neige :o !
 

Spoiler :

TsuM est sur "Hardware" [:la tache]


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°7029713
TsuM
Posté le 09-07-2009 à 13:41:48  profilanswer
 

Je lis bcp dessus mais j'évite de poster dès qu'on sort du cadre trop sérieux on se fait TT direct :)
 
Mais oui j'attends des infos sur le GT 300 des trucs concrets :p


---------------
Feed-Back   Président du PiseptO (Paidai i7 Owner)
n°7029714
R 34
Posté le 09-07-2009 à 13:43:04  profilanswer
 

Citation :

Sinon, cette carte parait parfaite pour faire du folding @ home : on pourra mettre 8 GPUS sur une CM à 2 slots et 16 GPUs sur certaines :D


 
+1  :love:  
 
Pis tant qu'a faire pour le refroidissement, pourquoi se faire cher avec de l'aircooling.  :D  
Si c'est pour avoir des gpus à 120° en full c'est pas la peine, il n'ont qu'a la sortir sans ventirad de référence et laisser les constructeurs de waterblocks faire leur boulot. :lol:
Pareil pour les drivers, juste faire des optis pour les benchs et le support pour les projets de calculs distribués puisque de toutes manières qui voudrait jouer avec ça ?  [:cerveau heink]  
 
150w en idle et 700w en pleine charge juste pour la carte.  :pt1cable:  
 
Honnêtement pour le marché jeu, aucun débouché, par contre pour les pro et le GPGPU, il y a/aura certainement des clients.
Faudra juste une alim avec 4 prises PCI-E 8 pins alignant 1Kw sur le 12V selon les préconisations de nvidia.  :pt1cable:


---------------
Feed-Back Achat-Ventes
n°7029716
White Sh4d​ow
GHz-O-Meter !
Posté le 09-07-2009 à 13:44:45  profilanswer
 

R 34 a écrit :

Citation :

Sinon, cette carte parait parfaite pour faire du folding @ home : on pourra mettre 8 GPUS sur une CM à 2 slots et 16 GPUs sur certaines :D


 
+1  :love:  
 
Pis tant qu'a faire pour le refroidissement, pourquoi se faire cher avec de l'aircooling.  :D  
Si c'est pour avoir des gpus à 120° en idle c'est pas la peine, il n'ont qu'a la sortir sans ventirad de référence et laisser les constructeurs de waterblocks faire leur boulot. :lol:
Pareil pour les drivers, juste faire des optis pour les benchs et le support pour les projets de calculs distribués puisque de toutes manières qui voudrait jouer avec ça ?  [:cerveau heink]  
 
150w en idle et 700w en pleine charge juste pour la carte.  :pt1cable:  
 
Honnêtement pour le marché jeu, aucun débouché, par contre pour les pro et le GPGPU, il y a/aura certainement des clients.
Faudra juste une alim avec 4 prises PCI-E 8 pins alignant 1Kw sur le 12V selon les préconisations de nvidia.  :pt1cable:


 
 :whistle:


Message édité par White Sh4dow le 09-07-2009 à 13:45:03
n°7029724
Profil sup​primé
Posté le 09-07-2009 à 13:52:06  answer
 

Hey, il existe une école pour apprendre l'humour einh [:rogr]


Message édité par Profil supprimé le 09-07-2009 à 13:56:48
n°7029726
White Sh4d​ow
GHz-O-Meter !
Posté le 09-07-2009 à 13:52:45  profilanswer
 

Je ne suis pas français ! Non mais... :o

n°7029732
Profil sup​primé
Posté le 09-07-2009 à 13:56:52  answer
 

L'humour, c'est pas uniquement territorial, einh [:rogr]  
Valeur d'exemple tout au +, on ne raconte nawak qu'en faisant de l'humour selon moi
Le sérieux ici, ne me fait pas rire ^^


Message édité par Profil supprimé le 09-07-2009 à 13:57:43
n°7029738
White Sh4d​ow
GHz-O-Meter !
Posté le 09-07-2009 à 14:01:11  profilanswer
 

Ce n'était pas un reproche, je ne faisais qu'accentuer et enfoncer un peu le clou concernant les températures d'une hypothétique 295GX2 :sweat:

n°7029759
R 34
Posté le 09-07-2009 à 14:12:09  profilanswer
 

Waaaaf le coup de l'idle.  [:albertos]  
 
Ce serait presque pas faux en plus.  [:xla]  
 
Ceci dit j'espère quand même un peu qu'ils feront une carte aussi stupide que ça rien que pour folding@home. :D
 
[:uncle ben'z]


---------------
Feed-Back Achat-Ventes
n°7029765
mikestewar​t
Air Roll Spinnin'
Posté le 09-07-2009 à 14:15:09  profilanswer
 

De toute façon, c'est ridicule, tu peux même pas faire de SLI avec. :p (octo en l'occurence)

 

(enfin Silverstone a quand même présenté un boitier avec 4 4870X2 dedans, ils étaient très forts eux sur le coup...  :pfff: )


Message édité par mikestewart le 09-07-2009 à 14:15:47
n°7029776
Gigathlon
Quad-neurones natif
Posté le 09-07-2009 à 14:23:11  profilanswer
 

En GPGPU y'a pas de SLI qui tienne donc rien n'empêche d'utiliser 4 cartes bi-GPU.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  38  39  40  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)