Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Aide | Shop Recherche
1479 connectés 

 


 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°7991657
Blackwidow​ww
Posté le 29-07-2011 à 11:25:11  profilanswer
 

Reprise du message précédent :
Si la 670 est du niveau de la 590 (soit un sli de 570), la 680 devrait être proche d'un sli de 580, j'y crois moyen quand même...

Message cité 1 fois
Message édité par Blackwidowww le 29-07-2011 à 11:27:19
mood
Publicité
Posté le 29-07-2011 à 11:25:11  profilanswer
 

n°7991664
0b1
There's good in him
Posté le 29-07-2011 à 11:31:30  profilanswer
 

Blackwidowww a écrit :

Si la 670 est du niveau de la 590 (soit un sli de 570), la 680 devrait être proche d'un sli de 580, j'y crois moyen quand même...


Hmm ça ferait quoi, du 1.7x?
nVIDIA parle de combien dans ses slides déjà? Même si cela de reflète certainement pas la réalité en jeu, ça peut donner une petite idée malgré tout.

n°7991792
Zack38
Posté le 29-07-2011 à 13:22:43  profilanswer
 

0b1 a écrit :


Hmm ça ferait quoi, du 1.7x?
nVIDIA parle de combien dans ses slides déjà? Même si cela de reflète certainement pas la réalité en jeu, ça peut donner une petite idée malgré tout.

 

De la GTX285 à la GTX480, on gagne déjà près de 50% de performances.

 

Je pense que c'est déjà pas mal.

 

Un gain de 70%, ce serait exceptionnel.

Message cité 1 fois
Message édité par Zack38 le 29-07-2011 à 13:24:04
n°7991837
0b1
There's good in him
Posté le 29-07-2011 à 13:52:30  profilanswer
 

Zack38 a écrit :


 
De la GTX285 à la GTX480, on gagne déjà près de 50% de performances.
 
Je pense que c'est déjà pas mal.
 
Un gain de 70%, ce serait exceptionnel.


Au final, entre GTX285 et GTX580 (qui aurait du être la GTX480) on doit pas être loin des 70% :whistle:

n°7991841
Zack38
Posté le 29-07-2011 à 13:56:27  profilanswer
 

0b1 a écrit :


Au final, entre GTX285 et GTX580 (qui aurait du être la GTX480) on doit pas être loin des 70% :whistle:


 
Le GF110, c'est la seconde génération de GF100.
 
Donc, il y a une génération entre le GT200b et le GF110. Ça ne compte pas.
 
Par contre, je veux bien qu'un GK110 soit 70% plus rapide qu'un GF100... :whistle:  
 
Il faut simplement prendre en compte que c'est très compliqué de faire un GPU aussi bon du premier coup, surtout à partir d'une nouvelle architecture...
Après, si nVidia y arrive, c'est tant mieux, mais j'y crois moyen.

n°7991846
0b1
There's good in him
Posté le 29-07-2011 à 13:59:26  profilanswer
 

Zack38 a écrit :


 
Le GF110, c'est la seconde génération de GF100.
 
Donc, il y a une génération entre le GT200b et le GF110. Ça ne compte pas.
 
Par contre, je veux bien qu'un GK110 soit 70% plus rapide qu'un GF100... :whistle:  
 
Il faut simplement prendre en compte que c'est très compliqué de faire un GPU aussi bon du premier coup, surtout à partir d'une nouvelle architecture...
Après, si nVidia y arrive, c'est tant mieux, mais j'y crois moyen.


Kepler est une nouvelle architecture? :??:

n°7991849
Zack38
Posté le 29-07-2011 à 14:01:16  profilanswer
 

C'est en tout cas comme ça que nVidia le décrit, oui. Tout comme Maxwell, dans deux ans. (enfin, un peu plus)
 
Chaque pair d'ans, nVidia va lancer un nouveau GPU avec une nouvelle archi et un nouveau process (selon dispo), avec une révision transitoire un an après le lancement.
C'est ce que j'ai compris de leur roadmap...

n°7992212
Activation
21:9 kill Surround Gaming
Posté le 29-07-2011 à 17:51:10  profilanswer
 

la gtx590 est déjà en dessous d'un sli de gtx570 pour rappel
 
donc pour ça que je verrais bien la gtx670 à niveau égal
 
elle est tout de même pas mal castré la gtx590
 
avec de la chance on aurait des puces gddr5 d'une plus petite finesse de gravure donc si bus 448bits les 1.75Go consommerait moins que les 2x1.5Go de la gtx590
 
pour rappel gtx590 mouline à 612Mhz
une gtx570 dans les 730  
une gtx580 dans les 770
 
(non oc bien sur)
 
allez pourquoi pas 735Mhz sur une gtx670 et 800Mhz pour gtx680 soyons fou  :o


Message édité par Activation le 29-07-2011 à 17:58:32
n°7992231
Activation
21:9 kill Surround Gaming
Posté le 29-07-2011 à 18:09:16  profilanswer
 

Zack38 a écrit :

C'est en tout cas comme ça que nVidia le décrit, oui. Tout comme Maxwell, dans deux ans. (enfin, un peu plus)
 
Chaque pair d'ans, nVidia va lancer un nouveau GPU avec une nouvelle archi et un nouveau process (selon dispo), avec une révision transitoire un an après le lancement.
C'est ce que j'ai compris de leur roadmap...


 
moi j'avais compris que leur cuda core bougeait pas, juste leur nombre
 
doivent pas trop non plus modifier les cuda core tout les 4matins sinon c'est plus trop vendeur une plateforme pas pérenne pour vendre du "viendez dev en CUDA"
 
bon après perso change ou pas..... c'est plutôt sur les features que mon regard se porte
 
genre "enfin 3 écrans en mono carte ou pas"
genre mettre 3 port DP (pas miniDP) + 1 miniHDMI et filer 2 adaptateur DP vers DVI ?  
j'aimerais aussi voir la partie "purevideo" (on sait plus trop son nom de nos jours) évoluer  
avec pourquoi pas un encodage hardware h264 de qualité, et pas la bouse sauce CUDA 1 passe
 
 
mais l'histoire de la largeur de bus c'est vrai que connaissant l'historique de NV on se l'image pas tro presté à 384bits là ou AMD fait toujours son pingre en bande passante (cpu comme gpu)


Message édité par Activation le 29-07-2011 à 18:10:47
n°7992252
hyksos_sow​o
Posté le 29-07-2011 à 18:21:30  profilanswer
 

encodage h264 hardware???? :lol: :lol:
 
Tu en fume du bon mon pauvre, faire de l'encodage vidéo c'est l'unique façon de vendre CUDA au grand public, si NVIDIA mettent un encodeur vidéo sur leur prochaine puce, c'est comme de dire que finalement CUDA c'est de la merde...

mood
Publicité
Posté le 29-07-2011 à 18:21:30  profilanswer
 

n°7992482
Activation
21:9 kill Surround Gaming
Posté le 29-07-2011 à 20:39:50  profilanswer
 

booooarf ça doit bien servir à autre chose cuda .... un jour (sorti des machins scientifiques)
 
ou alors faut qu il pète de l’encodage en 2 passes, nop car amd ou nvidia j'en reste toujours à encoder avec le bon vieux cpu multicore  :sweat: (et ça même avant l'article de Hfr qui m'a surtout refroidit sur le "truc/machin" de intel qui fait pas mieux snif  :sweat: )


Message édité par Activation le 29-07-2011 à 20:43:29
n°7993561
WipEout 20​97
Instant fun
Posté le 31-07-2011 à 00:35:53  profilanswer
 

le Physx ca utilise pas les memes unités que CUDA a tout hasard ?
en tout cas niveau encodage vu la qualité et le fait qu'avec mon i7 ca va plutot vite, j'ai fait mon choix... meme avec mon ancien core 2 je preferais attendre des heures de toute façon

Message cité 1 fois
Message édité par WipEout 2097 le 31-07-2011 à 00:36:57
n°7993562
Zack38
Posté le 31-07-2011 à 00:40:34  profilanswer
 

WipEout 2097 a écrit :

le Physx ca utilise pas les memes unités que CUDA a tout hasard ?
en tout cas niveau encodage vu la qualité et le fait qu'avec mon i7 ca va plutot vite, j'ai fait mon choix... meme avec mon ancien core 2 je preferais attendre des heures de toute façon


 
Il me semble que le moteur PhysX a été intégré à CUDA, en fait.

n°7993632
Activation
21:9 kill Surround Gaming
Posté le 31-07-2011 à 10:04:37  profilanswer
 

physx a été réécris en CUDA, mais cuda autorise un fonctionnement 100% cpu (ça veut pas dire qu'il utilise au mieux 100% du cpu) quand pas de cuda core présent (me semble pas que physx ai intégré cuda 4, j'en vois pas forcément l’intérêt)
après quelle "largesse" autorise NV en terme du code cuda à tourner sur du non hardware cuda... ça être la question
 
après physx c'est au mieux 2 jeux PC par an qui sortent (et de moins en moins sur console)
jusqu'à quand ? si batman 2 en venait à ne plus utiliser physx et la suite de metro 2033 aussi la messe serait dite
 
pour ça que je zieute avec beaucoup d’intérêt la sortie de batman "2"
 
et puis surtout la dernière demo tech du tegra 3 ou au final nvidia en est surtout arrivé lors de démo d'effet physx de bourriner les 4 cores arms du tegra 3 plutôt que de compter uniquement sur le gpu pour utiliser physx
 
http://www.youtube.com/watch?v=4oBbselmq5U
 
sont bien blindé les 4 cores :o et le cpu est bien chargé par la physique on est d'accord, vu le nb d'objet à l'écrans c'est difficilement autre chose qui peu blinder autant le cpu ici
 
bref sur plateforme mobile android, y a comme une toute autre politique d'optimisation :o


Message édité par Activation le 31-07-2011 à 10:12:21
n°7994569
Sam Erousi​s
Posté le 01-08-2011 à 01:22:32  profilanswer
 

[:abnocte invictus]  
 
En espérant une "vrai" révolution sur le plan des performances, de la consommation et de la chauffe  :o , et dans le bon sens  [:maverick10] .


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°7994697
Vince@ESIE​E
Posté le 01-08-2011 à 11:26:47  profilanswer
 

Faut pas espérer mieux que +25% à conso identique et niveau chauffe nvidia a déjà bien assuré avec la vapor chamber.
 
Mais la gravure peut peut-être faire baisser la conso...


---------------
http://forum.hardware.fr/hfr/Overc [...] 5290_1.htm
n°7994945
0b1
There's good in him
Posté le 01-08-2011 à 15:07:22  profilanswer
 

Vince@ESIEE a écrit :

Faut pas espérer mieux que +25% à conso identique et niveau chauffe nvidia a déjà bien assuré avec la vapor chamber.
 
Mais la gravure peut peut-être faire baisser la conso...


Bah ça fait pas lourd :o
On doit traîner entre 10 et 15% entre GF100 et GF110 déjà.
 
Nop franchement un +25% qu'ils le gardent, inutile de le sortir leur Kepler :o

n°7995209
Zack38
Posté le 01-08-2011 à 18:55:24  profilanswer
 

Il y a environ 50% de gain entre la GTX285 et la GTX480. (test HFR, indice global 1920*1080, sans AA)

 

C'est plus ou moins ce qu'on est en droit d'attendre, de la GTX580 au Kepler HDG (GTX680 ?).

 

EDIT : ces +50% ont été observés en compagnie d'une hausse de la consommation de 20%, néanmoins.
On devrait peut-être plutôt tabler sur ~ +35% de gain depuis la GTX580 ? (avec éventuellement une réduction de la consommation, en parallèle, mais ça, j'y crois moyen)

Message cité 1 fois
Message édité par Zack38 le 01-08-2011 à 19:01:27
n°7995281
Activation
21:9 kill Surround Gaming
Posté le 01-08-2011 à 19:40:40  profilanswer
 

ça va dépendre des jeux et des resolutions
 
j'ai envie de dire que sur des jeux dx11 on pourrait voir jusqu'à 80% de perf en plus comparé à une gtx580
par contre sur des jeux dx9 le gain en perf risque de varier entre 20 et 60% je pense avec le cpu qui risque de ne pouvoir envoyer assez de bois
 
j'aimerais bien à la sorti voir un comparo en perf sur arma 2 ET the witcher 2
ça doit être dans les jeux dx9 les plus gourmand en ce moment (et the witcher 2 car perso arma 2 j'y joue pas :o )
 
dans les jeux qui devrait aimer kepler "total war shogun 2" en dx11
et bien sur crysis 2 vu comment le mode "dx11" a été pondu

n°7995307
pr2009
Posté le 01-08-2011 à 20:02:57  profilanswer
 

Nan mais attention espérai pas que à chaque fois on aura une augmentation des perf aussi bonne, plus on avance plus c'est dur de faire des bon aussi énorme dans les perf  :non: Enfin bon j’espère quand même que Nvidia va nous faire de belles surprises  :)


Message édité par pr2009 le 01-08-2011 à 20:05:11
n°7995668
0b1
There's good in him
Posté le 02-08-2011 à 09:59:21  profilanswer
 

Zack38 a écrit :

Il y a environ 50% de gain entre la GTX285 et la GTX480. (test HFR, indice global 1920*1080, sans AA)
 
C'est plus ou moins ce qu'on est en droit d'attendre, de la GTX580 au Kepler HDG (GTX680 ?).
 
EDIT : ces +50% ont été observés en compagnie d'une hausse de la consommation de 20%, néanmoins.
On devrait peut-être plutôt tabler sur ~ +35% de gain depuis la GTX580 ? (avec éventuellement une réduction de la consommation, en parallèle, mais ça, j'y crois moyen)


Je crois davantage en un gain de 100% entre GTX580 et GTX680 qu'à une baisse de consommation.
D'autant que le PCI-E 3.0 devrait permettre de revoir les normes actuelles en matière de TDP.
 
Je pense que ce qu'on a vu avec GTX590 et HD6990 n'était qu'un avant goût.
Sauf qu'il me semble avoir lu que nVIDIA abandonnerait les BI-GPU (pour ou après Kepler, ça c'est la question).
 
Bref ça sent le bon gros GPU des familles qui envoit du bois à l'écran et au compteur EDF :o

n°7995848
Zack38
Posté le 02-08-2011 à 12:43:50  profilanswer
 

Le PCI-E 2.0 autorisait les périphériques consommant jusqu'à 300W. Cette norme a été outrepassée avec la HD6990 d'abord, puis la GTX590. Quant au PCI-E 3.0, si j'ai bien compris, il double la BP par pin (500Mo/pin => 1Go/pin :ouch: ), mais il ne repousse pas la limite de consommation "autorisée"...
 
Par contre, où est-ce que tu as vu que nVidia voudrait abandonner les cartes biGPU ? :??: c'est très dangereux si AMD ne fait pas pareil en face, car il sera très difficile, même à bâtir le GPU du siècle, de battre une HD7990 avec un seul GPU (sauf si AMD m*rde). :/

n°7995886
Activation
21:9 kill Surround Gaming
Posté le 02-08-2011 à 13:12:31  profilanswer
 

on y est pas à la "hd7990" :D
 
vu comment ils en on chier pour pondre la hd6990

Message cité 1 fois
Message édité par Activation le 02-08-2011 à 13:12:58
n°7996113
Sam Erousi​s
Posté le 02-08-2011 à 15:42:20  profilanswer
 

Ils pourraient passer au GPU multi-cores à mémoire partagée, va bien falloir un jour  [:airforceone] .


Message édité par Sam Erousis le 02-08-2011 à 16:29:42

---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°7996172
0b1
There's good in him
Posté le 02-08-2011 à 16:21:05  profilanswer
 

Zack38 a écrit :

Le PCI-E 2.0 autorisait les périphériques consommant jusqu'à 300W. Cette norme a été outrepassée avec la HD6990 d'abord, puis la GTX590. Quant au PCI-E 3.0, si j'ai bien compris, il double la BP par pin (500Mo/pin => 1Go/pin :ouch: ), mais il ne repousse pas la limite de consommation "autorisée"...

 

Par contre, où est-ce que tu as vu que nVidia voudrait abandonner les cartes biGPU ? :??: c'est très dangereux si AMD ne fait pas pareil en face, car il sera très difficile, même à bâtir le GPU du siècle, de battre une HD7990 avec un seul GPU (sauf si AMD m*rde). :/


Trop contraignant de mettre 2 GPU sur le même PCB.
Par contre j'ai totalement zappé où j'ai pu lire ça, considère que c'est une rumeur de toute façon.

 

En cherchant après mon article, je suis tombé là-dessus (bon la source vaut ce qu'elle vaut hein...) :

 

nVidia looks to launch EyeFinity in 600 series

 
Citation :

It’s been a slow time for graphics recently. Both AMD and nVidia have good products in the market. And that market, overall, has not been strong. Against that backdrop, the pace of innovation has slowed right down. But the next 6 months looks like it will be busier. KitGuru loads a driver and attempts a rendition.

 

However, Jen Hsun’s engineers are pushing onward and upward with the launch of the 600 ‘Kepler’ series expected around the start of 2012.

 

In addition to the overall chip improvements, the Kepler 600 series should be one of the first products to be delivered on TSMC’s brand new 28nm process (not including a little practice session with mobile parts).

 

As is normal in the GPU industry, there are times that nVidia innovates – which was clear with SLi and, later, 3D – and there are times when they end up in a following position. For example, second to market with DX11.

 

One of the coolest innovations seen in the DX11 era was the simple/powerful AMD EyeFinity support for flexible, multi-monitor set-ups.

 

From what KitGuru is hearing, Jen Hsun wants a piece of this multi-screen business and has ordered his engineers to ensure that the 600 series is able to compete.

 

Traditionally, nVidia has stronger marketing muscle than AMD, so we’d anticipate a lot of 3-screen improvements from the game and monitor industries over the next 12-18 months.

Message cité 1 fois
Message édité par 0b1 le 02-08-2011 à 16:22:40
n°7996188
Invite_Sur​prise
Racaille de Shanghaï
Posté le 02-08-2011 à 16:36:37  profilanswer
 
n°7996219
0b1
There's good in him
Posté le 02-08-2011 à 16:58:02  profilanswer
 


Ouai bon hein, j'ai dis que la source vaut ce qu'elle vaut :o
 
D'un autre côté ça semble logique, nVIDIA va pas rester en retrait avec un SLI obligatoire pour 3 écrans ad vitam eternam :o

n°7996246
Zack38
Posté le 02-08-2011 à 17:12:14  profilanswer
 

Activation a écrit :

on y est pas à la "hd7990" :D
 
vu comment ils en on chier pour pondre la hd6990


 
Avec l'abandon du 32nm par TSMC, c'est tout le Cayman qui est devenu problématique pour AMD.
 
Au lieu des 480SP prévus (1920ALU), c'est 384SP (1536ALU) qui étaient présents. Résultat, un GPU moyennement convaincant... :/  
Ici, la donne est toute autre, puisqu'AMD dispose de davantage de temps, et que le 28nm devrait pouvoir les servir de façon certaine ce coup-ci (je ne vois si AMD ni nVidia tenter une troisième génération 40nm).
 
Et je persiste à dire que si nVidia abandonnait bel et bien les cartes biGPU, j'ai vraiment du mal à imaginer comment le caméléon s'y prendrait pour battre les biGPU du concurrent. On sait tous ce que ça donne, un GPU gigantesque sur un nouveau process, et eux aussi, ils se rappellent de l'épisode GF100. M'étonnerait qu'ils recommencent, donc. A priori, on aura toujours des biGPU chez nVidia, au moins pour cette génération, mais ça m'a l'air tout à fait improbable que les cartes biGPU soient abandonnées, par nVidia ou par AMD. Voilà. (sauf si les deux cessent d'en faire en même temps)
 

0b1 a écrit :


Trop contraignant de mettre 2 GPU sur le même PCB.
Par contre j'ai totalement zappé où j'ai pu lire ça, considère que c'est une rumeur de toute façon.
 
En cherchant après mon article, je suis tombé là-dessus (bon la source vaut ce qu'elle vaut hein...) :
 
[...]
 


 
Entre la nouvelle architecture AMD présentée comme compatible CUDA et le Kepler compatible Eyefinity, pourquoi pas ? :d
 
Sauf que c'est une technologie propriétaire d'AMD, ça, donc, en fait, il y a assez peu de chances pour que ça se réalise. Au mieux, nVidia pondra sa propre technologie rivale de l'Eyefinity (le Surround le fait assez bien, mais il reste encore à peaufiner... l'activation avec un GPU, ça serait bien, notamment).

Message cité 1 fois
Message édité par Zack38 le 02-08-2011 à 17:12:24
n°7996285
Activation
21:9 kill Surround Gaming
Posté le 02-08-2011 à 17:41:11  profilanswer
 

0b1 a écrit :


Ouai bon hein, j'ai dis que la source vaut ce qu'elle vaut :o
 
D'un autre côté ça semble logique, nVIDIA va pas rester en retrait avec un SLI obligatoire pour 3 écrans ad vitam eternam :o


 
le truc c'est que même intel avec ivy va proposer du triple screen
là ou je taff dans les desktop on mettait (on met encore) souvent de la geforce low profile, et va y que tu fait du hybride nvidia + gpu intel intégré
 
si NV pond pas un truc type "eyefinity" pour au moins 3 écrans avec une simplicité de drivers intéressante, ça va puer le sapin pour les geforce low profile chez hp, dell et consort à l'arrivé de ivy
 
après y a un truc très simple, que NV arrête de réservé les port displayport à ces cartes de gamme quadro
 
et que amd et nv pousse au cul de LG et samsung + asus pour des écran compatible dp1.2 qui gère le chainage d'écrans
quoi que asus est bien plus en avance que lg et samsung sur ce point :o


Message édité par Activation le 02-08-2011 à 17:44:32
n°7996900
ironyann
PSN & GamerTag : IronYan
Posté le 03-08-2011 à 09:33:49  profilanswer
 

Espérons que nvidia apporte un soin encore plus important au silence de fonctionnement et à la consommation sur cette nouvelle génération...
 
Drap déguisė :)

n°7996931
0b1
There's good in him
Posté le 03-08-2011 à 10:21:32  profilanswer
 

Zack38 a écrit :


 
Avec l'abandon du 32nm par TSMC, c'est tout le Cayman qui est devenu problématique pour AMD.
 
Au lieu des 480SP prévus (1920ALU), c'est 384SP (1536ALU) qui étaient présents. Résultat, un GPU moyennement convaincant... :/  
Ici, la donne est toute autre, puisqu'AMD dispose de davantage de temps, et que le 28nm devrait pouvoir les servir de façon certaine ce coup-ci (je ne vois si AMD ni nVidia tenter une troisième génération 40nm).
 
Et je persiste à dire que si nVidia abandonnait bel et bien les cartes biGPU, j'ai vraiment du mal à imaginer comment le caméléon s'y prendrait pour battre les biGPU du concurrent. On sait tous ce que ça donne, un GPU gigantesque sur un nouveau process, et eux aussi, ils se rappellent de l'épisode GF100. M'étonnerait qu'ils recommencent, donc. A priori, on aura toujours des biGPU chez nVidia, au moins pour cette génération, mais ça m'a l'air tout à fait improbable que les cartes biGPU soient abandonnées, par nVidia ou par AMD. Voilà. (sauf si les deux cessent d'en faire en même temps)
 


Si AMD reste dans sa stratégie de GPU de taille correcte avec perf légèrement en retrait, ils pourront à coup sûr proposer un BI-GPU (sauf gros pépin).
Par contre nVIDIA n'est pas trop dans cette logique.
 

Zack38 a écrit :


 
Entre la nouvelle architecture AMD présentée comme compatible CUDA et le Kepler compatible Eyefinity, pourquoi pas ? :d
 
Sauf que c'est une technologie propriétaire d'AMD, ça, donc, en fait, il y a assez peu de chances pour que ça se réalise. Au mieux, nVidia pondra sa propre technologie rivale de l'Eyefinity (le Surround le fait assez bien, mais il reste encore à peaufiner... l'activation avec un GPU, ça serait bien, notamment).


Oui, évidemment.

n°7997470
Invite_Sur​prise
Racaille de Shanghaï
Posté le 03-08-2011 à 17:35:54  profilanswer
 


C'est bien, ils font des efforts de relecture chez presence-pc ... [:nedurb]

n°7997548
Activation
21:9 kill Surround Gaming
Posté le 03-08-2011 à 18:33:12  profilanswer
 

Invite_Surprise a écrit :


C'est bien, ils font des efforts de relecture chez presence-pc ... [:nedurb]


 
dans le titre en plus  :lol:

n°7997564
Zack38
Posté le 03-08-2011 à 18:44:24  profilanswer
 

Et dans les commentaires, tous ceux qui y croient. [:petoulachi]  
 
Alors que c'est contredit dans la news en elle-même : En effet, une livraison des puces graphiques aux partenaires à la fin de l’année assurerait une mise sur le marché des cartes graphiques pour le premier semestre 2012.

n°7999512
Charles K
Posté le 05-08-2011 à 13:33:56  profilanswer
 

drap

n°8002321
hifibuff
Posté le 08-08-2011 à 06:52:53  profilanswer
 

Ouais, je sens bien qu'on aura pas les "680" avant mars 2012...Quand il disent Q1 2012, c'est souvent la toute fin...

 

Bon, je crois que je vais me prendre deux 590 pour succéder à mes deux 480 actuelles en attendant :)

Message cité 1 fois
Message édité par hifibuff le 08-08-2011 à 06:53:34

---------------
"Every man dies, not every man really lives"
n°8002361
Vince@ESIE​E
Posté le 08-08-2011 à 09:19:30  profilanswer
 

wouuuéé, ton larfeuille il a du souffle :o

Message cité 1 fois
Message édité par Vince@ESIEE le 08-08-2011 à 09:19:49

---------------
http://forum.hardware.fr/hfr/Overc [...] 5290_1.htm
n°8002407
Forza971sb​h
Suppresseur depuis 1939.
Posté le 08-08-2011 à 10:12:00  profilanswer
 

hifibuff a écrit :

Ouais, je sens bien qu'on aura pas les "680" avant mars 2012...Quand il disent Q1 2012, c'est souvent la toute fin...
 
Bon, je crois que je vais me prendre deux 590 pour succéder à mes deux 480 actuelles en attendant :)


 
avec une p6t7 WS et 1200W de jus, ne serait-il pas tout aussi "productif" de rajouter une 3ème 480 en attendant les 680 ? (ou un sli de mars 2 - un vrai quad de 580 - si elles viennent à être disponibles rapidement)...

n°8002461
hifibuff
Posté le 08-08-2011 à 10:50:40  profilanswer
 

j'y pense aussi aux mars 2 effectivement ;)

 

Cela dit, 3x480, c'est ce que j'avais au départ et pas moyen de supporter le bruit généré même si les températures étaient "correctes" dans ces conditions :/

 

@Lothiek : deux infos : un, je n'ai pas d'écran 3D; deux, les pornos, je préfère jouer dedans que de les regarder :o


Message édité par hifibuff le 08-08-2011 à 10:57:22

---------------
"Every man dies, not every man really lives"
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite) / Groupe LDLC / Shop HFR