Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3629 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  78  79  80  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7303411
Agent heav​y
Posté le 25-01-2010 à 19:42:40  profilanswer
 

Reprise du message précédent :

glrpignolo a écrit :

Et c'est bien pour ça que son successeur va arrivé assez vite je pense.
Voyant que ce ne sera pas la succes de l'année autant passer tres vite à la suite.


 
Ceci dit, je crois me souvenir que le GT200 n'était pas voué a un avenir bien meilleur face a la HD4870, a ceci prêt qu'il est sortit en avance.  
On ne sait pas trop comment les consommateurs vont réagir ni si nvidia va vraiment souffrir avec ce Fermi. Peut être pas. Il y a l'expérience, la réputation, le marketing...


Message édité par Agent heavy le 25-01-2010 à 19:43:21
mood
Publicité
Posté le 25-01-2010 à 19:42:40  profilanswer
 

n°7303425
mac gregor
ID psn : macgregor62
Posté le 25-01-2010 à 19:57:08  profilanswer
 

ca compte l'image de marque pour le commerce
c'est ce qui fait vendre a celui qui ne suit pas l'actualité de la cg au jour le jour
ca rassure sur son achat
mon voisin a acheté une gts240 y'a un mois pour un peu plus de 100€, quand on voit ce qu'il y a en face pour le même prix ...

n°7303513
campi
V8 FTW
Posté le 25-01-2010 à 20:55:20  profilanswer
 

MEI a écrit :

A priori c'est pas autorisé par le PCI-SIG et de toutes facons les proto montré on que 8+6 pour le moment.


 
Ha ok, mais il va arriver un jour où ça ne va plus suffire.

n°7303527
dragonlore
Posté le 25-01-2010 à 21:04:25  profilanswer
 

MEI a écrit :


A ce rythme les GF aussi supportaient la tesselation. Ceci dit les RT/N/PN-Patches c'était pas non plus l'ideal et DX8/OpenGL permettant plusieurs solutions c'était pas gagné.

 

De toutes façons le TruForm hardware était que sur le R200, sur les RV2xx c'était software et un peu bugué et sur les R(V)3xx software et ultra bugué. :)


Sauf que les RT patches n'ont pas été utilisé (en tout cas je ne connais aucun jeu)  alors que le truform a été utilisé dans certains jeux (nwn, morrowind, counter strike, quake 2 et certains autres).

 

C'était peut être buggué sur r300 mais sur ma 9700pro ça marchait bien et je n'ai pas vu de bug


Message édité par dragonlore le 25-01-2010 à 21:08:26
n°7303539
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-01-2010 à 21:10:18  profilanswer
 

Le Truform a aussi été utilisé sur la Xboîte avec le jeu Viva Pinata.

n°7303572
Gigathlon
Quad-neurones natif
Posté le 25-01-2010 à 21:31:23  profilanswer
 

MEI a écrit :

Y'avais juste eu le NV1, les Riva 128 et 128ZX, les TNT et TNT2 avant les GeForce... Que 5 puces... ;)


Y'avait surtout que ce qui précédait le TNT était sans grand intérêt, notamment face à ATI (qui avait un quasi monopole sur les chips "intégrés" depuis la fin de Cirrus Logic jusqu'à l'arrivée des i81x), S3 et... Matrox.
 
3 puces sans intérêt sorties en 5 ans, 4 "bonnes" dans les 2 ans qui ont suivi, c'est ce que j'appelle une progression.
 
Regarde combien ils ont sorti de puces depuis 3 ans : le G80, le G92 (alias G80 bis), le GT200 qui n'est même pas au G80 ce que le NV15 était au NV10 (certes plus d'unités, mais ajoutées à l'arrache et avec des fréquences minables), et le GF100 arrive seulement quasiment après 4 ans de stagnation et malgré le passage du 90nm au 40nm.


Message édité par Gigathlon le 25-01-2010 à 21:32:46
n°7303615
MEI
|DarthPingoo(tm)|
Posté le 25-01-2010 à 22:02:51  profilanswer
 

4 ans après stagnation ? :lol:
 
Que dire d'ATI alors... a ce rythme du R600 au RV870 c'est de la stagnation aussi... :spamafote:
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7303849
bjone
Insert booze to continue
Posté le 26-01-2010 à 01:39:57  profilanswer
 

MEI a écrit :


Y'avais juste eu le NV1, les Riva 128 et 128ZX, les TNT et TNT2 avant les GeForce... Que 5 puces... ;)


Et chez Ati, Matrox, Rendition, 3Dfx, Permedia, 3Dlabs, PowerVr ?
J'entends des puces 3D.
nV une startup, comparé à SGI, Sun, Ibm, Evans & Sutherland je veux bien :D
 
Et d'autre part nV avait déjà commencé a bouffer de la part de marché à 3DLabs a tour de bras dès la Geforce 1.


Message édité par bjone le 26-01-2010 à 01:41:50
n°7304766
FanTasTik
Posté le 26-01-2010 à 20:41:55  profilanswer
 

drapal

n°7304911
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 26-01-2010 à 22:01:23  profilanswer
 

C'est chaud pour nvidia... Tout va mal pour eux on dirait  :sweat:  
 

Citation :

Nvidia perd un procès contre Rambus
Posté le 25/01/2010 à 14:40 par Benoit - source: Rambus
 
Rambus est aussi connu pour ses mémoires (qui accompagnaient initialement le Pentium 4 ou actuellement la PlayStation 3) que pour les nombreux procès que la firme a lancés au fil des années.
 
L'un de ces procès opposait la firme à Nvidia, Rambus affirmant que le caméléon utilisait de manière abusive cinq brevets, notamment dans ses cartes graphiques. L'ITC (International Trade Commission) vient de rendre son verdict et donne raison au plaignant sur trois brevets, touchant les contrôleurs mémoire utilisés par Nvidia.
 
Nvidia a dors et déjà fait appel de cette décision, et il y a fort à parier qu'un accord financier "amiable" soit trouvé rapidement entre les deux partis. Si tel n'était pas le cas, Nvidia pourrait tout simplement voir ses cartes interdites à la vente et à l'importation aux Etats-Unis ! Il y a peu de chance pour que cela arrive, la seule question restante concernant la somme qui sera demandée par Rambus pour les licences d'utilisation de ses brevets.


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
mood
Publicité
Posté le 26-01-2010 à 22:01:23  profilanswer
 

n°7304922
seth-01
Posté le 26-01-2010 à 22:09:05  profilanswer
 

super_newbie_pro a écrit :

C'est chaud pour nvidia... Tout va mal pour eux on dirait  :sweat:  
 


Citation :

Nvidia perd un procès contre Rambus
Posté le 25/01/2010 à 14:40 par Benoit - source: Rambus
 
Rambus est aussi connu pour ses mémoires (qui accompagnaient initialement le Pentium 4 ou actuellement la PlayStation 3) que pour les nombreux procès que la firme a lancés au fil des années.
 
L'un de ces procès opposait la firme à Nvidia, Rambus affirmant que le caméléon utilisait de manière abusive cinq brevets, notamment dans ses cartes graphiques. L'ITC (International Trade Commission) vient de rendre son verdict et donne raison au plaignant sur trois brevets, touchant les contrôleurs mémoire utilisés par Nvidia.
 
Nvidia a dors et déjà fait appel de cette décision, et il y a fort à parier qu'un accord financier "amiable" soit trouvé rapidement entre les deux partis. Si tel n'était pas le cas, Nvidia pourrait tout simplement voir ses cartes interdites à la vente et à l'importation aux Etats-Unis ! Il y a peu de chance pour que cela arrive, la seule question restante concernant la somme qui sera demandée par Rambus pour les licences d'utilisation de ses brevets.


il va falloir que nvidia passe à la caisse  :ouch:

n°7305077
PitOnForum
thèse - antithèse - synthèse
Posté le 27-01-2010 à 00:45:52  profilanswer
 

super_newbie_pro a écrit :

C'est chaud pour nvidia... Tout va mal pour eux on dirait  :sweat:  
 
...
 


on disait cela de ATI aussi
ce sont des cycles, une série de "ups and downs"

n°7305084
794
Posté le 27-01-2010 à 01:09:27  profilanswer
 

nVidia est loin d'être dans la même position que 3dfx vers la fin. Faut pas les enterrer non plus trop tôt.
 
Et même si le GF100 n'est pas un produit aussi formidable qu'attendu, il est aussi loin d'être un échec, et surtout c'est une bonne base sur laquelle le caméléon pourra capitaliser pour proposer des générations suivantes avec moins de défauts tout en conservant les qualités du produit fermi.

Message cité 1 fois
Message édité par 794 le 27-01-2010 à 01:09:40

---------------

n°7305622
Zack38
Posté le 27-01-2010 à 15:17:05  profilanswer
 

794 a écrit :

nVidia est loin d'être dans la même position que 3dfx vers la fin. Faut pas les enterrer non plus trop tôt.
 
Et même si le GF100 n'est pas un produit aussi formidable qu'attendu, il est aussi loin d'être un échec, et surtout c'est une bonne base sur laquelle le caméléon pourra capitaliser pour proposer des générations suivantes avec moins de défauts tout en conservant les qualités du produit fermi.


 
En effet, nVidia est loin de la faillite . La firme a une place importante dans le marché professionnel (notamment avec ses Tesla et autres Quadro), et ne cesse de gagner de l'argent en rentabilisant ses "technologies propriétaire" (PhysX, SLi, 3DVision ... pour tout ça, il faut de très onéreuses licences) . De plus, le GF100 est loin d'être une architecture "ratée", elle a un potentiel gigantesque, mais pour que ce dernier soit correctement exploité et que le Fermi parvienne à perçer il faudra deux choses . La première, c'est que les développeurs s'adaptent pour mieux tirer parti du GF100, et la deuxième qui se déroulera durant la seconde génération de Fermi (GF200 ?) c'est que nVidia modifie son architecture en fonction de la manière dont s'est passée la première partie . Bref, ça, c'est qui se passe plus ou moins à chaque nouvelle génération (l'amélioration de l'architecture s'étendant sur plusieurs années), mais avec un taux de réussite différent, ce qui condamne ou glorifie un GPU .

n°7305667
Gigathlon
Quad-neurones natif
Posté le 27-01-2010 à 15:47:14  profilanswer
 

Perso je vois rien à changer au GF100, juste lui donner un peu plus de muscle...
 
La réussite ou l'échec de l'architecture viendra avec les résultats des 2 premières itérations, donc au final de ce qui sortira de chez AMD à la fin de l'année, que j'imagine mal dérivé comme l'ont été les RV770 et Evergreen (40 SIMD ça commence à faire beaucoup et ça rend un peu inutile le Vec5 qu'ils trainent depuis le R600, à l'inverse 20 SIMD de 32 unités Vec5 c'est trop compliqué, la logique voudrait donc qu'ils éliminent cette particularité).

n°7305713
o_BlastaaM​oof_o
Posté le 27-01-2010 à 16:26:24  profilanswer
 

Faudra surtout attendre un nouveau procédé de gravure, tout simplement. 3 milliards de transistors en 40 nm, c'était apparemment un peu ambitieux.

Message cité 1 fois
Message édité par o_BlastaaMoof_o le 27-01-2010 à 17:27:14
n°7305718
bjone
Insert booze to continue
Posté le 27-01-2010 à 16:30:52  profilanswer
 

Surtout en 40cm :D
Bon faut attendre les tests de Tridam maintenant :)

Message cité 1 fois
Message édité par bjone le 27-01-2010 à 16:31:35
n°7305726
Sam Erousi​s
Posté le 27-01-2010 à 16:38:39  profilanswer
 

Dans 40cm ça rentre sans problème  [:airforceone]   [:ddr555] .
Je vais devoir changer de boitier alors ?  :sweat:  
 
 
sinon +1 avec bjone, vivement les tests  :jap:  (le nouvel AA  :love: ).


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°7305765
Zack38
Posté le 27-01-2010 à 17:21:03  profilanswer
 

o_BlastaaMoof_o a écrit :

Faudra surtout attendre un nouveau procédé de gravure, tout simplement. 3 milliards de transistors en 40 cm, c'était apparemment un peu ambitieux.


 
Bah, AMD a doublé son nombre de transistors (956M >> 2154M), et nVidia aussi (1400M >> 3000), avec au passage pour AMD une augmentation de la taille du die . Je ne vois pas pourquoi 3000M de transistors serait particulièrement "ambitieux" en 40nm ... peut-être est-ce plutôt à cause de la taille du die, qui s'annonce être importante (autour de 500mm² ?) .


Message édité par Zack38 le 27-01-2010 à 17:24:58
n°7305766
djffff
Time's like ocean in storm.
Posté le 27-01-2010 à 17:23:20  profilanswer
 

La taille du die n'est plus absurde que celle du GT200

n°7305770
Zack38
Posté le 27-01-2010 à 17:25:32  profilanswer
 

djffff a écrit :

La taille du die n'est plus absurde que celle du GT200


 
Le nombre de transistors par mm², si . :sweat:  
 
Pour le GT200 : 1400M/576 = ~2.5M par mm²
Pour le Fermi : 3000M/550 = ~5.5M par mm²
 
Et ça, c'est en admettant que le die fasse 550mm² ... les dernières rumeurs parlaient plutôt de 495mm² (6M/mm²) mais je crois que ça a un peu évolué depuis .

Message cité 1 fois
Message édité par Zack38 le 27-01-2010 à 17:30:08
n°7305775
o_BlastaaM​oof_o
Posté le 27-01-2010 à 17:28:04  profilanswer
 

bjone a écrit :

Surtout en 40cm :D
Bon faut attendre les tests de Tridam maintenant :)


 

Sam Erousis a écrit :

Dans 40cm ça rentre sans problème  [:airforceone]   [:ddr555] .
Je vais devoir changer de boitier alors ?  :sweat:  
 
 
sinon +1 avec bjone, vivement les tests  :jap:  (le nouvel AA  :love: ).


Fallait que quelqu'un relève, merci :o

n°7305784
Fouge
Posté le 27-01-2010 à 17:35:26  profilanswer
 

djffff a écrit :

La taille du die n'est plus absurde que celle du GT200

Effectivement, la taille du die est tout aussi monstrueuse.
Même en mettant de côté les pb de coût et de rendement, on ne peut pas faire des die d'une taille aussi grande que l'on veut.

 
Citation :

Pour les GPUs, ils doivent tout de meme employer la meme techniques pour les IO que les CPUs. La GDDR et la DDR sont quasiment la meme chose, a part le fait que la GDDR reduit toutes les marges (donc en fait c'est plus dur). Le resultat est que un GPU aujourd'hui a des pads d'IO sur 100% de sa peripherie (sur le haut de gamme) et que tu ne peux plus augmenter la bande passante sans faire de gros investissements: tu peux consommer plus de rangees de pads, mais ca coute tres cher, et il y a un moment ou ca ne devient plus possible. De plus ces dies sont deja a la taille du reticule donc tu ne peux pas gagner d'espace pour les IOs en faisant un plus gros die. Il te reste le die stacking, avec un die specialise dans les IOs et des vias verticales vers tes circuits digitaux, mais c'est hors de prix a ces dimensions.

A lire : http://forum.canardpc.com/showthread.php?t=38823

 

edit: pour résumer, nVidia fleurte déjà avec les limites de ce qui est techniquement possible de faire en photolithographie (55nm pour le GT200, 40nm pour le GF100)

Message cité 1 fois
Message édité par Fouge le 27-01-2010 à 17:54:12
n°7305787
Zack38
Posté le 27-01-2010 à 17:37:24  profilanswer
 

Fouge a écrit :

Effectivement, la taille du die est tout aussi monstrueuse.
Même en mettant de côté les pb de coût et de rendement, on ne peut pas faire des die d'une taille aussi grande que l'on veut.


 
Si les ingénieurs de chez nVidia et ATi le voulaient, et que la technologie était "opérationnelle" (elle le serait depuis longtemps à mon avis si les chercheurs qui travaillaient dessus avaient eu de plus gros investissements), nul doute que les puces seraient en 3D . Et là, on les rentre facile, les 3000M de transistors . :o

n°7305796
Gigathlon
Quad-neurones natif
Posté le 27-01-2010 à 17:44:44  profilanswer
 

Bah techniquement, elles le sont, en 3D :o
 
Un die c'est quand même une succession de couches qui se rapprochent plus ou moins d'un PCB, avec des pistes et des via.
 
Une puce "3D" serait simplement l'empilement de 2 puces comme on les fabrique actuellement reliées par des via relativement longs, mais on toucherait un autre problème : on a déjà du mal à évacuer les calories, alors doubler la densité de puissance est quelque peu utopique.

n°7305799
Zack38
Posté le 27-01-2010 à 17:47:33  profilanswer
 

Gigathlon a écrit :

Bah techniquement, elles le sont, en 3D :o
 
Un die c'est quand même une succession de couches qui se rapprochent plus ou moins d'un PCB, avec des pistes et des via.
 
Une puce "3D" serait simplement l'empilement de 2 puces comme on les fabrique actuellement reliées par des via relativement longs, mais on toucherait un autre problème : on a déjà du mal à évacuer les calories, alors doubler la densité de puissance est quelque peu utopique.


 
Un die, une succession de couche ... ça se rapproche surtout d'une seule couche vu les connexions inexistantes entre les "étages" . :whistle:  
 
D'ailleurs, je crois que le problème du refroidissement en 3D a déjà été attaqué par IBM .

n°7306088
Silou78
Posté le 27-01-2010 à 21:29:04  profilanswer
 

Zack38 a écrit :


 
Le nombre de transistors par mm², si . :sweat:  
 
Pour le GT200 : 1400M/576 = ~2.5M par mm²
Pour le Fermi : 3000M/550 = ~5.5M par mm²
 
Et ça, c'est en admettant que le die fasse 550mm² ... les dernières rumeurs parlaient plutôt de 495mm² (6M/mm²) mais je crois que ça a un peu évolué depuis .


 
Y'a rien de choquant là dedans, c'est ce que permet le passage de 65nm à 40nm (coeff surfacique de 2.6). Bon par contre Fermi risque de chauffer autant que les premières GTX280 en 65nm.


---------------
[TU] Asus ROG PG279QM[Test] Rad. αcool et EK pour SSD M.2[TU] HP ZR2440w[TU] Shuttle D10
n°7306212
sapphire a​depte xd
Posté le 27-01-2010 à 23:05:01  profilanswer
 

Et alors ? Une GTX ça chauffe pas tant que ça... :/ Franchement, à part la conso, niveau chauffe je m'inquiète pas trop. On est franchement habitués à des hautes temp/bruit d'origine sur les modèles HDG : x850xt : une horreur, x1800/x1950xt : une plaie, 8800GTX ça va mais y'avais mieux quand même, HD2900XT pas la peine d'en parler, GTX280 pas mal en 2D en 3D un peu de bruit tout de même. :)

n°7306424
campi
V8 FTW
Posté le 28-01-2010 à 09:54:50  profilanswer
 

:hello:
 
Perso ma GTX elle fait pas tant de bruit que ça et ne chauffe pas des masses je trouve (j'avais une X1900XT aussi avant...) :D

n°7306429
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 28-01-2010 à 09:57:32  profilanswer
 

le campi's back :D


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°7306462
djffff
Time's like ocean in storm.
Posté le 28-01-2010 à 10:41:33  profilanswer
 

Je verrai bien un 80 90° en charge et 50 60 au repos... Like 8800GTX/Ultra; pas de quoi hurler à la mort.. ca ne fait pas plus de bruit que ca.

n°7306485
sapphire a​depte xd
Posté le 28-01-2010 à 11:08:04  profilanswer
 

djffff: on ne peut pas savoir ce que ça va donner. Par contre on sait que dans le passé ils ont réussi à gérer, d'une façon plutôt réussie, le problème de la chauffe. Donc a priori ils savent le faire. Mais vont ils le faire ? Car on a aussi des contre exemples du côté d'ati : x850xt chauffait pas du tout, fallait juste inventer un radiateur qui refroidissait et pas qui soufflait sur un bloc de cuivre brut.

n°7306515
lolotwingo
NCC-1701
Posté le 28-01-2010 à 11:32:18  profilanswer
 

On peut toujours espérer un retour aux pratiques de la belle époque : la 7900GTX, que j'ai eu pendant 1 an, et qui grâce à son excellent rad était TRES silencieuse, même overclockée.
J'imagine que refroidir le GF100 est une autre paire de manche que la 7900gtx, mais la technique de refroidissement à bien évoluée aussi.


---------------
Path Of Exile addicted | LG K11 | BeQuiet! 500DX, Corsair RM850x, Gigabyte B550M DS3H, Ryzen 5 3600 @stock, 2x16Go Corsair Vengeance LPX 3200, Nvidia 3060TI Founders Edition
n°7306931
FanTasTik
Posté le 28-01-2010 à 16:32:53  profilanswer
 

djffff a écrit :

Je verrai bien un 80 90° en charge et 50 60 au repos... Like 8800GTX/Ultra; pas de quoi hurler à la mort.. ca ne fait pas plus de bruit que ca.


 
Moi jverrais bien que c'est complètement débile d'annoncer des chiffres sans sources/ info.
 
;)
 
 

n°7307064
Zack38
Posté le 28-01-2010 à 18:03:41  profilanswer
 

lolotwingo a écrit :

On peut toujours espérer un retour aux pratiques de la belle époque : la 7900GTX, que j'ai eu pendant 1 an, et qui grâce à son excellent rad était TRES silencieuse, même overclockée.
J'imagine que refroidir le GF100 est une autre paire de manche que la 7900gtx, mais la technique de refroidissement à bien évoluée aussi.


 

FanTasTik a écrit :


 
Moi jverrais bien que c'est complètement débile d'annoncer des chiffres sans sources/ info.
 
;)
 
 


 
Si le GF100 consomme autant d'énergie qu'on le dit, il doit aussi dissiper un nombre de watts impressionnant . Moi, ça m'étonnerait bien qu'nVidia parvienne pour cette génération-ci nous proposer une gamme de CG silencieuses et ne chauffant pas trop .

n°7307080
FanTasTik
Posté le 28-01-2010 à 18:12:00  profilanswer
 

Ba niveau silence on a pas trop d'info.
Par contre niveau chauffe, on a juste la nouvelle norme pour les boitiers qui arrivent a dissiper l'energie de 2 GF100 en SLI.
Après, réalité physique ou arguments marketeux? Donc au final ça peut être super chaud, ou pas tant que ça. :/

n°7307091
Zack38
Posté le 28-01-2010 à 18:20:25  profilanswer
 

Concernant le bruit, on sait que si les GF100 chauffent beaucoup, leurs ventirads feront immanquablement du bruit . C'est une vérité qui s'applique à toutes les CG ...

n°7307143
secalex
Stalker forever
Posté le 28-01-2010 à 18:49:05  profilanswer
 

Zack38 a écrit :

Concernant le bruit, on sait que si les GF100 chauffent beaucoup, leurs ventirads feront immanquablement du bruit . C'est une vérité qui s'applique à toutes les CG ...


La 5870 est archi silencieuse. :love:


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7307201
matt-lcdm
chieur -_-'
Posté le 28-01-2010 à 19:16:39  profilanswer
 

Bonsoir, la réponse a peut être déjà été donné mais bon lire 80 pages ... trop long ^^  
Avez-vous une date de sortie des nouvelles NVIDIA ?
 
Merci d'avance et bonne soirée à vous !


---------------
Mon feed : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°7307220
Zack38
Posté le 28-01-2010 à 19:24:34  profilanswer
 

matt-lcdm a écrit :

Bonsoir, la réponse a peut être déjà été donné mais bon lire 80 pages ... trop long ^^  
Avez-vous une date de sortie des nouvelles NVIDIA ?
 
Merci d'avance et bonne soirée à vous !


 
La réponse est Mars .

n°7307320
hifibuff
Posté le 28-01-2010 à 20:31:14  profilanswer
 

J'ai actuellement deux 5870 MSI et j'avais avant cela deux GTX280 et encore avant, trois 8800GTX. Et bien, la solution la plus bruyante en load est celle que j'ai actuellement. Quant au dégagement de calories, mes trois 8800GTX ne chauffaient pas au delà de ce que divers tests donnaient pour une seule carte (alors qu'elles étaient collées les unes aux autres en tri-SLI) tandis que j'ai essayé un tri-cross de 5870 dans le même boitier : les températures étaient supérieures au 8800GTX en tri-SLI. En plus les températures des trois 5870 les faisaient passées en throttle (600/900mhz) ce qui m'a obligé à en revendre une, d'où mon setup actuel. Jamais eu un tel soucis avec trois 8800GTX :/


Message édité par hifibuff le 28-01-2010 à 20:34:42

---------------
"Every man dies, not every man really lives"
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  78  79  80  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)