Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
942 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8
Auteur Sujet :

Que penser de la GTX 590 de n'vidia

n°7842372
Arghoops
Posté le 24-03-2011 à 16:08:56  profilanswer
 

Reprise du message précédent :
Bah d'un coté qu'elle soit à 96° ou 112° ça ne change pas grand chose...les possiblité d'o/c reste quasiement infaisable en aircooling...
Le principal c'est que niveau bruit elle est aussi silencieuse qu'une GTX580, ce qui n'est pas négligeable.

mood
Publicité
Posté le 24-03-2011 à 16:08:56  profilanswer
 

n°7842384
0b1
There's good in him
Posté le 24-03-2011 à 16:19:44  profilanswer
 

Gigathlon a écrit :

Bon bah... au vu des 2 premiers tests croisés, c'est moins catastrophique que je le pensais, mais pas glorieux pour autant...
 
Les pilotes nVidia semblent pas mal à la ramasse (CDH) et l'autre donne des résultats encourageants... mais pas représentatifs puisque souvent au-delà des 100fps (PCW.fr).
 
Edit: 3e test, ça se confirme... nVidia triche décidément par tous les moyens :/
 
http://www.hardware.fr/medias/phot [...] 031535.png
La carte annonce 96°C GPU, elle est déjà à 112°C en surface... :lol:


En quoi c'est de la triche? Je vois pas trop là :/
 
Une sonde c'est une sonde, stop la mauvaise foi.

n°7842389
Invite_Sur​prise
Racaille de Shanghaï
Posté le 24-03-2011 à 16:23:34  profilanswer
 

Gigathlon a écrit :

Edit: 3e test, ça se confirme... nVidia triche décidément par tous les moyens :/
 
http://www.hardware.fr/medias/phot [...] 031535.png
La carte annonce 96°C GPU, elle est déjà à 112°C en surface... :lol:


La backplate, c'est pas la surface et encore moins le(s) GPU(s) :pt1cable:

n°7842460
Gigathlon
Quad-neurones natif
Posté le 24-03-2011 à 17:17:32  profilanswer
 

0b1 a écrit :

En quoi c'est de la triche? Je vois pas trop là :/
 
Une sonde c'est une sonde, stop la mauvaise foi.


Perso j'ai bien souvenir de pas mal de "newbies" qui achetaient des mobos MSI/GB car "elles refroidissent mieux le CPU"... alors que les sondes étaient sévèrement biaisées, exactement comme là.
 
Il est rigoureusement impossible que les GPU ne soient qu'à 96°C si on peut mesurer 112°C en surface, sur une plaque de finition. Ca nous donnerait plutôt des GPU à 120°C, autant dire à l'extrême limite de ce que permet le process.


Message édité par Gigathlon le 24-03-2011 à 17:18:42
n°7842480
pop_pop
System.NoBeerException
Posté le 24-03-2011 à 17:27:10  profilanswer
 

A voir si sa cam thermique est bien étalonnée aussi :o


Message édité par pop_pop le 24-03-2011 à 17:27:18
n°7842547
tridam
Profil : Equipe HardWare.fr
Posté le 24-03-2011 à 18:07:10  profilanswer
 

Le 112 °C n'est pas devant un GPU mais sur l'étage d'alimentation qui chauffe plus que les GPUs. A l'arrière des GPUs j'ai 80 °C pour celui de gauche et 84 °C pour celui de droite.

n°7842569
Gigathlon
Quad-neurones natif
Posté le 24-03-2011 à 18:21:13  profilanswer
 

Effectivement, après vérification sur l'image au repos, le point chaud est un peu à l'écart du GPU.
 
J'ai été trompé par l'uniformité de la teinte au point d'oublier de regarder l'échelle :o


Message édité par Gigathlon le 24-03-2011 à 18:21:45
n°7842587
maxou_18
Posté le 24-03-2011 à 18:46:30  profilanswer
 

"Si elle reste en général légèrement en retrait face à un couple de GeForce GTX 570 en SLI à la tarification similaire de 650€, sa quantité de mémoire plus élevée lui permet dans quelques cas de faire une différence plus importante. C’est cependant avant tout sur le plan thermique et de l’encombrement que ces solutions diffèrent. Les GeForce GTX 570 occupent 4 slots mais expulsent en dehors du boîtier la majorité de l’air chaud qu’elles produisent alors que la GeForce GTX 590 est relativement compacte mais n’en expulse que la moitié, la seconde étant repoussée à l’intérieur du boîtier, en direction des disques durs dont il faudra s’assurer du bon refroidissement, si vous tenez à vos données."
 
"En fin de compte, en dehors de sa mission première qui est de ne pas laisser le champ libre à la Radeon HD 6990, cette GeForce GTX 590 ne sera utile que dans très peu de cas : pour un système 3D stéréo compact ainsi que pour pouvoir passer au quad SLI dans le cadre d’un système dédié au surround gaming."
 
http://www.hardware.fr/articles/82 [...] x-590.html
 
Circulez!...

n°7842734
pop_pop
System.NoBeerException
Posté le 24-03-2011 à 20:58:35  profilanswer
 

tridam a écrit :

Le 112 °C n'est pas devant un GPU mais sur l'étage d'alimentation qui chauffe plus que les GPUs. A l'arrière des GPUs j'ai 80 °C pour celui de gauche et 84 °C pour celui de droite.


 :jap:  C'est clairement des valeurs qu'on s'attend à trouver à cet endroit, 80 à 90°C au dos des GPU, c'est ce qu'on voit déjà sur les 570 / 580  :)

n°7843223
klastar
Posté le 25-03-2011 à 11:03:18  profilanswer
 
mood
Publicité
Posté le 25-03-2011 à 11:03:18  profilanswer
 

n°7843358
Invite_Sur​prise
Racaille de Shanghaï
Posté le 25-03-2011 à 12:36:42  profilanswer
 

mosie a écrit :

clair OSEF de la conso,  comme deja dit 10000X  quand on claque autant
 dans du matos HDG on et pas a 10€ de plus par mois en facture d'elec et
 on fait des économies ailleurs (bagnole essence, chauffage) ...
 
""mauvais scaling"" relativement FAUUXXXX surtout pour les 6990.
 
La 590 sera  CLAIREMENT bien plus chère que la 6990 QUE L'ON TROUVE DEJA FACILE a 580€ .
 
Son potentiel d'OC sera CLAIREMENT moins important que 2 580.
 
Et connaissant bien les pratique de nvid   il ne faut pas s'attendre a un trie de GF110 voir un die shrink spé pour 590 (totalement utopique).
 
 
Comme je me répète encore et encore et encore; si vous avais acheter a leur sortie 4 580 vous avais fait le bon chois.


 
Arrête de raconter n'importe quoi à tout bout de champ ! Celui qui a acheté 4 GTX 580 pour mettre en quad-SLi est vraiment un gros pigeon et le restera.
A part pour se la péter sous 3DMou, les gains dans les jeux sont inexistants voire ils sont dégressifs à cause des pilotes + CPU limited.
 
Et commence par savoir écrire steup !

n°7843554
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2011 à 15:05:15  profilanswer
 

Pour info, j'ai ajouté une version du cliché des températures avec une autre échelle :  
http://www.hardware.fr/medias/photos_news/00/31/IMG0031587.png

n°7843559
Forza971sb​h
Suppresseur depuis 1939.
Posté le 25-03-2011 à 15:09:34  profilanswer
 

tridam a écrit :

Pour info, j'ai ajouté une version du cliché des températures avec une autre échelle :  
http://www.hardware.fr/medias/phot [...] 031587.png


 
ça correspond à une zone "morte" (sans rad) sous le ventilo, non ?... donc l'essentiel est bien refroidi :lol:

Message cité 1 fois
Message édité par Forza971sbh le 25-03-2011 à 15:10:14
n°7843563
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2011 à 15:14:14  profilanswer
 

Forza971sbh a écrit :


 
ça correspond à une zone "morte" (sans rad) sous le ventilo, non ?... donc l'essentiel est bien refroidi :lol:


 
Ca correspond à l'étage d'alimentation :
http://www.hardware.fr/medias/photos_news/00/31/IMG0031588.png

n°7843803
Gigathlon
Quad-neurones natif
Posté le 25-03-2011 à 17:53:51  profilanswer
 

Bizarre quand même, ça ne correspond pas à l'étincelle chez Sweclockers :o
 
Dans leur cas on dirait que c'est un arc qui prend forme dans le PCB lui-même, entre le GPU et les connecteurs d'alim..


Message édité par Gigathlon le 25-03-2011 à 17:54:14
n°7843828
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2011 à 18:11:06  profilanswer
 

Où est-ce que tu vois un arc ?
 
Pour info il s'est passé exactement la même chose avec mon premier sample. Le système s'est coupé et puis 0.5s après étincelle et fumée au niveau des connecteurs d'alims.
 
C'est à ce niveau qu'il y a les composants utilisés pour mesurer l'intensité (de part et d'autre du PCB, pour chaque ligne 12v).

n°7843845
Gigathlon
Quad-neurones natif
Posté le 25-03-2011 à 18:25:42  profilanswer
 

Avant la fumée abondante, au moment de l'étincelle, on devine ce qui ressemble à un "panache" (histoire de rester dans l'actualité [:ddr555]) et donc à un arc dans le PCB, qui fait brûler très rapidement l'epoxy.
 
Maintenant, la vidéo n'est pas parfaite pour voir ça, mais je doute que tu aies aussi vu la chose très précisément... faut encore savoir que ça va flamber pour regarder au bon endroit :whistle:
 
Ca serait le signe d'une proximité excessive de 2 pistes.

n°7843848
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2011 à 18:28:11  profilanswer
 

Tu ne confonds pas avec la réflexion sur le radiateur de la lumière de la diode du logo GeForce qui clignote au moment de l'étincelle ?

n°7843857
Gigathlon
Quad-neurones natif
Posté le 25-03-2011 à 18:35:40  profilanswer
 

Non, on voit une fumée assez directive avant que ça ne fume plus grossièrement.
 
Ceci dit tu as bien dû réaliser une autopsie, non? Dans ce cas ça sera probablement plus net, mais on dirait bien une réaction en chaîne. Après, ça n'est peut-être que le vernis qui brûle à ce moment là.

n°7843858
mum1989
Posté le 25-03-2011 à 18:35:42  profilanswer
 

ça fait très envie cette carte  ! 700€ et ça crame :
http://www.hardware.fr/news/11398/ [...] x-590.html
bon heureusement un pilote miracle devrait stopper le problème (267.85).
 
Franchement prenez du mono GPU !

Message cité 1 fois
Message édité par mum1989 le 25-03-2011 à 18:36:28
n°7843862
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2011 à 18:40:03  profilanswer
 

Gigathlon a écrit :

Non, on voit une fumée assez directive avant que ça ne fume plus grossièrement.
 
Ceci dit tu as bien dû réaliser une autopsie, non? Dans ce cas ça sera probablement plus net, mais on dirait bien une réaction en chaîne. Après, ça n'est peut-être que le vernis qui brûle à ce moment là.


 
J'ai démonté la carte après mais je n'ai rien vu de brûlé. Là, elle est repartie chez NV qui voulait vérifier de son côté.

n°7843864
Gigathlon
Quad-neurones natif
Posté le 25-03-2011 à 18:45:10  profilanswer
 

mum1989 a écrit :

ça fait très envie cette carte  ! 700€ et ça crame :
http://www.hardware.fr/news/11398/ [...] x-590.html
bon heureusement un pilote miracle devrait stopper le problème (267.85).


Un pwal excessif tout de même... :o
 
Dans l'absolu, c'est effectivement inadmissible que l'OCP passe par le pilote, vu que ça va à l'encontre de toute logique... surtout que ça arrive ~1 an après la blague du pilote arrêtant le ventilo.
 
Il reste à espérer qu'ils vont enfin comprendre qu'une contre-mesure doit être au plus bas niveau possible, quand bien même ça ne soit ici qu'un problème isolé... quand le PC ou le pilote va planter, ça va donner quoi? Est-ce sérieux, surtout avec des cartes dont certaines versions sont vendues à plus de 1000€ pour des équipements critiques?
 
 

tridam a écrit :

J'ai démonté la carte après mais je n'ai rien vu de brûlé. Là, elle est repartie chez NV qui voulait vérifier de son côté.


Si tu as des nouvelles, elles seront les bienvenues :jap:
 
En tout cas, pour moi ça ressemble à première vue à un défaut d'isolation dans la conception du PCB.

Message cité 1 fois
Message édité par Gigathlon le 25-03-2011 à 18:47:50
n°7843869
mum1989
Posté le 25-03-2011 à 18:51:19  profilanswer
 

Citation :

Un pwal excessif tout de même...  
 
Dans l'absolu, c'est effectivement inadmissible que l'OCP passe par le pilote, vu que ça va à l'encontre de toute logique... surtout que ça arrive ~1 an après la blague du pilote arrêtant le ventilo.  
 


c'est inamissible que ça claque tout court, surtout pour le prix de ces cartes, comme la 6990 qui n'est pas garantie officiellement par AMD sur le mode "explosion conso".
 

Citation :

. quand le PC ou le pilote va planter, [...]


c'pas faux !

n°7843956
tridam
Profil : Equipe HardWare.fr
Posté le 25-03-2011 à 19:59:45  profilanswer
 

Ce sera réglé sur la prochaine génération. AMD est en avance parce qu'ils ont rencontré le problème plus tôt, avec les HD 4800.

n°7844260
Gigathlon
Quad-neurones natif
Posté le 26-03-2011 à 09:20:25  profilanswer
 

C'est beaucoup plus vieux que ça chez AMDATI ;)
 
Ca date au moins du R520 le passage au tout hardware, sauf qu'évidemment à l'époque l'OCP était moins critique :whistle:

n°7845223
Profil sup​primé
Posté le 27-03-2011 à 03:47:06  answer
 

j'ai une gigabyte gtx590 depuis hier et ça gère.
 
elle ne chauffe pas et ne fait pas de bruit. top top vivement la sortie du wb.
 
par contre le driver 287.65 n'est pas whql, je ne déplore qu'un seul bug qui est quand même pas minime : écran noir puis ventilateur qui tourne à fond donc obliger de reset.
 
edit : est-ce que ça viendrait du driver, ou bien du sli avec le gpu master qui a un vid plus bas que l'esclave, ou bien d'un problème de hardware tout simplement.

Message cité 2 fois
Message édité par Profil supprimé le 27-03-2011 à 03:48:39
n°7845229
hyksos_sow​o
Posté le 27-03-2011 à 04:47:04  profilanswer
 

Gigathlon a écrit :


Un pwal excessif tout de même... :o
 
Dans l'absolu, c'est effectivement inadmissible que l'OCP passe par le pilote, vu que ça va à l'encontre de toute logique... surtout que ça arrive ~1 an après la blague du pilote arrêtant le ventilo.
 
Il reste à espérer qu'ils vont enfin comprendre qu'une contre-mesure doit être au plus bas niveau possible, quand bien même ça ne soit ici qu'un problème isolé... quand le PC ou le pilote va planter, ça va donner quoi? Est-ce sérieux, surtout avec des cartes dont certaines versions sont vendues à plus de 1000€ pour des équipements critiques?
 
 


ça ouvre également la porte grande ouverte à des VRAI power virus qui crame ta carte graphique en désactivant l'OCP dans le driver...
 
Pouvoir briser du matériel valant plusieurs centaine d'euro avec un simple petit logiciel malveillant...

n°7845230
Cizia
Posté le 27-03-2011 à 04:59:17  profilanswer
 


 
 
garde le portable a proximité tout de même,le 18 est gratos  :D


---------------
“ je n’ai jamais joué, j’ai vécu ”  ~ Alain Delon
n°7845232
jibolin
ça pousse pas dans le desert
Posté le 27-03-2011 à 07:29:00  profilanswer
 

Franchement les concepteurs de cartes graph sont au pied du mur, contrairement à intel qui fait les choses proprement, leurs architectures n’évoluent quasiment plus et leur guerre commerciale se résume à pousser les watts comme des porchons jacky moumoute.
Ne subventionnez pas cette aberration ou vous finirez avec un dé en peluche et un sapin magique autour du coup.

n°7845235
manut2500
Posté le 27-03-2011 à 07:56:12  profilanswer
 

Le gros problème est simplement qu'ils arrivent au max du 40nm et que le retard sur le 28nm les obligent à occuper le terrain en attendant l'année prochaine pour les prochains haut de gamme en 28nm.

n°7845257
jibolin
ça pousse pas dans le desert
Posté le 27-03-2011 à 09:33:37  profilanswer
 

En effet ils n'ont rien à proposer en dehors de la gravure.
on disait la même chose en 2008 le 40nm allait tout sauver il a tenu un an avant que la conso explose à nouveau, pendant ce temps intel qui a mis les bouchées doubles pour abandonner son archi netburst commence à en toucher les fruits, il ont de la marge pour intégrer une puce graphique, de l'autre AMD/Nvidia dev ... l'étage d'alim :D
Mais attention en Military gimmick class machin pour faire avaler la pilule d'un gouffre à courant obsolète en 12 mois.
Intel va très vite, les trois petits cochons ont deja perdu la maison des cpus, AMD s'est réfugié chez Ati, en 2012 ivy bridge va les croquer sur mobile/i-mac. Ils finiront perchés à 600watt sur 5 écrans 3D quand intel secourra le pommier avec solution de gaming viable sur un écran et il y aura encore un mort.


Message édité par jibolin le 27-03-2011 à 11:01:32
n°7845262
lamedor31
Posté le 27-03-2011 à 09:52:22  profilanswer
 


 
Je pense que ça vient du driver avec toutes les protections qu'ils ont mises pour l'ocp, il peut rester encore quelques bugs.
Ps: 3mois de TT ça va être long pour toi ...


---------------
Ma Config  
n°7845286
hawak's
CLOCKER en RETRAITE...
Posté le 27-03-2011 à 11:06:01  profilanswer
 

Mise à part les intérêts pour monsieur nvidia et AMD de remplir davantage leurs comptes en banque...
 
J'ai beau réfléchir de long en large quel était l'intérêt réel pour un gamer ou toxico de l'extrême d'acquérir une telle carte en comparatif des mono...
 
Je n'en vois toujours pas...  
 
 
---------------  
http://img1.sunderpicture.com/j/a/z/jazzjazzbazz/classifiedcrewv2-196460d5787ab9b6747be674d8d632c8.pngRepose en paix Frèro : hitachi974

n°7845290
lamedor31
Posté le 27-03-2011 à 11:11:40  profilanswer
 

Bah si, c'est du 2 en 1 :D


---------------
Ma Config  
n°7845299
hawak's
CLOCKER en RETRAITE...
Posté le 27-03-2011 à 11:30:01  profilanswer
 

lamedor31 a écrit :

Bah si, c'est du 2 en 1 :D


Je me glisse dans ton raisonnement…. :sol:  
En toute honnêteté et pour nous clients, ton 2 en 1 vaut donc deux mono distinctes ?  ;)  
 
 
---------------  
http://img1.sunderpicture.com/j/a/z/jazzjazzbazz/classifiedcrewv2-196460d5787ab9b6747be674d8d632c8.pngRepose en paix Frèro : hitachi974

n°7845301
lamedor31
Posté le 27-03-2011 à 11:35:18  profilanswer
 

2mono de 560 effectivement.


---------------
Ma Config  
n°7845307
jibolin
ça pousse pas dans le desert
Posté le 27-03-2011 à 11:41:38  profilanswer
 

ils feraient bien de développer des GPU multicores au lieu d'empiler des assiettes

n°7845321
hawak's
CLOCKER en RETRAITE...
Posté le 27-03-2011 à 11:56:39  profilanswer
 

lamedor31 a écrit :

2mono de 560 effectivement.


 
Compare avec ce qui est comparable, ;)  ;)  ne me sort pas un tel raisonnement qui ne vaut pas la peine d'être débattu.... ;)  
 
un 580 x2 en comparatif d'un 590, là si tu peux me sortir un réel intérêt pour la perf pour le client, je suis prêt à te lécher les pieds...  
Inutile donc de se voilé la face en toute honnêteté...  
Le réel bénéficiaire pour ces Bi GPU's très haut de gamme, c'est eux, mais certainement pas nous clients…
 
 
---------------  
http://img1.sunderpicture.com/j/a/z/jazzjazzbazz/classifiedcrewv2-196460d5787ab9b6747be674d8d632c8.pngRepose en paix Frèro : hitachi974

n°7845328
lamedor31
Posté le 27-03-2011 à 12:03:24  profilanswer
 

Je n'ai pas dit le contraire, après on peut toujours lancer un débat multi-gpu contre monogpu.
Chacun de ces systèmes ont leurs avantages et leurs inconvénients.
En perf pure le sli sera toujours plus perf que la carte multi gpu, mais le prix n'est déjà plus le même, les niveaux sonores sont souvent plus élevés, la conso idem etc...
 
Après certaines personnes achèteront cette carte pour se faire un quad, même si ça ne sert à rien.
Bref nvidia n'aurait jamais sorti une carte pareille, si il n'y avait pas d'acheteurs au bout.


Message édité par lamedor31 le 27-03-2011 à 12:03:47

---------------
Ma Config  
n°7845383
hawak's
CLOCKER en RETRAITE...
Posté le 27-03-2011 à 12:40:59  profilanswer
 

Comme dab, la vache à lait dans tout ca, sera encore le client, c'est à eux que vont mes pensées et encore + à ceux qui ne suivent pas l'actu informatique et qui ne verront que du feu, lorsqu'on va leur proposer un produit pareil...
 
Oueèè..Vraiment dommage...  :??:  
 
---------------  
http://img1.sunderpicture.com/j/a/z/jazzjazzbazz/classifiedcrewv2-196460d5787ab9b6747be674d8d632c8.pngRepose en paix Frèro : hitachi974


Message édité par hawak's le 27-03-2011 à 12:42:45
n°7845400
lamedor31
Posté le 27-03-2011 à 13:11:19  profilanswer
 

Bah c'est ça le commerce en même temps ...


---------------
Ma Config  
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8

Aller à :
Ajouter une réponse
 

Sujets relatifs
drivers GTX 570 plus forcer réglages??Que penser de la 6990 HD d'AMD/ATI
GTX 570 : quel modèle choisir?GEFORCE GTX 460 compatible Dell 7100
Temperature GTX 570Résolu GTX 470 - chute du clock GPU et mémoire - fps fortement réduit
MSI GeForce GTX 560 Ti 1Go Twin Frozr II 
Plus de sujets relatifs à : Que penser de la GTX 590 de n'vidia


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR