Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2792 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12
Auteur Sujet :

[HFR] Dossier : Nvidia GeForce GTX 1080, le premier GPU 16nm en test !

n°9818576
bgx
reviens brunette!
Posté le 27-05-2016 à 00:06:23  profilanswer
0Votes positifs
 

Reprise du message précédent :
clair izi d'avoir du LN2 en 24/24!

mood
Publicité
Posté le 27-05-2016 à 00:06:23  profilanswer
 

n°9819661
BiflaThor
Posté le 27-05-2016 à 20:01:17  profilanswer
0Votes positifs
 

on est pas encore 4k ready, mais on y est presque.

n°9819714
blazkowicz
Posté le 27-05-2016 à 20:51:28  profilanswer
0Votes positifs
 

B00lay Ier a écrit :

En CRT, t'avais en gros Iiyama/Mitsubishi et Sony... le reste c'était beaucoup daubé.
 
Je regrette encore un peu mes A702HT (17" sans courbure Diamondtron, le Trinitron qui venait pas de chez Sony, donc) en 1600x1200@75Hz, bien que je me sois fait à la légèreté et à la taille des LCD...
 
A côté de ça, je regrette pas du tout le Nec tout aussi plat que j'avais acheté sur la fin (max 1280@60Hz).


 
je regrette mon IBM (fabriqué par qui je sais pas) qui faisait du 1024 100Hz mais sans trinitron ou diamondtron, il était dpnc un peu bombé et moins net qu'un iiyama. M'enfin, on aurait pu avoir un 21" 16/10 avec dual link DVI

n°9819757
blazkowicz
Posté le 27-05-2016 à 21:08:28  profilanswer
0Votes positifs
 

B00lay Ier a écrit :


Me semble que les GL c'est justement ça... par contre y'a du monde et l'existence de versions A et B est chelou.
 
Vu d'ici, GP107 et GP108 sont de trop.


 
C'est plutôt bien d'avoir quelque chose pour les upgrades et les CG mortes.
AMD est pas folichon sur le bas de gamme.

n°9819768
vanloque
Someone broke my AT Field
Posté le 27-05-2016 à 21:14:42  profilanswer
0Votes positifs
 

ockiller a écrit :

Les CRT dans les animations rapides ça tue tout ! Pour dire ça reste super facile de lire une page web pendant qu'on la fait défiler, c'est tout bonnement impossible avec les LCD. Sauf peut-être les 120 Hz ou ceux avec un mode "low persistance" / "black frame insertion", ...


Je confirme que le 144hz c'est époustouflant même en bureautique/web !  :love:  
 
Pour le grand public ça serait une bonne chose que le standard devienne au moins 85hz, même en écrans bas de gamme.


---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9819790
mrdoug
Posté le 27-05-2016 à 21:33:01  profilanswer
0Votes positifs
 

vanloque a écrit :


Je confirme que le 144hz c'est époustouflant même en bureautique/web !  :love:

 

Pour le grand public ça serait une bonne chose que le standard devienne au moins 85hz, même en écrans bas de gamme.

 

Carrément. On voit clairement la différence juste sur le déplacement des fenêtres.
Les écrans IPS en 120/144hz sont les dignes successeurs des écrans CRT.


Message édité par mrdoug le 27-05-2016 à 21:36:01
n°9819798
drynek
Posté le 27-05-2016 à 21:42:49  profilanswer
0Votes positifs
 

vanloque a écrit :


Je confirme que le 144hz c'est époustouflant même en bureautique/web !  :love:  
 
Pour le grand public ça serait une bonne chose que le standard devienne au moins 85hz, même en écrans bas de gamme.


Madame michu s'en contre fou d'avoir plein de mhz pour aller sur facebook et youtube d'un autre côté,  donc la qualité des écrans bas de gamme est pas près de changer   :lol:  
Le fait est que du 144hz ça roxe bien.
Après j'attends de voir un écran HDR en vrai aussi si ça décolle vraiment la  rétine, la qualité peut primer sur la résolution parfois

n°9820109
vanloque
Someone broke my AT Field
Posté le 28-05-2016 à 09:41:31  profilanswer
0Votes positifs
 

drynek a écrit :


Madame michu s'en contre fou d'avoir plein de mhz pour aller sur facebook et youtube d'un autre côté,  donc la qualité des écrans bas de gamme est pas près de changer   :lol:  
Le fait est que du 144hz ça roxe bien.
Après j'attends de voir un écran HDR en vrai aussi si ça décolle vraiment la  rétine, la qualité peut primer sur la résolution parfois


Oui bon certes :D
 
Damien, je crois, avait donné son ressenti après des démos d'écrans HDR sur un salon l'an dernier et il disait en effet qu'à choisir entre 4k et HDR-WideGamut, le plus gros gain de qualité visuel est clairement fourni par le second.
Biensûr, 4K+HDR c'est la combinaison de rêve. :D


---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9820124
martyx
Posté le 28-05-2016 à 09:52:04  profilanswer
0Votes positifs
 

Citation :


A l'époque, la 290X Tri-X se situait entre les 780 et 780 Ti Gaming, désormais elle est au niveau de la Ti Gaming. Il en vas de même pour la 980 de référence qui était également entre les deux, un peu plus proche de la 780 Ti Gaming, et qui désormais a pris l'avantage sur la 780 Ti Gaming. Sans analyse plus poussée, il est impossible d'affirmer que cela vient d'un manque d'optimisation des pilotes ou d'une balance de la charge des derniers titres plus en défaveur d'une architecture qui pèche par son fillrate, mais en attendant les possesseurs de ces cartes en sont pour leurs frais...


 
Ou une amélioration des drivers AMD ?
Perso depuis que j'ai une 290X j'ai remarqué une amélioration de +/- 30% sur la plupart de mes jeux.

n°9820246
dakidator
Posté le 28-05-2016 à 11:40:31  profilanswer
0Votes positifs
 

Il est clair qu'en rapport, contraste,remanence,input lag, resolution et couleurs, le CRT a encore de beaux arguments meme si c'est lourd, que ca consomme et c'est "demodé".... Diamondtron (mitsu,iiyama)vs trinitron (sony) je dirai kif kif, avantage en netteté au diamontron mais le trinitron a une bien meilleure géométrie et convergence au coins... Je prefere min g 520P sony que mon iiyamma VM pro 451...

mood
Publicité
Posté le 28-05-2016 à 11:40:31  profilanswer
 

n°9820248
dakidator
Posté le 28-05-2016 à 11:44:33  profilanswer
0Votes positifs
 

D'ailleurs pour faire "cracher" un CRT et que son proprio conait par coeur sa table EDID, il y a Custom resolution utility qui marche a merveille, j'ai pu meme depasser certaine spef du genre: 1600*1200 @100hz-@108hz; voir meme 1920*1440 @91hz!!! Garanie qu'en jeux ca deboite!!

Message cité 1 fois
Message édité par dakidator le 28-05-2016 à 11:45:21
n°9823098
alexdey
Posté le 30-05-2016 à 15:54:54  profilanswer
1Votes positifs
 

Votre test est bien mené et complet, c'est assez agréable de pouvoir se fier quasi les yeux fermés à votre jugement. Seul petit bémol selon moi je trouve que vous ne mettez pas suffisamment en avant le prix un peu exorbitant de la carte. A 699$ la FE, c'est plus cher que la 980ti et donc d'un coup le 30% de gain est à relativiser. Après c'est sure que le prix peut être placé à peu près où nVIDIA le veut, ça reste la plus puissante mono-gpu du marché...

n°9828524
blazkowicz
Posté le 02-06-2016 à 18:38:26  profilanswer
0Votes positifs
 

dakidator a écrit :

D'ailleurs pour faire "cracher" un CRT et que son proprio conait par coeur sa table EDID, il y a Custom resolution utility qui marche a merveille, j'ai pu meme depasser certaine spef du genre: 1600*1200 @100hz-@108hz; voir meme 1920*1440 @91hz!!! Garanie qu'en jeux ca deboite!!


 
Et puis inventer une résolution qui n'existe pas, aussi.

n°9828531
blazkowicz
Posté le 02-06-2016 à 18:41:44  profilanswer
1Votes positifs
 

dakidator a écrit :

Il est clair qu'en rapport, contraste,remanence,input lag, resolution et couleurs, le CRT a encore de beaux arguments meme si c'est lourd, que ca consomme et c'est "demodé".... Diamondtron (mitsu,iiyama)vs trinitron (sony) je dirai kif kif, avantage en netteté au diamontron mais le trinitron a une bien meilleure géométrie et convergence au coins... Je prefere min g 520P sony que mon iiyamma VM pro 451...


 
oui les iiyama ont vraiment une géométrie pourrie, et qui bouge en fonction de la chauffe, de l'heure, du climat ou des phases de la lune.

n°9829469
john duffy
Posté le 03-06-2016 à 14:53:45  profilanswer
0Votes positifs
 

Petite question concernant votre façon de comparer les gpu (d un point de vue redactionnel),il ne serait pas plus juste de parler du retard d'un gpu A par rapport au gpu B ? (le B étant celui testé)
 
Par exemple vous parlez d une avance de 38% de la 1080 sur la fury x,donc on se base sur la radeon pour quantifier l'écart de perf entre ces 2 gpu,hors c est un test de la gtx.
Alors que si on se base sur l intéressé du jour on parlerait d un retard de 28% de la radeon sur la gtx.
C est la même chose au final,l'écart reste le même,mais je trouve ça moins influençant pour le lecteur qui s'informe dans le but de changer de carte graphique.
Personnellement je trouve ça plus pertinent et impartial (et par la je ne suis pas du tout entrain de remettre en question votre indépendance vis à vis de ces deux la)
 
Ceci n est pas du fanboyisme afin d essayer de minimiser la casse pour amd ni de la haine anti nvidia,j ai même pô de gpu donc bon :o

n°9829606
B00lay Ier
Posté le 03-06-2016 à 16:12:48  profilanswer
1Votes positifs
 

On compare toujours par rapport à l'existant, parler de "retard par rapport à une carte qui vient de sortir" pour une qui a plus de 6 mois, c'est pas très propre... :o

n°9830029
dakidator
Posté le 04-06-2016 à 02:45:05  profilanswer
0Votes positifs
 

@blazkowicz
lol la resolution qui n'existe pas!!!!! d'ou le 1920x1440 n'existe pas!!! y'a pas que le 1920x1080@60 qui existe hein...par contre les phases lunaires et le climat ont l'air de sacrement te rendre sarcastique voir meme désagréable...

n°9830258
petit-tigr​e
miaou
Posté le 04-06-2016 à 12:19:28  profilanswer
0Votes positifs
 

Bien sur que le 1920*1440 existe :o
C'est la version 4/3 du 1440p


---------------
mIaOuUuUuUuUuUu
n°9831729
fanboy34
water coolin' powa!!! :o
Posté le 05-06-2016 à 21:30:04  profilanswer
0Votes positifs
 

petit-tigre a écrit :

Bien sur que le 1920*1440 existe :o
C'est la version 4/3 du 1440p


 
Sur un écran CRT?  :??:


---------------
mon topic [ACH/VDS/ECH/DONS] :o
n°9831770
petit-tigr​e
miaou
Posté le 05-06-2016 à 22:40:21  profilanswer
0Votes positifs
 

Oui, les Liyama vision master en 19" par exemple le proposaient jusqu'à 73hz.

 

Mais tu peux la recréer avec ton LCD 2560*1440, ce sera le pendant 4/3 de celui-ci et ce sera même natif. Même chose pour le 1440*1080 sur un écran 1080p.


Message édité par petit-tigre le 05-06-2016 à 22:40:55

---------------
mIaOuUuUuUuUuUu
n°9831955
hisvin
Posté le 06-06-2016 à 07:47:52  profilanswer
0Votes positifs
 

75 Hz en CRT, tu perds tes yeux à la fin de la journée. :sweat:

n°9831982
B00lay Ier
Posté le 06-06-2016 à 08:58:07  profilanswer
0Votes positifs
 

Je pense qu'après avoir évoqué le 1152x864 on pourra finir le HS :o

 

Hisvin> 75Hz ne scintillait pas sur mes VMP411, à l'inverse de 60Hz, et certains écrans ne scintillaient même pas à 60Hz du fait de phosphores particulièrement lents à perdre leur luminescence.


Message édité par B00lay Ier le 06-06-2016 à 11:42:51
n°9832110
petit-tigr​e
miaou
Posté le 06-06-2016 à 11:19:58  profilanswer
0Votes positifs
 

hisvin a écrit :

75 Hz en CRT, tu perds tes yeux à la fin de la journée. :sweat:


Bah tu ne t'en servais pas tous les jours non plus.
 
En usage bureautique, tu préférais un 1280*1024 à 100hz voire au delà. Ca ne gérait pas le hi-dpi encore côté OS donc au-dessus du 1280, ça faisait trop petit.
 
Et en jeu, fallait la config pour soutenir le 1920. Je me rappelle m'en être servi sur GTA Vice City (entre autre) avec ma 9700 Pro. Ca m'avait tué une telle qualité d'image à l'époque. Par contre, avec les Far Cry/HL2 et autres un peu plus tard, c'est vite devenu inexploitable. Au final, tu te servais du 1280 95% du temps mais oui, c'était possible de taper dans le 1920, déjà à cette époque, un peu comme la 4K aujourd'hui.


---------------
mIaOuUuUuUuUuUu
n°9832221
samurai80
Posté le 06-06-2016 à 12:49:06  profilanswer
0Votes positifs
 

Article tres interessant comme d'hab ! :)  Je ne connaissais pas le nombre de transistors presents sur la puce Pascal GP100 de 610 mm² (15,3 milliards) mais je m'attendais a plus.
 
Je travaille sur des FPGAs et en ce moment meme sur une carte avec un FPGA Xilinx (Virtex Ultrascale VU440) dont on se sert pour faire du prototypage d'ASICs. Ce FPGA est le plus gros actuellement disponible et comporte 20 milliards de transistors graves en 20nm. Le concurrent Altera (recemment rachete par Intel) a deja annonce sa puce haut de gamme avec 30 millards de transistors graves en 14nm Intel Tri-gate (meme si elle n'est pas encore dispo). Xilinx devrait faire de meme avec ses UltraScale+ en 16nm FinFET TSMC.
 
Bref tout ca pour dire que malgre un marche plus petit, les FPGAs semblent presque en avance sur les GPUs en terme de transistors.
 
La difference avec les GPUs vient surtout du fait que les FPGAs haut de gamme sont fabriques en mettant cote a cote des petits die appeles SLRs pour former une enorme puce (http://www.xilinx.com/support/documentation/white_papers/wp380_Stacked_Silicon_Interconnect_Technology.pdf page 4). Dans la derniere version (Ultrascale +), on superpose de la SRAM par dessus tout ca.
 
Bon apres le prix du FPGA sur lequel je bosse est autour de 50000$ :whistle:

n°9832244
B00lay Ier
Posté le 06-06-2016 à 13:22:29  profilanswer
0Votes positifs
 

samurai80 a écrit :

Bref tout ca pour dire que malgre un marche plus petit, les FPGAs semblent presque en avance sur les GPUs en terme de transistors.


Pas grand chose à voir quand même...
 
Dans un FPGA tu n'as pas trop à te soucier d'une consommation de fou et ça se résume à des couples mémoire/multiplexeurs.
 
Quand tu vois que chez AMD ils nous ont marketté une interface mémoire à 1To/s en interne et que les bestiaux doivent pouvoir encaisser des consommations de 150-300W (donc un routage costaud pour l'alimentation notamment), ça relativise pas mal.

n°9832258
samurai80
Posté le 06-06-2016 à 13:37:43  profilanswer
0Votes positifs
 

B00lay Ier a écrit :


Pas grand chose à voir quand même...

 

Dans un FPGA tu n'as pas trop à te soucier d'une consommation de fou [...]


Oui je suis d'accord, disons que le nombre de transistors est limité par la conso dans le cas des GPU ce qui n'est pas vraiment le cas pour les FPGAs. Donc on a moins besoin d'en avoir le plus possible dans le cas de GPUs. Loin de moi l'idee de dire que les deux types de puces sont réellement comparables, mais ca reste quand meme intéressant de noter la difference niveau techno.

 
Citation :

ça se résume à des couples mémoire/multiplexeurs.


Oui et non, je pense pas qu'on puisse dire qu'un FPGA soit forcement moins complexe qu'un GPU a mon humble avis. M'enfin bon on s'eloigne du sujet de toutes facons...

 
Citation :

Quand tu vois que chez AMD ils nous ont marketté une interface mémoire à 1To/s [...] ça relativise pas mal.


Ca fait effectivement rapide pour de la memoire mais si tu prends le domaine de l'interface serie en general, difficile de battre les FPGAs qui sont un peu les rois dans le domaine (utilises dans les telecoms, pour les grosses liaisons fibres optiques surtout). On est deja a une trentaine de Gb/s par paire differentielle et une interface a 56Gb/s est en cours de test chez Xilinx et Altera.


Message édité par samurai80 le 06-06-2016 à 15:02:34
n°9836562
pierre242
Posté le 10-06-2016 à 10:58:19  profilanswer
0Votes positifs
 

Je serais curieux de voir un comparatif entre une 1080 et un SLI 980

n°9837301
f67
Posté le 10-06-2016 à 16:51:24  profilanswer
1Votes positifs
 

A l'occasion on pourrait avoir un article comme celui-là : http://www.hardware.fr/focus/67/en [...] ksync.html
mis à jour avec le HEVC pour voir si la qualité s'est améliorée depuis.
 

n°9837309
natijah
Posté le 10-06-2016 à 16:54:34  profilanswer
1Votes positifs
 

+1 f67


---------------
Quand le dernier arbre aura été abattu - Quand la dernière rivière aura été empoisonnée - Quand le dernier poisson aura été péché - Alors on saura que l’argent ne se mange pas.
n°9840819
blazkowicz
Posté le 13-06-2016 à 16:38:29  profilanswer
0Votes positifs
 

dakidator a écrit :

@blazkowicz
lol la resolution qui n'existe pas!!!!! d'ou le 1920x1440 n'existe pas!!! y'a pas que le 1920x1080@60 qui existe hein...par contre les phases lunaires et le climat ont l'air de sacrement te rendre sarcastique voir meme désagréable...

 

aïe j'ai vraiment écrit ça au premier degré :lol:, à la va-vite. Je voulais dire et puis l'on peut créer et ajouter n'importe quelle résolution qui "n'existe pas" officiellement. !!!
Le pc était mort ce jour là. Passons sur le fait d'entrer un commentaire sur un de ces pseudo-ordinateurs qui font croire (ou essaient) que t'as pas besoin de clavier, et sans y passer cinq minutes.

 


Donc gros contresens de malade. Au contraire j'ai eu du 1200x900 85Hz (pour un écran qui ne le tenait pas en 1280), plus récemment du 960x720 90Hz sur un bas de gamme (c'est moche mais ça repose un peu les yeux) et c'est reconnu dans les jeux.

 

Je retiens le compentaire sur la résolution 4/3 avec un LCD 16/9, ça doit marcher avec un certains nombre de jeux anciens? Peut-on jouer en 2880x2160 à Unreal Tournament 1 avec bandes noires sur les côtés? (si un vieux directX ne limite pas la réso max à 2048x2048)

 

sinon.. La GTX 1080, combien de fps sous quake 3 en 5K? :whistle:


Message édité par blazkowicz le 13-06-2016 à 16:40:09
n°9845139
Profil sup​primé
Posté le 16-06-2016 à 19:03:10  answer
0Votes positifs
 

35 piges! You made my day! Merci à Marc et à toute l'équipe d'HFR.

n°9845479
pronitron
Quoi?! Oui, quoi?!
Posté le 17-06-2016 à 00:59:52  profilanswer
0Votes positifs
 

Il faut attendre !
 
Grosse baisse de prix sur les GeForce GTX 980 Ti, 980 et 970
 
Les nouvelles GeForce GTX 1080 et GTX 1070 sont aujourd'hui les meilleures cartes graphiques du marché. Elles n'ont qu'un défaut : les stocks sont si bas qu'il est presque impossible d'en acheter une au prix recommandé par Nvidia. Heureusement, leur sortie a précipité les prix de la précédente génération vers le bas. Selon Hardware.info, Nvidia a accordé une remise de 125 dollars sur la GTX 980 Ti, de 75 dollars sur la GTX 980 et de 25 dollars sur la GTX 970.
 
En France, ces baisses se sont déjà répercutées et on trouve aujourd'hui les GTX 970 à partir de 280 euros en moyenne, voire 260 euros pour quelques modèles. Les GeForce GTX 980, sont tombées sous les 400 euros, certaines très près des 300 euros ! Enfin, les GTX 980 Ti se négocient aujourd'hui à 500 euros, alors qu'elles coûtaient encore 150 euros de plus il y a un mois. On en trouve même à 450 euros.
 
La rx 480 fait peur !
 
:bounce:


Message édité par pronitron le 17-06-2016 à 01:00:48
n°9845758
le mougeon
Posté le 17-06-2016 à 12:03:41  profilanswer
0Votes positifs
 

Une GTX 980 TI à 439,90€ neuve :love:
 
http://www.rueducommerce.fr/Compos [...] 0M58197056

n°9845812
Space
Profil: Maux des rateurs
Posté le 17-06-2016 à 12:35:26  profilanswer
0Votes positifs
 

elle est à 427€ sur top achat


---------------
Ma cinémathèque
n°9845827
le mougeon
Posté le 17-06-2016 à 12:46:42  profilanswer
0Votes positifs
 

Space a écrit :

elle est à 427€ sur top achat


 
C'est quand même super tentant !!!!
Mais bon, les prix ne remonteront pas avec la future disponibilité des GTX1070 customs & l'arrivée des RX 480 !
Soyons patient !


Message édité par le mougeon le 17-06-2016 à 12:47:01
n°9850564
maxxximato​ze
Posté le 21-06-2016 à 16:16:27  profilanswer
1Votes positifs
 

@Damien, les saccades sous GTA5 avec les radeon sont dues au passage à win10 (pas de prob sous 7), le jeu détecte 59hz à l'affichage au lieu de 60hz sous win7 pour les résolutions standard. Si tu utilises la super résolution (ex 2560 sur un écran en 1080) le jeu passe a 60hz et la vsync n'accroche plus une fois par seconde. Il semble que cela soit un bug du jeu qui détecte/ajuste mal la fréquence de refresh sous win10 avec radeon. Cordialement.

n°9859970
Cousnouf
Posté le 29-06-2016 à 13:32:18  profilanswer
0Votes positifs
 

Hey les mecs vous faites quand le test de la 1070...?? allez quoi, lancer FRAPS et jouer ça prend pas trop de temps quand même :D

n°9860979
vanloque
Someone broke my AT Field
Posté le 29-06-2016 à 17:28:51  profilanswer
0Votes positifs
 

Ok donc je comprends pourquoi vous avez autant détaillé tout le fonctionnement du nouveau boost de Nvidia.
 
AMD va maintenant dans la même direction niveau comm :jap:


---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9874457
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 09-07-2016 à 20:57:17  profilanswer
0Votes positifs
 

Test sur Tomb Raider à refaire si possible (pendant les tests GTX 1060/RX 480). Avec le dernier patch ils ont corrigés le VXAO pour les geforce 10xx, mais aussi rajouté du "async compute" pour GCN/Pascal. Curieux de voir comment se comporte les cartes concernées (même si encore une fois ça reste du jeu adapté et non créé pour DX12)


Message édité par Paul-Hewson le 09-07-2016 à 20:57:48
n°9874708
vanloque
Someone broke my AT Field
Posté le 10-07-2016 à 09:01:21  profilanswer
0Votes positifs
 

Dites voir, hier soir j'ai pensé à un truc suite au test de la 1080 qui soulève le fait qu'au final le GPU perd en efficacité énergétique plus il monte en température. Ce qui n'a rien d'une grosse révélation, ou je me trompe.
 
Mais ça signifie bien que tous les GPU (et CPU) sont concernés par ce phénomène depuis longtemps n'est-il pas ?
Et donc si on a pas peur ou pas gêné par le bruit de refroidissement, il vaut mieux privilégier une température GPU basse tout le temps non ? :)
 
Un undervolt serait aussi plus stable sous certains paliers de T° ?
 
Je pense à ça pour ma chtite 390X qui a une grosse capacité de refroidissement et la plupart du temps je ne peux pas être gêné car je joue au casque.


---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9884447
samurai80
Posté le 19-07-2016 à 12:41:58  profilanswer
0Votes positifs
 

vanloque a écrit :

Dites voir, hier soir j'ai pensé à un truc suite au test de la 1080 qui soulève le fait qu'au final le GPU perd en efficacité énergétique plus il monte en température. Ce qui n'a rien d'une grosse révélation, ou je me trompe.
 
Mais ça signifie bien que tous les GPU (et CPU) sont concernés par ce phénomène depuis longtemps n'est-il pas ?
Et donc si on a pas peur ou pas gêné par le bruit de refroidissement, il vaut mieux privilégier une température GPU basse tout le temps non ? :)
 
Un undervolt serait aussi plus stable sous certains paliers de T° ?
 
Je pense à ça pour ma chtite 390X qui a une grosse capacité de refroidissement et la plupart du temps je ne peux pas être gêné car je joue au casque.


Les courants de fuite augmentent en fonction de la temperature et sont une cause importante de la consommation "statique" d'un composant (consommation d'un transistor qui existe lorsque le signal ne switch pas). Cela dit cette part est relativement faible. Mais ca augmente l'ensemble des courants donc ca augmente forcement la conso dynamique egalement.
 
C'est vrai que je serais curieux de voir de combien varie la consommation en fonction de la temperature.
EDIT: y'a un article la dessus :
https://www.techpowerup.com/reviews [...] on/27.html "for every °C that the card runs hotter it needs 1.2W more power to handle the exact same load"


Message édité par samurai80 le 19-07-2016 à 12:55:20
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12

Aller à :
Ajouter une réponse
 

Sujets relatifs
La GTX 965M est elle suffisante pour faire du montage vidéo?Une 1080 ou une 1070 avec cette config ?
[HFR] Actu : Concours : réponses et gagnants !Carte graphique nvidia GTX 460
[HFR] Actu : Le rachat de SanDisk par WD finaliséNvidia shield tv problème geforce now jeux fr
GTX 970 avec cette vieille config?[HFR] Actu : X99A Gaming Pro Carbon chez MSI
Plus de sujets relatifs à : [HFR] Dossier : Nvidia GeForce GTX 1080, le premier GPU 16nm en test !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR