Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1604 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12
Auteur Sujet :

[HFR] Dossier : Nvidia GeForce GTX 1080, le premier GPU 16nm en test !

n°9810399
drynek
Posté le 18-05-2016 à 17:54:37  profilanswer
0Votes positifs
 

Reprise du message précédent :

meluche a écrit :

certain parlent de l'absence de vga, sans moi donc, mon écran est pourtant récent c'est un view sonic en ips 60hz 23P bien sur on peut le brancher en HDMI mais les couleurs sont dégueulasses.
Bref de toute façon ayant un SLI de 970 je vois pas l'intérêt hormis la consso :)


c'est un choix pas idiot d'un autre côté c'est une carte HDG prévu pour des résolutions de 1440p voir 4k dans l'idée pourquoi lui coller un connecteurs incapable d'afficher cette résolution
le VGA sont gros soucis aussi c'est que plus tu monte en résolution plus il te faut de ramdac pour avoir un taux de rafraichissement potable, mais plus tu t'approche de la limite plus c'est flou (à confirmer mais il me semble que c'est un truc du genre)
donc impasse pour ce genre de carte, peut être il y sera sur les 1070 va savoir, mais je craint qu'il disparaisse avec pascal ou peut être la gamme GT ou sur une 1050  :)  

mood
Publicité
Posté le 18-05-2016 à 17:54:37  profilanswer
 

n°9810410
Ozar21
Posté le 18-05-2016 à 18:01:06  profilanswer
7Votes positifs
 

ravenloft a écrit :


Si aussi tu te trompes de cible c'est normal. La 1080 est la remplaçante de la 980 pas de la 980ti donc tu fais la mauvaise comparaison. Par rapport à la 980, c'est une carte viable niveau perf.  
 
La remplaçante de la 980ti niveau placement n'est pas sortit.
 
Le support vga, ça intéresse plus grand monde car quand tu achètes une CG de ce style tu achètes un écran de gamer qui va bien ou une tv gamer et aucun n'a du vga.
 
 
Dx12 vient de sortir il y a pas 1 an donc c'est normal qu'il soit encore peu utilisé. C'est comme ça pour tous les directx.


 
C'est une manœuvre commerciale/marketing d'Nvidia de faire croire aux gens qu'il y a une amélioration des performances à fréquences égales mais en réalité le GP104 vient en remplacement du GM200 comme pour chaque nouvelle carte HDG qui vient remplacer la précédente sans parler bien sûr du prix sans comparaison avec la GTX980.
 
il faut reconnaître que le GP104 n'apporte rien de vraiment neuf (sauf pour la VR et faudra attendre des applis pour ça) par rapport au GM200 et c'est en cela que je trouve cette carte décevante.
 
Nvidia se contente du strict minimum avec cette carte en boostant les fréquences tout en faisant payer le prix cher aux futurs acquéreurs (Est-ce le prix à payer pour financer la gravure à 16nm ?)

n°9810431
schpounzzz
mangeur de hardware.
Posté le 18-05-2016 à 18:24:19  profilanswer
1Votes positifs
 

Possibilité d'avoir l'Asic du modèle testé afin de savoir si le GPU a été sélectionné pour le test.
Juste par soucis de transparence vis à vis des futur acheteur dont moi!
Exit les "j'y crois, j'y crois pas", les 980ti KP ont bien été vendu sur ce point.
Merci!

n°9810432
KrisKross
Posté le 18-05-2016 à 18:25:50  profilanswer
0Votes positifs
 

tridam a écrit :


 
Les fréquences sont notées durant la mesure de performances ;) On est dans tous les cas obligés d'attendre que les cartes se stabilisent niveau fréquence, si on bench vite fait on mesure des performances trop élevées par rapport à la réalité.
 
Pour la consommation ce n'est pas exclu qu'on remplace the witcher 3 par qqch de plus gourmand, à voir.


 
OK, donc vu que vous devez vérifier cette fréquence de toute façon pour valider le relevé de fps/score/..., ça semble effectivement pas couter trop de temps, mis à part remplir le tableau.

n°9810436
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 18:29:05  profilanswer
2Votes positifs
 

schpounzzz a écrit :

Possibilité d'avoir l'Asic du modèle testé afin de savoir si le GPU a été sélectionné pour le test.
Juste par soucis de transparence vis à vis des futur acheteur dont moi!
Exit les "j'y crois, j'y crois pas", les 980ti KP ont bien été vendu sur ce point.
Merci!


 
Ce n'est pas encore supporté par GPU-Z pour les GTX 1080.
 

KrisKross a écrit :


 
OK, donc vu que vous devez vérifier cette fréquence de toute façon pour valider le relevé de fps/score/..., ça semble effectivement pas couter trop de temps, mis à part remplir le tableau.


 
Ce qui prend du temps c'est d'attendre que le GPU atteigne sa température de croisière :) Ca implique d'éviter les benchmarks intégrés dont la plupart surévalue les performances, ou de n'en utiliser qu'un segment, après que le GPU se soit stabilisé.


Message édité par tridam le 18-05-2016 à 18:31:37
n°9810438
Zurkum
Posté le 18-05-2016 à 18:31:31  profilanswer
1Votes positifs
 

Ça n'a aucun sens de comparer deux archi ( et process de plus ) à fréquence égale sachant qu'une des deux monte nettement plus en fréquence que l'autre ...
Tu compares la DDR2 et la DDR4 en mettant les deux à 667mhz ?!

n°9810440
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 18:32:41  profilanswer
2Votes positifs
 

Zurkum a écrit :

Ça n'a aucun sens de comparer deux archi ( et process de plus ) à fréquence égale sachant qu'une des deux monte nettement plus en fréquence que l'autre ...
Tu compares la DDR2 et la DDR4 en mettant les deux à 667mhz ?!


 
Il y a un intérêt pour comprendre ce qui a (ou pas) été amélioré, pas pour juger de l'intérêt des cartes. Mais pour cela il faudrait un nombre de SM identiques.

n°9810454
Zurkum
Posté le 18-05-2016 à 18:42:48  profilanswer
0Votes positifs
 

Enfin l'archi paraît assez peu dense ( moins que le maximum permis par le 16FF+ ) donc NVIDIA a bien dû faire des concessions pour cette augmentation de fréquence ?

n°9810457
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 18-05-2016 à 18:46:13  profilanswer
4Votes positifs
 

Ozar21 a écrit :

Je suis peut être le seul à penser ça mais je trouve cette GTX1080 décevante :
- pas d'amélioration des performances à fréquence égale par rapport à l'ancienne génération (GM200)
- support DX12 anecdotique
- Disparition support VGA
 
Quand on regarde la différence de performance entre la 980Ti SC+ (env 28%) et la différence de fréquence qui est de 30% (1,7Ghz gtx1080 et 1,2Ghz 980Ti SC+), on constate qu'il n'y a aucune amélioration.
 
Une GTX980 Ti cadencée à 1,7Ghz aurait peu ou prou des résultats identiques à la GTX1080.
 
Je serai aussi curieux de voir les performances d'une R9 Fury X cadencée à 1,7 Ghz sur AOTS.
 
Bref, circulez ya rien à voir en attendant la prochaine génération


 
- Tu as remarqué que la GTX 980Ti a 256 cuda core de plus que la 1080 j'espère ? Bon raisonnement, manque juste un peu d'analyse (à moins de t'y connaître comme damien, je doute que toi ou moi on puisse juger d'une différence réelle). Il y a des optimisations pour faire mieux (ou identique) avec moins.
 
- Support anecdotique de DX12 ? Moi je ne trouve pas, avoue que la seule chose que tu lui reproches c'est de ne pas gérer async. Sauf qu'async ce n'est qu'une infime partie de DX12 et que la GTX 1080 supporte beaucoup de fonctionnalités de DX12 dont certaines mises de côté par AMD avec ses Radeon.
Et la puissance brute de la GTX 1080 compense à première vue le manque d'async.
 
- Je ne connais pas beaucoup de gamer qui ne possède pas un écran avec au moins une prise hdmi ou display port de nos jours. On se paye pas une GTX 1080 pour jouer en 1280*1024 sur son vieux 19" :O
Nb : Il existe en plus peut-être des adaptateurs spécifiques dvi-d dvi-i, à vérifier.
 
Tu veux comparer toutes les cartes à fréquences égales ok, c'est bien. Mais si les autres cartes ne peuvent pas le tenir quel intérêt, n'est-ce pas ?
Est-ce que tu penses que la Fury ou la GTX 980Ti peuvent fonctionner h24 à 2Ghz par exemple ?
 
Bref tu peux passer ton chemin si ça ne te plait pas, mais ne présume pas que tout ce que tu dis est forcément vrai. Laisse ça à des personnes peut-être plus apte à analyser que toi ou moi...

Message cité 1 fois
Message édité par Paul-Hewson le 18-05-2016 à 18:47:05
n°9810460
schpounzzz
mangeur de hardware.
Posté le 18-05-2016 à 18:50:37  profilanswer
0Votes positifs
 

Tridam! Vous gardez l'échantillons combien de temps? Histoire de voir quand sera accepté l'asic des carte et si tu peux le partager du coup!
 
Merci d'avoir répondu en tout cas ;)

mood
Publicité
Posté le 18-05-2016 à 18:50:37  profilanswer
 

n°9810467
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-05-2016 à 18:56:38  profilanswer
2Votes positifs
 

ravenloft a écrit :

GP104: d'après toi qu'est-ce que ça signifie?
Indice: pense aux GK104 et GM204.
 
Réponse:
Non, ça ne vient pas en remplacement du GM200. C'est une puce en 4 donc ça remplace les autres puces en 4. Rien que le nombre de cuda cores et la puissance le prouve. LE GP104 bosse pas dans la même catégorie niveau taille de puce et puissance. Lis le test, c'est indiqué aussi. Le GP104 est une petite puce qui sort en remplacement du GM204.
 
Si tu attendais un remplaçant du GM200, c'est normal que tu sois déçu mais tu fais fausse route car ça n'a jamais été le cas même si le placement tarifaire pourrait le faire croire.


 
Commercialement, la GTX 1080 remplace la GTX 980 Ti, qui n'est d'ailleurs plus produite. Que le GP104 d'un point de vue nomenclature technique soit dans la lignée du GM204 et non du GM200 n'y change rien d'un point de vue produit, d'ailleurs à ce jour il n'y a pas de GeForce prévue basée sur le GP100.

n°9810475
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 19:04:29  profilanswer
2Votes positifs
 

schpounzzz a écrit :

Tridam! Vous gardez l'échantillons combien de temps? Histoire de voir quand sera accepté l'asic des carte et si tu peux le partager du coup!
 
Merci d'avoir répondu en tout cas ;)


 
La carte reste ici vu qu'on en aura besoin régulièrement :)

n°9810478
drynek
Posté le 18-05-2016 à 19:06:42  profilanswer
0Votes positifs
 

une titan quelque chose devrait quand même pas tarder à fuité vu que le GP100 si je dit pas de connerie est déjà en prod pour la tesla P100 en hbm2 donc ont devrait avoir des nouvelles "assez vite"  
m'etonnerais pas qu'il dégaine une carte overkill vers noel ou en debut d'année 2017  
bon apres c'est en mode boule de cristal  :lol:

n°9810485
nicolas_ya​d
Spoons made me fat
Posté le 18-05-2016 à 19:12:26  profilanswer
0Votes positifs
 

tridam a écrit :


 
La carte reste ici vu qu'on en aura besoin régulièrement :)


Moi aussi j'ai fréquemment besoin d'une cg, il faut écrire où pour recevoir sa 1080 en prêt longue durée ? :d

n°9810488
Zurkum
Posté le 18-05-2016 à 19:14:44  profilanswer
2Votes positifs
 

drynek a écrit :

une titan quelque chose devrait quand même pas tarder à fuité vu que le GP100 si je dit pas de connerie est déjà en prod pour la tesla P100 en hbm2 donc ont devrait avoir des nouvelles "assez vite"  
m'etonnerais pas qu'il dégaine une carte overkill vers noel ou en debut d'année 2017  
bon apres c'est en mode boule de cristal  :lol:


J'espère autre chose qu'un GP100 dans la 1080Ti ... Sinon l'écart avec une 1080OC risque d'être très faible vu la quantité de transistors dédiée aux features pro ( DP, etc ... )

n°9810492
stephbest
Act A Fool
Posté le 18-05-2016 à 19:18:14  profilanswer
2Votes positifs
 

Test concluant et très bien réalisé comme d'habitude , mais serait-il pas plus pertinent de tester aussi en ultra HD vu que c'est une carte qui vise quand-même le haut du panier et d'y incorporer la R9 295X2 qui à priori même si c'est une bi gpu est loin d'être à la traîne ^^

n°9810493
PitOnForum
thèse - antithèse - synthèse
Posté le 18-05-2016 à 19:19:01  profilanswer
0Votes positifs
 

PitOnForum a écrit :

Salut!  :hello:  
 
j'ai quelques questions et une requête pour HFR concernant la nouvelle carte GTX1080:
http://forum.hardware.fr/forum2.ph [...] 0&#t881273
 
 :jap:


 :??:

n°9810494
drynek
Posté le 18-05-2016 à 19:20:18  profilanswer
0Votes positifs
 

Zurkum a écrit :


J'espère autre chose qu'un GP100 dans la 1080Ti ... Sinon l'écart avec une 1080OC risque d'être très faible vu la quantité de transistors dédiée aux features pro ( DP, etc ... )


on verra bien c'est qu'une theorie comme une autre hein  :o

n°9810498
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 19:29:02  profilanswer
1Votes positifs
 

stephbest a écrit :

Test concluant et très bien réalisé comme d'habitude , mais serait-il pas plus pertinent de tester aussi en ultra HD vu que c'est une carte qui vise quand-même le haut du panier et d'y incorporer la R9 295X2 qui à priori même si c'est une bi gpu est loin d'être à la traîne ^^


 
C'est prévu pour... dès que possible ;)

n°9810516
froozy03
Posté le 18-05-2016 à 19:46:51  profilanswer
0Votes positifs
 

Zurkum a écrit :

La 1070 sort en Founder Édition ? Avec le Rad 250W ? Si oui ça va être très sympa !


pas vraiment a pcgameshardware ils on tester l'overclocking du 1080 avec un artic accelero xtreme IV, et ils on trouver que l'overclocking est limite par le 1pin a 225watt, pas par le refroidissement, donc meme watercooled, la GTX 1080 va rester vers les 2Ghz, sauf si nvidia autorise les AIBs a changer le PCB.

n°9810552
Yeagermach​42
Posté le 18-05-2016 à 20:23:24  profilanswer
0Votes positifs
 

Paul-Hewson a écrit :


 
- Tu as remarqué que la GTX 980Ti a 256 cuda core de plus que la 1080 j'espère ? Bon raisonnement, manque juste un peu d'analyse (à moins de t'y connaître comme damien, je doute que toi ou moi on puisse juger d'une différence réelle). Il y a des optimisations pour faire mieux (ou identique) avec moins.
 
- Support anecdotique de DX12 ? Moi je ne trouve pas, avoue que la seule chose que tu lui reproches c'est de ne pas gérer async. Sauf qu'async ce n'est qu'une infime partie de DX12 et que la GTX 1080 supporte beaucoup de fonctionnalités de DX12 dont certaines mises de côté par AMD avec ses Radeon.
Et la puissance brute de la GTX 1080 compense à première vue le manque d'async.
 
- Je ne connais pas beaucoup de gamer qui ne possède pas un écran avec au moins une prise hdmi ou display port de nos jours. On se paye pas une GTX 1080 pour jouer en 1280*1024 sur son vieux 19" :O
Nb : Il existe en plus peut-être des adaptateurs spécifiques dvi-d dvi-i, à vérifier.
 
Tu veux comparer toutes les cartes à fréquences égales ok, c'est bien. Mais si les autres cartes ne peuvent pas le tenir quel intérêt, n'est-ce pas ?
Est-ce que tu penses que la Fury ou la GTX 980Ti peuvent fonctionner h24 à 2Ghz par exemple ?
 
Bref tu peux passer ton chemin si ça ne te plait pas, mais ne présume pas que tout ce que tu dis est forcément vrai. Laisse ça à des personnes peut-être plus apte à analyser que toi ou moi...


L'async est supporté, c'est juste qu'ils le font de manière différente d'AMD.

n°9810565
thojolu
Expert Ordinateur Portables
Posté le 18-05-2016 à 20:35:39  profilanswer
0Votes positifs
 
n°9810567
lulunico06
Posté le 18-05-2016 à 20:39:22  profilanswer
0Votes positifs
 

Sait on pourquoi nvidia n'a pas optimisé le gp100 pour qu'il monte plus en fréquence comme le gp104 ?
Ça demande se prendre un peu de place sur le die ?  
Chose que le gp100 n'a pas vu sa taille.

n°9810572
B00lay Ier
Posté le 18-05-2016 à 20:43:21  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Sait on pourquoi nvidia n'a pas optimisé le gp100 pour qu'il monte plus en fréquence comme le gp104 ?


Y'a peu de chances qu'il y ait réellement eu optimisation sur ce point... par contre, pour Gepetto, la contrainte de consommation est beaucoup plus forte.
 
A voir la baisse de fréquence du GP104 sous FurMark, la réponse est quasiment donnée en fait.

n°9810575
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 20:45:50  profilanswer
1Votes positifs
 

Je touche du bois mais je compte compléter tout sauf la 4K en fin de soirée (ou début de matinée à voir :p).

n°9810580
B00lay Ier
Posté le 18-05-2016 à 20:50:48  profilanswer
0Votes positifs
 

tridam a écrit :

Je touche du bois mais je compte compléter tout sauf la 4K en fin de soirée (ou début de matinée à voir :p).


Tridam, sponsorisé par Redbull, Dark Dog et Monster Energy :o

n°9810584
lulunico06
Posté le 18-05-2016 à 20:57:20  profilanswer
0Votes positifs
 

ravenloft a écrit :

Marc a écrit :


 
Commercialement, la GTX 1080 remplace la GTX 980 Ti, qui n'est d'ailleurs plus produite. Que le GP104 d'un point de vue nomenclature technique soit dans la lignée du GM204 et non du GM200 n'y change rien d'un point de vue produit, d'ailleurs à ce jour il n'y a pas de GeForce prévue basée sur le GP100.


Oui mais c'était déjà le cas pour la 680 et la 980.  
C'est ça que je veux dire. La 980 était aussi décevante face à la 780ti et la 680 à peu près pareil face à la 580 que la 1080 face à la 980ti.


La 980 non parce qu nvidia l'a fais sans changer de gravure.

n°9810585
Zurkum
Posté le 18-05-2016 à 20:58:16  profilanswer
0Votes positifs
 

froozy03 a écrit :


pas vraiment a pcgameshardware ils on tester l'overclocking du 1080 avec un artic accelero xtreme IV, et ils on trouver que l'overclocking est limite par le 1pin a 225watt, pas par le refroidissement, donc meme watercooled, la GTX 1080 va rester vers les 2Ghz, sauf si nvidia autorise les AIBs a changer le PCB.


C'est sûr que les OEMs pourront modifier des PCB et le fait que le GP104 soit limité par l'étage d'alim je l'ai déjà dit  ;)

n°9810587
drynek
Posté le 18-05-2016 à 20:58:45  profilanswer
0Votes positifs
 

froozy03 a écrit :


pas vraiment a pcgameshardware ils on tester l'overclocking du 1080 avec un artic accelero xtreme IV, et ils on trouver que l'overclocking est limite par le 1pin a 225watt, pas par le refroidissement, donc meme watercooled, la GTX 1080 va rester vers les 2Ghz, sauf si nvidia autorise les AIBs a changer le PCB.


Je pense que les gros OC vont tout bonnement devenir de plus en plus complexe à mesure que les gravures diminue par la simple et bonne raison que la maîtrise des courant de fuite devient un casse tête, les effets quantiques sont pas à négliger non plus ni le phénomène de porosité de l'isolant qui peut laisser passer quelques électrons au bout d'un moment aussi.
C'est probablement pour ça qu'il n'y a qu'une prise pour limiter un minimum le truc sinon au bout de 6 mois la carte est probablement HS va savoir  
Après je suis pas assez caler la dedans pour comprendre tout le truc correctement mais un courant de fuite je sais et ce que ça peut faire et c'est pas beau   :D

n°9810590
Zurkum
Posté le 18-05-2016 à 20:59:39  profilanswer
0Votes positifs
 

Le problème principal dans ce cas c'était le 8 pins limitant !
Édit : 2,5ghz seront faciles je pense avec un modèle custom costaud


Message édité par Zurkum le 18-05-2016 à 21:00:46
n°9810607
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 21:12:01  profilanswer
2Votes positifs
 

2.5 GHz ça commence à devenir beaucoup :o A ce niveau ce sera plutôt pour l'oc sous ln2 etc

n°9810609
jeanbon 20​04
IPV4 rulz toujours
Posté le 18-05-2016 à 21:19:53  profilanswer
0Votes positifs
 

tridam a écrit :

Je touche du bois mais je compte compléter tout sauf la 4K en fin de soirée (ou début de matinée à voir :p).


 
Pourriez-vous élargir le test à Luxmark 3.0 (flottants ISO) et Luxmark 3.1 (flottants non ISO).
Pas la peine de modifier le code pour tenter un test en flottants demi-précision, mais on attend que les dev de Luxrender (et donc Luxmark) en tirent profit à moyen terme.
 
Autre possibilité pour du CUDA pur par contre. Tenter un rendu GPU Iray avec la même scène sur les différentes cartes Nvidia dont la GTX 1080 à partir du logiciel gratuit téléchargeable DAZ3D avec moteur Iray inclu. J'avoue ne pas savoir me servir de ce logiciel mais il est gratuit et fait la même chose que d'autres logiciels pro.
 
A priori, dans aucune de ces situations, le test ne devrait poser problème (contrairement à DXO qui allie performances avec instabilité).


Message édité par jeanbon 2004 le 18-05-2016 à 21:20:52
n°9810611
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 21:24:40  profilanswer
0Votes positifs
 

Ca ne va pas être possible pour l'instant de creuser le côté "compute". Peut-être plus tard mais vu le peu de modifications par rapport à Maxwell ce n'est pas prioritaire.

n°9810615
Zurkum
Posté le 18-05-2016 à 21:29:48  profilanswer
0Votes positifs
 

Enfin si ils ont réussi à taper 2,1ghz avec un étage d'alim si petit, un pcb bien bourin genre EVGA K|NGP|N sous Waterblock Full Cover ça doit se faire non ?
Et une limite de conso débloquée :D


Message édité par Zurkum le 18-05-2016 à 21:30:14
n°9810630
lulunico06
Posté le 18-05-2016 à 21:50:23  profilanswer
0Votes positifs
 

Je trouve dommage que nvidia n'est pas mis le support du 16 bits.
si j'ai bien compris en jeu si on remplace du 32 par du 16 bits la ou c'est possible ( sans faire baisser la qualité du jeu ) on consomme moins.
Du coup fréquence turbo en hausse.
je me trompe ?
Si c4est le cas dommage.

n°9810668
Uranium201​0
Gamer dans l'âme!
Posté le 18-05-2016 à 22:35:20  profilanswer
0Votes positifs
 

Les cartes DX9 Nvidia ne supportaient pas le FP16 ? Ça a sauté en cours de route ?


Message édité par Uranium2010 le 18-05-2016 à 22:36:07
n°9810684
The_Balrog
Et là, c'est le drame...
Posté le 18-05-2016 à 22:49:27  profilanswer
2Votes positifs
 

Hum, en relisant les 1eres pages (archi), je me dis qu'on a là la 1ere CG Intel en fait :D  nouvelle archi Pascal "G"?  c'est quasi du Maxwell 3 en fait. Ils se sont pas trop foulés (sauf le département marketing, une habitude). La fréquence, bah merci TSMC et le passage de 2 nodes en grande partie, et merci Micron d'avoir osé une approche différente pour la GDDR

n°9810712
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 23:13:13  profilanswer
1Votes positifs
 

Bon l'alim Corsair vient de griller, ça complique quelque peu les choses :o

n°9810726
ockiller
Posté le 18-05-2016 à 23:28:46  profilanswer
0Votes positifs
 

Le FP16 pourrait être très utile en jeu aussi, tous les calculs ne nécéssitent pas 32 bits de précision, loin de là (les couleurs affichées à l'écran c'est du 8 bits à la fin...). Normalement l'intérêt tel que poussé par nVidia est de pouvoir faire deux calculs 16 bits avec le même registre 32 bits, donc doubler la puissance de calcul (quand c'est possible de faire deux calculs indépendants en même temps), mais ça ne réduirait pas la consommation du coup.
 
Sinon oui, les Geforce FX, 6 et 7 profitaient de la précision FP16 pour doubler leur nombre de registres utilisables (si on dépassait leur performances dégringolaient assez vite), et les FX avaient de vieilles unités basse précision qui pouvaient aider les principales, notamment quand nVidia "optimisait" les shaders :D

n°9810730
havoc_28
Posté le 18-05-2016 à 23:32:49  profilanswer
0Votes positifs
 

tridam a écrit :

Bon l'alim Corsair vient de griller, ça complique quelque peu les choses :o


 
: / , une remplaçante sous la main ?

n°9810733
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2016 à 23:36:08  profilanswer
1Votes positifs
 

Yep les benchs en OC sont repartis :)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12

Aller à :
Ajouter une réponse
 

Sujets relatifs
La GTX 965M est elle suffisante pour faire du montage vidéo?Une 1080 ou une 1070 avec cette config ?
[HFR] Actu : Concours : réponses et gagnants !Carte graphique nvidia GTX 460
[HFR] Actu : Le rachat de SanDisk par WD finaliséNvidia shield tv problème geforce now jeux fr
GTX 970 avec cette vieille config?[HFR] Actu : X99A Gaming Pro Carbon chez MSI
Plus de sujets relatifs à : [HFR] Dossier : Nvidia GeForce GTX 1080, le premier GPU 16nm en test !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR