cartemere a écrit :
pour des usages pro nécessitant beaucoup de puissance en FP16, Vega FE offre un rapport perfs/prix et perfs/conso sans concurrence coté nVidia.
(je parle pas du rendu 3D type maya & cie, mais du deep learning & cie).
Les APIs nVidia sont aussi développées dans ce domaine
|
Usage à trouver. Probablement AI, video, quelques éléments de rendus 3D, trucs comme ça mais à mon avis devrait cartonner en optimisation affichage jeu avec dégradation adaptative.
En tout cas Nvidia ne possède la fonction hardware FP16 deux fois plus rapide que le FP32, comme sur Vega, donc réellement rentabilisée, que sur le GP100 (le machin à 10000 euros sans variante gamer), et probablement sur le GV100. Cette fonction existe dans un coin sur les autres cartes Pascal, mais elle est nettement moins fournie (unités de calcul parallèle) que la fonction FP32. Nvidia arguait d'un intérêt pour faire calculer en parallèle un chouia de FP16 pendant que le GPU était occupé au FP32, car le circuit est séparé, mais à mon avis c'est pour une future rétro-compatibilité et pour dire qu'ils ont évolué sur le gen post-Pascal.
haahaa a écrit :
Plus qu'un bridage il me semble que c'est surtout une différence d'optimisation. Les cartes gamers sont optimisés pour directX et les cartes pro pour OpenGL. On en vois pas assez mais si vous mettez la main sur un bench d'appli pro avec des quadro vs des GTX vous verrez que sur les appli pro qui tournent en directX une GTX 1080Ti explose les scores, alors que sur d'autres c'est la misère.
|
Pour l'affichage surtout, l'OpenGL pro n'est absolument pas optimisé vitesse mais qualité. Idem en video et tout le reste. Tout en 10 bits pas couleur.
HashBoost a écrit :
Ca c'est une énorme connerie. La Titan (quelque soit le modèle) n'a pas de correction ECC, tout comme un refroidissement soit passif soit du type blower pour s'adapter a une grande densité dans les boitiers, des sorties vidéo "tronquées", des fréquences à la baisse, des drivers spécifiques et un prix exorbitant.
|
En fait ce que je disais, mais surtout, par rapport aux dernières Polaris, AMD avait abandonné l'ECC sur les WX, probablement absent des specs du GPU, l'a remis sur Vega.
Nvidia, il me semble, met de l'ECC sur les GPU pro des GTX1070 au 1080TI (donc P4000 à P6000 et GP100) mais pas sur la gamme en dessous, et ça valait pour les gen précédentes Maxwell. Par contre même les cartes pro "ultralow cost" à 100 euros de Nvidia ont le traitement en 10 bits des couleurs et les pilotes OpenGL, Cuda optimisés pro.
L'ECC c'est quand même très important quand on fait du "vrai" calcul parallèle.
Il faut imaginer la décharge aléatoire qui va fausser le résultat d'une étude de résistance des matériaux d'un bâtiment, bien parallélisée par la méthode des éléments finis sur un GPU. On peut juste pas se le permettre.
Le bâtiment se fissure : excusez moi chef, ça doit être un proton qui a altéré en loucedé les résultats du GPU que j'avais pourtant underclocké pour le fiabiliser. On a trouvé le coupable... pb résolu. ... non ça marche pas comme ça.