Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2758 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GTC: Nvidia DGX-1 : 8 Tesla P100 pour 129.000$

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[HFR] Actu : GTC: Nvidia DGX-1 : 8 Tesla P100 pour 129.000$

n°9776975
tridam
Profil : Equipe HardWare.fr
Posté le 06-04-2016 à 20:55:54  profilanswer
1Votes positifs
 

Lors de la keynote d'ouverture de la GTC, Jen-Hsun Huang ne s'est pas contenté d'annoncer l'accélérateur Tesla P100, mais a également dévoilé un nouveau ...
Lire la suite ...

mood
Publicité
Posté le 06-04-2016 à 20:55:54  profilanswer
 

n°9776985
CardinalFu​neste
Posté le 06-04-2016 à 21:14:18  profilanswer
9Votes positifs
 

10 000€ le gpu ? ils se sentent plus pisser dans les bureaux de nvidia
Pourvus qu'iles prennent une belle branlé par Vega qui n'est pas difficile a deviner qu'il fera aussi bien pour deux a trois fois moins chère pour le monde pro

n°9777002
lulunico06
Posté le 06-04-2016 à 21:37:23  profilanswer
0Votes positifs
 

Les 2 cpu sont mal choisies.
Un de la gamme broawell ep avec un tdp plus faible serait plus intéressant.

n°9777011
Mysterieus​eX
Chieuse
Posté le 06-04-2016 à 21:50:50  profilanswer
3Votes positifs
 

J'ai pas les mêmes retours : NVidia est esseulé sur le segment HPC avec cores X86 : Cray les quites pour AMD/Intel et omni-path, ils doivent devv leurs propres phy pour leurs NVLink. Y'a guère qu'IBM qui intègre en natif un pont sur ses power8, mais même eux sont en train de perdre la bataille sur le segment puissance/calcul.
 
La solution infiniband pour adapter du nvlink, c'est d'un crade. Les 5 prochaines années en HPC vont être morose (ils ont gagnés AUCUNS contrats sur leurs archi pour les US pour les prochains clusts HPC) pour les ventes chez eux, forcément qu'ils cherchent a revendre leurs bousins en direct.

n°9777013
taronyu26
Posté le 06-04-2016 à 21:51:36  profilanswer
0Votes positifs
 

Ouille ouille ouille, ça fait mal aux c... :D

n°9777027
Zurkum
Posté le 06-04-2016 à 22:14:17  profilanswer
1Votes positifs
 

Et AMD fait pareil :D

n°9777032
CardinalFu​neste
Posté le 06-04-2016 à 22:23:05  profilanswer
2Votes positifs
 

ravenloft a écrit :


 :pfff: Pitié pas de débat à la con nvidia vs amd.
Tu connais les prix du pro? Je pense pas.


 
 
Je sais que dans mon ancienne boite ils ont pris des firepro d'AMD qui offrait selont eux un meilleur rapport prix/perf qu'nvidia et ses quadro  :o  
Mais tu as raison ça sert a rien de gueguerrer dessus je m'en excuse  :jap:


Message édité par CardinalFuneste le 06-04-2016 à 22:23:32
n°9777036
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-04-2016 à 22:36:18  profilanswer
0Votes positifs
 

MysterieuseX a écrit :

La solution infiniband pour adapter du nvlink, c'est d'un crade. Les 5 prochaines années en HPC vont être morose (ils ont gagnés AUCUNS contrats sur leurs archi pour les US pour les prochains clusts HPC) pour les ventes chez eux, forcément qu'ils cherchent a revendre leurs bousins en direct.

Sur Pascal rien de gros n'est annoncé mais sur Volta il y a Summit et Sierra.

n°9777079
Mysterieus​eX
Chieuse
Posté le 06-04-2016 à 23:43:07  profilanswer
4Votes positifs
 

Summit et Sierra sont des évolutions de clusts déjà existant a savoir transfert de mira pour summit vers Oak Ridge et passage a power 9/NVlink (évolution en interne du DOE/Partenariat avec IBM jusqu'en 2018) et évolution de Sequoia pour le lnll. Partenariat CORAL (les trois gros labs US qui font du calcul pour le DOE.)
 
Mais le gros de CORAL est quand même l'arrivée d'un clone de milky way sur le territoire US (Aurora). Qui est prévu pour avoir une maintenance "au moins" jusqu'en 2021. Niveau pérennité, Omni-path a l'avantage de la technicité d'intel et surtout le poids du bleu : si intel décide de plomber les firmware poour l'adapatation d'un phy layer vers NVLink, tout le x86 deviendra fermé a NVidia.
Pour le coup, ils jouent gros dans l'histoire. Si ça passe pas, ça les plombera pour 5 ans.
NVLink a pour lui l'avantage d'être un draft PCI-E 4.0, mais ça leurs coûtera en R&D pour rendre le bousin pleinement compatible. Sans compter l'adaptation physique mezza<=>slot card, et la cible de puissance du facteur qu'ils ont choisis, 250W sur une carte en mezza, passe encore, tu peut architecturer sur la totalité du serveur, sur une carte en slot, c'est liquide ou architecture totale du datacenter qu'il faut voir, et je doute que les gros du secteurs aient envie de devoir faire du génie civile pour les 10 prochaines années sachant que pour certains ils sont alimentés par leurs propres centrales électriques, comme Argonne.
 
Bref, c't'un pari qu'ils font, mais ils se battent plus contre AMD là (qui va rester sur le segment "end user", éditeurs graphiques/vidéo et plus aller s'empêtrer dans le HPC)
 
A noter quand même que volta serait pleinement compatible PCI-E 4.0 (au moins sur le firm et le silicone). C'est se que disent les premiers papiers. On sait que Summit aura du retard (prévu pour 2016, repoussé a printemps 2017, mais le full power est quand même maintenu a 3e trimestre 2018).
 
Et c'est tout ça qui me fait penser que ça risque d'être fortement bouché d'ici 5 ans si NVidia se vautre sur Pascal. Ils auraient du se contenter selon moi d'une archi draft et pas lancer Pascal + NVlink avec juste IBM en pertenaire (ils ont mellanox aussi, mais ça reste un nain fortement spécialisé qui fait bien son taff dans le milieux des cartes de com', mais va pas plus loin).
 
Edit : je viens de faire un rapide calcul, 42U dans une baie, minus le fabric switch qui se bouffe 3U, reste 39U pour les nodes calcul. 3U/node, 13 nodes/42U, 3200W/Node, ~42kw/baie. En étant gentille on peut prévoie un pseudo CRAC 2U intégrée, reste quand même au moins 35KW/Baie a sortir. Ptain le four, refroidissement liquide obligatoire :O

Message cité 1 fois
Message édité par MysterieuseX le 06-04-2016 à 23:54:11
n°9777110
caenorst
Posté le 07-04-2016 à 01:29:23  profilanswer
0Votes positifs
 

Tout les framework de deep learning sérieux sont sous CUDA. Sans compter l'avancée énorme de leurs librairies CuDNN pour réaliser les calculs présent à 90% dans les algorithmes de machine learning actuels. Ne vous inquiétez pas, pour l'instant Nvidia à 0 concurrence...

mood
Publicité
Posté le 07-04-2016 à 01:29:23  profilanswer
 

n°9777145
Xixou2
Posté le 07-04-2016 à 06:39:09  profilanswer
0Votes positifs
 

Est-ce que le nvlink pourra se connecter en externe comme dans le style des liens sli ? Car si ce n'est pas le cas, ont ne pourra pas attacher plusieurs cartes.

n°9777160
ever_over
Posté le 07-04-2016 à 08:02:40  profilanswer
1Votes positifs
 

MysterieuseX a écrit :

J'ai pas les mêmes retours : NVidia est esseulé sur le segment HPC avec cores X86 : Cray les quites pour AMD/Intel et omni-path, ils doivent devv leurs propres phy pour leurs NVLink. Y'a guère qu'IBM qui intègre en natif un pont sur ses power8, mais même eux sont en train de perdre la bataille sur le segment puissance/calcul.
 
La solution infiniband pour adapter du nvlink, c'est d'un crade. Les 5 prochaines années en HPC vont être morose (ils ont gagnés AUCUNS contrats sur leurs archi pour les US pour les prochains clusts HPC) pour les ventes chez eux, forcément qu'ils cherchent a revendre leurs bousins en direct.


D'après ce que j'ai compris, NVidia ne cherche pas à être en concurrence avec Intel. Huang considère que c'est trop risqué pour son entreprise, que face à Intel on se casse les dents. Il avait dit il y a quelques années qu'il préférait laisser ça (le combat contre Intel) à d'autres, avec un petit sourire (il pensait surement à AMD). NVidia cherche plutôt à s'implanter dans un nouveau secteur, le deep Learning, et ils sont très bien placés pour le moment. Si Intel est trop agressif dans d'autres domaines, ils lui laisseront la place.

n°9777174
Invite_Sur​prise
Racaille de Shanghaï
Posté le 07-04-2016 à 08:53:06  profilanswer
3Votes positifs
 

CardinalFuneste a écrit :

10 000€ le gpu ? ils se sentent plus pisser dans les bureaux de nvidia
Pourvus qu'iles prennent une belle branlé par Vega qui n'est pas difficile a deviner qu'il fera aussi bien pour deux a trois fois moins chère pour le monde pro


 :lol:  
 
Et c'est pour quand l'apocalypse Madame Soleil ?

n°9777186
damsworld
Posté le 07-04-2016 à 09:13:39  profilanswer
0Votes positifs
 

Il fait tourner Crysis?

n°9777197
sasanpabon
Posté le 07-04-2016 à 09:36:05  profilanswer
1Votes positifs
 

Pourquoi mettre en avant le FP16 à 170 Tflops à part pour le marketing ?
Quand on fait de l'apprentissage profond en particulier, on a besoin de beaucoup de précision donc de FP64...
Plus il y a de couches dans un réseau de neurones, plus il faut de la précision sinon on perd tout l'intérêt de l'augmentation de la profondeur.

n°9777230
Mysterieus​eX
Chieuse
Posté le 07-04-2016 à 10:14:55  profilanswer
5Votes positifs
 

caenorst a écrit :

Tout les framework de deep learning sérieux sont sous CUDA. Sans compter l'avancée énorme de leurs librairies CuDNN pour réaliser les calculs présent à 90% dans les algorithmes de machine learning actuels. Ne vous inquiétez pas, pour l'instant Nvidia à 0 concurrence...


 

Citation :

NVidia cherche plutôt à s'implanter dans un nouveau secteur, le deep Learning


 
NVidia ne couvre qu'une partie du deep learning : le MCTS (monte carlo tree search), qui est certes une grosse partie pour la génération du profil d'IA, mais n'est plus sa principale.
Le montage du réseau neural et son utilisation reste plus efficient en x86 actuellement. CF AlphaGo qui as plus de core x86 que de core "CUDA".
L'utilisation d'un double réseau neural est d'ailleurs l'avantage d'AlphaGo et sa véritable révolution : ça montre bien les limites du GPGPU, surtout quand il est question de passer d'une réflexion a 2 dimensions a une réflexion a plus de 3. Pour du tree seach, je suis d'accord que le fait de faire beaucoup de petits calculs répétitifs avantage une archi issue du monde graphique. Pour la valorisation, qui est sur du large scale et un calcul autrement plus complexe, le nombre d'itération nécessaire a la résolution de l'équation sur pascal me semble hors de propos alors qu'un x86 pourrait le faire en 1 cycle. Le temps d'itération étant converti en puissance, et la synchro aidant ... Imho, la solution proposée par NVidia reste bancale. Donc deep learning pris d'assaut par NVidia ? Bof. Qu'ils aient un coup a jouer, certes, mais la niche est minuscule pour eux.

n°9777236
mazingerz
Posté le 07-04-2016 à 10:26:13  profilanswer
2Votes positifs
 

MysterieuseX a écrit :

J'ai pas les mêmes retours : NVidia est esseulé sur le segment HPC avec cores X86 : Cray les quites pour AMD/Intel et omni-path, ils doivent devv leurs propres phy pour leurs NVLink. Y'a guère qu'IBM qui intègre en natif un pont sur ses power8, mais même eux sont en train de perdre la bataille sur le segment puissance/calcul.
 
La solution infiniband pour adapter du nvlink, c'est d'un crade. Les 5 prochaines années en HPC vont être morose (ils ont gagnés AUCUNS contrats sur leurs archi pour les US pour les prochains clusts HPC) pour les ventes chez eux, forcément qu'ils cherchent a revendre leurs bousins en direct.


 
c'est vrais qu'une solution à base d'APU x86 me parrais bien meilleur
 
des APU zen 16 coeur avec de la HBM2 intégré ça communiquera bien plus vite au sein du CPU/GPU sera bien plus compacte et consommera surement moins  
 
après je n'y connais absolument rien c'est juste mon ressentie ^^


Message édité par mazingerz le 07-04-2016 à 10:28:01
n°9777242
Zurkum
Posté le 07-04-2016 à 10:32:57  profilanswer
0Votes positifs
 

J'y connais pas grand chose mais les proco KNL d'Intel ne sont pas plus intéressants ?

n°9777293
floppytoo
Membre Hardware.fr depuis 2001
Posté le 07-04-2016 à 11:20:47  profilanswer
0Votes positifs
 

[MODE TROLL ON]
à 129$,000 Ça me parait assez intéressant :) surtout si c'est HTVA ! Parce que les truc en H.T c'est vraiment le bordel !
[MODE TROLL OFF]

n°9777309
Scrabble
Posté le 07-04-2016 à 11:34:54  profilanswer
0Votes positifs
 

sasanpabon a écrit :

Pourquoi mettre en avant le FP16 à 170 Tflops à part pour le marketing ?
Quand on fait de l'apprentissage profond en particulier, on a besoin de beaucoup de précision donc de FP64...
Plus il y a de couches dans un réseau de neurones, plus il faut de la précision sinon on perd tout l'intérêt de l'augmentation de la profondeur.


Tu a des source de ce que tu affirme ? Parce qu'à mon avis si Nvidia a ajouté un mode FP16 pour le deep learning c'est qu'ils savent ce qu'ils font.

n°9777316
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 07-04-2016 à 11:38:07  profilanswer
0Votes positifs
 

MysterieuseX a écrit :

Summit et Sierra sont des évolutions de clusts déjà existant a savoir transfert de mira pour summit vers Oak Ridge et passage a power 9/NVlink (évolution en interne du DOE/Partenariat avec IBM jusqu'en 2018) et évolution de Sequoia pour le lnll. Partenariat CORAL (les trois gros labs US qui font du calcul pour le DOE.)

Évolutions ou pas ça reste des contrats ;) Tiens d'ailleurs un autre vient d'être annoncé en Pascal cette fois : http://www.cscs.ch/index.php?id=1542

n°9777328
Mysterieus​eX
Chieuse
Posté le 07-04-2016 à 11:49:46  profilanswer
4Votes positifs
 

Marc a écrit :

MysterieuseX a écrit :

Summit et Sierra sont des évolutions de clusts déjà existant a savoir transfert de mira pour summit vers Oak Ridge et passage a power 9/NVlink (évolution en interne du DOE/Partenariat avec IBM jusqu'en 2018) et évolution de Sequoia pour le lnll. Partenariat CORAL (les trois gros labs US qui font du calcul pour le DOE.)

Évolutions ou pas ça reste des contrats ;) Tiens d'ailleurs un autre vient d'être annoncé en Pascal cette fois : http://www.cscs.ch/index.php?id=1542


Evolutions déjà payées et inclues dans les contrats de dev des clusts a l'origine. Ce ne sont pas des nouveaux contrats, mais juste l'offre de service dans la maintenance. A 100 millions le clust en moyenne, bénéficier d'évolutions technologiques c'est bien normal. Donc non, ce ne sont pas des nouveaux contrats comme pour Aurora.
 
Idem pour Piz Daint, c'était en pour parlés y'a 1 ans déjà, vue que Cray (le fournisseur) ne doit plus faire de NVidia. Je me demande bien comment ils vont implémenté pascal sur une base XC30 (le form factor est pas du tout le même).
L'évolution des clusts sera un gros points du prochain IEEE en septembre a taiwan (et d'ailleurs, j'y vais, exceptionnellement, je sort de ma grotte :) )

n°9777346
Noim
pwnd
Posté le 07-04-2016 à 12:07:11  profilanswer
2Votes positifs
 

C'est assez émouvant cette inquiétude autour du manque de savoir-faire d'Nvidia pour faire de l'argent.  
 
Non mais... Attendez une seconde...!


Message édité par Noim le 07-04-2016 à 12:07:47
n°9777373
Invite_Sur​prise
Racaille de Shanghaï
Posté le 07-04-2016 à 13:05:21  profilanswer
2Votes positifs
 

MysterieuseX a écrit :

Idem pour Piz Daint, c'était en pour parlés y'a 1 ans déjà, vue que Cray (le fournisseur) ne doit plus faire de NVidia.


Un lien, non ?
Parce que lors de la conférence, Cray était toujours mentionné pour proposer des solutions P100 en début d'année prochaine :
 
http://tof.canardpc.com/preview2/e7686826-d34c-42dd-9ca4-2b23b65e394e.jpg

n°9777554
willgart
Posté le 07-04-2016 à 15:35:56  profilanswer
0Votes positifs
 

j'en prendrais 2 ou 3... ;)

n°9777616
cricrione
Posté le 07-04-2016 à 16:20:23  profilanswer
0Votes positifs
 

j'en prendrais 2 ou 3...;) pour voir s il arrive a faire un demineur tous seul
il en faut 600 donc 48000 carte pour aller 3x plus vite que l actuel premier supercalculateur (en fp16)

Message cité 1 fois
Message édité par cricrione le 07-04-2016 à 16:52:33
n°9777628
jdemouth
Posté le 07-04-2016 à 16:31:25  profilanswer
1Votes positifs
 

Pour le deep learning, personne n'utilise de fp64. Les réseaux s'entraînent en fp32 et il y a de fortes raisons de penser que fp16 est suffisant. D'où l'idée d'avoir du fp16 sur P100. Quant à la partie inférence, les GPUs sont très compétitifs. L'année passée nous avons parlé de FPGA qui surpassaient tout le monde à 14 img/s/w et désormais on fait tourner nos GPUs à 20 ou 40 (cela dépend de la taille des batches). Des acteurs très sérieux pensent donc que le déploiement de GPUs pour l'inférence est possible et efficace.  

n°9777709
aure47600
Posté le 07-04-2016 à 17:39:00  profilanswer
2Votes positifs
 

cricrione a écrit :

j'en prendrais 2 ou 3...;) pour voir s il arrive a faire un demineur tous seul
il en faut 600 donc 48000 carte pour aller 3x plus vite que l actuel premier supercalculateur (en fp16)


 
vu ton calcul, tu peux t'acheter ce genre de chose, ça te servira de calculatrice  :o  :whistle:

n°9777781
ccomesa
Mr Slogan
Posté le 07-04-2016 à 18:58:26  profilanswer
0Votes positifs
 

j'ai commencer à lire 2 3 commentaire en voyant le prix du bouzin j'ai le cerveaux qui à commencer à buguer en gros on fais quoi avec ces engins

n°9777837
cocto81
Posté le 07-04-2016 à 20:03:29  profilanswer
3Votes positifs
 

J'avoue que je ne suis pas très intéressé à titre personnel par les exploits de type calculateur Cray à coups de cartes graphiques pour des sommes extravagantes.
 
La base de l'usage Pro, c'est surtout les rendus, que ce soit en temps réel ou de haute qualité. Donc la base ce sont les calculs sous flottants simple précision. Ce GPU fait dans ce domaine, à peine 2x fois mieux qu'une carte AMD R9 390 8Go qu'on trouve à 300 euros, soit dépassée par 2 R9 390X 8Go. Ca vaut aussi pour le FP64 (pour d'autres types de calculs) si on prend deux Firepro W9100 avec 16Go de DDR5 à 3000 euros chaque (les R9 39x sont bridées). En passant à des flottants 16 bits il est censé aller 2x plus vite, mais les rendus 16 bits sont vraisemblablement 2x plus pourris (donc aucun gain à en attendre).
Nvidia vend donc très cher, au moins au double du prix si on regarde la gamme concurrent pro déjà bien vieille et gravée en 28nm, et ce avec, en plus, une architecture quasiment 100% propriétaire. Un progrès qui n'est absolument pas spectaculaire compte tenu de la finesse de gravure utilisée, de la HBM2 etc etc.
Le seul argument Nvidia c'est Cuda, et tous ces développeurs qui se sont spécialisés dans une architecture propriétaire.

n°9777942
Silmarys
Posté le 07-04-2016 à 22:08:14  profilanswer
1Votes positifs
 

Tiens, c'est curieux, plusieurs personnes semblent évoquer ce tarif autour de $10000, ce serait donc un bruit de couloirs qui circule au GTC ? :)
 
Sinon, d'après la présentation de Nvidia, le DGX-1 est à 170 TF, tandis qu'un Dual Xeon est à 3 TF (CPU+GPU).
 
Le temps d'apprentissage d'AlexNet serait de 2 heures, contre 150 heures pour un Dual Xeon, et pour parvenir à réaliser ce temps de 2 heures avec des serveurs Dual Xeon, il faudrait en faire tourner plus de 250 en parallèle.
 
Le DGX-1 serait donc plus performant que 250 serveurs Dual Xeon réunis, du moins dans son domaine de prédilection, ce qui du coup relativiserait énormément son coût, du moins je pense.
 
https://lut.im/M8Q0kyUGXh/dI3arL8NMzhD0kqa.jpg


Message édité par Silmarys le 07-04-2016 à 22:20:20
n°9778026
thomser
Posté le 08-04-2016 à 00:22:20  profilanswer
0Votes positifs
 

non je dirai moins de 10K€ le GPU. En effet il faut compter le cout des 2 Xeon 16C/32T, des 2x256Go de RAM, des 8To de SSD en RAID. Plus des services de garantie. Ca laisse à peu près 80K€ pour les Pascal GP100, peut etre un peu moins. Bon en fait 10K€ doit etre pas loin de la verité

n°9778056
Mysterieus​eX
Chieuse
Posté le 08-04-2016 à 01:37:34  profilanswer
1Votes positifs
 

Silmarys a écrit :

Tiens, c'est curieux, plusieurs personnes semblent évoquer ce tarif autour de $10000, ce serait donc un bruit de couloirs qui circule au GTC ? :)
 
Sinon, d'après la présentation de Nvidia, le DGX-1 est à 170 TF, tandis qu'un Dual Xeon est à 3 TF (CPU+GPU).
 
Le temps d'apprentissage d'AlexNet serait de 2 heures, contre 150 heures pour un Dual Xeon, et pour parvenir à réaliser ce temps de 2 heures avec des serveurs Dual Xeon, il faudrait en faire tourner plus de 250 en parallèle.
 
Le DGX-1 serait donc plus performant que 250 serveurs Dual Xeon réunis, du moins dans son domaine de prédilection, ce qui du coup relativiserait énormément son coût, du moins je pense.
 
https://lut.im/M8Q0kyUGXh/dI3arL8NMzhD0kqa.jpg


 
Comme dit, en MCTS, c'est certain qu'NVVidia n'a actuellement pas d'égal. Pour le reste ... :/

Invite_Surprise a écrit :


MysterieuseX a écrit :

Idem pour Piz Daint, c'était en pour parlés y'a 1 ans déjà, vue que Cray (le fournisseur) ne doit plus faire de NVidia.


Un lien, non ?
Parce que lors de la conférence, Cray était toujours mentionné pour proposer des solutions P100 en début d'année prochaine :
 
http://tof.canardpc.com/preview2/e7686826-d34c-42dd-9ca4-2b23b65e394e.jpg


 
Intel qui s'est payé les licences sur Gemini et Aries ?
Le contrat OEM entre Cray et Nvidia en 2010 doit rentrer en renégociation fin 2016/début 2017 et y'a des bruits de couloirs quant à un non renouvellement.

n°9778060
jdemouth
Posté le 08-04-2016 à 02:22:18  profilanswer
1Votes positifs
 

Quelle est cette histoire de Monte-Carlo? On parle ici de training d'un réseau de neurones. Le GPU est particulièrement efficace pour les opérations de DL (convolutions, produits de matrices).

n°9778080
Mysterieus​eX
Chieuse
Posté le 08-04-2016 à 08:22:59  profilanswer
1Votes positifs
 

jdemouth a écrit :

Quelle est cette histoire de Monte-Carlo? On parle ici de training d'un réseau de neurones. Le GPU est particulièrement efficace pour les opérations de DL (convolutions, produits de matrices).


 
Sauf que le GPU n'est au dessus du x86 que sur du tree search. Je te renvoie encore a AlphaGo qui est devenue une IA de référence.

n°9778293
jdemouth
Posté le 08-04-2016 à 15:03:06  profilanswer
1Votes positifs
 

Non. Le GPU est au dessus sur les convolutions. AlphaGo fait tourner des convolutions pour évaluer ces policy networks. C'est écrit noir sur blanc dans leur papier Nature.

n°9778575
caenorst
Posté le 08-04-2016 à 21:20:38  profilanswer
1Votes positifs
 

Arrête avec ton tree search, la quasi-totalité des réseaux de neurones est grandement accéléré par des GPUs, ce ne sont que des produits matriciels et des FFTs.

n°9779223
jdemouth
Posté le 10-04-2016 à 07:24:37  profilanswer
0Votes positifs
 

@caenorst: voire Winograd pour les 3x3.

mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GTC: Nvidia DGX-1 : 8 Tesla P100 pour 129.000$

 

Sujets relatifs
[HFR] Actu : Plextor passe à la TLC avec le M7V[HFR] Actu : AMD pré-annonce Bristol Ridge
[HFR] Actu : Rise of the Tomb Raider avec les GTX 960[HFR] Actu : GTC: N'attendez pas de GeForce en GP100
Version pilote Nvidia ? 
Plus de sujets relatifs à : [HFR] Actu : GTC: Nvidia DGX-1 : 8 Tesla P100 pour 129.000$


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR