Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1989 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Micron atteint 16 Gbps en GDDR5X, GDDR6 début 2018

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[HFR] Actu : Micron atteint 16 Gbps en GDDR5X, GDDR6 début 2018

n°10162322
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 07-06-2017 à 10:22:25  profilanswer
0Votes positifs
 

A l'occasion d'un billet de blog, Micron indique sur son site que la GDDR5X poursuit ses avancées. Lors du lancement de la GDDR5X début 2016 cette mémoire ne ...
Lire la suite ...

mood
Publicité
Posté le 07-06-2017 à 10:22:25  profilanswer
 

n°10162331
lulunico06
Posté le 07-06-2017 à 10:44:59  profilanswer
0Votes positifs
 

J aurais une question.
La gddr5 avait un mode basse consommation avec certes une fréquence en baisse.
La gddr5x et gddr6 consomme moins que la gddr5 mais pourquoi n'ont elles pas elle aussi un mode basse consommation ?
Une tension de 1.25 voir 1.2v.
La fréquence serait plus basse.  
Si on prend l'exemple de la 1080 max q 8 gbps lui serait largement suffissant et grâce au gain de consommation la fréquence du gpu peut être en hausse.
J'ai donc du mal à comprendre pourquoi il n'ont pas intégré ça dans la norme.
Quelqu'un aurait une explication ?

n°10162373
neodammeru​ng
Posté le 07-06-2017 à 11:37:09  profilanswer
7Votes positifs
 

Drôle de sensation qu'AMD a fait un pari foireux avec la HBM...

n°10162377
samurai80
Posté le 07-06-2017 à 11:39:32  profilanswer
0Votes positifs
 

J'espere que la GDDR6/DDR5 seront la derniere iteration de ce type de bus parallele. Pour ceux qui comme moi ont du developper ce genre de hardware, quel calvaire !
 
Pour moi la techno d'avenir reste la HMC, car ce qui limite les autres SDRAM c'est beaucoup le bus de donnees externe. La HMC fait appel a des liens series, en gros c'est un peu ce qu'est le bus PCIe par rapport au vieux bus PCI/PCI-X. Ce dernier ne pouvait jamais etre pousse a plus de 133MHz faute de stabilite, alors que personne ne constate jamais de probleme de stabilite avec du PCIe.
 
Ca supprimerait les soucis d'initialisation des modules RAM car les liens series s'"autotrain" de maniere bien plus efficace.
 
La techno a mettre en place dans les puces juste pour la SDRAM est tres penible au niveau du hardware (ajustements de phases, clocks decalees, strobe, ODT, impedance variable, etc etc...), les "transceivers" serie sont certes complexes, mais ils servent a d'autres protocoles, et en dehors du transceiver serie tout est tres simple a mettre en oeuvre.
 
Et je dis ca parce que j'ai deja eu a coder en HDL des controlleurs memoire dans des FPGAs, et on sent que les fabricants de FPGA luttent le plus sur la partie SDRAM.


Message édité par samurai80 le 07-06-2017 à 11:40:54
n°10162379
bugmstr
Posté le 07-06-2017 à 11:40:42  profilanswer
0Votes positifs
 

Une petite coquille en fin d'article "a pour sa part annoncé" ;-)

n°10162382
Tigrou
Sans accroc
Posté le 07-06-2017 à 11:47:13  profilanswer
6Votes positifs
 

neodammerung a écrit :

Drôle de sensation qu'AMD a fait un pari foireux avec la HBM...


En tous cas ils innovent tout le temps; souvenons-nous qu'ils ont été les premiers sur DirectX 11, la GDDR5, la HBM, etc... pendant qu'en face on se contente de suivre si ça marche.


---------------
Feedback - Stacy's mom
n°10162388
Invite_Sur​prise
Racaille de Shanghaï
Posté le 07-06-2017 à 11:51:38  profilanswer
1Votes positifs
 

C'est couillon d'être le dernier dans la façon de gérer une boite, dans le pragmatisme et dans la façon de cibler le besoin. C'est ballot.
En face, ils sont performants, efficients et surtout, ils se font plein de frics, le genre de trucs qui doit les faire rêver.

n°10162397
lulunico06
Posté le 07-06-2017 à 12:04:09  profilanswer
0Votes positifs
 

Il ne faut pas oublié que la hbm 2 consomme moins que la gddr5 5x et 6.
Pour atteindre les 512 go/s de vega 10 mi 2017 pas de gddr6.
La gddr5x faible volume seul nvidia en a.
Donc il faudrait un bus 512 bits gddr5 a 8 gbps.
On aurait dû coup vega pas à 1600 mhz mais à moins.
On est déjà pas sur qu'elle arrive à être en face de la 1080 ti avec une fréquence plus base elle ne serait qu en face de la 1080.
Donc certes la hbm 2 pose des problèmes mais c'est un peu obligatoire pour amd.

n°10162452
neurotoxic
Posté le 07-06-2017 à 13:52:06  profilanswer
3Votes positifs
 

De plus on sais très bien que la HBM dispose de nombreux autres avantages que jamais la gddr n'aura. Au hasard le gain de place et l'interposer a certes besoin d'encore un peu de maturité mais à terme ça semble bien être un excellent pari sur l'avenir.Cela dit le soucis c'est que Amd innove et essuie les plâtres et Nvidia croise les bras en attendant que la techno ai pris de l'âge je déteste leur façon de faire.

n°10162481
ockiller
Posté le 07-06-2017 à 14:28:56  profilanswer
0Votes positifs
 

La HBM n'est juste pas encore viable hors très haut de gamme, ce que fait nVidia justement. Après, je vois la HBM comme un intermédiaire avant d'avoir la RAM fusionnée avec le die du GPU (un peu comme ça s'est passé pour le cache pour les CPU).

mood
Publicité
Posté le 07-06-2017 à 14:28:56  profilanswer
 

n°10162526
lulunico06
Posté le 07-06-2017 à 15:09:20  profilanswer
0Votes positifs
 

En faisant comme tu dis amd n'aurai concurrencé que le gp104 avec un die plus coûteux donc pas top.

n°10162534
damien440
Posté le 07-06-2017 à 15:20:06  profilanswer
1Votes positifs
 

La HBM c'est Hynix qui gère pas AMD, si hynix a merdé ce n'est pas de la faute d'AMD (qui comptais dessus pour être présent sur le marché à échéance). Et AMD a des investisseurs qui leur donnent suffisamment d'argent pour tenir quelques décennies juste pour la division graphique.

n°10162739
Crosslink
A mort les kikoos '#Premium' !
Posté le 07-06-2017 à 18:42:38  profilanswer
0Votes positifs
 

samurai80 a écrit :

J'espere [...] plus sur la partie SDRAM.


 
Tant que ca permet aux OEM de faire des tailles variables de RAM, je dis oui a la GDDR et non au reste.
 
Parce que si c'est pour se retrouver avec 2Go de GDDR de base avec une GTX 680 sans pouvoir passer a 4Go a l'achate -alors que la GTX 1050Ti en a 4Go de base pour les memes performances-, c'est ballot.
 

Tigrou a écrit :


En tous cas ils innovent +1 ça marche.


 
+1 Mais on aimerais que l'innovation, ca serve aussi ;)
 
Les 512Go/s de la Fury X, pas sur qu'ils soient exploites vu qu'une GTX 1080Ti largement plus puissante a a peu pres la meme bande passante...
 
Si Vega ne fait pas autant qu'une GTX 1080Ti, l'HBM2 n'aura servi a rien et la GDDR5 bien clockee ou un bus 512 bit aurait parfaitement fait le boulot.
 

lulunico06 a écrit :

Il ne faut [...] obligatoire pour amd.


 
Pas si obligatoire que ca, j'aurais prefere qu'ils potassent plus sur NCU ou reussissent a mieux scinder la double precision que d'integrer l'HBM depuis les Fury.
 
D'autant plus qu'une carte avec bus 512 bits, ca a pu descendre jusqu'a 200W (GTX 280) et meme 171W en 448 bits (GTX 260).
Ca fait meme 10 ans qu'ils savent faire un bus 512 bits d'ailleurs.


Message édité par Crosslink le 07-06-2017 à 22:01:14
n°10162762
Xixou2
Posté le 07-06-2017 à 19:09:06  profilanswer
0Votes positifs
 

C'est pas vraiment un oeil mais 3 yeux qu'on voit. Ca devient vraiment chaud les marrons.


Message édité par Xixou2 le 07-06-2017 à 19:09:20
n°10162783
HashBoost
Posté le 07-06-2017 à 19:29:38  profilanswer
0Votes positifs
 

Tigrou a écrit :


En tous cas ils innovent tout le temps; souvenons-nous qu'ils ont été les premiers sur DirectX 11, la GDDR5, la HBM, etc... pendant qu'en face on se contente de suivre si ça marche.


ROFL ! Qu'est ce qu'il ne faut pas lire !
AMD a eu l'opportunité d'utiliser de la HBM 1ère génération uniquement en négociant un contrat sur la base de puces qui n'auraient pu être commercialisées autrement, c'était une sorte de pré-production. Mais je te rassure, NVidia a travaillé sur l'utilisation de la HBM dès la conception du Tesla P100, soit aux alentours de 2014 me semble t'il.
L'utilisation de la GDDR5 est simultanée aux mêmes générations AMD et NVidia, les dates de sortie sont simplement décalées.
 
Il ne faut pas croire qu'utiliser tel ou tel type de RAM sur un GPU se règle en 5 minutes, c'est dès la conception du bus mémoire que c'est pris en compte, soit près de 2 ans avant la sortie du produit (et 2 ans et demi si c'est AMD :) :) ).

n°10162896
lulunico06
Posté le 07-06-2017 à 21:48:54  profilanswer
0Votes positifs
 


Pas si obligatoire que ca, j'aurais prefere qu'ils potassent plus sur NCU ou reussissent a mieux scinder la double precision que d'integrer l'HBM depuis les Fury.
 
D'autant plus qu'une carte avec bus 512 bits, ca a descendre jusqu'a 200W (GTX 280) et meme 171W en 448 bits (GTX 260).
Ca fait meme 10 ans qu'ils savent faire un bus 512 bits d'ailleurs.[/quotemsg]
http://www.hardware.fr/focus/109/c [...] r-amd.html
L hbm consomme bien moins la preuve.
Fiji en gddr5 aurait eu une fréquence plus basse.
Pareil pour vega.
La gddr5x aurait était une bonne solution mais amd n'y a pas accès.
Nvidia n'en a déjà pas assez pour toute sa gamme.

n°10162908
Crosslink
A mort les kikoos '#Premium' !
Posté le 07-06-2017 à 22:10:35  profilanswer
0Votes positifs
 

Certes, mais en ayant davantage travaille sur GCN -qui fait le plus gros de la consommation-, ca aurait annule le probleme de l'HBM pour Fiji et Vega. Tout en evitant un surcout a la production -pour l'interposer- et au temps de recherche et developement.
 
Pour ce dernier, ils se prennent non seulement du retard a cause d'Hynix, en plus de ne pas avoir eu assez de temps a la base pour davantage ameliorer NCU.
Ce qui aurait ete plus rentable niveau consommation, prix, et sortie.
 
Pour Fiji, AMD aurait meme pu se passer d'HBM.
Sa performances egalant quasiment une GTX 980Ti en version Fury X, la premiere n'etait qu'a environ 400Go/s en comptant la compression Delta Color de Maxwell.
Mais je ne sais pour quelle raison, la Fury X a ete dotee d'environ 100Go/s de plus pour rien...
 
A moins que ce soit pour compenser la faible quantite d'HBM a l'epoque, tout en generant plus de consommation que ce qui etait prevu...


Message édité par Crosslink le 07-06-2017 à 22:13:08
n°10162953
Riseoflege​nds
Posté le 07-06-2017 à 23:30:23  profilanswer
0Votes positifs
 

Du coup on peut espérer de la GDDR6X qui combine les avantages de la GGR5X et de la GDDR6 pour atteindre les 20Gbps? :D

n°10162954
lulunico06
Posté le 07-06-2017 à 23:31:41  profilanswer
0Votes positifs
 

Tu n'as pas compris je crois.
La hbm à permis de gagner 15 watt par rapport au bus de Hawaï.
Donc on aurait eu fiji avec une fréquence en baisse et qui manque de bande passante.
Donc en gros sans hbm fiji n'était pas viable.
D'après les annonces d amd sur vega à confirmé par les tests bien sûr amd à voulu garder gcn en prenant les bonnes idee d nvidia pour arriver à un meilleur performance/watt.
Mais n'ayant pas la gddr5x et vega ayant de gros besoin en bande passante la hbm 2 s'impose.
La vega frontier édition avec 15 watt voir un peu plus pour la ram on serait pas à 1600 mhz mais moins.
Du coup la carte concurrencerait la 1080 et non la 1080 ti.
Avec un die bien plus gros et un bus plus gros donc double hausse de coût.
Pas viable et rentable.

n°10162956
Riseoflege​nds
Posté le 07-06-2017 à 23:32:24  profilanswer
0Votes positifs
 

samurai80 a écrit :

J'espere que la GDDR6/DDR5 seront la derniere iteration de ce type de bus parallele. Pour ceux qui comme moi ont du developper ce genre de hardware, quel calvaire !
 
Pour moi la techno d'avenir reste la HMC, car ce qui limite les autres SDRAM c'est beaucoup le bus de donnees externe. La HMC fait appel a des liens series, en gros c'est un peu ce qu'est le bus PCIe par rapport au vieux bus PCI/PCI-X. Ce dernier ne pouvait jamais etre pousse a plus de 133MHz faute de stabilite, alors que personne ne constate jamais de probleme de stabilite avec du PCIe.
 
Ca supprimerait les soucis d'initialisation des modules RAM car les liens series s'"autotrain" de maniere bien plus efficace.
 
La techno a mettre en place dans les puces juste pour la SDRAM est tres penible au niveau du hardware (ajustements de phases, clocks decalees, strobe, ODT, impedance variable, etc etc...), les "transceivers" serie sont certes complexes, mais ils servent a d'autres protocoles, et en dehors du transceiver serie tout est tres simple a mettre en oeuvre.
 
Et je dis ca parce que j'ai deja eu a coder en HDL des controlleurs memoire dans des FPGAs, et on sent que les fabricants de FPGA luttent le plus sur la partie SDRAM.


 
Ouais enfin c'est surtout une question de prix. Que ce soit pénible à mettre en place on s'en balec en fait, c'est pas notre problème.


Message édité par Riseoflegends le 07-06-2017 à 23:32:49
n°10162965
Crosslink
A mort les kikoos '#Premium' !
Posté le 07-06-2017 à 23:58:09  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Tu n'as [...]
Pas viable et rentable.


 
Euh si, j'ai compris. ;)
Par contre, j'ai l'impression que c'est l'inverse de moi vers toi ^^"
 
Je vais faire l'effort de retenter :): Si ils avaient fait un meilleur GCN 3 pour Fiji a la place de mettre de l'HBM, ces 15 watts de gagnes ils les auraient quand meme eus sans HBM, en plus de ne pas avoir eu besoin d'une frequence GPU telle qu'on la connait pour de memes perfs.
 
La Fury X n'as pas besoin d'autant de bande passante (~100Go/s en trop), en tout cas pas si elle avait assez eue de VRAM. Chose seulement possible avec l'utilisation du bus 512bit voire meme 448 bit avec GDDR5, et une amelioration de GCN 3 pour Fiji bien sur.
 
 
Pour Vega, si ils n'ont pas de GDDR5X, ils avaient quand meme de la GDDR5 a 2000Mhz QDR, comme pour l'RX 480. Avec un bus 512 bit, ca fait exactement les 512Go/s de la Fury X.
La GTX 1080 Ti n'etant qu'a environ 500Go/s en comptant la compression Delta Color, si Vega ne depasse pas cette carte, c'est pas un probleme si elle n'a que 448Go/s via un bus 448bit.
 
Pour Vega Frontier Edition, si AMD avait passe plus de temps a peaufiner NCU plutot qu'a s'obstiner de mettre de l'HBM2, non seulement ils auraient eu les 15 watts. Mais ils n'auraient pas eu besoin de pousser la carte a 1600Mhz. En plus d'avoir pu sortir Vega plus tot pour le meme niveau de performances telle qu'elle est aujourd'hui.
 
 
Niveau couts, le die serait donc pas plus gros. En plus, le bus 512 bits est maitrise depuis 10 ans, donc ca doit pas couter autant qu'a l'epoque a faire, ni couter aussi cher qu'un interposer.
 
Pour le coup c'est l'HBM qui ne serait pas viable ni rentable. D'ailleurs, les Fury le montre assez bien, sauf l'R9 Fury qui a ete severement bradee a 235E.
 
 
Bref, l'idee est que favoriser la recherche et le developpement de GCN au lieu d'HBM aurait ete plus malin de leur part. Etant donne que comme les cores sont clockes dans leurs derniers retranchements, ca pompe exponentiellement plus de jus.
Donc baisser un peu leur frequence aurait apporte un gain qui aurait ete largement plus benefique que 15 W apportes par l'HBM. L'R9 Nano le montre assez bien: 11.5% de performances en moins par rapport a l'R9 Fury X pour 40% de consommation en moins:
http://www.hardware.fr/articles/94 [...] tique.html
 
Surtout qu'il y a plus un besoin de puissance dans les cores que de bande passante dans les jeux. Les consoles n'aidant pas :(


Message édité par Crosslink le 08-06-2017 à 00:13:25
n°10162979
lulunico06
Posté le 08-06-2017 à 00:19:46  profilanswer
0Votes positifs
 

Pour fiji je suis d'accord l'architecture était mauvaise en performance/watt.
Pour vega encore une fois à confirmer avec les tests amd semble avoir réglé le problème.
Le bus que tu proposes en gddr5 pour vega aurait consommer 15 watts minimum de plus que la solution hbm 2.
Donc si je t'écoute tu veux une carte qui soit face à la 1080 ti tout en consommant moins pour compenser la ram en gddr5 qui consomme plus que la gddr5x de la 1080 ti.
Je trouve que vu d'où est partie amd arriver à coller nvidia en performance/watt serait déjà énorme.
La hbm 2 consommant moins que la gddr5x ça les aidera a rattraper leurs retard.
Pour la question de coût j'explique juste que à cause de la ram qui consomme plus la fréquence sera en baisse pour garder le même tdp.
Du coût on ne concurrence plus la 1080 ti mais la 1080.
Die d'environ 480 mm2 contre 314 mm2 du gp104 et bus 512 bits forcément plus coûteux qu'un bus 256 bits.
Donc pas rentable.
Enfin fiji à fini à un prix de vente très bas c'est qu'il vaut mieux vendre à perte ou avec peu de marge que pas vendre du tout.
La hbm à un coût supérieur certes mais pour une carte haut de gamme ou les marges sont en générale plus grande amd à justement un peu de marge pour les réduire un peu.
En milieu de gamme c'est différent les marges étant plus faible ke surcoût de la hbm est je pense encore trop important.
Il faudra plus de volume pour réduire le coût de la technologie.

n°10162994
Crosslink
A mort les kikoos '#Premium' !
Posté le 08-06-2017 à 01:31:49  profilanswer
0Votes positifs
 

Pas aussi performante qu'une GTX 1080Ti, juste que Vega ait le meme niveau de performances et consommation a son stade actuel, mais en favorisant un gain d'energie via NCU que via HBM2.
 
Perso, au pire des cas, Vega sera exactement entre une GTX 1080 et une GTX 1080Ti. (Je peux poster mes estimations mais apres, c'est trop long sinon).
 
Apres, tout depend du prix, si c'est moins performant que la GTX 1080Ti mais tout en etant assez moins cher, c'est mission accomplie pour moi. Idem si ca egale la GTX 1080Ti mais qu'elle soit au meme prix, voire moins si ca peut faire baisser nVidia au meme niveau.
 
 
Pour la rentabilite, je compare pas a la GTX 1080 ni a la GTX 1080Ti, mais au cout de l'interposer pour l'HBM2 vs le cout d'un bus 512 bits + GDDR5 2Ghz QDR moins cher.
L'HBM2 reste pas rentable pour cette raison.
Meme en bus 448 bits, les GTX 260 l'integrant ont tournees aux alentours de 250E aux debuts, ca reste possible du coup pour une carte telle que Vega sensee etre vendue dans les 600E.
 
On est d'accord pour ce que tu dis apres la rentabilite.
 
Par contre, le probleme c'est qu'AMD ne possedera pas le volume a cause d'Hynix...


Message édité par Crosslink le 08-06-2017 à 01:34:19
n°10163031
yvrogne89
Posté le 08-06-2017 à 09:01:33  profilanswer
0Votes positifs
 

ce que tu oublie de prendre en compte, c'est que le contrôleur mémoire est petit pour de l'hbm, alors que pour de gddr5 bus 512, il doit être énorme pour ne pas trop consommer et être efficace, tu augmente donc la taille du gpu, ou baisse son nombre d'unité et donc ses perfs.

n°10163039
lulunico06
Posté le 08-06-2017 à 09:27:56  profilanswer
0Votes positifs
 

Le gain de consommation par l'architecture que tu demandes à sms suppose qu'il arrive à être meilleur en performance/watt que nvidia.
Tu en demandé trop la.
Comme on te le rappelle aussi un bus 512 bits c'est plus gros en plus de plus consommer.
Donc la hbm2 était le seul choix logique pour amd.
Bus 512 bits gddr5 on aurait un die encore plus gros et fréquence plus basse.
Amd n'aurait pas trouver comme améliorer l'efficacité de son architecture.
Vega arrive déjà à rattraper pascal ce qui est énorme.

mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Micron atteint 16 Gbps en GDDR5X, GDDR6 début 2018

 

Sujets relatifs
[HFR] Actu : Computex: Les nouveaux ventirads Noctua[HFR] Actu : Computex: Noctua présente son futur 120 mm A-Series
Acheter sur HFR...ou le bon coin ![HFR] Actu : Gigabyte présente ses cartes X299
[HFR] Actu : Computex: Cartes mères X399 Threadripper[HFR] Actu : Intel avance Z370 et Coffee Lake 6 coeurs à la fin d'ét
Plus de sujets relatifs à : [HFR] Actu : Micron atteint 16 Gbps en GDDR5X, GDDR6 début 2018


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR