Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Aide | Shop Recherche
1680 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Samsung 1er à produire de la GDDR6

 



 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

[HFR] Actu : Samsung 1er à produire de la GDDR6

n°10313568
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-01-2018 à 17:32:43  profilanswer
0Votes positifs
 

Samsung est finalement le premier à annoncer la production en volume de GDDR6. D'une capacité de 2 Go, cette puce est fabriquée en 1x nm (sans plus de ...
Lire la suite ...

mood
Publicité
Posté le 18-01-2018 à 17:32:43  profilanswer
 

n°10313571
lulunico06
Posté le 18-01-2018 à 17:42:17  profilanswer
0Votes positifs
 

Avec la hbm 2 qui peut faire mieux tout en consommant moins je n en vois pas trop l'intérêt.
La hbm est elle encore beacoup plus cher ?
En face d'un bus 256 bits on a besoin que de 2 piles se qui réduit les coûts.
En cas de déclinaison mobile l'avantage de taille est évident.

n°10313592
Banish3d
Posté le 18-01-2018 à 17:59:52  profilanswer
1Votes positifs
 

lulunico06 a écrit :

Avec la hbm 2 qui peut faire mieux tout en consommant moins je n en vois pas trop l'intérêt.
La hbm est elle encore beacoup plus cher ?
En face d'un bus 256 bits on a besoin que de 2 piles se qui réduit les coûts.
En cas de déclinaison mobile l'avantage de taille est évident.


 
On voit bien avec Vega que la HBM2 est encore trop cher et la GDDR6 va surement être utilisé pour les plus gros des GPU Nvidia pour raison de coût.

n°10313594
havoc_28
Posté le 18-01-2018 à 18:01:19  profilanswer
1Votes positifs
 

lulunico06 a écrit :

Avec la hbm 2 qui peut faire mieux tout en consommant moins je n en vois pas trop l'intérêt.
La hbm est elle encore beacoup plus cher ?
En face d'un bus 256 bits on a besoin que de 2 piles se qui réduit les coûts.
En cas de déclinaison mobile l'avantage de taille est évident.


 
Y a toujours le coût de l'interposer et de par sa nature la HBM est plus chère c'est un empilement de couches ... La différence de coût est encore et toujours le principal obstacle de la HBM.


Message édité par havoc_28 le 18-01-2018 à 18:02:38
n°10313608
lulunico06
Posté le 18-01-2018 à 18:22:43  profilanswer
0Votes positifs
 

Banish3d a écrit :


On voit bien avec Vega que la HBM2 est encore trop cher et la GDDR6 va surement être utilisé pour les plus gros des GPU Nvidia pour raison de coût.


Vega 10 c'était spécial le volume était faible la c'est réglé apparement.

n°10313614
lulunico06
Posté le 18-01-2018 à 18:26:57  profilanswer
0Votes positifs
 

havoc_28 a écrit :


Y a toujours le coût de l'interposer et de par sa nature la HBM est plus chère c'est un empilement de couches ... La différence de coût est encore et toujours le principal obstacle de la HBM.


Je ne suis pas sur que la pile de hbm soit plus cher que de la gddr ou de peu.
Il ne faut pas comparer une pile et un puce.
Une pile de hbm 2 on arrive a 8 gi pour ca2en gddr 6 il en faut 4.
Reste bien sur l interposé.
Le fait d'être passé a une commande unique avec fiji a quelque chose utilisé dabs olein de puce différente et pas que des gpu n'en a pas réduit le coût ?

n°10313620
havoc_28
Posté le 18-01-2018 à 18:39:07  profilanswer
0Votes positifs
 

lulunico06 a écrit :


Je ne suis pas sur que la pile de hbm soit plus cher que de la gddr ou de peu.
Il ne faut pas comparer une pile et un puce.
Une pile de hbm 2 on arrive a 8 gi pour ca2en gddr 6 il en faut 4.
Reste bien sur l interposé.
Le fait d'être passé a une commande unique avec fiji a quelque chose utilisé dabs olein de puce différente et pas que des gpu n'en a pas réduit le coût ?


 
Chaque Interposer est différent. Tu dois le faire sur mesure pour chaque puce.

n°10313629
lulunico06
Posté le 18-01-2018 à 18:53:06  profilanswer
0Votes positifs
 

havoc_28 a écrit :


Chaque Interposer est différent. Tu dois le faire sur mesure pour chaque puce.


Oui ça je sais mais la technique est pour simplifié la même juste la taille change.
Donc ça réduit un peu les coûts d'en faire  plein pour plein de puce que pour une seul.

n°10313637
havoc_28
Posté le 18-01-2018 à 19:05:06  profilanswer
0Votes positifs
 

lulunico06 a écrit :


Oui ça je sais mais la technique est pour simplifié la même juste la taille change.
Donc ça réduit un peu les coûts d'en faire  plein pour plein de puce que pour une seul.


 
On est toujours très loin des coûts de productions de mémoire type GDDR.


Message édité par havoc_28 le 18-01-2018 à 19:05:27
n°10313641
fredo3
soa
Posté le 18-01-2018 à 19:11:40  profilanswer
1Votes positifs
 

lulunico06 a écrit :


Oui ça je sais mais la technique est pour simplifié la même juste la taille change.
Donc ça réduit un peu les coûts d'en faire  plein pour plein de puce que pour une seul.


Mais ca restera toujours plus cher que de "bêtes" pistes sur un PCB. D'où justement la solution d'Intel -> EMIB
 
Tant que les perf des puces classiques GDDR pourront être améliorées, la HBM restera mariginal sur desktop.


Message édité par fredo3 le 18-01-2018 à 19:13:41
mood
Publicité
Posté le 18-01-2018 à 19:11:40  profilanswer
 

n°10313648
Invite_Sur​prise
Racaille de Shanghaï
Posté le 18-01-2018 à 19:19:49  profilanswer
2Votes positifs
 

Citation :

But even if HBM is the winner, it's still a niche technology, said Jim Handy, principal analyst with Objective Analysis. "I do see it eventually becoming mainstream, but today it's really expensive technology. That's because TSVs are expensive thing to put silicon wafers,” Handy said.


 
http://www.eetimes.com/document.asp?doc_id=1332846
 
Le choix d'utilisation de la HBM pour des produits grand public est une erreur majeure de la part d'AMD. Toute personne lucide sur la question sait ça.

n°10313653
Eric B
Posté le 18-01-2018 à 19:37:02  profilanswer
1Votes positifs
 

le choix d HBM d'AMD rapelle le choix Rambus d Intel il y a 15 ans!

n°10313655
lulunico06
Posté le 18-01-2018 à 19:38:25  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

Citation :

But even if HBM is the winner, it's still a niche technology, said Jim Handy, principal analyst with Objective Analysis. "I do see it eventually becoming mainstream, but today it's really expensive technology. That's because TSVs are expensive thing to put silicon wafers," Handy said.


http://www.eetimes.com/document.asp?doc_id=1332846
Le choix d'utilisation de la HBM pour des produits grand public est une erreur majeure de la part d'AMD. Toute personne lucide sur la question sait ça.


Non dsl amd a utilisé la hbm un peu par défaut.  
Pour lui c'était hbm ou gddr5.
J'ai bien dis gddr5 pas gddr5x.
Nvidia n en a pas eu assez pour en mettre sur toute ça gamme donc amd n'a pas pu en avoir.
Du coup pour avoir autant de bande passante que vega 10 en a besoin bus 512 bits gddr5 très couteux et très consommateur.
On aurait eu vega 10 avec des fréquence moins haute.
Donc pas vraiment le choix de faire autrement.

Message cité 1 fois
Message édité par lulunico06 le 18-01-2018 à 19:39:29
n°10313669
havoc_28
Posté le 18-01-2018 à 19:50:06  profilanswer
0Votes positifs
 

lulunico06 a écrit :


Non dsl amd a utilisé la hbm un peu par défaut.  
Pour lui c'était hbm ou gddr5.
J'ai bien dis gddr5 pas gddr5x.
Nvidia n en a pas eu assez pour en mettre sur toute ça gamme donc amd n'a pas pu en avoir.
Du coup pour avoir autant de bande passante que vega 10 en a besoin bus 512 bits gddr5 très couteux et très consommateur.
On aurait eu vega 10 avec des fréquence moins haute.
Donc pas vraiment le choix de faire autrement.


 
Le contrôleur mémoire de Hawaï était consommateur car il était très compacte et plutôt optimisé pour des fréquences de GDDR5 plus basses ... le contrôleur mémoire de Tahiti et ses 384 bits était plus gros que celui d’Hawaï et ses 512 bits ...  
 
AMD aurait très bien pu sortir un gros Polaris avec un bus mémoire 512 bits pas trop gourmand (oui ça aurait bouffer des transistors mais bon), ça aurait toujours été bien moins coûteux que V10 et sa HBM2, après un Gros polaris ne serait pas aussi performant coté compute/deep learning / FP16, mais il serait sorti bien avant V10 ...


Message édité par havoc_28 le 18-01-2018 à 19:50:50
n°10313687
Riseoflege​nds
Posté le 18-01-2018 à 20:11:10  profilanswer
0Votes positifs
 

18gps par pin? Énorme!! Même la HBM aura de la peine à concurrencer ça.
Vu les puces annoncé, ça pourrait signifier des gtx 2018 à 16Go de mémoire et une BP de 576gbps!
Cependant ça parait un peu trop beau pour être vrai.

n°10313688
havoc_28
Posté le 18-01-2018 à 20:12:12  profilanswer
0Votes positifs
 

Riseoflegends a écrit :

18gps par pin? Énorme!! Même la HBM aura de la peine à concurrencer ça.
Vu les puces annoncé, ça pourrait signifier des gtx 2018 à 16Go de mémoire et une BP de 576gbps!
Cependant ça parait un peu trop beau pour être vrai.


 
Non la HBM2 fait toujours un peu mieux :
 
http://www.hardware.fr/news/15339/ [...] -hbm2.html
 
Après 18 gb/s des la sortie ... ouais tablons plutôt sur du 14 gb/s :p.


Message édité par havoc_28 le 18-01-2018 à 20:13:49
n°10313706
lulunico06
Posté le 18-01-2018 à 20:42:36  profilanswer
0Votes positifs
 

havoc_28 a écrit :


Le contrôleur mémoire de Hawaï était consommateur car il était très compacte et plutôt optimisé pour des fréquences de GDDR5 plus basses ... le contrôleur mémoire de Tahiti et ses 384 bits était plus gros que celui d'Hawaï et ses 512 bits ...  
AMD aurait très bien pu sortir un gros Polaris avec un bus mémoire 512 bits pas trop gourmand (oui ça aurait bouffer des transistors mais bon), ça aurait toujours été bien moins coûteux que V10 et sa HBM2, après un Gros polaris ne serait pas aussi performant coté compute/deep learning / FP16, mais il serait sorti bien avant V10 ...


Amd l'avait expliqué a l'époque un bus 512 bits basse fréquence est plus petit et il consomme moins qu'un 384 bits haute fréquence.
Mais la on aurait besoin d'un 512 bits haute fréquence donc encore plus gros et plus consommateur.
Le gpu doit du coup avoir une fréquence qui diminue vu que c'est toujours le même tdp.
La hbm le contrôleur de fiji est plus petit que celui de hawaii d'après amd.
Donc meme si la hbm 2 il est plud grand il reste a mon avis plus petit qu'un vus 512 bits en gddr 5 haute fréquence.
Vega 10 est au niveau de la 1080.
Si avec la gddr 5 il est en face de la 1070 tu le vend comment avec une carte qui consomme toujours comme la vega 64 ?
Niveau coût certes la hbm 2 a un coût mais un bus gddr 5 donc 16 puces et un pcb complexe pas sûr que ce soit moins coûteux.
Le bus dans la puce étant plus grand le die est plus gros et plus coûteux aussi du coup.
Donc pour moi hbm 2 sur vega 10 pas parfait mais pas le choix.

n°10313711
ZzDazzleZz
Bencheur Oufff
Posté le 18-01-2018 à 20:51:28  profilanswer
0Votes positifs
 

lulunico06 a écrit :


Amd l'avait expliqué a l'époque un bus 512 bits basse fréquence est plus petit et il consomme moins qu'un 384 bits haute fréquence.
Mais la on aurait besoin d'un 512 bits haute fréquence donc encore plus gros et plus consommateur.
Le gpu doit du coup avoir une fréquence qui diminue vu que c'est toujours le même tdp.
La hbm le contrôleur de fiji est plus petit que celui de hawaii d'après amd.
Donc meme si la hbm 2 il est plud grand il reste a mon avis plus petit qu'un vus 512 bits en gddr 5 haute fréquence.
Vega 10 est au niveau de la 1080.
Si avec la gddr 5 il est en face de la 1070 tu le vend comment avec une carte qui consomme toujours comme la vega 64 ?
Niveau coût certes la hbm 2 a un coût mais un bus gddr 5 donc 16 puces et un pcb complexe pas sûr que ce soit moins coûteux.
Le bus dans la puce étant plus grand le die est plus gros et plus coûteux aussi du coup.
Donc pour moi hbm 2 sur vega 10 pas parfait mais pas le choix.


 
Si le choix d'abandonner le marché gaming avec VEGA ???
 
Fin de production d'AMD pour les versions de références gaming RX 64 et 56.
La prod des puces VEGA gaming only customs, sauf que les dites customs sont en dispo compte goutte (Sapphire).
Voir fantomatique sur le marché Européen avec pour exemple asus et sa strix et la red devil power color (disponible en faible quantité en chine pour cette dernière).
 
Résultats des prix hallucinants mais il parait que c'est la faute des miners [:moonzoid:5]
 
Sinon pour en revenir au topic, je dirais 14gbps pour la remplaçante de la 1070 16 pour la 1080 et 18 pour la version Ti ;)
[:neji hyuga:3]


Message édité par ZzDazzleZz le 18-01-2018 à 20:59:00
n°10313722
lulunico06
Posté le 18-01-2018 à 21:03:11  profilanswer
0Votes positifs
 

ZzDazzleZz a écrit :


Si le choix d'abandonner le marché gaming avec VEGA ???
Fin de production d'AMD pour les versions de références gaming RX 64 et 56.
La prod des puces VEGA gaming only customs, sauf que les dites customs sont en dispo compte goutte (Sapphire).
Voir fantomatique sur le marché Européen avec pour exemple asus et sa strix et la red devil power color (disponible en faible quantité en chine pour cette dernière).
Résultats des prix hallucinants mais il parait que c'est la faute des miners [:moonzoid:5]
Sinon pour en revenir au topic, je dirais 14gbps pour la remplaçante de la 1070 16 pour la 1080 et 18 pour la version Ti ;)
[:neji hyuga:3]


Amd fait souvent ça et il n'a pas tord.
Le blower de ref est pourrie il vaut mieux laisser la place au custom.
La non disponibilité est du a plein de facteur.
Certains marque custom ne se lance pas en europe et/ou en France.
Le minage est un vrai problème
Donc il y a des problème de stock.

n°10313724
ZzDazzleZz
Bencheur Oufff
Posté le 18-01-2018 à 21:07:49  profilanswer
0Votes positifs
 

Le minage n'explique pas tout...
Indice 5000 puces pour chaque constructeur ça fait pas lourd au niveau mondial et ceci pourrait-être une explication ? ;)
A voir si les choses évoluent dans le bon sens dans les prochaines semaines !! ou pas.. :o

n°10313747
sebaas
Posté le 18-01-2018 à 21:51:46  profilanswer
0Votes positifs
 

Impatient de voir debarquer les futures Geforce avec ces nouvelles ram. Ma 670 commence a peiner en 2k ×)

n°10313761
havoc_28
Posté le 18-01-2018 à 22:16:06  profilanswer
0Votes positifs
 

lulunico06 a écrit :


Amd l'avait expliqué a l'époque un bus 512 bits basse fréquence est plus petit et il consomme moins qu'un 384 bits haute fréquence.
Mais la on aurait besoin d'un 512 bits haute fréquence donc encore plus gros et plus consommateur.
Le gpu doit du coup avoir une fréquence qui diminue vu que c'est toujours le même tdp.
La hbm le contrôleur de fiji est plus petit que celui de hawaii d'après amd.
Donc meme si la hbm 2 il est plud grand il reste a mon avis plus petit qu'un vus 512 bits en gddr 5 haute fréquence.
Vega 10 est au niveau de la 1080.
Si avec la gddr 5 il est en face de la 1070 tu le vend comment avec une carte qui consomme toujours comme la vega 64 ?
Niveau coût certes la hbm 2 a un coût mais un bus gddr 5 donc 16 puces et un pcb complexe pas sûr que ce soit moins coûteux.
Le bus dans la puce étant plus grand le die est plus gros et plus coûteux aussi du coup.
Donc pour moi hbm 2 sur vega 10 pas parfait mais pas le choix.


 
Un Gros Polaris contrairement à Vega 10 n'aurait pas d'optimisation spécifique compute coté FP16/Demi précision etc Donc malgré un contrôleur mémoire plus imposant oui on aurait au final un GPU plus petit ... Problème ce GPU ne serait clairement pas aussi performant que V10 coté compute ... par contre il serait sorti courant 2016 sans trop de soucis et aurait pu se placer entre une GTX 1070 et une 1080.  
 
Un P10/20 c'est 232 mm², tu multiplies ça bêtement par 2 t'as toujours une surface inférieur à celle d'un V10, tu enlèves ce qui a pas besoin d'être multiplié par 2, tu optimises le tout et on a un GPU comme déjà dit plus haut plus petit que V10.


Message édité par havoc_28 le 18-01-2018 à 22:27:09
n°10313777
Riseoflege​nds
Posté le 18-01-2018 à 22:46:53  profilanswer
0Votes positifs
 

Il manque le lien de la source dans l'article.

n°10313835
thomser
Posté le 19-01-2018 à 02:12:11  profilanswer
1Votes positifs
 

sebaas a écrit :

Impatient de voir debarquer les futures Geforce avec ces nouvelles ram. Ma 670 commence a peiner en 2k ×)

Pété de rire elle doit deja etre bien larguée en Full HD High :P

n°10313838
mazingerz
Posté le 19-01-2018 à 02:47:37  profilanswer
0Votes positifs
 

Avec la techno de intel qui se passe d'interposer la HBM pourrait arriver en force
 
malheureusement j'imagine que intel à le brevet dessus et qu'il lachera ça à personne. Pourtant c'est la solution pour démocratiser la HBM

n°10313867
klapsss
Posté le 19-01-2018 à 08:43:45  profilanswer
0Votes positifs
 

thomser a écrit :

Pété de rire elle doit deja etre bien larguée en Full HD High :P


2k=1080p ^^

n°10313869
lulunico06
Posté le 19-01-2018 à 08:49:43  profilanswer
0Votes positifs
 

havoc_28 a écrit :


Un Gros Polaris contrairement à Vega 10 n'aurait pas d'optimisation spécifique compute coté FP16/Demi précision etc Donc malgré un contrôleur mémoire plus imposant oui on aurait au final un GPU plus petit ... Problème ce GPU ne serait clairement pas aussi performant que V10 coté compute ... par contre il serait sorti courant 2016 sans trop de soucis et aurait pu se placer entre une GTX 1070 et une 1080.  
Un P10/20 c'est 232 mm², tu multiplies ça bêtement par 2 t'as toujours une surface inférieur à celle d'un V10, tu enlèves ce qui a pas besoin d'être multiplié par 2, tu optimises le tout et on a un GPU comme déjà dit plus haut plus petit que V10.


Plus performant sur le cour terme.
Vega si l'architecture est utilisé a fond ( rasteristion fp16 shader primitive ... ) le gpu sera plus performant.

n°10313891
crozet-mag​enta
pas si nouille que ça
Posté le 19-01-2018 à 09:40:57  profilanswer
1Votes positifs
 

klapsss a écrit :


2k=1080p ^^


non... 1080p = FHD
en général quand on parle de 2K, on parle de 2560×1440 même si c'est un abus de langage parce que des écrans vraiment en 2K (2048×1080) ça n'existe pas (en tous cas je n'en ai jamais vu...)


Message édité par crozet-magenta le 19-01-2018 à 09:41:37
n°10313895
Invite_Sur​prise
Racaille de Shanghaï
Posté le 19-01-2018 à 09:51:36  profilanswer
0Votes positifs
 

Pour un chip de 230mm², Polaris consomme déjà trop et comme l'avait dit Tridam à l'époque un gros Polaris n'aurait pas pu être possible de toute façon.

n°10313902
lulunico06
Posté le 19-01-2018 à 10:04:28  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

Pour un chip de 230mm², Polaris consomme déjà trop et comme l'avait dit Tridam à l'époque un gros Polaris n'aurait pas pu être possible de toute façon.


Raison de consommation oui la 480/580 on est plus sur 180 que 150 watts donc un do7ble amd aurait du baisser la fréquence.
On se serait du coup retrouver plis en face de la 1070 que la 1080.
Pour une consommation x2.
Vega 10 sous gddr 5 aussi en face de la 1070 pour une consommation x2.
Vega 10 sous hbm 2 arrive en face de la 1080 ce n'est pas si mal.
Pour moi le problème de vega 10 c'est la taille maximal possible a cause de interposé.
A la place de la hausse fréquence amd aurait pu passer a 8 shader engine et plus de cu.
Mais la pas possible.

n°10313905
HashBoost
Posté le 19-01-2018 à 10:05:09  profilanswer
0Votes positifs
 

@lulunico06 : par pitié, deux choses. 1, essayes d'écrire en français, ne serait ce que les accords singulier / pluriel ou masculin / féminin, tu es juste illisible. 2, je pense que tu manques de discernements dans tes commentaires, tu transpires le gars tombé amoureux de Vega, mais ouvres les yeux et tu pourra voir que ta fiancée a une jambe de bois.
 
Enfin, ne te frotte pas trop en technique avec havoc_28 car il est bien au dessus de toi (même si je ne suis pas tout le temps d'accord avec lui).

n°10313949
sebaas
Posté le 19-01-2018 à 11:00:40  profilanswer
1Votes positifs
 

thomser a écrit :

Pété de rire elle doit deja etre bien larguée en Full HD High :P


 
Pas sur les jeux auxquels je joues  ;)


Message édité par sebaas le 19-01-2018 à 12:08:19
n°10313960
lulunico06
Posté le 19-01-2018 à 11:28:56  profilanswer
0Votes positifs
 

HashBoost a écrit :

@lulunico06 : par pitié, deux choses. 1, essayes d'écrire en français, ne serait ce que les accords singulier / pluriel ou masculin / féminin, tu es juste illisible. 2, je pense que tu manques de discernements dans tes commentaires, tu transpires le gars tombé amoureux de Vega, mais ouvres les yeux et tu pourra voir que ta fiancée a une jambe de bois.
 
Enfin, ne te frotte pas trop en technique avec havoc_28 car il est bien au dessus de toi (même si je ne suis pas tout le temps d'accord avec lui).


Dsl je vais faire attention  
Je ne suis pas amoureux de vega
Le die est loin d'être parfait  
Mais avec les contraintes qu'à eu amd je les vois mal faire autrement.
Ou changer complètement d'architecture.

n°10313967
B00lay Ier
Posté le 19-01-2018 à 11:44:11  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

Pour un chip de 230mm², Polaris consomme déjà trop et comme l'avait dit Tridam à l'époque un gros Polaris n'aurait pas pu être possible de toute façon.


Techniquement c'était parfaitement possible, ça aurait juste donné un GPU totalement merdique :o

n°10314006
Ciyanure
\"L"\
Posté le 19-01-2018 à 12:48:53  profilanswer
0Votes positifs
 

J'avoue que pour moi l'interrogation c'est que va choisir Nvidia pour son haut de gamme prochaine génération.  
 
Ca risque de devenir le choix "de base" pour un moment.


---------------
"Un jour j'irai vivre en Théorie, car en Théorie tout se passe bien."
n°10314007
havoc_28
Posté le 19-01-2018 à 12:51:20  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Plus performant sur le cour terme.
Vega si l'architecture est utilisé a fond ( rasteristion fp16 shader primitive ... ) le gpu sera plus performant.


 
Le problème c'est que les optimisations qui peuvent être utilisés en jeux (qui sont en bonne partie dérivés des optimisations computes), nécessite une implémentation coté développeur et donc un travail supplémentaire de ceux ci ... Et vu les parts de marché je ne pense pas que ça se généralise, y aura bien sur ci et la quelques exemples d'utilisation mais ...
 

Invite_Surprise a écrit :

Pour un chip de 230mm², Polaris consomme déjà trop et comme l'avait dit Tridam à l'époque un gros Polaris n'aurait pas pu être possible de toute façon.


 
Tu me retrouves le paragraphe ou tridam déclare ceci ?

Message cité 1 fois
Message édité par havoc_28 le 19-01-2018 à 12:52:34
n°10314008
Invite_Sur​prise
Racaille de Shanghaï
Posté le 19-01-2018 à 12:54:26  profilanswer
0Votes positifs
 

SK Hynix a également donné des informations quant à la GDDR6 :
 
8Gb pour 14Bbps avec une disponibilité "immédiate" :
 
http://tof.cx/images/2018/01/19/a28213d09647e90aafcf57c31a63bcd0.png
 
https://www.skhynix.com/static/file [...] do?seq=461
 
Via TPU
 

havoc_28 a écrit :

Tu me retrouves le paragraphe ou tridam déclare ceci ?


C'était dans les commentaires de niouzes et j'ai pas vraiment le temps de te retrouver ça mais tu dois pouvoir le faire en cherchant sur son pseudo.

Message cité 1 fois
Message édité par Invite_Surprise le 19-01-2018 à 12:55:43
n°10314017
havoc_28
Posté le 19-01-2018 à 13:01:39  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :


C'était dans les commentaires de niouzes et j'ai pas vraiment le temps de te retrouver ça mais tu dois pouvoir le faire en cherchant sur son pseudo.


 
J'ai déjà écumé les commentaires de news de Polaris et je n'ai rien trouver dans ce sens ...
 

lulunico06 a écrit :


Raison de consommation oui la 480/580 on est plus sur 180 que 150 watts donc un do7ble amd aurait du baisser la fréquence.
On se serait du coup retrouver plis en face de la 1070 que la 1080.
Pour une consommation x2.
Vega 10 sous gddr 5 aussi en face de la 1070 pour une consommation x2.
Vega 10 sous hbm 2 arrive en face de la 1080 ce n'est pas si mal.
Pour moi le problème de vega 10 c'est la taille maximal possible a cause de interposé.
A la place de la hausse fréquence amd aurait pu passer a 8 shader engine et plus de cu.
Mais la pas possible.


 
 
Un gros Polaris n'aurait pas été un P10/20 multiplié par 2, la consommation aurait augmenter de 50 à 75% mais pas 100 %. Le gros avantage d'une telle solution malgré la consommation ça aurait été d'avoir une concurrence VS Pascal des 2016 ... le GP104 il est resté seul pendant  15/16 mois ...  
 
Les 8 Shaders Engine ça coûte trop chère à mettre en œuvre vu les finances d'AMD. Vega 10 a clairement été pensé pour le compute / deep learning et encore avec quelques sacrifice (les FP64) , et accessoirement comme ils ont rien d'autre pour le jeux vidéo, ils l'ont décliné également pour cette tache.


Message édité par havoc_28 le 19-01-2018 à 13:05:47
n°10314020
Invite_Sur​prise
Racaille de Shanghaï
Posté le 19-01-2018 à 13:04:02  profilanswer
0Votes positifs
 

C'est pourtant la vérité. Personne n'est parfait, tu ne t'en souviens pas mais tridam a bien dit ça. D'autres que moi doivent s'en rappeler aussi.

n°10314024
havoc_28
Posté le 19-01-2018 à 13:06:32  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

C'est pourtant la vérité. Personne n'est parfait, tu ne t'en souviens pas mais tridam a bien dit ça. D'autres que moi doivent s'en rappeler aussi.


 
En quoi un Gros polaris était impossible ? Le GP102 ne consomme pas 2X ce que consomme un GP104. Et on partait d'un chip plus petit avec P10.  
 
Ils avaient surtout pas les moyens de développer en même temps Vega et un Gros polaris en parallèle.


Message édité par havoc_28 le 19-01-2018 à 13:09:14
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Samsung 1er à produire de la GDDR6

 

Sujets relatifs
[HFR] Actu : Microcode Intel beta la semaine prochaineSamsung HT-J4500 problème de son et video
[HFR] Actu : NZXT lance une… carte mère ![HFR] Actu : Samsung atteint 2.4 Gbps en HBM2
[HFR] Actu : CES: Un écran OLED 4K 21.6 pouces chez Asus ! 
Plus de sujets relatifs à : [HFR] Actu : Samsung 1er à produire de la GDDR6


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite) / Groupe LDLC / Shop HFR