Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1039 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : La VRAM des GPU trop gourmande dans quelques années ?

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Précédente
Auteur Sujet :

[HFR] Actu : La VRAM des GPU trop gourmande dans quelques années ?

n°9667883
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 26-11-2015 à 16:55:02  profilanswer
2Votes positifs
 

Lors du forum SC15, Nvidia a effectué une présentation concernant les pistes qu'il explorait afin d'arriver aux super-ordinateurs de type Exascale (capables ...
Lire la suite ...

mood
Publicité
Posté le 26-11-2015 à 16:55:02  profilanswer
 

n°9667901
- gab
Posté le 26-11-2015 à 17:05:54  profilanswer
7Votes positifs
 

Ou une meilleure approche de la gestion de la mémoire de la part des devs :o

n°9667904
Yeagermach​42
Posté le 26-11-2015 à 17:06:52  profilanswer
7Votes positifs
 

- gab a écrit :

Ou une meilleure approche de la gestion de la mémoire de la part des devs :o


 :lol:

n°9667907
lulunico06
Posté le 26-11-2015 à 17:08:42  profilanswer
1Votes positifs
 

La hbm à un prefetch de 2.
Si on passe à 16 comme la gddr5X on arrive à 4 to/s.
Augmenter le prefetch augmente la consommation ?

n°9667908
lulunico06
Posté le 26-11-2015 à 17:08:44  profilanswer
0Votes positifs
 

La hbm à un prefetch de 2.
Si on passe à 16 comme la gddr5X on arrive à 4 to/s.
Augmenter le prefetch augmente la consommation ?

n°9667910
c0rwin
Ad augusta per angusta
Posté le 26-11-2015 à 17:09:20  profilanswer
0Votes positifs
 

Yeagermach42 a écrit :

- gab a écrit :

Ou une meilleure approche de la gestion de la mémoire de la part des devs :o


 :lol:


on peut toujours rever

n°9667912
Yeagermach​42
Posté le 26-11-2015 à 17:11:40  profilanswer
1Votes positifs
 

c0rwin a écrit :


on peut toujours rever


Ah mais il y en aura qui bosseront dessus. Les autres verront qu'il y a X de dispo et donc rempliront tant que les X ne sont pas atteint comme des bourrins.


Message édité par Yeagermach42 le 26-11-2015 à 17:11:56
n°9667919
bjone
Insert booze to continue
Posté le 26-11-2015 à 17:19:03  profilanswer
3Votes positifs
 

- gab a écrit :

Ou une meilleure approche de la gestion de la mémoire de la part des devs :o


Alors la pagination GPU va aider à réduire la VRAM physiquement nécessaire pour le même working set.
 
Mais ce même working set va exploser quand on dira aux artistes qu'ils peuvent passer à des textures 16K~128K.
 
Car la consommation mémoire ce se sont les assets des artistes qui la font, pas le pipe de rendu des devs.


Message édité par bjone le 26-11-2015 à 17:19:45
n°9667921
Alexisy
Posté le 26-11-2015 à 17:19:54  profilanswer
1Votes positifs
 

Ça veux surtout dire qu'on attendra un joli mur dans le développement technologique dans 5-10 ans, et connaissant Nvidia et Intel, ça vas pas être bon du tout...

n°9667929
B0lTiliZeR
Posté le 26-11-2015 à 17:23:00  profilanswer
3Votes positifs
 

ou comment balancer de l'air avec une feuille de salade, t'inquiète pas tonton VErvidia pond nous des trucs propriétaires nous on s'occupe du reste.
Des solutions techniques seront trouver d'ici-la.
c'est mon avis a moi.

mood
Publicité
Posté le 26-11-2015 à 17:23:00  profilanswer
 

n°9667938
Invite_Sur​prise
Racaille de Shanghaï
Posté le 26-11-2015 à 17:36:03  profilanswer
1Votes positifs
 

Merci pour le lien de la présentation Marc  :jap:

n°9667953
tfpsly
Sly
Posté le 26-11-2015 à 17:53:00  profilanswer
1Votes positifs
 

- gab a écrit :

Ou une meilleure approche de la gestion de la mémoire de la part des devs :o


Avec la 4K qui viendra d'ici quelques années (probablement en même temps que la prochaine génération de consoles) ?
 

bjone a écrit :

[quotemsg=9667901,3,644156]Alors la pagination GPU va aider à réduire la VRAM physiquement nécessaire pour le même working set. [...]
Car la consommation mémoire ce se sont les assets des artistes qui la font, pas le pipe de rendu des devs.


Oui tout à fait; en gros quelques dizaines de megs = les buffers de rendus (dev), le reste c'est 90% de textures et 10% de buffers (vertexes, indexes, constantes de shaders, code de shaders, code et data CS...).
Bon le paging, les dévs le font déjà à la main en streamant en avance ce dont il y aura besoin dans quelques secondes. Et ça consomme un peu de vram, dépendamment de la vitesse des supports.

n°9667957
ockiller
Posté le 26-11-2015 à 17:54:54  profilanswer
2Votes positifs
 

lulunico06 a écrit :

La hbm à un prefetch de 2.
Si on passe à 16 comme la gddr5X on arrive à 4 to/s.
Augmenter le prefetch augmente la consommation ?


Yep, la fréquence du bus de données est proportionnelle au prefetch. On peut imaginer que 2 est un bon compromis actuellement.
 
Concernant la pagination, ça permet d'économiser en espace mémoire, pas en débit pour alimenter le GPU...


Message édité par ockiller le 26-11-2015 à 17:56:09
n°9667979
Mysterieus​eX
Chieuse
Posté le 26-11-2015 à 18:18:48  profilanswer
6Votes positifs
 

Nvidia qui fait des blagues en novembre ?
Je précise une chose, on parle de supercomputing, pas de computation monocarte, et leurs présentation est clairement moisie puisque l'orientation est déjà en route : réduire la taille des unités déployées dans les nodes de calculs et augmenter le nombre de nodes. Et ça se fait par l'intermédiaire de leurs solutions tegra, de l'intégration de cartes au format mezzanine ou de la HBM et de systèmes POP chez AMD.
Sans oublier les avancées en greencomputing via l'augmentation de la densité des nodes et les solutions type hotwater.
 
Vous avez oublier également de parler du top500 de novembre (le pourquoi ils parlent de ça) : ils se ramassent clairement ces derniers temps face a des solutions x86-x86 type xeon phi.
CF ces graphiques pour ceux qui ont du mal a analyser http://blog.billrweber.com/wp-cont [...] Poster.png
http://www.top500.org/lists/2015/11/

n°9667987
lulunico06
Posté le 26-11-2015 à 18:27:23  profilanswer
2Votes positifs
 

AMD avait annoncé 15 watt pour la ram de fiji qui croire ?

n°9668047
McNulty
Posté le 26-11-2015 à 19:50:42  profilanswer
1Votes positifs
 

lulunico06 a écrit :

AMD avait annoncé 15 watt en moins pour la ram de fiji qui croire ?


 
FYP


Message édité par McNulty le 26-11-2015 à 19:51:22
n°9668114
lulunico06
Posté le 26-11-2015 à 21:31:11  profilanswer
1Votes positifs
 

McNulty a écrit :

lulunico06 a écrit :

AMD avait annoncé 15 watt en moins pour la ram de fiji qui croire ?


FYP

http://www.anandtech.com/show/9266/amd-hbm-deep-dive/4
C est une estimation d'anadtech pas un chiffre d'affaires AMD mais on est loin des chiffres de nvidia

n°9668117
Zurkum
Posté le 26-11-2015 à 21:37:17  profilanswer
2Votes positifs
 

J'ai confiance en AMD pour mettre au point une nouvelle VRAM d'ici là ( et un Fiji like :o )

n°9668135
Zurkum
Posté le 26-11-2015 à 22:14:42  profilanswer
4Votes positifs
 

tfpsly a écrit :


Avec la 4K qui viendra d'ici quelques années (probablement en même temps que la prochaine génération de consoles) ?
 


 
La next-gen va essayer le 1080p@60fps pour commencer :o

n°9668153
blazkowicz
Posté le 26-11-2015 à 22:40:14  profilanswer
2Votes positifs
 

Déjà ils ne me semblent pas pressés pour le shrink des consoles actuelles, donc la prochaine génération ça va attendre.

n°9668154
Gg67500
Posté le 26-11-2015 à 22:41:20  profilanswer
0Votes positifs
 

Zurkum a écrit :


 
La next-gen va essayer le 1080p@60fps pour commencer :o


 
 
 [:manneke2]  [:julien rodriguez]  [:arkin]


---------------
halte là on ne passe pas !
n°9668188
Crashdent
Posté le 26-11-2015 à 23:09:39  profilanswer
1Votes positifs
 

J'avoue ne pas trop comprendre les inquiétudes de nVidia.
 
Avec de la HBM2 à 16 Go/s par Watt, ils ont largement de quoi faire des GPU ultra performant pendant des années avant que la bande passante devienne un goulot d'étranglement...  :??:  
 
Chez AMD ils ont fait du 300Go/s de bande passante pour alimenter un GPU à 5500 Gflops (SP) ... si je suis mon raisonnement les GPU futurs devraient être à 22 Pflops avec la HBM2 (75W).
 
Avant que nos GPU soit aussi performant il faudra attendre pas mal d'années il me semble, donc la problématique mémoire risque fort d'arrivé en même temps que les MRAM ou les ReRAM pour solutionner le problème.  :heink:


---------------
Parce que je suis un troll : j'ai déconseillé Winrar sur clubic.
n°9668230
spooky57
Egon ? Ton mucus
Posté le 27-11-2015 à 00:40:12  profilanswer
0Votes positifs
 

B0lTiliZeR a écrit :

ou comment balancer de l'air avec une feuille de salade, t'inquiète pas tonton VErvidia pond nous des trucs propriétaires nous on s'occupe du reste.
Des solutions techniques seront trouver d'ici-la.
c'est mon avis a moi.


 
Nous ? T'es ingénieur chez AMD ?

n°9668231
spooky57
Egon ? Ton mucus
Posté le 27-11-2015 à 00:41:20  profilanswer
1Votes positifs
 

Zurkum a écrit :

J'ai confiance en AMD pour mettre au point une nouvelle VRAM d'ici là ( et un Fiji like :o )


 
Gné ? AMD n'a pas inventé le HBM, ce sont juste les premiers à l'implanter...

n°9668278
fkanker
Posté le 27-11-2015 à 07:19:41  profilanswer
1Votes positifs
 

MysterieuseX a écrit :

Vous avez oublier également de parler du top500 de novembre (le pourquoi ils parlent de ça) : ils se ramassent clairement ces derniers temps face a des solutions x86-x86 type xeon phi.
CF ces graphiques pour ceux qui ont du mal a analyser http://blog.billrweber.com/wp-cont [...] Poster.png
http://www.top500.org/lists/2015/11/


Merci pour ces liens. C'est très intéressant de constater sur le graphe "Installation type" l'augmentation de la part des gouvernements ces 10 dernières années...

n°9668284
gils04
le soleil du sud !
Posté le 27-11-2015 à 07:50:08  profilanswer
6Votes positifs
 

beaucoup d'intox de la part du chameleon comme d'habitude , tout ça pour expliquer ou pas qu'HBM leur coûte trop cher et ne veulent pas l'implanter dans leurs GPU merdique

n°9668286
petit-tigr​e
miaou
Posté le 27-11-2015 à 07:56:54  profilanswer
6Votes positifs
 

Les GPU ne sont même pas sortis qu'ils sont déjà "merdiques" aux yeux de certains...
AMD va sauver le monde car intel et nvidia c'est le mal...
 
Et ces trolls passent crème...


---------------
mIaOuUuUuUuUuUu
n°9668292
Jerry_Cbn
Posté le 27-11-2015 à 08:38:22  profilanswer
5Votes positifs
 

spooky57 a écrit :

Zurkum a écrit :

J'ai confiance en AMD pour mettre au point une nouvelle VRAM d'ici là ( et un Fiji like :o )


 
Gné ? AMD n'a pas inventé le HBM, ce sont juste les premiers à l'implanter...


 
La HBM est issue d'un co-développement entre AMD et Hynix.
 
Dire que AMD n'a pas inventé la HBM n'est pas exact.

n°9668302
Mysterieus​eX
Chieuse
Posté le 27-11-2015 à 09:05:04  profilanswer
2Votes positifs
 

fkanker a écrit :

MysterieuseX a écrit :

Vous avez oublier également de parler du top500 de novembre (le pourquoi ils parlent de ça) : ils se ramassent clairement ces derniers temps face a des solutions x86-x86 type xeon phi.
CF ces graphiques pour ceux qui ont du mal a analyser http://blog.billrweber.com/wp-cont [...] Poster.png
http://www.top500.org/lists/2015/11/


Merci pour ces liens. C'est très intéressant de constater sur le graphe "Installation type" l'augmentation de la part des gouvernements ces 10 dernières années...


 
Pas d'augmentation en tant que tel. Y'a même une diminution (si tu pense que classified c'est pour faire beau. :D)

n°9668306
schpounzzz
mangeur de hardware.
Posté le 27-11-2015 à 09:11:47  profilanswer
1Votes positifs
 

pourrait on pas séparer la mémoire du GPU avec deux système de refroidissement séparé? on extrait la HBM du chip afin de la dissiper plus loin, on répartis la zone de chauffe afin d'éviter un point (trop) chaud! si cela est réalisable.

n°9668312
gils04
le soleil du sud !
Posté le 27-11-2015 à 09:28:48  profilanswer
0Votes positifs
 

petit-tigre a écrit :

Les GPU ne sont même pas sortis qu'ils sont déjà "merdiques" aux yeux de certains...
AMD va sauver le monde car intel et nvidia c'est le mal...
 
Et ces trolls passent crème...


 
j'avoue , le merdique est de trop , ça reste quand même de l'intox pour ne pas utiliser HBM car beaucoup trop cher à leurs yeux (busines)  
 
on peut prétexter n'importe quoi ........... , il y a un an encore c'était le cadet de leur soucis .  

n°9668313
Jerry_Cbn
Posté le 27-11-2015 à 09:29:07  profilanswer
1Votes positifs
 

schpounzzz a écrit :

pourrait on pas séparer la mémoire du GPU avec deux système de refroidissement séparé? on extrait la HBM du chip afin de la dissiper plus loin, on répartis la zone de chauffe afin d'éviter un point (trop) chaud! si cela est réalisable.


Non. Le principe même de la HBM est d'être sur le même circuit (l'interposer) que le GPU. Séparer la mémoire du GPU revient à ce qui se faisait avant la HBM.


Message édité par Jerry_Cbn le 27-11-2015 à 09:30:00
n°9668317
TNZ
Ryzen 9 5950X powered ...
Posté le 27-11-2015 à 09:40:46  profilanswer
5Votes positifs
 

nVidia qui tire la sonnette d'alarme sur la course aux perfs  [:mossieurpropre:3]  
 
L'hopital qui se fout de la charité. Ils n'ont jamais mis beaucoup de "fonctionnel" dans leur architecture, ils misent tout sur les fréquences et les pilotes [gérés par le proc central soit dit en passant].


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9668320
ockiller
Posté le 27-11-2015 à 09:48:23  profilanswer
0Votes positifs
 

TNZ a écrit :

L'hopital qui se fout de la charité. Ils n'ont jamais mis beaucoup de "fonctionnel" dans leur architecture, ils misent tout sur les fréquences et les pilotes [gérés par le proc central soit dit en passant].


:D
Tu peux développer ? Qu'entends tu par "fonctionnel" ?

n°9668321
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 27-11-2015 à 09:49:21  profilanswer
1Votes positifs
 

Crashdent a écrit :

J'avoue ne pas trop comprendre les inquiétudes de nVidia.
 
Avec de la HBM2 à 16 Go/s par Watt, ils ont largement de quoi faire des GPU ultra performant pendant des années avant que la bande passante devienne un goulot d'étranglement...  :??:  
 
Chez AMD ils ont fait du 300Go/s de bande passante pour alimenter un GPU à 5500 Gflops (SP) ... si je suis mon raisonnement les GPU futurs devraient être à 22 Pflops avec la HBM2 (75W).
 
Avant que nos GPU soit aussi performant il faudra attendre pas mal d'années il me semble, donc la problématique mémoire risque fort d'arrivé en même temps que les MRAM ou les ReRAM pour solutionner le problème.  :heink:


Je pense aussi qu'on a le temps de voir venir, c'est plutôt une problématique pour la décennie suivante. Par contre les ReRAM ne sont pas censées être plus rapide que la RAM.

n°9668324
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 27-11-2015 à 09:51:35  profilanswer
1Votes positifs
 

gils04 a écrit :

j'avoue , le merdique est de trop , ça reste quand même de l'intox pour ne pas utiliser HBM car beaucoup trop cher à leurs yeux (busines)  
 
on peut prétexter n'importe quoi ........... , il y a un an encore c'était le cadet de leur soucis .  

Mais qu'est-ce que tu racontes, alors que la HBM doit débarquer sur Pascal :??:

n°9668325
B0lTiliZeR
Posté le 27-11-2015 à 09:55:41  profilanswer
0Votes positifs
 

@spooky: je dis nous en tant que consommateur, c'est pas une virgule mais un point que j'aurai du mettre ;)

n°9668326
TNZ
Ryzen 9 5950X powered ...
Posté le 27-11-2015 à 09:59:26  profilanswer
2Votes positifs
 

ockiller a écrit :

:D
Tu peux développer ? Qu'entends tu par "fonctionnel" ?


'dredi toussa : [:votes blancs]
Compare les architectures/instructions/mode de fonctionnement câblés des GPU. Plus tu auras de primitives évoluées sur le GPU, moins tu auras de calculs fait par le processeur central. Regarde l'approche qui a permis de sortir Mantle : on simplifie les appels et on pousse un maximum de travail sur le GPU.

 

Du côté de la concurrence, DirectX12 va en coller plein la tête à la partie logicielle des pilotes. [:spamafote]

Message cité 2 fois
Message édité par TNZ le 27-11-2015 à 09:59:47

---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9668327
gils04
le soleil du sud !
Posté le 27-11-2015 à 10:00:39  profilanswer
0Votes positifs
 

Marc a écrit :

Mais qu'est-ce que tu racontes, alors que la HBM doit débarquer sur Pascal :??:


 
oui à court terme mais je pense qu'il y quand des manières de faire évoluer HBM pour ne pas faire exploser la conso si c'est vraiment le cas ?  

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : La VRAM des GPU trop gourmande dans quelques années ?

 

Sujets relatifs
[HFR] Actu : ASRock overclocke la DDR4 sans Z170[HFR] Actu : Phanteks Power Splitter : 1 alim, 2 PC
[HFR] Actu : Adaptateur DP 1.2 vers HDMI 2.0[HFR] Actu : 128 Go en RDIMM DDR4 chez Samsung
[HFR] Actu : Plus de pilotes AMD pour les archi pré-GCN 
Plus de sujets relatifs à : [HFR] Actu : La VRAM des GPU trop gourmande dans quelques années ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR