Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1665 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Auteur Sujet :

[HFR] Actu : Computex: L'AMD Fiji et ses 4 Go de HBM en photo

n°9509034
grosnabot
Posté le 03-06-2015 à 14:37:49  profilanswer
0Votes positifs
 

Reprise du message précédent :
 
ça a été mis en avant dans le texte d'un article de cette période cette meilleure utilisation de la vram. ça fait tellement longtemps que je ne saurais pas dire sur lequel et la flemme de chercher


Message édité par grosnabot le 03-06-2015 à 14:40:30
mood
Publicité
Posté le 03-06-2015 à 14:37:49  profilanswer
 

n°9509035
t3ddy
Posté le 03-06-2015 à 14:38:36  profilanswer
0Votes positifs
 

Comme la compression est souvent synonyme de dégradation de la qualité, je ne sais pas s'il faut vraiment en être fier. D'autant plus que les algorithmes de compression et la puissance de traitement étaient loin d'être aussi bons qu'aujourd'hui.  
Edit : est-ce vraiment important de savoir qui faisait mieux il y a 6-7 ans ? moi ce qui me concerne c'est ce qu'il se passe actuellement, ce qui influencera mon prochain achat.


Message édité par t3ddy le 03-06-2015 à 14:48:37
n°9509052
vanloque
Someone broke my AT Field
Posté le 03-06-2015 à 14:44:10  profilanswer
1Votes positifs
 

Incoming l'annonce de Fallout 4 qui nécessitera 6Go de VRAM minimum vu que Bethesda a l'air de vivre le grand amour avec Nvidia [:ddr555]


---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9509079
vanloque
Someone broke my AT Field
Posté le 03-06-2015 à 14:54:08  profilanswer
1Votes positifs
 

Je fais référence aux configs "the way it's meant to be played" de Shadow of Mordor et Evil Within, qui étaient une belle course au gigot trollesque. :o


Message édité par vanloque le 03-06-2015 à 14:54:51

---------------
--- https://steamcommunity.com/id/Vanlock ---
n°9509082
grosnabot
Posté le 03-06-2015 à 14:55:44  profilanswer
0Votes positifs
 

t3ddy a écrit :

Comme la compression est souvent synonyme de dégradation de la qualité, je ne sais pas s'il faut vraiment en être fier. D'autant plus que les algorithmes de compression et la puissance de traitement étaient loin d'être aussi bons qu'aujourd'hui.  
Edit : est-ce vraiment important de savoir qui faisait mieux il y a 6-7 ans ? moi ce qui me concerne c'est ce qu'il se passe actuellement, ce qui influencera mon prochain achat.


 
ça permet d'expliquer pourquoi avoir "seulement" 4Go, comme certains passent leur temps à citer ça(les adeptes du marketing à gros chiffres), n'est pas si important que ça, chez AMD.


Message édité par grosnabot le 03-06-2015 à 14:58:44
n°9509108
t3ddy
Posté le 03-06-2015 à 15:11:17  profilanswer
3Votes positifs
 

grosnabot a écrit :


ça permet d'expliquer pourquoi avoir "seulement" 4Go, comme certains passent leur temps à citer ça(les adeptes du marketing à gros chiffres), n'est pas si important que ça, chez AMD.


Je ne vois pas en quoi remonter aux 4870 et 8800GT/GTX280 permet d'expliquer ce qu'il se passe aujourd'hui. Les cartes et solutions ont bien changé de part et d'autre.
 
Si 2Go sur les 670/680/770 et 3Go sur les 780/780ti étaient suffisant il n'y a pas si longtemps, je ne vois pas pourquoi 4go poseraient problème avec tous les artifices de compression qui se sont développés depuis ( économie de bande passante, etc ...).
 
Après on peut toujours agiter le spectre des systèmes multiGPU comme le font certains systématiquement, mais cela se pose pas toujours de problème et cela ne concerne pas tout le monde.

Message cité 1 fois
Message édité par t3ddy le 03-06-2015 à 15:11:33
n°9509124
kickvegeta
Vieux et jeune en même temps
Posté le 03-06-2015 à 15:27:06  profilanswer
0Votes positifs
 

t3ddy a écrit :


Je ne vois pas en quoi remonter aux 4870 et 8800GT/GTX280 permet d'expliquer ce qu'il se passe aujourd'hui. Les cartes et solutions ont bien changé de part et d'autre.
 
Si 2Go sur les 670/680/770 et 3Go sur les 780/780ti étaient suffisant il n'y a pas si longtemps, je ne vois pas pourquoi 4go poseraient problème avec tous les artifices de compression qui se sont développés depuis ( économie de bande passante, etc ...).
 
Après on peut toujours agiter le spectre des systèmes multiGPU comme le font certains systématiquement, mais cela se pose pas toujours de problème et cela ne concerne pas tout le monde.


 
 
Tout simplement parce que plus tu montes en résolutions / textures plus tu consommes en ram, donc si le sujet est intéressant ...

n°9509139
fredo3
Posté le 03-06-2015 à 15:39:01  profilanswer
1Votes positifs
 

Faut voir le bon côté des choses. Si ca peut forcer les concepteurs de jeu/moteur de rendu et les dev de driver à optimiser le code, à terme on a tout à y gagner.

n°9509141
t3ddy
Posté le 03-06-2015 à 15:41:25  profilanswer
0Votes positifs
 

kickvegeta a écrit :


Tout simplement parce que plus tu montes en résolutions / textures plus tu consommes en ram, donc si le sujet est intéressant ...


Merci captain obvious, je ne m'en doutais pas. Le sujet des cartes d'il y a 6-7 ans ?
Certains raisonnent à partir de "vérités" établies il y a quelques années et n'en démordent plus. Vous oubliez que l'informatique est un domaine ( comme souvent pour tout ce qui est technologique ) en perpétuelle évolution. Les forces d'une marque, d'une gamme ou d'un modèle ne sont plus obligatoirement les mêmes actuellement parce que c'était vrai il y a longtemps.
Les cartes font l'objet de compromis lors de la conception ( cela rejoint une autre news )  et les compromis ne sont pas toujours heureux, menant parfois à des mauvais calculs. cf les nvidia Fx5xxx, une catastrophe en l'occurence. Doit-on pour autant rester bloqué à cette époque là ? Comme pour les drivers d'amd, soi-disant daubés comme le rabachent certains à longueur de temps.

Message cité 1 fois
Message édité par t3ddy le 03-06-2015 à 15:42:17
n°9509173
kickvegeta
Vieux et jeune en même temps
Posté le 03-06-2015 à 15:53:15  profilanswer
0Votes positifs
 

Mais ils restent pas bloqués, ils émettent des hypothèses ... Peut être dépassé mais recevable ...

mood
Publicité
Posté le 03-06-2015 à 15:53:15  profilanswer
 

n°9509177
Gigathlon
Quad-neurones natif
Posté le 03-06-2015 à 15:54:47  profilanswer
0Votes positifs
 

t3ddy a écrit :

Merci captain obvious, je ne m'en doutais pas. Le sujet des cartes d'il y a 6-7 ans ?
Certains raisonnent à partir de "vérités" établies il y a quelques années et n'en démordent plus..


Pour le coup de la tenue à la montée en résolution c'est toujours valide, aussi étonnant que ça puisse paraitre vu tout le changement.

 

C'est justement comme si les verts avaient en tête des cas d'utilisation "typiques" et concevaient des GPU (et pilotes?) uniquement pour eux, ce qui a donné ce qu'on a connu dès le R300, à savoir des GPU vieillissant mieux chez les rouges.

 

Dans le cas présent l'inefficience des pilotes AMD peut être en cause (vu que le nombre de draw calls reste stable qu'on soit en 320x240 ou en UHD, mécaniquement leur impact faiblit et la puissance parle de plus en plus à mesure qu'on monte en résolution), mais je doute que ça soit le seul paramètre...


Message édité par Gigathlon le 03-06-2015 à 16:10:26
n°9509199
t3ddy
Posté le 03-06-2015 à 16:07:22  profilanswer
1Votes positifs
 

Je n'ai jamais remis en cause la véracité de la gourmandise de la montée en résolution. Prenez au moins la peine de lire ce que j'écris si vous me répondez, à défaut de suivre le fil de la conversation, qui vous éclairerait certainement un peu.
 
( Edit : c'est un peu comme dire que je remets en cause le lien tension-fréquence et consommation quand je refuse d'attribuer la couronne des cartes énergivores à nvidia ou amd jusqu'à la fin des temps parce que ça a été le cas sur une génération de cartes )
 
Je parle des forces et faiblesses de telle ou telle marque/modèle. Qui peuvent aussi évoluer dans le temps pour un même modèle suivant l'évolution de la conception des jeux vidéos qui supporteront pas forcément toujours aussi bien les choix faits lors de la conception de leur architecture, comme tu le soulignes si bien.


Message édité par t3ddy le 03-06-2015 à 16:14:28
n°9509368
The_Balrog
Et là, c'est le drame...
Posté le 03-06-2015 à 18:44:50  profilanswer
2Votes positifs
 

4Go? et alors?...
Puisque les comms aiment à revenir en arriere, depuis plusieurs Gen deja NV ponds des cartes avec MOINS de vram, et pourtant, ça n'empêche pas de vendre des cargos entier de GTX (l'ere batarde des GT200 896Mo vs 1GO, les maigres 1.25Go de fermi en 470/570 vs 2Go...et même récemment, 2Go vs 3Go sur 680/770 vs 7950/280X) et à ce propos, peut être une des raisons qui permettent souvent aux radeons de mieux se comporter en haute résolution?.   Bref, l'argument "tout plein de Go" supérieur, est démonté par les les chiffres de ventes :) 1ere fois depuis des lustres que la tendance s'inverse, que NV a plus de vram....mouep, osef dans 90% des cas, là en 2015 4Go saturent pas...sur une génération un poil batarde (obligation de rester sur du 28nm en attendant mieux), bah, why not?  Ce fait un coup d'essai pour la HBM etc, et surement un bon moyen à court terme de jauger l'efficacité de tout ça pour pour le prochain shrink 16/14nm.  
 
Bon, moi ce qui ma chagrine, c'est a taille du packaging et le renommage du reste de la gamme :/  bon, toujours pas de nouveau GPU mobile chez AMD :(  secteur absolument dépourvu de concurrence depuis (trop) longtemps) J'essaie d'imaginer un packaging de 50x50mm sur du MXM, avec un fidji castré, j'ai du mal à visualiser l'implémentation :/
 
edit: pour les  "oué mais quintuple 4K machin bidule", donc 64Go en 2015...retour à la réalité  :) :
http://www.hardware.fr/sondage/13/ [...] n-jeu.html

Message cité 1 fois
Message édité par The_Balrog le 03-06-2015 à 18:47:37
n°9509371
Gigathlon
Quad-neurones natif
Posté le 03-06-2015 à 18:47:42  profilanswer
0Votes positifs
 

Je crois que tu t'excites surtout comme une puce sans lire ce qu'on dit posément.
 
Citer Crysis comme exemple prouvant qu'1Go était mieux reste du troll ceci dit, vu que si il ramait en mode slide show avec 512Mo il n'était pas pour autant fluide avec 1Go et en abaissant les options ce slide show disparaissait...


Message édité par Gigathlon le 03-06-2015 à 18:48:16
n°9509390
The_Balrog
Et là, c'est le drame...
Posté le 03-06-2015 à 18:59:45  profilanswer
0Votes positifs
 

Je ne m'éxcite pas comme un chip ;), je souligne juste un simple fait: que depuis quoi, 8-10 ans, 1ere fois que la tendance sur CE point s'inverse :)
 
Pour Crysis, on est  d'accord (et il n'y avait pas que limitation de vram qui jouait, vue la gourmandise et le côté précurseur du CryEngine 2 . Ceci dit, il suffit de relancer un run du bench GPU intégré en ultra, juste en 1080p : utilisation vram environ 800Mo que ce soit sur mon ancienne GTX280 ou mon ancienne 5870

n°9509415
grosnabot
Posté le 03-06-2015 à 19:27:13  profilanswer
0Votes positifs
 

https://www.youtube.com/watch?v=Ra4V_SUDrGw
;)


Message édité par grosnabot le 03-06-2015 à 19:27:29
n°9509421
Heavysonic
enmerdeur obsessionnel MAIS BG
Posté le 03-06-2015 à 19:33:12  profilanswer
0Votes positifs
 

beaucoup de bla bla pour pas grand chose comme d'habitude chez amd et jimagine pas le prix de celle en hbm car faut pas rêver çà va être cher.
mais bon attendons la sortie on verra bien.


Message édité par Heavysonic le 03-06-2015 à 19:34:12
n°9509428
jamon
les gens sont bons !!!
Posté le 03-06-2015 à 19:39:49  profilanswer
0Votes positifs
 

a propos de cette "HBM" sa s'overclock bien ou mal ???? :heink:

n°9509431
Maxwell166​4
Posté le 03-06-2015 à 19:40:53  profilanswer
0Votes positifs
 

Comme c'est qqch de nouveau, personne ne sait...

n°9509432
grosnabot
Posté le 03-06-2015 à 19:42:31  profilanswer
0Votes positifs
 

vu la bande passante je crois que ça ne sera pas spécialement utile...

n°9509449
jamon
les gens sont bons !!!
Posté le 03-06-2015 à 19:58:15  profilanswer
0Votes positifs
 

je doute que les fabricants de cartes graphique ne propose que des version standard de la" r9 fury "il y aura surement des versions "superlocked,Toxic,ect" :)

n°9509473
TheRealBix
Posté le 03-06-2015 à 20:23:16  profilanswer
0Votes positifs
 

jamon a écrit :

à propos de cette "HBM" ça s'overclock bien ou mal ???? :heink:


 
"Est-ce que ça se downclock/downvolt bien ou mal" plutôt, histoire de grapiller les watts pour les allouer au GPU :p


Message édité par TheRealBix le 03-06-2015 à 20:23:39
n°9509479
Quarmelite
Posté le 03-06-2015 à 20:26:08  profilanswer
1Votes positifs
 

Question prix, ça ne devrait pas être excessif. La HBM 1 ne devait pas être commercialisée, AMD l'a obtenue surement pour un prix très bas. Reste l'interposer et le nouveau GPU, mais la durée de vie de cette 1ère Fidji devrait être assez courte.

n°9509495
matyas69
Posté le 03-06-2015 à 20:41:13  profilanswer
1Votes positifs
 

The_Balrog a écrit :

4Go? et alors?...
Puisque les comms aiment à revenir en arriere, depuis plusieurs Gen deja NV ponds des cartes avec MOINS de vram, et pourtant, ça n'empêche pas de vendre des cargos entier de GTX (l'ere batarde des GT200 896Mo vs 1GO, les maigres 1.25Go de fermi en 470/570 vs 2Go...et même récemment, 2Go vs 3Go sur 680/770 vs 7950/280X) et à ce propos, peut être une des raisons qui permettent souvent aux radeons de mieux se comporter en haute résolution?.   Bref, l'argument "tout plein de Go" supérieur, est démonté par les les chiffres de ventes :) 1ere fois depuis des lustres que la tendance s'inverse, que NV a plus de vram....mouep, osef dans 90% des cas, là en 2015 4Go saturent pas...sur une génération un poil batarde (obligation de rester sur du 28nm en attendant mieux), bah, why not?  Ce fait un coup d'essai pour la HBM etc, et surement un bon moyen à court terme de jauger l'efficacité de tout ça pour pour le prochain shrink 16/14nm.

 

Bon, moi ce qui ma chagrine, c'est a taille du packaging et le renommage du reste de la gamme :/  bon, toujours pas de nouveau GPU mobile chez AMD :(  secteur absolument dépourvu de concurrence depuis (trop) longtemps) J'essaie d'imaginer un packaging de 50x50mm sur du MXM, avec un fidji castré, j'ai du mal à visualiser l'implémentation :/

 

edit: pour les  "oué mais quintuple 4K machin bidule", donc 64Go en 2015...retour à la réalité  :) :
http://www.hardware.fr/sondage/13/ [...] n-jeu.html

 

Le GT200 avec 896 Mo était sur une carte milieu de gamme(GTX260) donc pas taillé pour les hautes résolutions(900p, 1050p), et c'était seulement 100 mo de moins. Les GTX 470/480 se battait en face des HD 5850/5870 qui avait 1 Go de Vram donc les premières était mieux équipés en mémoire.  :o Pour les GTX 680/770 2 Go était très bien à l'époque mais ce temps est révolu.

 

Pour la Fury si c'est une carte taillé pour le 1440P/4K 4 Go c'est trop peu malheureusement :/


Message édité par matyas69 le 03-06-2015 à 20:46:26
n°9509544
ziple
Posté le 03-06-2015 à 21:18:34  profilanswer
1Votes positifs
 

matyas69 a écrit :

The_Balrog a écrit :

4Go? et alors?...
Puisque les comms aiment à revenir en arriere, depuis plusieurs Gen deja NV ponds des cartes avec MOINS de vram, et pourtant, ça n'empêche pas de vendre des cargos entier de GTX (l'ere batarde des GT200 896Mo vs 1GO, les maigres 1.25Go de fermi en 470/570 vs 2Go...et même récemment, 2Go vs 3Go sur 680/770 vs 7950/280X) et à ce propos, peut être une des raisons qui permettent souvent aux radeons de mieux se comporter en haute résolution?.   Bref, l'argument "tout plein de Go" supérieur, est démonté par les les chiffres de ventes :) 1ere fois depuis des lustres que la tendance s'inverse, que NV a plus de vram....mouep, osef dans 90% des cas, là en 2015 4Go saturent pas...sur une génération un poil batarde (obligation de rester sur du 28nm en attendant mieux), bah, why not?  Ce fait un coup d'essai pour la HBM etc, et surement un bon moyen à court terme de jauger l'efficacité de tout ça pour pour le prochain shrink 16/14nm.  
 
Bon, moi ce qui ma chagrine, c'est a taille du packaging et le renommage du reste de la gamme :/  bon, toujours pas de nouveau GPU mobile chez AMD :(  secteur absolument dépourvu de concurrence depuis (trop) longtemps) J'essaie d'imaginer un packaging de 50x50mm sur du MXM, avec un fidji castré, j'ai du mal à visualiser l'implémentation :/
 
edit: pour les  "oué mais quintuple 4K machin bidule", donc 64Go en 2015...retour à la réalité  :) :
http://www.hardware.fr/sondage/13/ [...] n-jeu.html


 
Le GT200 avec 896 Mo était sur une carte milieu de gamme(GTX260) donc pas taillé pour les hautes résolutions(900p, 1050p), et c'était seulement 100 mo de moins. Les GTX 470/480 se battait en face des HD 5850/5870 qui avait 1 Go de Vram donc les premières était mieux équipés en mémoire.  :o Pour les GTX 680/770 2 Go était très bien à l'époque mais ce temps est révolu.  
 
Pour la Fury si c'est une carte taillé pour le 1440P/4K 4 Go c'est trop peu malheureusement :/


Un framebuffer 4k prend une centaine de MOs, donc 4Go suffisent amplement.
Ce qui fait grimper la consommation mémoire ce sont les textures bien plus que la résolution. Donc cette carte pourra facilement supporter la 4K du moment que la qualité des textures/shadow maps n'est pas outrageante.

n°9509586
Activation
21:9 kill Surround Gaming
Posté le 03-06-2015 à 21:49:11  profilanswer
1Votes positifs
 

Depuis l'E3 ? Ils vont sortir la xbox one 2 en hbm ?  :D

n°9509639
grosnabot
Posté le 03-06-2015 à 22:19:49  profilanswer
1Votes positifs
 

Lise Su > Lisa Su ;)

n°9509643
matyas69
Posté le 03-06-2015 à 22:22:28  profilanswer
0Votes positifs
 

ziple a écrit :


 
Le GT200 avec 896 Mo était sur une carte milieu de gamme(GTX260) donc pas taillé pour les hautes résolutions(900p, 1050p), et c'était seulement 100 mo de moins. Les GTX 470/480 se battait en face des HD 5850/5870 qui avait 1 Go de Vram donc les premières était mieux équipés en mémoire.  :o Pour les GTX 680/770 2 Go était très bien à l'époque mais ce temps est révolu.  
 
Pour la Fury si c'est une carte taillé pour le 1440P/4K 4 Go c'est trop peu malheureusement :/


Un framebuffer 4k prend une centaine de MOs, donc 4Go suffisent amplement.
Ce qui fait grimper la consommation mémoire ce sont les textures bien plus que la résolution. Donc cette carte pourra facilement supporter la 4K du moment que la qualité des textures/shadow maps n'est pas outrageante.[/quotemsg]
 
Réduire les textures en 4K alors que c'est ça qui bouffe le moins de puissance et que tu verras en premier... Non Clairement 4 Go n'est pas assez pour une carte de cette trempe.

n°9509660
The_Balrog
Et là, c'est le drame...
Posté le 03-06-2015 à 22:32:35  profilanswer
0Votes positifs
 

matyas69 a écrit :


Le GT200 avec 896 Mo était sur une carte milieu de gamme(GTX260) donc pas taillé pour les hautes résolutions(900p, 1050p), et c'était seulement 100 mo de moins. Les GTX 470/480 se battait en face des HD 5850/5870 qui avait 1 Go de Vram donc les premières était mieux équipés en mémoire.  :o Pour les GTX 680/770 2 Go était très bien à l'époque mais ce temps est révolu.  
 
Pour la Fury si c'est une carte taillé pour le 1440P/4K 4 Go c'est trop peu malheureusement :/


 
Un soupçon de mauvaise foi peut être? :)
Oui, j'ai pris l'exemple de la 260/260+, mais ton qualificatif de "milieu de gamme" est un peu éronné... gros GPU castré, et pas vraiment vendu a 200€...
Certes, 128Mo de moins....sur 1Go. Donc, en suivant la courbe, ça donnerait une différence de 512Mo voir plus maintenant. Et en face, on avait bien 1Go et 1Go pour le "milieu" de gamme et le HDG.  470/480, tu extrapoles ;) j'ai précisé 470/570 ;)  Les 400 sont sorties apres les 5800, et se sont retrouvées face aux 5800 (dont certaines versions avaient 2Go ;) ), ET les 6900 (2Go). Et la quantité de ram n'a pas bougé avec la timide évolution de Fermi sur les GTX 500, donc, encore une fois, moins de ram :) Enfiiiin, on va pas continuer des heures, ce n'est pas le but :)

n°9509684
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 03-06-2015 à 22:59:55  profilanswer
6Votes positifs
 

La puce me semble plus claire sur cette photo que sur celle de la news...

 

http://cdn4.wccftech.com/wp-content/uploads/2015/06/AMD-Fiji-GPU-High-Resolution-Shot.jpg

 

:jap:


Message édité par Wirmish le 03-06-2015 à 23:00:12
n°9509718
cocto81
Posté le 03-06-2015 à 23:26:33  profilanswer
1Votes positifs
 

Tout ce que j'espère c'est qu'ils sortent une carte 8Go et +. Parce que leur GPU n'étant pas seulement dédié jeux (comme Maxwell), devrait être bon en GPGPU. Donc HBM + GDDR5 ou HBM2 mais que ça ne s'arrête pas à 4Go.
De toute manière si j'ai bien compris les R9 390x (ex 290x) seront en 8Go, donc on pourra se rabattre dessus.
Open CL commence enfin à se généraliser et à bien fonctionner.


Message édité par cocto81 le 03-06-2015 à 23:27:30
n°9509727
fredo3
Posté le 03-06-2015 à 23:44:35  profilanswer
0Votes positifs
 

matyas69 a écrit :


Un framebuffer 4k prend une centaine de MOs, donc 4Go suffisent amplement.
Ce qui fait grimper la consommation mémoire ce sont les textures bien plus que la résolution. Donc cette carte pourra facilement supporter la 4K du moment que la qualité des textures/shadow maps n'est pas outrageante.

 

Non mais de toute façon le 4k sur PC ce n'est pas pour tout de suite (que ça se généralisera ou que cela prenne une part de marché notable), il s'en passera encore quelques gen de GPU d'ici là :D


Message édité par fredo3 le 03-06-2015 à 23:47:22
n°9509735
taronyu26
Posté le 03-06-2015 à 23:56:35  profilanswer
1Votes positifs
 

Il me fait penser à Han, de Fast&Furious 3. Il lui manque juste des chips.

n°9509761
lapin
Posté le 04-06-2015 à 00:45:26  profilanswer
0Votes positifs
 

perso je verrais bien un truc pour avoir 8 GO ou 6.7 GO, grâce à direct X 12/Vulkan/Mantle, c'est une Fiji X 2 ou Fiji+R9 290/390 8 GO, bon on est d'accord en Cross les GO ne s'additionnent pas et pas tellement avec DirectX 12 et autres, mais c'est déjà pas mal la R9 290 va plus ou moins se retrouver à 300€ environs si ça n'est pas déjà le cas, donc tu peux toujours faire dans le pire des cas Fiji XT+ R9 290, même si ça parait bancale à première vu, ça fait au pire 700€+350€= 1050€ et tu a 6.7 GO avec deux cartes graphic, si le bute c'est d'avoir 2.7 GO qui manque à Fiji XT et puis faut pas oublier que la plus part des Power User ils l'ont déjà acheter la R9 290 ou supérieure, ils ne vont pas la jeter déjà qu'ils on miner du Coin dématérialiser.
 
donc ceux qui ont déjà un R9 290, déjà vont au moins attendre 3 mois pour voir se que donne Fiji XT en application et en jeux vidéos, attendre un vrai disponibilité, voir même pour certains attendre la HMB2 qui sortira au plus tard en Juin 2016.
 
pis bon faut pas oublier qu'une forte majorité jouent encore en 1920*1080 et en 2550*1440 donc en faite pas besoin de 4K, a quoi 8% des joueur en 4K, ça ne va pas bouger beaucoup avant septembre 2016, en plus si tu es myope quel intérêt surtout à près d'un mettre de la TV/Moniteur d'autant que le plus important c'est le plaisir de jouer, si les jeux vidéos sont nul aucun intérêt de jouer au jeux vidéos 4K ou pas.
 
en plus à titre perso, je suis fortement ralentie par mon FX8320 qui même à 4.5Ghz peut se mettre à patiner un peux par moment donc, tant que les jeux ne savent pas exploiter correctement plus de 4 à 6 cœurs peut importe la carte graphic si c'est le CPU/APU/SOC qui patinent par manque d'IPC et de fréquences.

n°9509783
matyas69
Posté le 04-06-2015 à 01:38:03  profilanswer
0Votes positifs
 

taronyu26 a écrit :

Il me fait penser à Han, de Fast&Furious 3. Il lui manque juste des chips.


 
Elle* Moi aussi j'avais oublié que c'était une femme xD

n°9509785
matyas69
Posté le 04-06-2015 à 01:52:20  profilanswer
0Votes positifs
 

The_Balrog a écrit :

 

Un soupçon de mauvaise foi peut être? :)
Oui, j'ai pris l'exemple de la 260/260+, mais ton qualificatif de "milieu de gamme" est un peu éronné... gros GPU castré, et pas vraiment vendu a 200€...
Certes, 128Mo de moins....sur 1Go. Donc, en suivant la courbe, ça donnerait une différence de 512Mo voir plus maintenant. Et en face, on avait bien 1Go et 1Go pour le "milieu" de gamme et le HDG.  470/480, tu extrapoles ;) j'ai précisé 470/570 ;)  Les 400 sont sorties apres les 5800, et se sont retrouvées face aux 5800 (dont certaines versions avaient 2Go ;) ), ET les 6900 (2Go). Et la quantité de ram n'a pas bougé avec la timide évolution de Fermi sur les GTX 500, donc, encore une fois, moins de ram :) Enfiiiin, on va pas continuer des heures, ce n'est pas le but :)

 

Sortie des GTX 470/480 Fin Mars 2010
Sortie des HD 6970 Mi Décembre 2010

 

8 mois en informatique c'est énorme.

 

Seul les version Eyefinity des HD 58XX/59XX était des 2 Go et fallait voir le prix.

 

La quantité de mémoire n'a pas changé avec la sortie des GTX 570/580, pourquoi ? C'était suffisant. Mon HD 5850 a commencé a donné des signes de faiblesse(ndlr : mémoire insuffisante) en 2013(soit 4 ans après sa sortie) avec seulement 1 Go de vram(@1080p). Alors la vram des GTX 470/480/570/580 était suffisante. Avec l'arrivée des nouvelles consoles et la quantité de mémoire embarqué sur les cartes graphiques augmentant les besoins en vram ont augmentés la quantité minimum se rapproche plus aujourd'hui de 3-4 Go@1080P que de 2 Go. En 4K c'est plus 4-6Go.

 

Pourquoi tu vas me dire ?

 

Les développeurs devaient développer sur console, avant la sortie des PS4/Xbox One(Novembre 2013) ceux ci développait pour les Xbox360/PS3 qui était équipé de 512 Mo de mémoire unifié(256+256 pour la PS3), bridant alors la plateforme pc. Depuis le début du développement sur les nouvelles consoles(qui a commencé entre 2012 et 2013) la quantité de mémoire embarqué n'était plus un problème pour les devs car ils avaient accès à 8 Go de ram unifié.(6 réel) Pouvant alors stocker une très grosse quantité de textures, code, shaders, vertex, etc). L'architecture du pc étant légèrement différente(la Ram n'étant pas unifié avec la mémoire vidéo) et le coût en lecture dans la ram étant beaucoup plus important. Il est plus facile de stocker les données plus près du gpu et donc dans la mémoire vidéo celle ci étant bien plus rapide.

 

Avant nous étions bridés par les consoles à cause du manque de mémoire(un peu par la puissance mais dans une moindre mesure, cela était compensé par le fait que nous devions afficher le jeu à une résolution 4 fois supérieure(720P => 1080P))
Maintenant nous sommes bridés par le manque de puissance graphique.

 

Développer un jeu sur consoles est 10 fois plus rentable qu'une sortie sur PC. Elles seront toujours priviligiées.

 

Message cité 1 fois
Message édité par matyas69 le 04-06-2015 à 13:12:45
n°9509952
grosnabot
Posté le 04-06-2015 à 10:38:53  profilanswer
1Votes positifs
 

matyas69 a écrit :


 
Développer un jeu sur consoles et 10 fois plus rentable qu'une sortie sur PC. Elles seront toujours privilégiées.
 


Référence nécessaire.

Message cité 1 fois
Message édité par grosnabot le 04-06-2015 à 10:39:07
n°9509992
jdemouth
Posté le 04-06-2015 à 11:12:58  profilanswer
1Votes positifs
 

cocto81 a écrit :

Tout ce que j'espère c'est qu'ils sortent une carte 8Go et +. Parce que leur GPU n'étant pas seulement dédié jeux (comme Maxwell), devrait être bon en GPGPU. Donc HBM + GDDR5 ou HBM2 mais que ça ne s'arrête pas à 4Go.
De toute manière si j'ai bien compris les R9 390x (ex 290x) seront en 8Go, donc on pourra se rabattre dessus.
Open CL commence enfin à se généraliser et à bien fonctionner.


 
Il faut vraiment arrêter avec cette fixation sur un Maxwell fait uniquement pour le jeu. Il y a de nombreux utilisateurs sérieux qui utilisent Maxwell pour autre chose que du jeu.

n°9509999
Gigathlon
Quad-neurones natif
Posté le 04-06-2015 à 11:17:25  profilanswer
0Votes positifs
 

grosnabot a écrit :

Référence nécessaire.


Pas trop, entre les accords d'exclusivité et la dilution des coûts de développement sur des ventes plus importantes, on a tout ce qu'il faut.

n°9510149
Activation
21:9 kill Surround Gaming
Posté le 04-06-2015 à 13:04:17  profilanswer
1Votes positifs
 

matyas69 a écrit :


 
Sortie des GTX 470/480 Fin Mars 2010
Sortie des HD 6970 Mi Décembre 2010
 
8 mois en informatique c'est énorme.
 
Seul les version Eyefinity des HD 58XX/59XX était des 2 Go et fallait voir le prix.
 
La quantité de mémoire n'a pas changé avec la sortie des GTX 570/580, pourquoi ? C'était suffisant. Mon HD 5850 a commencé a donné des signes de faiblesse(ndlr : mémoire insuffisante) en 2013(soit 4 ans après sa sortie) avec seulement 1 Go de vram(@1080p). Alors la vram des GTX 470/480/570/580 était suffisante. Avec l'arrivée des nouvelles consoles et la quantité de mémoire embarqué sur les cartes graphiques augmentant les besoins en vram ont augmentés la quantité minimum se rapproche plus aujourd'hui de 3-4 Go@1080P que de 2 Go. En 4K c'est plus 4-6Go.  
 
Pourquoi tu vas me dire ?  
 
Les développeurs devaient développer sur console, avant la sortie des PS4/Xbox One(Novembre 2013) ceux ci développait pour les Xbox360/PS3 qui était équipé de 512 Mo de mémoire unifié(256+256 pour la PS3), bridant alors la plateforme pc. Depuis le début du développement sur les nouvelles consoles(qui a commencé entre 2012 et 2013) la quantité de mémoire embarqué n'était plus un problème pour les devs car ils avaient accès à 8 Go de ram unifié.(6 réel) Pouvant alors stocker une très grosse quantité de textures, code, shaders, vertex, etc). L'architecture du pc étant légèrement différente(la Ram n'étant pas unifié avec la mémoire vidéo) et le coût en lecture dans la ram étant beaucoup plus important. Il est plus facile de stocker les données plus près du gpu et donc dans la mémoire vidéo celle ci étant bien plus rapide.  
 
Avant nous étions bridés par les consoles à cause du manque de mémoire(un peu par la puissance mais dans une moindre mesure, cela était compensé par le fait que nous devions afficher le jeu à une résolution 4 fois supérieure(720P => 1080P))
Maintenant nous sommes bridés par le manque de puissance graphique.
 
Développer un jeu sur consoles et 10 fois plus rentable qu'une sortie sur PC. Elles seront toujours priviligiées.
 


???
Le cout en lecture ?
 
C'est surtout les ecritures qui coute en temps
 
Si tu as une mémoire unifié pas besoin d'ecrire la même information en double

n°9510174
matyas69
Posté le 04-06-2015 à 13:15:22  profilanswer
0Votes positifs
 

Activation a écrit :


???
Le cout en lecture ?

 

C'est surtout les ecritures qui coute en temps

 

Si tu as une mémoire unifié pas besoin d'ecrire la même information en double

 

Je voulais dire le coût en accès. Quand bien même une lecture/écriture dans la ram reste 5 à 10 fois moins rapide que la mémoire vidéo. C'est tout ce que tu as retenu de ce j'ai êcris ?  :o

Message cité 1 fois
Message édité par matyas69 le 04-06-2015 à 13:19:30
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intel ou AMD[HFR] Actu : AMD lance les Carrizo
[HFR] Actu : Computex: Intel se paye la tête de Qualcomm et Mediatek[HFR] Actu : Computex: 9 GTX 980 Ti customs chez EVGA
Plus de sujets relatifs à : [HFR] Actu : Computex: L'AMD Fiji et ses 4 Go de HBM en photo


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR