Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2523 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  164  165  166  ..  621  622  623  624  625  626
Auteur Sujet :

[Topic Unique] AMD Vega

n°10177227
darkandy
?
Posté le 30-06-2017 à 11:47:22  profilanswer
 

Reprise du message précédent :

ilo34 a écrit :


 
 
Ce que je remarque surtout c'est qu'avec les infos que l'on connaît actuellement ba le ration pref/conso pourrait être plus bas que la furry X ^^
AMD (furry x vs vega FE): +30% perfs = +50w de conso
Nvidia (980 ti vs 1080) : +20% perf = -70w de conso


 
 
Oui je m'était aussi aperçu de ça, bon comme ont est deux, ça me rassure.
 
Le ratio perf/conso semble effectivement meilleur sur Fidji que sur VEGA, c'est vraiment étrange... Au moins le ratio perf/conso était meilleur entre Polaris et Tonga :/


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
mood
Publicité
Posté le 30-06-2017 à 11:47:22  profilanswer
 

n°10177228
nicolas_ya​d
Spoons made me fat
Posté le 30-06-2017 à 11:47:33  profilanswer
 

gougui a écrit :


D'aprés ce que j'avais lu, le core vega pourra être intégré dans les APU d'AMD, du coup, c'est compatible avec n'importe quelle mémoire non ?
Pas seulement avec de la coûteuse HBM2 ???


 
C'est sérieux ça?  [:fandalpinee]  
 
 [:turbocat:1]

n°10177230
cartemere
Posté le 30-06-2017 à 11:47:54  profilanswer
 

aliss a écrit :

 

Le produit présenté hier soir, c'est 300w@stock settings.

 

Une 1080 FE c'est 150w dans les mêmes conditions pour le même niveau de perf.

 

Une 1080 Ti FE 230w pour 40-50% de perf en plus.

 

Si la RX n'a pas un tout autre comportement dans un mois (ce qui est peu probable), ça risque d'être compliqué pour AMD.


voilà :/

 
darkandy a écrit :

 


Oui je m'était aussi aperçu de ça, bon comme ont est deux, ça me rassure.

 

Le ratio perf/conso semble effectivement meilleur sur Fidji que sur VEGA, c'est vraiment étrange... Au moins le ratio perf/conso était meilleur entre Polaris et Tonga :/


c'est pas spécialement "étrange", tout dépend où se situe la fréquence "de confort" du GPU... et quelle est la fréquence commerciale finale.

 

plus la fréquence commerciale est loin de la fréquence de confort, plus la conso explose.
c'est mathématique


Message édité par cartemere le 30-06-2017 à 11:49:57
n°10177231
havoc_28
Posté le 30-06-2017 à 11:49:53  profilanswer
 

gougui a écrit :

Bon, faudra voir le rapport perf/prix lors de la sortie des cartes gaming.
 
D'ailleurs, ils ont prévu des versions avec Gddr5 voir Gddr6 ?  
D'aprés ce que j'avais lu, le core vega pourra être intégré dans les APU d'AMD, du coup, c'est compatible avec n'importe quelle mémoire non ?
Pas seulement avec de la coûteuse HBM2 ???


 
Vega est une architecture. V10 est une puce basé sur cette architecture utilisant une interface mémoire type HBM2. Vega sera intégré dans les APU Ryzen qui utiliseront un contrôleur mémoire DDR4.
 
Oui ils peuvent très bien faire des puces basés sur Vega utilisant de la GDDR5(X)/6. Mais pour l'instant à part l'intégration dans Ryzen et V10 aucune autre déclinaison n'a fuité à ce jours.
 

ilo34 a écrit :


Ce que je remarque surtout c'est qu'avec les infos que l'on connaît actuellement ba le ration pref/conso pourrait être plus bas que la furry X ^^
AMD (furry x vs vega FE): +30% perfs = +50w de conso


 
Heu, non ça ne marche pas comme ça. Le ratio ne bougerait pas si on avait 30% de perf en plus et 30% de conso en plus... avec 50 w en plus on est pas à 30 % de conso en plus, donc l'efficacité énergétique de V10 sera un peu meilleur que celle de Fiji (encore heureux).


Message édité par havoc_28 le 30-06-2017 à 11:52:51
n°10177233
bob64
Insérez votre citation ici
Posté le 30-06-2017 à 11:50:51  profilanswer
 

Bah voila, après une x800xl, une 4870 5870 et une r9 290, j'ai finallement craqué.... Et ce malgré un écran freesync...  
J'étais pourtant attaché à l'alternative AMD... Mais trop de retard ,un écran 3440x1440 et une bonne promo gtx 1080 m'ont fait céder.
 
J'espère sincèrement qu'AMD finira par remonter la pente.
 
Note : je passerai bientôt du i7 950 à un 1700x...  J'aurais qd même un peu d'AMD dans la machine.

n°10177235
Zurkum
Posté le 30-06-2017 à 11:51:44  profilanswer
 

Mon dieu j'espère vraiment qu'AMD a un truc magique sinon ...  :(

n°10177236
cartemere
Posté le 30-06-2017 à 11:51:49  profilanswer
 

nicolas_yad a écrit :


 
C'est sérieux ça?  [:fandalpinee]  
 
 [:turbocat:1]


oui :
http://www.01net.com/actualites/am [...] 76366.html

Citation :

Ryzen 7 Mobile : des APU et des CPU
...
Cette puce n’était autre qu’une APU, c'est-à-dire que le circuit intègre tant les cœurs CPU (4 coeurs 8 threads, ici) qu’une vraie partie graphique Radeon basée sur l'architecture Vega.
AMD s’est adonné au traditionnel exercice du duel entre la nouvelle génération en devenir et l’ancienne. Selon les tests pratiqués en interne, l'APU Ryzen offrirait 50% de puissance de calcul supplémentaire et 40% de performances graphiques en sus. Le tout, pour une consommation réduite de moitié, bien entendu.


n°10177243
darkandy
?
Posté le 30-06-2017 à 11:59:22  profilanswer
 

cartemere a écrit :


Je dis que sur les nVidia actuelles, un modèle "bas de gamme" a déjà une marge d'OC très importante... presque au niveau (et parfois mieux d'ailleurs) qu'un modèle haut de gamme.
 
Tu cherches à comparer le ratio perfs/prix des modèles haut de gamme par principe, parceque qu'il est moins bon et donc que ça t'arrange.
Je cherche à comparer le meilleur ratio perfs/prix que l'on peut avoir chez les verts comme chez les rouges.
 
Comme tu le dis toi même, une GTX1080 iChill Inno 3D (donc modèle entrée de gamme, souvent bradée) offre déjà une marge d'OC conséquente grâce au fonctionnement de la fréquence de boost.
Un modèle MSI payé 150€ de plus n'apportera aucune différence en jeu (à part la couleur des LED sur le carrénage si tu as une vitre plexy sur ton boitier)
 


 
Oui et par principe une dacia roule autant qu'une renault, souvent avec la même motorisation... Le tarif est différent... Tout comme une GTX1080 Armor a le même GPU qu'une GTX1080 Gaming X.
 
Certains choisissent leur modèle custom en fonction du refroidissement, du look, des options (leds, logiciels), du SAV ou même de la marque.
 
Par exemple, je ne me vois pas prendre du KFA², par choix et quelques retours sur ces cartes parlent de la présence de coil-whine, même si ça n'est pas une généralité.
 

cartemere a écrit :


350W à dissiper, ça produit beaucoup de chaleur, ça fait beaucoup de bruit, ça nécessite une grosse alim...
c'est pas gratuit, quand le concurrent propose la même chose pour 200W depuis plus de 12 mois, avec une belle marge d'OC
 
donc oui, pour moi elle ne concurrence pas la 1080, elle est en dessous  (en l'état) vu les inconvénients/limitations autour...
donc à iso tarif avec une 1080, perso je prends la 1080, et à moins d'avoir un écran FreeSync ou d'être un fan absolu d'AMD, c'est la décision "logique".


 
 
Ont a eue le même soucis entre les RX470/480 custom et les GTX1060 3go/6Go custom : une conso supérieur d'au moins 50W, et pourtant pour pas mal de personnes (et pas forcément les mineurs lol) et de tests, la RX470/480 semblait plus intéressante, pour ses perfs, son tarif et freesync plus abordable, et ce malgré les 50W en plus niveau conso.
 
@450-500 euros, si la VEGA RX arrive aux perfs d'une GTX1080 custom façon Ichill Inno3D (soit 15% au dessus d'une GTX1080 FE et à 15% d'une GTX1080Ti FE), ce ne sont pas les 50-75W en plus qui vont être contraignants, enfin pour une partie des utilisateurs.  
 
Par contre, là ou je suis d'accord avec toi c'est concernant l'OC : il sera sûrement limité pour la VEGA RX, et ça peut facilement jouer en défaveur de la carte.
 


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°10177246
KrisKross
Posté le 30-06-2017 à 12:03:19  profilanswer
 

Sur les graphes temps vs frame times, c'est bizarre l'instabilité de la Vega FE. Très hachuré, avec des pics. Throttling ou (peu probable) CPU-bound?
 
Par contre, ça doit produire une impression en jeu assez désagréable. Freesync à la rescousse!

n°10177253
ilo34
Posté le 30-06-2017 à 12:18:24  profilanswer
 

En tout cas ça semble quand même étrange qu'un GPU presque 2 fois plus grand (grâce au 14nm vs 28nm mais je ne suis pas sur du x2) + passage de 1050MZz a 1300MHz/1600MHz en boost n’obtienne que 30% de perf en plus
Rien que le boost de fréquence est semble-t-il supérieur au boost de perfs, a quoi servent les transistor en plus ?

Message cité 1 fois
Message édité par ilo34 le 30-06-2017 à 12:20:31
mood
Publicité
Posté le 30-06-2017 à 12:18:24  profilanswer
 

n°10177258
couillesho​t
Les bouboules et la boubouche
Posté le 30-06-2017 à 12:23:50  profilanswer
 

Si ça se trouve on arrivait aux mêmes résultats avec un simple polaris 384 bits et GDDR5 :/


Message édité par couilleshot le 30-06-2017 à 12:26:42

---------------
:o :o :o
n°10177259
fulidi
Posté le 30-06-2017 à 12:24:35  profilanswer
 

Je pense qu'on est tous d'accord pour dire qu'en l'état c'est assez catastrophique parce que certains disent "oui mais vous vous faites des films ca n'a jamais été dis que ça concurrencerai des 1080 ti etc ... " sauf que déjà dans l'histoire des gpu,  celui qui arrive un an plus tard il est forcément devant ou bien égal le flagship du concurrent (c'est tout naturel vu le retard pris) et puis certaines déclarations d'AMD incluait clairement la 1080 ti dans le viseur.
2 pistes s'offrent à nous,  d'abord les drivers d'une il faut espérer qu'ils ne soient pas encore optimisés et de 2 la remarque sur le non changement de performance en passant d'un pilote pro à un pilote grand public me titille. Soit le changement est foireux donc impossible de déterminer les performances réelles de la carte soit il y a pas de différence et là....  
Seconde piste les performance dans fallout 4 qui sont pour le coup très bonne et pourtant c'est un pas un jeu particulièrement optimisé pour AMD juste dans la moyenne. On revient donc à la piste des drivers foireux.  
Il n'y a plus qu' attendre la RX pour avoir une réponse à tout ceci ou une clarification d'AMD  
 

n°10177263
Steez
Pas l'temps d'niaiser !
Posté le 30-06-2017 à 12:30:04  profilanswer
 

aliss a écrit :


 
Le produit présenté hier soir, c'est 300w@stock settings.
 
Une 1080 FE c'est 150w dans les mêmes conditions pour le même niveau de perf.
 
Une 1080 Ti FE 230w pour 40-50% de perf en plus.
 
Si la RX n'a pas un tout autre comportement dans un mois (ce qui est peu probable), ça risque d'être compliqué pour AMD.


 
La GTX 1080 c'est plus 200w, dans les mêmes conditions (c'est la consommation en moyenne d'une carte custom)
 
Et pour la TI FE c'est pas non plus 40-50% de perf en plus faut pas abuser, stock ça monte surement à 20-30% selon les divers tests actuel face à Vega FE.

Message cité 2 fois
Message édité par Steez le 30-06-2017 à 12:31:20
n°10177267
Franky4doi​gts
Don't fuck with my nuts !
Posté le 30-06-2017 à 12:36:46  profilanswer
 

No stress, Sapphire sortira une version nitro avec un rad de 3.5kg pour contenir les 400Watts de peak power, qu'on trouvera a moitié prix après 3 mois. Ca en fera le meilleur rapport perf/prix du moment, tout comme la fury le fut 1 an apres sa sortie  :whistle:  
 
Autrement, +1 sur le fait que Hawaï a été la dernière archi brillante d'AMD.

n°10177272
fulidi
Posté le 30-06-2017 à 12:42:03  profilanswer
 

Moi ce qui me parait injuste par contre pour AMD  c'est ne pas avoir eu accès à la GDDR5x qui est une exclu nvidia pour le moment. On aurait peut être pu avoir des Vega castré avec de la GDDR5x comme une sorte de 1080 puis avoir le Vega complet avec de la HMB2, plus tard quand les stocks de HBM2 seraient plus conséquent et mieux maitrisé pour atteindre la fréquence annoncé. M'enfin avec des "si" on refait le monde ^^

n°10177273
havoc_28
Posté le 30-06-2017 à 12:42:56  profilanswer
 

fulidi a écrit :

Moi ce qui me parait injuste par contre pour AMD  c'est ne pas avoir eu accès à la GDDR5x qui est une exclu nvidia pour le moment. On aurait peut être pu avoir des Vega castré avec de la GDDR5x comme une sorte de 1080 puis avoir le Vega complet avec de la HMB2, plus tard quand les stocks de HBM2 seraient plus conséquent et mieux maitrisé pour atteindre la fréquence annoncé. M'enfin avec des "si" on refait le monde ^^


 
ça aurait nécessité deux DIE différents donc non viable.

n°10177274
ilo34
Posté le 30-06-2017 à 12:44:58  profilanswer
 

fulidi a écrit :

Moi ce qui me parait injuste par contre pour AMD  c'est ne pas avoir eu accès à la GDDR5x qui est une exclu nvidia pour le moment. On aurait peut être pu avoir des Vega castré avec de la GDDR5x comme une sorte de 1080 puis avoir le Vega complet avec de la HMB2, plus tard quand les stocks de HBM2 seraient plus conséquent et mieux maitrisé pour atteindre la fréquence annoncé. M'enfin avec des "si" on refait le monde ^^

 

C'est le défaut d'AMD a trop vouloir faire des techno open source (HBM 1&2) ils n'ont pas accès au techno breveté ou développer conjointement (GDDR5X) alors que le concourant utilise la techno open source gratuitement (HBM 2 sur les tesla).

Message cité 1 fois
Message édité par ilo34 le 30-06-2017 à 12:45:38
n°10177275
havoc_28
Posté le 30-06-2017 à 12:46:15  profilanswer
 

ilo34 a écrit :


C'est le défaut d'AMD a trop vouloir faire des techno open source (HBM 1&2) ils n'ont pas accès au techno breveté ou développer conjointement (GDDR5X) alors que le concourant utilise la techno open source gratuitement (HBM 2 sur les tesla).


 
Non. Contrat d'exclusivité entre Nvidia et Micron pour sa production de GDDR5X. Ce n'est pas la faute de nvidia/micron si les autres fondeurs de RAM n'ont pas commercialisé de GDDR5X qui a été validé par le JEDEC et aurait pu très bien être produite chez SK Hynix, Samsung etc, ces derniers ont préféré se concentrer sur la HBM2/GDDR6.
 
http://www.hardware.fr/news/14501/ [...] jedec.html


Message édité par havoc_28 le 30-06-2017 à 12:52:47
n°10177288
cartemere
Posté le 30-06-2017 à 13:07:28  profilanswer
 

Steez a écrit :


 
La GTX 1080 c'est plus 200w, dans les mêmes conditions (c'est la consommation en moyenne d'une carte custom)
 
Et pour la TI FE c'est pas non plus 40-50% de perf en plus faut pas abuser, stock ça monte surement à 20-30% selon les divers tests actuel face à Vega FE.


c'est plus simple avec des sources :
http://www.hardware.fr/articles/95 [...] tique.html
 
donc non, une 1080 FE, c'est entre 150 et 160W en charge  [:cerveau spamafote]  
là Vega, c'est presque le double  [:tinostar]  
 
on tape à peine les 200W avec une iChill bien OC ...
et on atteint peiniblement les 225W avec une 1080 Ti FE...

n°10177290
Corleone_6​8
Posté le 30-06-2017 à 13:08:02  profilanswer
 

Bébé Yoda a écrit :


 
+1
Merci d'apporter un peu de réserve :)
 
Au final on devrait être un peu au dessus d'une 1080, ça sera déjà bien pour 98% des joueurs. Reste à voir le prix


98% des joueurs ? :lol:
 
On en reparlera aux chiffres de vente si 98% des gens ont tes attentes perso ;)

Bébé Yoda a écrit :


Moi j'ai besoin/envie d'une 1080 ça me suffit très largement. Si Vega sort avec les mêmes performances et pour moins cher, j'achète sans réfléchir et je m'en cogne de savoir si on espérait mieux, ou autre... Ça n'a aucun intérêt, je comprends pas


Moins chère qu'une 1080 avec de la hbm2 qui coute chère ? Tu rêves  


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°10177292
cartemere
Posté le 30-06-2017 à 13:09:24  profilanswer
 

fulidi a écrit :

Moi ce qui me parait injuste par contre pour AMD  c'est ne pas avoir eu accès à la GDDR5x qui est une exclu nvidia pour le moment. On aurait peut être pu avoir des Vega castré avec de la GDDR5x comme une sorte de 1080 puis avoir le Vega complet avec de la HMB2, plus tard quand les stocks de HBM2 seraient plus conséquent et mieux maitrisé pour atteindre la fréquence annoncé. M'enfin avec des "si" on refait le monde ^^


ah, maintenant c'est de la faute de nVidia d'avoir eu un accord sur la GDDR5x après le choix d'AMD de partir sur la HBM2 :D

n°10177293
fulidi
Posté le 30-06-2017 à 13:09:26  profilanswer
 

havoc_28 a écrit :


 
ça aurait nécessité deux DIE différents donc non viable.


 
Pas faux, après c'est ce qu'a fait nvdia avec ses quadro.  On revient toujours à une histoire de coût et il ont fait la même chose avec Ryzen,  les DIE étant les même quelque soit la déclinaison. Le souci d'AMD étant de privilégier des GPU polyvalent au détriment du TDP. Tant qu'ils continueront dans cette voie nvidia aura toujours le dessus sur l'efficacité énergétique en jeux.

n°10177295
aliss
Rhyme the Rhyme Well
Posté le 30-06-2017 à 13:11:28  profilanswer
 

Steez a écrit :


 
La GTX 1080 c'est plus 200w, dans les mêmes conditions (c'est la consommation en moyenne d'une carte custom)
 
Et pour la TI FE c'est pas non plus 40-50% de perf en plus faut pas abuser, stock ça monte surement à 20-30% selon les divers tests actuel face à Vega FE.


 
Je parle de modèles de ref aux settings par défaut, c'est ce qui était présenté hier soir.
 
En mode standard Tridam avait obtenu 150-155w pour la 1080FE.
 
Pour l'écart effectivement je me suis fié aux résultats de la Titan XP, on peut enlever 10% pour une Ti, ça ne change pas grand chose au schmilblick, le gap est considérable.

n°10177296
mogana
Posté le 30-06-2017 à 13:11:39  profilanswer
 

on peut quand même constater qu'il y a au moins un résultat encourageant, un fallout 4 qui est au niveau d'une 1080ti
c'est surtout pas significatif mais c'est déjà ça
après tout ils ont mis une nouvelle isa, un tout nouveau contrôleur mémoire et un tiled base defered rendering, peut-être que les drivers sont encore trop dérivés de ceux de fiji
peu probable je sais mais qui sait

n°10177297
cartemere
Posté le 30-06-2017 à 13:16:09  profilanswer
 

mogana a écrit :

on peut quand même constater qu'il y a au moins un résultat encourageant, un fallout 4 qui est au niveau d'une 1080ti
c'est surtout pas significatif mais c'est déjà ça
après tout ils ont mis une nouvelle isa, un tout nouveau contrôleur mémoire et un tiled base defered rendering, peut-être que les drivers sont encore trop dérivés de ceux de fiji
peu probable je sais mais qui sait


ça me laisse aussi un peu d'espoir...
 
j'espère encore secrètement que AMD s'est juste totalement foiré sur les drivers, et que la situation sera bien meilleure dans quelques mois...
mais ce démarrage est pire que catastrophique  [:mister mystere]  
alors qu'à coté ils nous ont fait un Ryzen qui dépotte...
 
POURQUOI §§§§  [:frog sad:3]

n°10177298
Corleone_6​8
Posté le 30-06-2017 à 13:16:48  profilanswer
 

mogana a écrit :

on peut quand même constater qu'il y a au moins un résultat encourageant, un fallout 4 qui est au niveau d'une 1080ti
c'est surtout pas significatif mais c'est déjà ça
après tout ils ont mis une nouvelle isa, un tout nouveau contrôleur mémoire et un tiled base defered rendering, peut-être que les drivers sont encore trop dérivés de ceux de fiji
peu probable je sais mais qui sait


 
Franchement c'est tout ce que je souhaite qu'elle arrive à un tel niveau, je l'achète tout de suite.
 
Mais d'un autre coté ca voudrait dire qu'après tout ce temps ils n'ont pas été foutu de pondre un driver qui maitrise la base de leur archi..


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°10177301
aliss
Rhyme the Rhyme Well
Posté le 30-06-2017 à 13:22:03  profilanswer
 

mogana a écrit :

on peut quand même constater qu'il y a au moins un résultat encourageant, un fallout 4 qui est au niveau d'une 1080ti
c'est surtout pas significatif mais c'est déjà ça
après tout ils ont mis une nouvelle isa, un tout nouveau contrôleur mémoire et un tiled base defered rendering, peut-être que les drivers sont encore trop dérivés de ceux de fiji
peu probable je sais mais qui sait


 
Pourquoi pousser une architecture au taquet si seuls les pilotes sont en cause ?

n°10177302
mogana
Posté le 30-06-2017 à 13:22:55  profilanswer
 

questions de moyens, je pense que c'est la plus simple des explications
déjà vu ce qu'ils ont sorti cette année et le reste qui vient, je suis déjà plus qu'impressionné
un driver c'est pas un code qui se pond comme ça, c'est énormément de jour homme
mais ce qui m'inquiète c'est leur silence, ça c'est mauvais signe, genre  ils s'en foutent du gaming pour le moment ils se concentrent sur rocm, le deep learning et tout ces marchés à fortes mages
 

n°10177303
fulidi
Posté le 30-06-2017 à 13:24:57  profilanswer
 

cartemere a écrit :


ah, maintenant c'est de la faute de nVidia d'avoir eu un accord sur la GDDR5x après le choix d'AMD de partir sur la HBM2 :D


 
On peut aussi le voir comme cela,  je connais pas la chronologie des évènements pour dire si c'était avant ou après le choix d'AMD de prendre la HBM2 que l'accord d'exclusivité c'est fait. Justement je partais du principe que ce genre d'accord arrivait bien avant la mise sur le marché et que par conséquent cela mettait directement dans l'impossibilité pour AMD de développer un produit avec de la GDDR5x d’où leur choix de la HBM2 (ce qui est logique puisque Fidji possédait la HBM1).  
Je rebondissais plus sur le fait que certains ne comprenait pas qu'AMD s'efforce de continuer avec la HBM alors que d'autre solutions existent et le contrat d'exclusivité peut en partie expliquer cela.  

n°10177304
Angelus006​9
Posté le 30-06-2017 à 13:25:17  profilanswer
 

A mon avis attendons la sorti officiel des versions pour le gaming perso pour le moment je garde ma gtx 1080 ti après on verra plus tard si Amd avait une version cacher qui arrache tous en Uhd.
Ok je rêve mais bon faut avoir de l'espoir .


---------------
ASUS P8Z77-V DELUXE Intel Core i7 3770K @4.8Ghz/2x8Go 1866MHz Hyper-X Fury /GTX 1080TI/Crucial M550 512 go /Crucial M4 256 /ssd intel 240 go /WDC WD10EARS-00Y5B1 (931 Go)   Ecran :Acer 32" LED - Predator XB321HK
n°10177306
mogana
Posté le 30-06-2017 à 13:26:40  profilanswer
 

aliss a écrit :


 
Pourquoi pousser une architecture au taquet si seuls les pilotes sont en cause ?


 
pour limiter la casse :o
sérieux j'en sais rien, c'est pas cohérent c'est tout, à l'heure d'internet c'est sûr qu'ils savaient que ça allait faire ce shitstorm,  
et quoi ? ils restent silencieux, même pas un attendez les gars, les drivers sont pas prêts, ce qui voudrait dire que non c'est pas une question de driver
enfin bon, au moins pour le deep learning c'est révolutionnaire en terme de prix
et ah oui fallout 4 :o

n°10177307
B00lay Ier
Posté le 30-06-2017 à 13:28:24  profilanswer
 

havoc_28 a écrit :

C'est inefficace la HBM ? Heu je ne pense pas, le problème de la HBM c'est son coût et celui de son interposer. Bref en gros la bande passante ne sera pas limitante sur Vega, car la tu es parti sur l'efficacité énergétique de la chose ce qui est une chose différente de manquer de bande passante  :sarcastic:.


Je parlais de la GDDR5, la HBM visant justement à améliorer l'efficacité des transferts...
 
Tout n'est qu'une question de data flow et de mesures anti-engorgement, dès qu'AMD a évoqué la mise en RAM des données de tessellation on savait qu'ils essayaient de rendre positif un défaut architectural persistant.

n°10177311
havoc_28
Posté le 30-06-2017 à 13:31:21  profilanswer
 

B00lay Ier a écrit :


Je parlais de la GDDR5, la HBM visant justement à améliorer l'efficacité des transferts...
 
Tout n'est qu'une question de data flow et de mesures anti-engorgement, dès qu'AMD a évoqué la mise en RAM des données de tessellation on savait qu'ils essayaient de rendre positif un défaut architectural persistant.


 
Bref Vega 10 ne manque pas de bande passante, c'était le point en question, que l'interface mémoire d'AMD soit inefficace est un autre point :p.
 

ilo34 a écrit :

En tout cas ça semble quand même étrange qu'un GPU presque 2 fois plus grand (grâce au 14nm vs 28nm mais je ne suis pas sur du x2) + passage de 1050MZz a 1300MHz/1600MHz en boost n’obtienne que 30% de perf en plus  
Rien que le boost de fréquence est semble-t-il supérieur au boost de perfs, a quoi servent les transistor en plus ?


 
Alors sur la frontiere eidtion version air cooling on est limité à environ 1400/1450 mhz. Soit plutôt 35/37.5 % de gain de fréquence. Le gain n'est pas forcément linéaire en fonction de la fréquence. Sinon la question est oui, où passent les transistors,  Deep Learning, VR, demi précision etc ?

Message cité 1 fois
Message édité par havoc_28 le 30-06-2017 à 13:35:07
n°10177314
cartemere
Posté le 30-06-2017 à 13:34:33  profilanswer
 

Angelus0069 a écrit :

A mon avis attendons la sorti officiel des versions pour le gaming perso pour le moment je garde ma gtx 1080 ti après on verra plus tard si Amd avait une version cacher qui arrache tous en Uhd.
Ok je rêve mais bon faut avoir de l'espoir .


c'est volontaire ou voulu ? :D
 
/  [:oilrig:2]

n°10177319
Yeagermach​42
Posté le 30-06-2017 à 13:42:13  profilanswer
 

cartemere a écrit :


ah, maintenant c'est de la faute de nVidia d'avoir eu un accord sur la GDDR5x après le choix d'AMD de partir sur la HBM2 :D


C'est totalement injuste. Comme c'est injuste pour Nvidia de ne pas avoir eu accés a la HBM rapidement. A cause de quoi deja ? Ah oui d'un accord d'exclu avec AMD ...  [:oh shi-]

n°10177328
Star2k
Posté le 30-06-2017 à 13:51:12  profilanswer
 

Yeagermach42 a écrit :


C'est totalement injuste. Comme c'est injuste pour Nvidia de ne pas avoir eu accés a la HBM Hynix rapidement. A cause de quoi deja ? Ah oui d'un accord d'exclu avec AMD ...  [:oh shi-]


 [:blinkgt]

Message cité 1 fois
Message édité par Star2k le 30-06-2017 à 13:53:58
n°10177333
Yeagermach​42
Posté le 30-06-2017 à 13:58:59  profilanswer
 


et ? Cela s'offusque d'un accord d'exclu d'un coté et on devrait faire semblant qu'il y en a pas un aussi de l'autre ?

n°10177335
fulidi
Posté le 30-06-2017 à 14:02:10  profilanswer
 

Oui quelque soit le fabricant,  les technologies mémoire devraient être accessible à tous puisqu'elles sont standardisées. Maintenant la HBM a été développé en partie par AMD ,  le fait qu'ils aient voulu une exclusivité sur la 1ère génération se comprend. Pour revenir à cela c'est nvidia qui eu les stocks de HBM2 en priorité donc on va dire que cela compense un peu.


Message édité par fulidi le 30-06-2017 à 14:05:37
n°10177338
Star2k
Posté le 30-06-2017 à 14:03:57  profilanswer
 

Yeagermach42 a écrit :


et ? Cela s'offusque d'un accord d'exclu d'un coté et on devrait faire semblant qu'il y en a pas un aussi de l'autre ?


Je m'offusque pas, j'apporte de la précision, juste que sur la partie HBM2 AMD à misé sur le mauvais cheval (Hynix) et comble de l'ironie, NVidia a été servi avant (Samsung).

n°10177348
aliss
Rhyme the Rhyme Well
Posté le 30-06-2017 à 14:12:28  profilanswer
 

mogana a écrit :

 

pour limiter la casse :o
sérieux j'en sais rien, c'est pas cohérent c'est tout, à l'heure d'internet c'est sûr qu'ils savaient que ça allait faire ce shitstorm,
et quoi ? ils restent silencieux, même pas un attendez les gars, les drivers sont pas prêts, ce qui voudrait dire que non c'est pas une question de driver
enfin bon, au moins pour le deep learning c'est révolutionnaire en terme de prix
et ah oui fallout 4 :o

 

D'un autre côté, personne ne semble surpris qu'elle ait également le niveau de performance du GP104 dans le segment pro (à croire que la mettre face à la Titan XP dans le document de presse marche à plein tube).

 

C'est peut-être la seule chose cohérente pour le moment.

 

La débauche de moyen et d'énergie pour y arriver soulève par contre bon nombre de questions.

Message cité 1 fois
Message édité par aliss le 30-06-2017 à 14:27:40
n°10177393
Star2k
Posté le 30-06-2017 à 14:55:47  profilanswer
 

aliss a écrit :


 
D'un autre côté, personne ne semble surpris qu'elle ait également le niveau de performance du GP104 dans le segment pro (à croire que la mettre face à la Titan XP dans le document de presse marche à plein tube).
 
C'est peut-être la seule chose cohérente pour le moment.
 
La débauche de moyen et d'énergie pour y arriver soulève par contre bon nombre de questions.


Question aux quelles AMD devra répondre lors du SIGGRAPH. L'attente est grande autour de cet événement, j’espère que ça va pas tourner au lynchage en règle.
 
Le pire des scénarios serait qu'ils annoncent une dispo en fin d'année, sans pour autant fournir du concret sur les perfs de cette dernière sur les jeux.
Comme Marc j’espère une surprise même si cela risque d’être peu probable.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  164  165  166  ..  621  622  623  624  625  626

Aller à :
Ajouter une réponse
 

Sujets relatifs
Meilleure CG sans alimentation 80 euros max ?[Topic Unique] Asus ROG STRIX X99 Gaming (2011-V3)
Overclocker le GPU d'un AMD AM1.changer AMD Radeon 6800HD Series
demande d'info aux specialistes AMD ( FX-6300 )[HFR] Actu : Pilotes AMD Radeon Software 16.9.2 pour Forza 3
AMD vers NVIDIA[Topic Unique] Phanteks ECLIPSE P400S
AMD Radeon R9 490 et autres nouveautés.. (?)[HFR] Actu : Pilotes AMD Radeon Software 16.9.1
Plus de sujets relatifs à : [Topic Unique] AMD Vega


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)