Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1231 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  27  28  29  ..  621  622  623  624  625  626
Auteur Sujet :

[Topic Unique] AMD Vega

n°10014475
suerayate2
TOOL POWAAAA
Posté le 15-12-2016 à 12:29:19  profilanswer
 

Reprise du message précédent :

Invite_Surprise a écrit :

 

Le modèle FE était disponible sur le store de nVidia et les versions customs sont sorties avant les RX 480 des constructeurs.
La version de base de la RX480 (déconseillée par HFR) était inintéressante vu qu'AMD ne met pas en valeur ses modèles au détriment de son image.

 
Citation :

nous ne pouvons pas vous conseiller de sauter sur les premières Radeon RX 480 de référence. C'est d'autant plus regrettable qu'AMD a fait en sorte de disposer de stocks conséquents au lancement. Mais la raison impose de patienter quelques semaines de plus.

 

http://www.hardware.fr/articles/951-31/conclusion.html

 

Les 1060 étaient beaucoup plus disponibles que les RX480 pour des prestations bien meilleures :

 

http://www.hardware.fr/focus/118/r [...] h-280.html

 

edit : Globalement, t'es en train de nous dire qu'AMD a bien fait et que le HDG c'est pas important ? Être beaucoup moins compétitif que son principal concurrent et ne pas chercher à améliorer la situation, c'est normal pour toi ?

 

Les modeles FE etaient disponibles sur le store oui, mais en dehors de ceux la et des modeles customs a prix eleve, au debut les modeles customs peu cheres (les gainwards et autres a environ 270/280) etaient peu evident a trouver.
Au contraire des rx480 de base facilement trouvables, contrairement a ce que tu affirmais dans ton posts (Tout le monde sait que la RX480 a subit des problèmes de disponibilité au lancement.), et que ces versions etaient bancales ou pas, la n'etait pas la discussion.

 

Ensuite, en quoi ne pas arroser le HDG rend moins competitif et n'ameliore pas la situation? Ce qui compte et surtout ce qui va ameliorer la situation c'est de fournir a un instant T le (ou les) produit(s) adaptes que ce soit en terme de performance/prestation/prix. Le HDG sert de vitrine, et n'est clairement pas adapte au gros du marche.

 


Message édité par suerayate2 le 15-12-2016 à 12:32:17

---------------
"D'abord, ta tête va enfler comme une pastèque, tu vas grossir de 50kilos environ en une heure... il va te pousser des griffes, des pustules sanguinolentes, et ensuite tu vas remarquer que tu as 6 énormes seins poilus qui te poussent dans le dos !"
mood
Publicité
Posté le 15-12-2016 à 12:29:19  profilanswer
 

n°10014476
Mantrikk
Bitmap Bro'
Posté le 15-12-2016 à 12:30:26  profilanswer
 


Si on parle de la 480, "beaucoup moins competitif que la concurrence", ca me parait abusé, pour ne pas dire faux. A part les 50w de conso en moins, en aucun cas je ne vois la 1060 comme étant fondamentalement "meilleure", au contraire.
 
Quant à : "ne pas chercher à ameliorer la situation". Vu la baisse de prix, la montée des perfs et les perfectionnements des pilotes, cela me parait plus qu'abusé également. Je trouve l'effort notable, et c'est tout bon pour le consommateur. Encore une fois, il suffit de lire les commentaires des possesseurs de 480 qui obtiennent un bien meilleur rendement/perf que ce qu'on a vu dans la presse avec les modèles de ref et leur opti douteuse. (vcore trop élevé-prix egalement-disponibilité.)
 
Sinon, à mon humble avis, je pense que si amd POUVAIT retourner nvidia comme une crêpe, ils le feraient non ? Amd a pensé faire en premier lieu du volume pour reprendre des pdm, et en cela a cherché à etre compétitif sur le mdg, dans le budget "majoritaire"...ce qui est completement le cas avec les rx470/480. Beaucoup avec des cartes d'anciennes gen attendaient des cartes avec ces prestations. C'est sûr que pour celui qui s'est payé une 970 ou 980 au prix fort qques mois avant...
 
Je ne pense pas qu'ils avaient les ressources pour sortir leur hdg en même temps (surtout avec l'arrivée de Zen), et c'est en effet bien dommage....d'autant que si Vega cartonne, beaucoup vont revoir leur vision des RX (comme ce nombre incroyable de gens qui envisagent des 1050ti à presque 200 euros juste parceque la 1080 existe...) [:alain_wakbar:5]  


---------------
An eye for an eye, and soon the whole world's blind.  
n°10014478
alpa
Posté le 15-12-2016 à 12:32:00  profilanswer
 

Invite_Surprise a écrit :


 
Le modèle FE était disponible sur le store de nVidia et les versions customs sont sorties avant les RX 480 des constructeurs.
La version de base de la RX480 (déconseillée par HFR) était inintéressante vu qu'AMD ne met pas en valeur ses modèles au détriment de son image.
 

Citation :

nous ne pouvons pas vous conseiller de sauter sur les premières Radeon RX 480 de référence. C'est d'autant plus regrettable qu'AMD a fait en sorte de disposer de stocks conséquents au lancement. Mais la raison impose de patienter quelques semaines de plus.


 
http://www.hardware.fr/articles/951-31/conclusion.html
 
Les 1060 étaient beaucoup plus disponibles que les RX480 pour des prestations bien meilleures :
 
http://www.hardware.fr/focus/118/r [...] h-280.html
 
edit : Globalement, t'es en train de nous dire qu'AMD a bien fait et que le HDG c'est pas important ? Être beaucoup moins compétitif que son principal concurrent et ne pas chercher à améliorer la situation, c'est normal pour toi ?


 
Je ne dit pas que c'est normal : leur finances ne leurs permettent pas de développer une gamme entière en même temps ils ont fait le choix de privilégier le milieu de gamme qui représente la plus grosse partie des ventes vu l'augmentation de leur PDM on ne peut pas leur donner totalement tord.
Maintenant il aurait mieux valu lancer une gamme complète en même temps ou du moins sur la même année et si ils en avaient eu la possibilité c'est ce qu'ils auraient fait mais ils ne pouvaient pas.
 

n°10014485
tridam
Profil : Equipe HardWare.fr
Posté le 15-12-2016 à 12:39:34  profilanswer
 

Il y a probablement un problème de finance dans le sens où rentabiliser le coût de développement d'une puce haut de gamme est difficile vu l'état des parts de marché d'AMD. Attendre d'améliorer son image avant de retenter sa chance dans le haut de gamme n'est pas délirant.
 
Mais ce n'est pas l'unique raison. Sur base de Polaris, la consommation de son archi/process est un frein à la conception d'une puce haut de gamme. Améliorer le rendement de cette archi et passer à la HBM2 va faciliter les choses. Par exemple AMD a pu se dire qu'un gros GPU Polaris en 512-bit allait consommer 400W et que ce n'était pas possible alors qu'en HBM2 avec des améliorations, ça pourrait tomber à 300W.

Message cité 5 fois
Message édité par tridam le 15-12-2016 à 12:40:10
n°10014491
yvrogne89
Posté le 15-12-2016 à 12:42:18  profilanswer
 

en quoi leur stratégie est fausse si elle est rentable?
elle a peut-être couté tellement rien en rd que c'est hyper retable.

n°10014501
Moumoule
Posté le 15-12-2016 à 12:54:47  profilanswer
 

Invite_Surprise a écrit :


 
 
???
 
Vega est annoncé pour la mi-2017 par son CFO (donc 1 an après la 1080).
NVDA a sorti la 1080 en premier (18 mai) puis 1070.  
La 1060 ( mi-juillet) est sortie environ 15 jours après la RX480 (30 juin) pour coller dans la même gamme.
 
AMD a eu tout faux sur sa stratégie et laisse tout l'espace à nVidia pour développer ses marges et son profit.


 

aliss a écrit :

Les ventes ont augmenté mais Lisa Su affirmait clairement que le but était de reprendre des PDM et c'est pas en ne sortant que Polaris et Vega 6-9 mois plus tard qu'ils y arriveront.
 
Il fallait une famille entière dès cette année.


 

tridam a écrit :

Il y a probablement un problème de finance dans le sens où rentabiliser le coût de développement d'une puce haut de gamme est difficile vu l'état des parts de marché d'AMD. Attendre d'améliorer son image avant de retenter sa chance dans le haut de gamme n'est pas délirant.
 
Mais ce n'est pas l'unique raison. Sur base de Polaris, la consommation de son archi/process est un frein à la conception d'une puce haut de gamme. Améliorer le rendement de cette archi et passer à la HBM2 va faciliter les choses. Par exemple AMD a pu se dire qu'un gros GPU Polaris en 512-bit allait consommer 400W et que ce n'était pas possible alors qu'en HBM2 avec des améliorations, ça pourrait tomber à 300W.


 
C'est pas la première fois qu'on se demande pourquoi du bas de gamme/milieu de gamme et pas toute une gamme. Je rejoins ton avis (tridam) à ce niveau là.
 
Ce qui est un fait, c'est que cette stratégie semble avoir payé, ils ont pris des PDM.


Message édité par Moumoule le 15-12-2016 à 12:55:08
n°10014503
havoc_28
Posté le 15-12-2016 à 12:58:51  profilanswer
 

aliss a écrit :

3-4 jours minimum.


 
Les GTX 1080 et Titan X vont donc disparaître si plus GDDR5X :o . Ne restera que la GTX 1070 pour affronter vega  :whistle:

Message cité 1 fois
Message édité par havoc_28 le 15-12-2016 à 13:48:17
n°10014541
Steez
Pas l'temps d'niaiser !
Posté le 15-12-2016 à 13:46:45  profilanswer
 

En tout cas on aura beau critiquer P10/P11, mais ils ont quand même gérer leurs coup je dirais.
 
Leur plus gros carton est quand même la RX 470, positionné à 200€ elle fait de l'ombre à la GTX 1050 TI ou les model les plus bas sont à 165€ environ, de plus elle est 30 à 50% plus performantes que celle-ci.
 
Limite Polaris on aurai pu le voir comme un Tick (comme pour Pascal aussi) où le but était de tester le processus de fabrications, et de voir comment le tout va réagir.
N'empêche les Polaris cloque plutôt bien face à leurs architecture qui n'évolue pas (cf Hawaï à 1 GHz et P10 à 1266 MHz), de plus niveau consommation on passe de 275w (Hawaï) à 160w (Ellesmere XT) juste sur un process, c'est bien je dirais.
 
Je rejoint Moumoule et Tridam, autant exploiter le processus et voir comme ça réagit, pour après sortir le meilleur produit.
D'ailleurs cette situation était connu de chez AMD (oui oui pas ATI, mais bien AMD) ou il avait sorti que une HD 4870 qui arrivait au niveau d'une GTX 480 en consommant et en étant bien moins chère.  
 
Certes ça n'arrive que au niveau d'une GTX 1060, mais avec peu de moyens et en exploitant tout ce qu'ils pouvait (fréquence poussé au maximum, processus 14nm, micro-amélioration de l'architecture) bah ça donne un produit très compétitif surtout avec leurs tarifs très agressifs. D'ailleurs je comprend pas pourquoi les gens chipotent pour 50w de plus, c'est la moitié de la consommation de votre bonne ampoule halogène que vous ne changez pas.

n°10014561
alpa
Posté le 15-12-2016 à 14:11:28  profilanswer
 

havoc_28 a écrit :


 
Les GTX 1080 et Titan X vont donc disparaître si plus GDDR5X :o . Ne restera que la GTX 1070 pour affronter vega  :whistle:


 
Ils peuvent toujours passer a la HBM 2 car en tout cas la Titan le supporte car la version professionnelle en déjà en HBM2  
Par contre pas certain que le GP104 la supporte mais ils peuvent bien sortir une révision du chip avec un contrôleur HBM.

n°10014571
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 14:25:15  profilanswer
 

Mantrikk a écrit :


Si on parle de la 480, "beaucoup moins competitif que la concurrence", ca me parait abusé, pour ne pas dire faux. A part les 50w de conso en moins, en aucun cas je ne vois la 1060 comme étant fondamentalement "meilleure", au contraire.[alain_wakbar:5]  


Polaris est une puce qui devait s'occuper du desktop et aussi des laptops (c'est AMD qui a dit ça).
Résultat, Polaris est hors des clous en terme de conso et un chip comme le GP106 parait bien plus adapté au marché laptop et se montre donc + tout terrain.
La conso, c'est pas juste les 50W en + à payer à EDF, c'est 50W à prendre en compte dans les designs et cela a une importance capitale.
 

tridam a écrit :

Il y a probablement un problème de finance dans le sens où rentabiliser le coût de développement d'une puce haut de gamme est difficile vu l'état des parts de marché d'AMD. Attendre d'améliorer son image avant de retenter sa chance dans le haut de gamme n'est pas délirant.
 
Mais ce n'est pas l'unique raison. Sur base de Polaris, la consommation de son archi/process est un frein à la conception d'une puce haut de gamme. Améliorer le rendement de cette archi et passer à la HBM2 va faciliter les choses. Par exemple AMD a pu se dire qu'un gros GPU Polaris en 512-bit allait consommer 400W et que ce n'était pas possible alors qu'en HBM2 avec des améliorations, ça pourrait tomber à 300W.


 
Je comprends tout à fait ça.
Ce que je comprends pas, c'est les propos de Koduri et Roy qui ont mis en avant que Pascal était trop cher, que c'était que du haut de gamme et que NV s'occupe plus des voitures autonomes que des joueurs sans le sou.
Je ne vois pas où est la cohérence dans ce genre de propos et ça ressemble fort à du foutage de gueule marketing.
Concernant Polaris, vu ce que consomme une 480 custom, il parait évident que ça n'allait pas le faire. Il est juste surprenant de voir qu'AMD n'a pas prévu de plan B et qu'ils ont laissé l'intégralité du marché enthusiast à NV pendant 1 an.

Message cité 2 fois
Message édité par Invite_Surprise le 15-12-2016 à 14:32:27
mood
Publicité
Posté le 15-12-2016 à 14:25:15  profilanswer
 

n°10014579
aliss
Rhyme the Rhyme Well
Posté le 15-12-2016 à 14:38:13  profilanswer
 

tridam a écrit :

Il y a probablement un problème de finance dans le sens où rentabiliser le coût de développement d'une puce haut de gamme est difficile vu l'état des parts de marché d'AMD. Attendre d'améliorer son image avant de retenter sa chance dans le haut de gamme n'est pas délirant.
 
Mais ce n'est pas l'unique raison. Sur base de Polaris, la consommation de son archi/process est un frein à la conception d'une puce haut de gamme. Améliorer le rendement de cette archi et passer à la HBM2 va faciliter les choses. Par exemple AMD a pu se dire qu'un gros GPU Polaris en 512-bit allait consommer 400W et que ce n'était pas possible alors qu'en HBM2 avec des améliorations, ça pourrait tomber à 300W.


 
J'ai l'impression que tu nous décris un Fiji bis pour Vega. :/

n°10014629
tridam
Profil : Equipe HardWare.fr
Posté le 15-12-2016 à 15:46:57  profilanswer
 

Invite_Surprise a écrit :


 
Ce que je comprends pas, c'est les propos de Koduri et Roy qui ont mis en avant que Pascal était trop cher, que c'était que du haut de gamme et que NV s'occupe plus des voitures autonomes que des joueurs sans le sou.
Je ne vois pas où est la cohérence dans ce genre de propos et ça ressemble fort à du foutage de gueule marketing.
Concernant Polaris, vu ce que consomme une 480 custom, il parait évident que ça n'allait pas le faire. Il est juste surprenant de voir qu'AMD n'a pas prévu de plan B et qu'ils ont laissé l'intégralité du marché enthusiast à NV pendant 1 an.


 
La communication... chacun essaye de défendre ses produits et son approche, pas toujours avec les arguments les plus honnêtes hehe
Ceci dit, Raja, tout du moins avec les journalistes tech dans lesquels il a confiance, est en général très ouvert et pragmatique dans ses commentaires et ne cherche jamais à dénigrer la concurrence. Personnellement quand je lui ai parlé de Pascal au moment du lancement de Polaris, ses réponses étaient plutôt du type "great chip", "would love to be the one selling it" etc. Ce qui ne veut pas dire qu'il n'a pas des arguments pour ses propres produits et qu'il n'a pas vu dans l'approche de Nvidia une opportunité pour l'entrée de gamme. Après Roy c'est totalement différent, il n'est jamais à un ou deux trolls près quand il mentionne la concurrence :D Vaut mieux se contenter de prendre ses commentaires avec humour hehe.  
 

n°10014630
havoc_28
Posté le 15-12-2016 à 15:48:03  profilanswer
 

alpa a écrit :


 
Ils peuvent toujours passer a la HBM 2 car en tout cas la Titan le supporte car la version professionnelle en déjà en HBM2  
Par contre pas certain que le GP104 la supporte mais ils peuvent bien sortir une révision du chip avec un contrôleur HBM.


 
La GDDR5X ne va pas disparaître ... le site de micron sera sûrement remis à jours plus tard quand ils auront de nouvelles data sheats ( versions à 11/12 gb/s finalisées)
 
Juste par ce que les références ont disparu sur le site depuis quelques jours ne veut pas dire que la GDDR5X est fini . Sinon y aurait écrit EOL .


Message édité par havoc_28 le 15-12-2016 à 15:51:16
n°10014636
aliss
Rhyme the Rhyme Well
Posté le 15-12-2016 à 15:52:27  profilanswer
 

C'est d'autant plus cocasse avec Roy lorsque on sait qu'il a bossé 10 ans chez nV.  :D

n°10014656
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 16:09:20  profilanswer
 

tridam a écrit :


 
La communication... chacun essaye de défendre ses produits et son approche, pas toujours avec les arguments les plus honnêtes hehe
Ceci dit, Raja, tout du moins avec les journalistes tech dans lesquels il a confiance, est en général très ouvert et pragmatique dans ses commentaires et ne cherche jamais à dénigrer la concurrence. Personnellement quand je lui ai parlé de Pascal au moment du lancement de Polaris, ses réponses étaient plutôt du type "great chip", "would love to be the one selling it" etc. Ce qui ne veut pas dire qu'il n'a pas des arguments pour ses propres produits et qu'il n'a pas vu dans l'approche de Nvidia une opportunité pour l'entrée de gamme. Après Roy c'est totalement différent, il n'est jamais à un ou deux trolls près quand il mentionne la concurrence :D Vaut mieux se contenter de prendre ses commentaires avec humour hehe.  
 


Roy, j'attends rien du tout de lui.
Par contre, Raja a sorti des saucisses plus grosses que lui.
Le discours qu'il peut tenir avec des journalistes sont peut-être louables mais les propos qu'il sort à la plèbe sont proches du foutage de gueule :
 
"We have two versions of these FinFET GPUs. Both are extremely power efficient. This is Polaris 10 and that’s Polaris 11. In terms of what we’ve done at the high level, it’s our most revolutionary jump in performance so far."
 
"But even in this early silicon, we’re seeing numbers versus the best class on the competition running at a heavy workload, like Star Wars—The competing system consumes 140 watts. This is 86 watts. We believe we’re several months ahead of this transition, especially for the notebook and the mainstream market. The competition is talking about chips for cars and stuff, but not the mainstream market."
 
http://venturebeat.com/2016/01/15/ [...] /view-all/
 
Pour gagner des clients, faut déjà commencer par arrêter de les prendre pour des cons.

n°10014659
Profil sup​primé
Posté le 15-12-2016 à 16:13:12  answer
 

yvrogne89 a écrit :

en quoi leur stratégie est fausse si elle est rentable?
elle a peut-être couté tellement rien en rd que c'est hyper retable.


hyper rentable , pour ça il faudrait déjà les vendre  
 
sûr qu'en R&D ça n'a pas du leur couter un bras , par contre à produire c'est surement plus couteux que chez le voisin qui lui peut se  permettre de vendre plus cher  
 
du coup , j'appelle pas ça une stratégie  
dans le cas d'amd , c'est plutôt " on se démerde comme on peux "  :whistle:

n°10014662
Moumoule
Posté le 15-12-2016 à 16:15:47  profilanswer
 

Invite_Surprise a écrit :


Polaris est une puce qui devait s'occuper du desktop et aussi des laptops (c'est AMD qui a dit ça).
Résultat, Polaris est hors des clous en terme de conso et un chip comme le GP106 parait bien plus adapté au marché laptop et se montre donc + tout terrain.
La conso, c'est pas juste les 50W en + à payer à EDF, c'est 50W à prendre en compte dans les designs et cela a une importance capitale.
 


 
Polaris en version desktop est hors des clous parce que la fréquence est beaucoup trop haute (point d'inflexion voir légèrement au dessus, clairement en dehors de la zone tension-fréquence optimale => influence sur la consommation). Pourquoi aussi haute ? Pour rivaliser avec les performances de nvidia. Tout léger overclock/augmentation de la tension augmente la consommation de manière drastique car Polaris 10 (comme dans la RX 480) est déjà à la limite (voir au dessus) de cette zone tension-fréquence (faut que je révise mes maths, y a un terme bien plus précis pour cela ...)
 
Le fait de downclock Polaris 10 au alentour de 900-1000 Mhz~ (et la tension aussi) réduit la consommation de manière significative car on se retrouve dans la zone optimale tension-fréquence optimale. Bien sûr, cela engendre une baisse de performance aussi. Maintenant oui, on pourrait aussi downclock/undervolt le GP106 mais celui-ci est bien mieux placé que Polaris 10 niveau tension/fréquence, on y gagne mais c'est moins impressionnant que pour Polaris 10 (RX 480)
 
Edit:
 

Citation :

Roy, j'attends rien du tout de lui.  
Par contre, Raja a sorti des saucisses plus grosses que lui.  
Le discours qu'il peut tenir avec des journalistes sont peut-être louables mais les propos qu'il sort à la plèbe sont proches du foutage de gueule :  
 
"We have two versions of these FinFET GPUs. Both are extremely power efficient. This is Polaris 10 and that’s Polaris 11. In terms of what we’ve done at the high level, it’s our most revolutionary jump in performance so far."  
 
"But even in this early silicon, we’re seeing numbers versus the best class on the competition running at a heavy workload, like Star Wars—The competing system consumes 140 watts. This is 86 watts. We believe we’re several months ahead of this transition, especially for the notebook and the mainstream market. The competition is talking about chips for cars and stuff, but not the mainstream market."  
 
http://venturebeat.com/2016/01/15/ [...] /view-all/  
 
Pour gagner des clients, faut déjà commencer par arrêter de les prendre pour des cons.


 
Encore une fois, personne n'a été pris pour un con sur le moment. A ce moment là, il ne connaissait pas les performances de la concurrence (enfin, la nouvelle gamme) Polaris 10 et 11 devait être clocké bien plus bas qu'actuellement, d'ou le "extremely power efficient". Après, ils se sont rendu compte que les performances étaient trop en retrait => on clock plus haut, ce qui a poutré l'efficacité énergétique des puces.
 
L'exemple de SW est très lol en soit, juste besoin de regarder les foot notes pour comprendre. De tête, VSYNC ON (donc 60 fps), medium settings. D'ailleurs, quand on regarde les conditions de tests, on remarque comment Polaris 11 était clocké super bas.

Message cité 1 fois
Message édité par Moumoule le 15-12-2016 à 16:24:03
n°10014669
aliss
Rhyme the Rhyme Well
Posté le 15-12-2016 à 16:26:35  profilanswer
 

Les "tares" de GCN étant connues, pourquoi ne pas avoir opté pour un die un peu plus "costaud" avec des fréquences de fonctionnement relativement basses ?
 
On a vu que c'était efficace puisque la Nano est à l'heure actuelle la carte la plus efficiente d'AMD.

n°10014671
Profil sup​primé
Posté le 15-12-2016 à 16:29:36  answer
 

:jap:

n°10014673
yvrogne89
Posté le 15-12-2016 à 16:30:43  profilanswer
 


 
cela, on en sait rien, c'est peut-être même le contraire, moins cher à produire.

n°10014674
Profil sup​primé
Posté le 15-12-2016 à 16:31:58  answer
 

bien sur que si on le sait  
 
rien qu'avec la taille du die , les volumes produits   ;)  
 
c'est mathématique :D


Message édité par Profil supprimé le 15-12-2016 à 16:33:28
n°10014675
yvrogne89
Posté le 15-12-2016 à 16:35:25  profilanswer
 

non, car pas le même fabriquant ;).
pas la même techno, etc.
 
sinon ça voudrait dire qu'une puce 28nm de même taille qu'une 14nm devrait couté la même chose, alors que la 28nm est énormément moins cher.
 
et je peux même ajouter, quelle raison aurait nvidia de faire graver leur 1050 par samsung si ce n'est que c'est moins cher?

Message cité 2 fois
Message édité par yvrogne89 le 15-12-2016 à 16:36:56
n°10014678
havoc_28
Posté le 15-12-2016 à 16:36:57  profilanswer
 

aliss a écrit :

Les "tares" de GCN étant connues, pourquoi ne pas avoir opté pour un die un peu plus "costaud" avec des fréquences de fonctionnement relativement basses ?
 
On a vu que c'était efficace puisque la Nano est à l'heure actuelle la carte la plus efficiente d'AMD.


 
Après y a le coût de revient par rapport au marché cible . Une puce à 2560 ou 2880 SP ça ferait combien ? 250/265 mm² ?
 

yvrogne89 a écrit :

et je peux même ajouter, quelle raison aurait nvidia de faire graver leur 1050 par samsung si ce n'est que c'est moins cher?


 
Saturation des lignes de TSMC  :whistle:

Message cité 1 fois
Message édité par havoc_28 le 15-12-2016 à 16:37:34
n°10014682
Moumoule
Posté le 15-12-2016 à 16:40:50  profilanswer
 

aliss a écrit :

Les "tares" de GCN étant connues, pourquoi ne pas avoir opté pour un die un peu plus "costaud" avec des fréquences de fonctionnement relativement basses ?
 
On a vu que c'était efficace puisque la Nano est à l'heure actuelle la carte la plus efficiente d'AMD.


 
Ils ont dû juger que c'était le meilleur rapport performance/coût de production/efficacité.
 
Par contre la Nano, le rapport performance/coût de production/efficacité n'est sûrement pas aussi bon, vu la taille de la puce (232 vs 596 mm2). Si on se base que sur les performances et l'efficacité alors oui, la Nano l'emporte. Mais qu'est-ce que AMD a besoin en ce moment ? D'argent et donc, le coût de production est un facteur très important: ils ne peuvent pas de permettre de vendre des puces qui coûtent ultra cher à la production au risque de se faire poutrer par la concurrence. C'est pour cela qu'ils ont préféré se focus sur le mdg, beaucoup plus safe.


Message édité par Moumoule le 15-12-2016 à 16:41:49
n°10014683
Profil sup​primé
Posté le 15-12-2016 à 16:42:15  answer
 

yvrogne89 a écrit :

non, car pas le même fabriquant ;).
pas la même techno, etc.
 
sinon ça voudrait dire qu'une puce 28nm de même taille qu'une 14nm devrait couté la même chose, alors que la 28nm est énormément moins cher.
 
et je peux même ajouter, quelle raison aurait nvidia de faire graver leur 1050 par samsung si ce n'est que c'est moins cher?


la seule chose qu'on ne connait pas ce sont le contenu des contrats liant GloFo à amd  
enfin , pas en détails  
 
hormis ça , le gp106 est beaucoup plus petit , consomme beaucoup moins ce qui permet un pcb plus simple ect...    
 
à partir de là je pense pas qu'il y ait besoin de faire un dessin  
si ?  :D
 
concernant le gp107 fabriqué chez Samsung  
 
comme le dit havoc , surbookage chez TSMC  
ou comme d'autres on pu le suggérer , maintenir une certaine pression sur ces derniers en leur montrant qu'ils ne sont plus les seuls maintenant  
ce qui leur permet de maintenir une position de force pour négocier leurs contrats ;)


Message édité par Profil supprimé le 15-12-2016 à 16:44:20
n°10014684
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 16:42:59  profilanswer
 

Moumoule a écrit :

Encore une fois, personne n'a été pris pour un con sur le moment. A ce moment là, il ne connaissait pas les performances de la concurrence (enfin, la nouvelle gamme) Polaris 10 et 11 devait être clocké bien plus bas qu'actuellement, d'ou le "extremely power efficient". Après, ils se sont rendu compte que les performances étaient trop en retrait => on clock plus haut, ce qui a poutré l'efficacité énergétique des puces.


 
Ah... Sur le moment c'est pas grave et plus tard c'est pas grave non plus ?
 
On parle de l'efficience par rapport à Maxwell, par rapport à Fiji.
Il savait très bien que son chip n'était pas du tout une révolution même par rapport à la Nano par exemple.
Il a trop parlé et vendu du rêve ce qui a desservi sa propre parole et sa propre société.
 
edit : en montrant qu'il pouvait changer de crémerie, nVidia a montré à son meilleur partenaire qu'il n'est pas totalement dépendant de ce dernier.
Ça peut aider lors de la redéfinition des contrats. Mais JHH n'oublie quand même pas de rendre hommage au travail effectué par TSMC de façon récurrente, c'est un des piliers majeurs de leur succès.
C'est toujours pareil, les partenariats, c'est souvent du billard à 3 bandes voire plus.

Message cité 2 fois
Message édité par Invite_Surprise le 15-12-2016 à 16:47:24
n°10014689
aliss
Rhyme the Rhyme Well
Posté le 15-12-2016 à 16:54:05  profilanswer
 

havoc_28 a écrit :


 
Après y a le coût de revient par rapport au marché cible . Une puce à 2560 ou 2880 SP ça ferait combien ? 250/265 mm² ?
 


 
Aucune idée.
 
Par contre avec leur MSRP de 199$ au dernier moment et prenant même de court les fabricants, il faut croire que la clientèle ciblée était prête à mettre un peu plus.
 
Une carte un peu plus performante et plus efficiente à 250$ ne se serait-elle pas vendue aussi bien voir mieux ?
 
 

n°10014690
robin4002
Posté le 15-12-2016 à 16:56:51  profilanswer
 

https://www.reddit.com/r/Amd/commen [...] e/db46rkt/
 
Les histoires de "next compute unit" sont bien du bullshit.
En tout cas d'après bridgman, les blocs n'ont pas changé.

n°10014691
Moumoule
Posté le 15-12-2016 à 17:03:23  profilanswer
 

Invite_Surprise a écrit :


 
Ah... Sur le moment c'est pas grave et plus tard c'est pas grave non plus ?
 
On parle de l'efficience par rapport à Maxwell, par rapport à Fiji.
Il savait très bien que son chip n'était pas du tout une révolution même par rapport à la Nano par exemple.
Il a trop parlé et ça a desservi sa parole et sa société.


 
Tu parles de l'efficience par rapport à Maxwell, par rapport à Fiji, tu peux me montrer concrètement ou Raja a parlé de ça ? Quand tu les écoutes (pour généraliser), il essaie de rester totalement neutre, il ne donne jamais trop d'informations justement pour pas dire de la merde. Tu veux des informations sur efficience de Polaris 10 et 11 ? Tiens, ça c'est du concret:
 
http://cdn.videocardz.com/1/2016/06/2001123681-900x505.jpeg
 
2.8x pour Polaris 11: RX480M (35 W) vs R9 280X (82W)
2.8x pour Polaris 10: RX470 (110 W) vs R9 270X (180W) Edit: Gaffe, faut prendre la dimension performance en considération
 
Avec leur protocole à 2 balles (voir les endnotes), ils arrivent à 2.8. Voilà de l'efficience. Ils se basent sur des cas de figures précis pour insinuer que leur produit est devenu meilleur. C'est ça la magie du marketing. Prendre des cas de figures favorables, 2 ou 3 coups de baguettes et hop, magic !
 
Alors si les gens ne savent pas mettre lire les endnotes / footnotes et interpréter correctement tout ce qu'on leur montre ...

Message cité 1 fois
Message édité par Moumoule le 15-12-2016 à 17:04:49
n°10014693
aliss
Rhyme the Rhyme Well
Posté le 15-12-2016 à 17:10:43  profilanswer
 

En janvier, c'est bel et bien face à Maxwell qu'ils mettaient en avant l'efficience de Polaris.

n°10014694
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 17:11:04  profilanswer
 

Moumoule a écrit :


 
Tu parles de l'efficience par rapport à Maxwell, par rapport à Fiji, tu peux me montrer concrètement ou Raja a parlé de ça ? Quand tu les écoutes (pour généraliser), il essaie de rester totalement neutre, il ne donne jamais trop d'informations justement pour pas dire de la merde. Tu veux des informations sur efficience de Polaris 10 et 11 ? Tiens, ça c'est du concret:
 
http://cdn.videocardz.com/1/2016/0 [...] 0x505.jpeg
 
2.8x pour Polaris 11: RX480M (35 W) vs R9 280X (82W)
2.8x pour Polaris 10: RX470 (110 W) vs R9 270X (180W) Edit: Gaffe, faut prendre la dimension performance en considération
 
Avec leur protocole à 2 balles (voir les endnotes), ils arrivent à 2.8. Voilà de l'efficience. Ils se basent sur des cas de figures précis pour insinuer que leur produit est devenu meilleur. C'est ça la magie du marketing. Prendre des cas de figures favorables, 2 ou 3 coups de baguettes et hop, magic !
 
Alors si les gens ne savent pas mettre lire les endnotes / footnotes et interpréter correctement tout ce qu'on leur montre ...


 
Heureusement qu'il y a des gens comme toi pour gober tout ce que les marketeux racontent.
Si l'on suit la conclusion de tridam sur le sujet, on a l'impression qu'il partage le même sentiment que beaucoup et qu'AMD a vendu du rêve :
 
"Point d'orgue de la campagne de communication lancée depuis janvier, l'efficacité énergétique n'est pas au niveau attendu et de toute évidence le 14nm de Samsung et GlobalFoundries n'a pas fait de miracle. Certes elle progresse par rapport à d'anciennes Radeon très peu performantes sur ce point, mais une carte telle que la Radeon Nano reste supérieure. Si cela permet à la RX 480 de se rapprocher des GeForce Maxwell dans certains jeux, dans d'autres elle reste nettement en retrait, probablement pénalisée par une interface mémoire gourmande. Et que dire de la comparaison face à la nouvelle architecture Pascal de Nvidia qui se montre plus de deux fois plus efficace ?"
 
Damien lit pas assez les endnotes peut-être ?
 
T'as oublier de mentionner la comparaison taotalement fumé entre P11 et la GTX 950 aussi.
 
La RX 470 est donné à 120W (10W de + que prévu) et la 270X ne consomme jamais 180W. AMD mélange consommation et TDP quand ça l'arrange. On le voit bien avec Zen d'ailleurs.

n°10014695
alpa
Posté le 15-12-2016 à 17:13:24  profilanswer
 

Invite_Surprise a écrit :


 
Ah... Sur le moment c'est pas grave et plus tard c'est pas grave non plus ?
 
On parle de l'efficience par rapport à Maxwell, par rapport à Fiji.
Il savait très bien que son chip n'était pas du tout une révolution même par rapport à la Nano par exemple.
Il a trop parlé et vendu du rêve ce qui a desservi sa propre parole et sa propre société.
 
edit : en montrant qu'il pouvait changer de crémerie, nVidia a montré à son meilleur partenaire qu'il n'est pas totalement dépendant de ce dernier.
Ça peut aider lors de la redéfinition des contrats. Mais JHH n'oublie quand même pas de rendre hommage au travail effectué par TSMC de façon récurrente, c'est un des piliers majeurs de leur succès.
C'est toujours pareil, les partenariats, c'est souvent du billard à 3 bandes voire plus.


 
Il faut quand même se rappeler qu'avec les 290/390 ils étaient dans les 300 watts (pour fidji on ne peut pas dire qu'il ont gagné en efficacité la consommation a baisé uniquement grâce a la HBM) alors passer a 170 watts c'est un gain énorme et il faut se rappeler qu'a l'époque oui raja a dit que le chip était "extremely power efficient" AMD pensais ne pas dépasser les 150 watts mais comme les perf étaient un peu limite ils ont poussé la fréquence donc le voltage et la consommation a alors un peu dérapé.
Après Nvidia est arrivé et a fait beaucoup mieux mais ça ils ne pouvaient pas non plus le savoir a l'époque.
Alors oui quand on reprends ces paroles aujourd'hui ça la fout mal mais on ne peut donc pas dire qu'il y avait volonté de tromper et que ses paroles n'étaient pas sincères au moment ou il les a prononcé.

n°10014697
havoc_28
Posté le 15-12-2016 à 17:16:11  profilanswer
 

aliss a écrit :


Aucune idée.
 
Par contre avec leur MSRP de 199$ au dernier moment et prenant même de court les fabricants, il faut croire que la clientèle ciblée était prête à mettre un peu plus.
 
Une carte un peu plus performante et plus efficiente à 250$ ne se serait-elle pas vendue aussi bien voir mieux ?


 
ça avait déjà été débattu à l'époque :p
 
http://forum.hardware.fr/hfr/Hardw [...] m#t9919747 :
 

Citation :

Pas besoin d'aller aussi loin qu'un gros GPU . Un Fidji like ça aurait fait dans les 350 mm² ... a limite un Hawaï light (44CU/64 Rops/176 TMU)  version C.G.N. 1.3 et un bus mémoire plus petit à 256 bits @ 8 gb/s voir 384 bits (avec de la GDDR5 à 6 ou 7 gb/s)  ça aurait fait quoi ? 250 à 275 mm² à 1.05 ghz / 1.1 ghz on aurait des performances au dessus d'une R9 390X et la consommation aurait été dans les mêmes eaux que P10 vu que fréquence nettement plus basses .


 
J'étais convaincu à l'époque que P10 ferait 2560 Sp comme une rumeur l'avait annoncé (et espérait secrètement 2880 SP) :D


Message édité par havoc_28 le 15-12-2016 à 17:17:36
n°10014701
Moumoule
Posté le 15-12-2016 à 17:23:01  profilanswer
 

Invite_Surprise a écrit :


 
Heureusement qu'il y a des gens comme toi pour gober tout ce que les marketeux racontent.
Si l'on suit la conclusion de tridam sur le sujet, on a l'impression qu'il partage le même sentiment que beaucoup et qu'AMD a vendu du rêve :
 
"Point d'orgue de la campagne de communication lancée depuis janvier, l'efficacité énergétique n'est pas au niveau attendu et de toute évidence le 14nm de Samsung et GlobalFoundries n'a pas fait de miracle. Certes elle progresse par rapport à d'anciennes Radeon très peu performantes sur ce point, mais une carte telle que la Radeon Nano reste supérieure. Si cela permet à la RX 480 de se rapprocher des GeForce Maxwell dans certains jeux, dans d'autres elle reste nettement en retrait, probablement pénalisée par une interface mémoire gourmande. Et que dire de la comparaison face à la nouvelle architecture Pascal de Nvidia qui se montre plus de deux fois plus efficace ?"
 
Damien lit pas assez les endnotes peut-être ?
 
T'as oublier de mentionner la comparaison taotalement fumé entre P11 et la GTX 950 aussi.
 
La RX 470 est donné à 120W (10W de + que prévu) et la 270X ne consomme jamais 180W. AMD mélange consommation et TDP quand ça l'arrange. On le voit bien avec Zen d'ailleurs.


 
A mon avis, tu dois pas être sérieux avec ta première phrase. Soit tu es de mauvaise fois ou soit tu lis ce qui t'arrange. Bref, passons.
 
Moi j'ai lu les endnotes et j'ai rigolé sournoisement. Est-ce que tu avais vu les endnotes à l'époque ?
 
La conclusion de tridam est très juste, mais est-ce que quelqu'un s'est posé la question pourquoi ils en sont arrivé là ? Changement de plan en cours de route, une rx 480 avec des performances moindre n'aurait attiré personne, même si elle aurait consommait xx watt de moins. A cause de qui ? A cause de la concurrence.
 
La comparaison totalement fumé entre P11 et la GTX 950 ? J'en ai parlé à l'époque, vsync on, 1080p@medium settings. Est-ce que tu as lu les endnotes à l'époque ? Moi oui, et je me suis directement posé la question, pourquoi vsync on, pourqui en medium ? Ben très simple, avec le vsync désactivé, on aurait comprit que la GTX 950 sortait plus de frames.  
 
Pour la RX 470 / 270X, c'était justement une critique de ma part (qui invalide totalement ta première phrase). Les chiffres sont fantaisistes, comme les cas de figures.
 
Bref, je ne défends aucunement les pratiques du service marketing d'AMD (que je trouve déplorable) mais en utilisant les chiffres annoncés avec les cas de figures annoncés, ils ont raison. Mais alors, autant comparé Zen avec un Pentium 2, non ?  :o
 
Edit:
 

Citation :


En janvier, c'est bel et bien face à Maxwell qu'ils mettaient en avant l'efficience de Polaris.


 
Désolé, ton message est passé à la trappe. Oui, Polaris 11. La comparaison P11 et GTX 950 sur SWBF: https://www.youtube.com/watch?v=5g3eQejGJ_A @ 2min26
Avec 850 Mhz @ 0.8375 V, je pense que tout le monde est d'accord que P11 est bien plus efficient qu'une GTX 950, non ?


Message édité par Moumoule le 15-12-2016 à 17:36:02
n°10014703
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 17:24:17  profilanswer
 

alpa a écrit :


 
Il faut quand même se rappeler qu'avec les 290/390 ils étaient dans les 300 watts (pour fidji on ne peut pas dire qu'il ont gagné en efficacité la consommation a baisé uniquement grâce a la HBM) alors passer a 170 watts c'est un gain énorme et il faut se rappeler qu'a l'époque oui raja a dit que le chip était "extremely power efficient" AMD pensais ne pas dépasser les 150 watts mais comme les perf étaient un peu limite ils ont poussé la fréquence donc le voltage et la consommation a alors un peu dérapé.
Après Nvidia est arrivé et a fait beaucoup mieux mais ça ils ne pouvaient pas non plus le savoir a l'époque.
Alors oui quand on reprends ces paroles aujourd'hui ça la fout mal mais on ne peut donc pas dire qu'il y avait volonté de tromper et que ses paroles n'étaient pas sincères au moment ou il les a prononcé.


 
Ce n'est pas mon point de vue. Raja était déjà en mode damage control et savait très bien la situation.
Il savait très bien que Fiji non poussé dans ses derniers retranchements arriverait à une meilleure efficacité.
Il faut également rappeler que Polaris est la réponse très en retard au GM204 qui a été un carton en terme de vente pour NV (principalement la 970) et que cette réponse n'est juste pas à la hauteur.
Ils connaissaient très bien de quoi était capable le GM204 et l'architecture Maxwell en général.
Leur démonstration sur BattleFront entre le P11 et la GTX 950 est un modèle de malhonnêteté marketing. Personne ne leur a mis un couteau sous la gorge pour raconter autant de BS.

n°10014711
Moumoule
Posté le 15-12-2016 à 17:44:55  profilanswer
 

Invite_Surprise a écrit :


 
Ce n'est pas mon point de vue. Raja était déjà en mode damage control et savait très bien la situation.
Il savait très bien que Fiji non poussé dans ses derniers retranchements arriverait à une meilleure efficacité.
Il faut également rappeler que Polaris est la réponse très en retard au GM204 qui a été un carton en terme de vente pour NV (principalement la 970) et que cette réponse n'est juste pas à la hauteur.
Ils connaissaient très bien de quoi était capable le GM204 et l'architecture Maxwell en général.
Leur démonstration sur BattleFront entre le P11 et la GTX 950 est un modèle de malhonnêteté marketing. Personne ne leur a mis un couteau sous la gorge pour raconter autant de BS.


 
Il savait, il savait. Il savait rien du tout. Tu te bases sur Fiji, ils sortent du mdg, c'est pas pour concurrencer Fiji à ce moment là. Ils vont pas se suicider non plus, hein. Avec une fréquence de par exemple 1000 Mhz, Polaris 10 aurait été plus efficient que Fiji, en fait que n'importe quelle puce de l'époque avec des performances en dessous d'une GTX 970. Qui va acheter une carte moins performante, équivalente niveau prix avec une meilleur efficacité énergétique ? Personne. Et après, y a eu les GTX 1070/1080 et là, ils ont eu très peur, d'ou le changement de plan.  
 
Pas à la hauteur, pour toi. Ils ont repris des pdm, c'est un fait.


Message édité par Moumoule le 15-12-2016 à 17:45:23
n°10014740
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 18:32:35  profilanswer
 

Q1 et Q2 ouais. Q3 (Polaris effect) ils en ont perdu légèrement.

n°10014747
alpa
Posté le 15-12-2016 à 18:36:45  profilanswer
 

Invite_Surprise a écrit :

Q1 et Q2 ouais. Q3 (Polaris effect) ils en ont perdu légèrement.


 
Q3 c'est pratiquement stable : 29,1% contre 29,9% en Q2
Par contre en nombre de chips c'est +1 million d'unités par rapport a Q2.

n°10014751
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 18:40:14  profilanswer
 

Et les profits de la branche ? Tu peux nous en dire plus ?
 
edit : En fait on s'en fout. Vous êtes contents de la façon dont AMD opère, pas moi et on tombera pas d'accord j'ai l'impression donc  pas la peine de polluer ce topic  avec des informations qui n'intéressent pas tout le monde.

Message cité 1 fois
Message édité par Invite_Surprise le 15-12-2016 à 18:44:30
n°10014755
alpa
Posté le 15-12-2016 à 18:43:59  profilanswer
 

Invite_Surprise a écrit :

Et les profits de la branche ? Tu peux nous en dire plus ?


 
Je ne sais rien de plus que ce qui est paru dans la presse.
J'ai donné le lien un peu plus haut.

n°10014885
guig2000
Posté le 15-12-2016 à 21:26:58  profilanswer
 

robin4002 a écrit :

https://www.reddit.com/r/Amd/commen [...] e/db46rkt/
 
Les histoires de "next compute unit" sont bien du bullshit.
En tout cas d'après bridgman, les blocs n'ont pas changé.


 
Non, il ne dit pas que c’est pas nouveau, il dit que cette information n’est pas publique (enfin, dans le liens que tu as fournit en tout cas).


---------------
Guig Esprit du Sage
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  27  28  29  ..  621  622  623  624  625  626

Aller à :
Ajouter une réponse
 

Sujets relatifs
Meilleure CG sans alimentation 80 euros max ?[Topic Unique] Asus ROG STRIX X99 Gaming (2011-V3)
Overclocker le GPU d'un AMD AM1.changer AMD Radeon 6800HD Series
demande d'info aux specialistes AMD ( FX-6300 )[HFR] Actu : Pilotes AMD Radeon Software 16.9.2 pour Forza 3
AMD vers NVIDIA[Topic Unique] Phanteks ECLIPSE P400S
AMD Radeon R9 490 et autres nouveautés.. (?)[HFR] Actu : Pilotes AMD Radeon Software 16.9.1
Plus de sujets relatifs à : [Topic Unique] AMD Vega


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR