cocto81 | claryon a écrit :
L'ancienne architecture des Cpus AMD n'étaient pas si mauvaise que cela, Hormis la consommation.
C'est surtout que l'architecture Bulldozer et ses dérivés étaient loin d'avoir toutes les optimisations logiciels des Cpus Intel.
Un simple exemple avec l'API Mantle a démontré que les Cpus AMD n'étaient pas exploités à leurs maximums.
Tout comme d'ailleurs les cartes Graphiques AMD comme la Fury X qui sur le papier est un véritable monstre avec ses plus de 8.6 téraFlops,ses nombreuses unités de calculs et sa bande passante monstrueuse mais malgré cette débauche de puissance brute, les Gtx 980 TI pourtant moins puissante l'emportent grâce à la politique de Nvidia qui consiste à sponsorisé la plupart de ces jeux auprès des développeurs.
Malgré , que le code de programmation soit avantagé pour les cartes Maxwell, il n' y a qu'une dizaine de % entre une Fury X et une GTX 980 TI.
Si AMD avait plus les moyens pour faire du sponsoring, l'écart de puissance serait largement réduit ! voir la Fury X passerait devant aisément devant la GTX 980 TI ou les AMD FX certainement colleraient de prés les Cpus Intel dans les jeux.
Même si l'architecture des CPUS ZEN est révolutionnaire, si il n' y a pas d'accord entre les ingénieurs de AMD et les développeurs de programme, ce sera du pareil au méme !
à savoir qu'on aura, un CPU AMD ZEN qui sera moins performant que les Cpus Intel.
|
Pour les CPU c'est de la vieille histoire depuis l'accord AMD/Intel où chacun peut piquer chez l'autre librement les nouveaux jeux d'instructions et tout leur comportement. Ce que tu dis date de l'époque P4 et des compilateurs optimisés Intel. Intel et AMD on signé un pacte à la suite de la nécessité pour Intel de reprendre le code 64 bits AMD.
Depuis, Intel s'est distingué d'AMD, en investissant et en prenant une leadership mondial dans la techno de gravure des puces.
Pour les GPU c'est une toute autre histoire. On a affaire à une compagnie, Nvidia, qui utilise les mêmes stratégies qu'Apple. Pas besoin de faire ce qu'il y a de plus performant, si on a une base de fans indéfectibles, qu'on fait de la pub négative sur son concurrent, trompeuse sur ses propres produits, qu'on sponsorise des solutions maison (équivalentes aux standards mais protégés) pour en établir des chasses gardées. Ainsi Nvidia cherche à contrôler totalement le marché des solutions de rendus d'image, fait la promo de ses propres APIs pour les jeux (tentant de contourner les standards graphiques pourtant bien fouillés) et cultive son standard fermé de développement de programmes pour GPU. A tous les niveaux la stratégie de Nvidia est d'offrir une plus-value monétaire aux possesseurs qui pourront facturer le surcoût, ou bien au pire s'enorgueillir (à la manière des fans Apple qui paient plus cher des produits similaires ou plus limités que la concurrence)
Cette stratégie peut se retourner contre Nvidia du jour au lendemain. C'est déjà arrivé à Apple par le passé. Tout va changer en 2016 et Nvidia va devoir changer complètement de stratégie.
Je donne un exemple : actuellement Nvidia, qui acheté le moteur Mental Ray et ses derivés (iray), continue à le développer et le diffuse gratuitement aux solutions professionnelles leaders du marché. On a vu par exemple que la solution gratuite Daz3D (rendu de personnages) qui utilisait surtout l'excellent moteur de rendu Luxrender été ciblée par Nvidia qui leur a offert Iray désormais intégré, qui, du fait de son pédigrée Pro, a littéralement remplacé la solution Luxrender. Luxrender, pour info, tourne très bien sous OpenCL sur les cartes AMD, qui, même avec l'optimisation calcul math non IEEE sur Nvidia (dernière tentative de tromperie en date de la part de Nvidia) et des overclcock indécents n'arrivent qu'à coller aux solution AMD sous IEEE.
Le problème c'est que les devs d'autres moteurs et des interfaces Luxrender (interfaces parfois payantes) sur ces solutions n'ont absolument pas jeté l'éponge et sont en train de se rebiffer, offrant nettement mieux, de meilleure qualité que Iray.
Par ailleurs Autodesk est en train de progressivement mettre au point ses propre moteurs de rendu, basés notamment sur direct compute (donc généraliste pour toutes les cartes), et qui pulvérisent les perfs des moteurs Iray-Mental ray, et les cartes Nvidia ne sont pas ni les seules compatibles ni à la fête dessus. Sans parler des solutions de rendu cloud de cette entreprise (fini les fermes maison basés sur cartes Nvidia seules compatibles).
On sait aussi que sous Direct X12/Mantle, la stratégie Nvidia devrait devenir ineffective dans les jeux, puisque les meilleures perfs possibles seront directement accessibles. Un jeu qui s'en priverait dégraderait "artificiellement" ses performances.
Et tout va leur tomber dessus entre fin 2015 jusqu'à mi-2016, quand Nvidia devra certainement revoir sa stratégie, par exemple en se remettant à faire du hardware réellement performant.
|