Salut,
mr-r a écrit :
corrigez moi si je dis une bêtise mais la gtx n'a pas l'air de supporter le Multi-Threaded (seulement en émulation) ce qui n’améliore pas ses pref, contrairement aux Amd qui voient leur perf s'envoler sous dx12.
|
Heu ... Non pas du tout. Visiblement tu a été mal renseigné, et en plus il y a confusion avec certains concept qui n'appartiennent même pas aux cartes graphiques.
Ce que tu appel le "Multi-thread" c'est en gros les files d'instructions, pour rappel nos cher GPU compte leurs cœurs de calcul par centaines. Ce sont les championnes incontestées du calcul parallèle et du multi-threading.
Pour DX12, il s'agit d'une fraction de l'API qui s'appelle l'Async Compute sur laquelle les GeForce galère un peu, cela n'entrave en rien leur compatibilité DX12 et ne va pas non plus les rendre obsolète.
Le blocage se situe au niveau du Tier 3, et cela pourra sans doute être compenser avec une optimisation pilote.
Citation :
L'un des niveaux de support importants pour D3D12 est le Resources Binding Tier. Grossièrement il s'agit d'un paramètre exposé par la GPU pour indiquer le nombre d'éléments qui peuvent être exploités par le pipeline de rendu 3D : textures, buffers en tous genres, constantes… Plus le Tier est élevé (1, 2 ou 3), moins le développeur doit se soucier des différentes limites. Toutes les Radeon récentes (GCN) supportent le Tier 3 alors que les GeForce Maxwell et Kepler se contentent du Tier 2.
Contrairement au niveau de fonctionnalité, le Resources Binding Tier 3 indique un meilleur support de D3D12 que le Tier 2. Mais est-ce que cela fait une grosse différence en pratique ? Probablement pas. Si un développeur a besoin de plus que ce qu'offre le Tier 2, il pourra en général mettre en place un jeu de chaises musicales avec les ressources disponibles. C'est un peu plus contraignant et il peut y avoir un impact sur les performances mais rien n'est impossible.
|
Source : http://www.hardware.fr/news/14350/ [...] tx-12.html
Autre petite précision, DX12 n'est pas encore utilisé dans les jeux actuel, il est visiblement très difficile pour les développeurs de s'en servir (exemple avec ARK). Ne compte pas voir les jeux DX12 se démocratiser avant fin 2016.
Bref, je te la fait courte : AMD n'est pas mieux armé pour DX12 que nVidia, et les vrais GPU optimisés pour seront les génération 2016 : Arctic Islands et Pascal !
Concernant la Fury-X, il y a quelques inconvénients avec ce GPU, et bien que le rapport perf/watt soit intéressant il faut quand même préciser quelques petites choses :
La rad AIO d'origine est un point faible, comme le circuit de refroidissement est scellé, impossible de le nettoyer, en générale les AIO vivent 2-3ans, aprés tu pourra jeter la carte (à moins de trouver un ventirad compatible avec son PCB).
Le prix et les performances sont aussi en retrait, la Fury-X ne se détache pas vraiment des performances de la 980, vendu moins cher. La 980 Ti elle est hors d'atteinte à l'instant ou nous parlons.
Si ton objectif c'est la VR et une config fixe qui va durer 5-6ans, je te conseil peut être d'attendre les nouveauté 2016, au moins tu sera armé avec ce qu'il faut. Pour l'instant nous ignorons les ressources nécessaires à la VR.
Message édité par Crashdent le 19-12-2015 à 11:02:02
---------------
Parce que je suis un troll : j'ai déconseillé Winrar sur clubic.