Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2978 connectés 

 

 

Vous avez :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  305  306  307  ..  399  400  401  402  403  404
Auteur Sujet :

[Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)

n°9598419
Neji Hyuga
Modérateur
:grut:
Posté le 01-09-2015 à 09:32:39  profilanswer
 

Reprise du message précédent :

Kernel-Panic a écrit :

Tu surestimes grandement la volonté/capacité pour l'acheteur du dimanche (c'est eux qui réalistiquement qui ont le gros du marché) de s'informé convenablement avant de faire l'achat d'un produit, en particulier un produit qu'ils ne comprennent pas trop dans le genre Hardware&PC en général. Ils vont acheter en se basant sur la perception de la marque qui est plus souvent qu'autrement dérivé du prestige de la marque ou ils vont appliquer les conseils qu'ils ont reçus il y a X années qui ne sont plus du tout d’actualité au moment de leurs achats.


 
Je doute que le plus gros du marché PC soit essentiellement composé d'amateurs peu éclairés mais suffisamment compétents pour assembler eux même leurs bécanes et choisir leurs composants dans le détail.
 
Tu aurais parlé des acheteurs très peu renseignés sur le domaine et qui achètent leurs machines en hyper marché ou magasins de high tech généralistes, ou encore du milieu professionnel, ouais, ceux là représentent sans nul doute des PDM bien plus importantes que la population HFRiène.
 
Mais ces gens là se fichent généralement de ce qu'il y a écrit sur la machine: ce qui compte c'est le prix et le discours du vendeur.
 
Quand ils connaissent la marque de l'assembleur et la version de Windows qui équipe la machine, c'est déjà pas mal: je pense, sans trop m'avancer, que ceux qui bossent dans le dépannage ne comptent plus les commentaires de clients du type "mon ordinateur c'est un HP Windows 7".
 
Après si le vendeur est pro marque X, effectivement ils vont vendre plus de produits X. De même que si la boutique se fournit chez des assembleurs qui intègrent plus de matos X que de matos Y.
 

Kernel-Panic a écrit :

Les Pentium 4 se sont bien vendu, les GeForce FX aussi... Et ce n'est pas un hasard.


 
Le flagship du caméléon à l'époque s'est fait démonter (plus ou moins gentiment) par la quasi totalité de la presse et beaucoup de passionnés qui ne juraient que par Nvidia se sont tournés vers ATI.
 
Les GeForce FX 5800 (Ultra) sont quasi introuvables de nos jours, ce n'est pas pour rien et ça montre que quand le concurrent fait incontestablement mieux les gens sont capables d'aller voir ailleurs.
 
Il a fallu attendre les NV35 et NV36 pour que la marque recommence à vendre du moyen/haut de gamme par palettes.
 
Le graphe de Mercury Research montre d'ailleurs qu'en 2005 ATI était devant Nvidia, preuve que la réputation du géant vert n'est pas si inébranlable que ça.
 
Quand aux magouilles anti-concurrentielles comme les gros chèques qu'à pu faire Intel à l'époque du P4 ou les pressions de Nvidia sur certains partenaires, elles sont bien réelles et gerbatives, mais c'est un problème différent de l'intégrisme de quelques geeks.
 
Ce que je veux dire, c'est qu'expliquer les difficultés d'AMD à l'heure actuelle en mettant uniquement et simplement en avant un fanatisme aveugle de la masse, c'est un gros raccourci.
 
Comme le dit Spartan88, ces mecs là sont ceux qui font certainement le plus de bruit, mais ce ne sont pas forcément les plus nombreux.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
mood
Publicité
Posté le 01-09-2015 à 09:32:39  profilanswer
 

n°9598421
darkandy
?
Posté le 01-09-2015 à 09:32:46  profilanswer
 

aliss a écrit :

Ce qui se produit en ce moment me rappelle les mots de Damien dans son test de Fiji.
 
Comme toutes les puces GCN "1.1 et 1.2", Fiji support le niveau de fonctionnalité matérielle 12_0 de Direct3D, mais fait l'impasse sur le niveau 12_1 supporté par les GPU Nvidia Maxwell de seconde génération. Par contre, au niveau de l'autre niveau de spécification important de Direct3D12, les "Binding Resources" (le nombre de ressources à dispositions des développeurs), Fiji est au niveau maximum, Tier 3, là où les GPU Nvidia sont limités au niveau Tier 2. Autant AMD que Nvidia ont ainsi l'opportunité de proposer aux développeurs des effets graphiques qui seraient incompatibles avec le matériel de l'autre.
 
J'ai l'impression qu'on est en plein dedans avec Oxide (qui semble tout de même téléguidé par AMD).


 
 
C'est clair que, pour un développeur, entre choisir les effets pour des cartes qui ont 80% de part de marché (Nvidia) et les effets pour des cartes qui ont 20% de part de marché (AMD), le choix semble être vite fait.
 
Ceci-dit, le fait que les consoles XBO et PS4 soient en GCN 1.1, peut éventuellement fait pencher la balance. On sait pertinemment que les éditeur préfère largement ces deux plateformes à celle du PC (piratage, profits & co). Si en plus on rajoute potentiellement l'arrivée de la prochaine console de Nintendo sous AMD...
 
Edit : Dommage qu'Intel n'utilise pas un équivalent du GCN (enfin si c'est le cas, je ne suis pas au courant lol). Le marché des APU monte doucement.


Message édité par darkandy le 01-09-2015 à 09:37:20

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9598422
river_tam
Instable mentalement
Posté le 01-09-2015 à 09:34:22  profilanswer
 

aliss a écrit :

Autant AMD que Nvidia ont ainsi l'opportunité de proposer aux développeurs des effets graphiques qui seraient incompatibles avec le matériel de l'autre.[/i]

 

J'ai l'impression qu'on est en plein dedans avec Oxide (qui semble tout de même téléguidé par AMD).

 

C'est vrai que l'histoire montre qu'AMD a toujours essayé d'imposer ses technos propriétaire pour essayer de plomber les perfs de son concurrent: tessellation, gameworks,... :sarcastic:


Message édité par river_tam le 01-09-2015 à 09:34:55

---------------
Une année s'écoula. Les jours défilèrent patiemment un à un. Au tout début du multivers ils avaient essayé de tous passer en même temps et ça n'avait pas marché.
n°9598425
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 09:37:08  profilanswer
 

Ce qui me dérange, c'est qu'en l'absence de nouvelles architectures 100% dx12, on risque d'avoir une guéguerre de "fonctionalités" par studio/moteurs interposés, le grand perdant dans l'affaire étant l'utilisateur.

n°9598429
kimujix
Posté le 01-09-2015 à 09:40:32  profilanswer
 

aliss a écrit :

J'ai l'impression qu'on est en plein dedans avec Oxide (qui semble tout de même téléguidé par AMD).


Le développeur à l'origine de toutes ces révélations a dit qu'ils avaient eu beaucoup plus de contacts avec Nvidia qu'AMD.

Message cité 2 fois
Message édité par kimujix le 01-09-2015 à 09:41:17
n°9598434
Sylfurd
UUUURUTORAMAN §§
Posté le 01-09-2015 à 09:43:04  profilanswer
 

kimujix a écrit :


Le développeur à l'origine de toutes ces révélations a dit qu'ils avaient eu beaucoup plus de contacts avec Nvidia qu'AMD.

oui et qu'il est obligé de vérifier le VENDOR_ID de la carte pour identifier les CG Nvidia et désactiver l'async compute, même si la carte indique qu'elle sait le faire, et donc de faire du code spécifique.


---------------
NNiD: Sylfurd
n°9598435
darkandy
?
Posté le 01-09-2015 à 09:43:24  profilanswer
 

Non le plus simple c'est que malgré l'arrivé de DX12, ont vas se retrouver avec des productions en DX10/DX11.
 
Il suffit de voir le nombre de jeux en DX9 (malgré DX10/11) pour s'en convaincre. D'ailleurs je pense que c'est même pour ça que la plupart des anciennes génération de cartes tirent encore leur épingle du jeu.
 
D'autant plus que j'ai remrqué que les anciennes générations se débrouillent mieux en DX9 que les nouvelles générations.
 
Je m'en suis aperçu avec une expérience perso toute bête, Skyforge (mmo avec moteur 3D propriétaire DX9) tourne mieux avec une ancienne architecture (comme par exemple R9 280X, R9 270X) qu'avec une nouvelle (R9 290X, GTX970, GTX980/Ti), bien qu'avec la R9 290X ça fonctionne aussi bien...


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9598437
havoc_28
Posté le 01-09-2015 à 09:45:54  profilanswer
 

darkandy a écrit :


Je m'en suis aperçu avec une expérience perso toute bête, Skyforge (mmo avec moteur 3D propriétaire DX9) tourne mieux avec une ancienne architecture (comme par exemple R9 280X, R9 270X) qu'avec une nouvelle (R9 290X, GTX970, GTX980/Ti), bien qu'avec la R9 290X ça fonctionne aussi bien...


 
Différence entre GCN 1.0 et 1.1/1.2 ? :D c'est quasiment la même architecture avec quelques petit truc en plus pour la 1.1(bonaire/hawai)  et 1.2 de Tonga/Fury , donc c'est peut être le CPU qui limite les gains des 980/TI et R9 290X VS HD7970/R9 280X


Message édité par havoc_28 le 01-09-2015 à 09:49:44
n°9598441
kimujix
Posté le 01-09-2015 à 09:49:13  profilanswer
 

darkandy a écrit :

D'autant plus que j'ai remrqué que les anciennes générations se débrouillent mieux en DX9 que les nouvelles générations.
 
Je m'en suis aperçu avec une expérience perso toute bête, Skyforge (mmo avec moteur 3D propriétaire DX9) tourne mieux avec une ancienne architecture (comme par exemple R9 280X, R9 270X) qu'avec une nouvelle (R9 290X, GTX970, GTX980/Ti), bien qu'avec la R9 290X ça fonctionne aussi bien...


Tu parles comme si les HD 7970 étaient des GPUs DX9. Et un jeu n'est pas une preuve qu'on peut exploiter pour en tirer une règle générale.

n°9598442
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 09:49:18  profilanswer
 

kimujix a écrit :


Le développeur à l'origine de toutes ces révélation a dit qu'ils avaient eu beaucoup plus de contacts avec Nvidia qu'AMD.


 
Oxide est un partenaire d'AMD, avec Dice c'est le principal artisan de la promotion de Mantle.
 
Difficile dans ces conditions qu'ils fassent preuve d'impartialité.
 
Je ne remets pas en cause les pratiques parfois détestables de nV ou les largesses qu'ils prennent parfois avec l'API de Microsoft, je dis juste qu'il faut faire attention aux conclusions hâtives.
 

mood
Publicité
Posté le 01-09-2015 à 09:49:18  profilanswer
 

n°9598445
kimujix
Posté le 01-09-2015 à 09:55:39  profilanswer
 

aliss a écrit :


 
Oxide est un partenaire d'AMD, avec Dice c'est le principal artisan de la promotion de Mantle.
 
Difficile dans ces conditions qu'ils fassent preuve d'impartialité.
 
Je ne remets pas en cause les pratiques parfois détestables de nV ou les largesses qu'ils prennent parfois avec l'API de Microsoft, je dis juste qu'il faut faire attention aux conclusions hâtives.


Tu ne crois pas que si il y avait eu un gros chèque ou des cadeaux en douces Nvidia serait déjà sur la brèche pour les exposer et tuer dans l’œuf la shitstorm?
 
Je ne dis pas qu'il faut prendre tout ce que raconte Oxide pour argent comptant, mais avant de penser à une magouille avec AMD on peut aussi très bien imaginer qu'ils se trompent non?  Qu'ils pensent sincèrement qu'il y a entourloupe avec l'async computing, ils se trompent peut être, ils ont aussi peut être raison...


Message édité par kimujix le 01-09-2015 à 09:57:15
n°9598464
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 10:11:40  profilanswer
 

Je n'ai jamais parlé de magouille.
 
Par contre il semble évident que si il y avait une faiblesse des gpu's nV à exploiter, Oxide s'y soit engouffré.
 
J'aurais préféré que ça sorte via un studio qui ne soit pas tagué.

n°9598472
darkandy
?
Posté le 01-09-2015 à 10:19:45  profilanswer
 

kimujix a écrit :


Tu parles comme si les HD 7970 étaient des GPUs DX9. Et un jeu n'est pas une preuve qu'on peut exploiter pour en tirer une règle générale.


 
He ho, je n'ai pas la parole divine hein [:cosmoschtroumpf] ce n'est qu'une expérience personnelle. Et effectivement je me rend compte (de mon avis encore une fois) que les anciennes générations de GPU on plus de facilité avec DX9. Hors puissance brut qui permet de combler cet écart.  
 
Edit : Tout comme je m'était aperçu que les HD4870 géraient mieux le DX8, que les HD6870/HD7870 par ex.

Message cité 2 fois
Message édité par darkandy le 01-09-2015 à 10:25:38

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9598476
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 10:24:56  profilanswer
 

darkandy a écrit :


 
He ho, je n'ai pas la parole divine hein [:cosmoschtroumpf] ce n'est qu'une expérience personnelle. Et effectivement je me rend compte (de mon avis encore une fois) que les anciennes générations de GPU on plus de facilité avec DX9. Hors puissance brut qui permet de combler cet écart.


 
Ca peut venir également de la vétusté d'un moteur et de l'absence de suivi tant par le studio que les drivers.
 
 

n°9598481
darkandy
?
Posté le 01-09-2015 à 10:27:25  profilanswer
 

aliss a écrit :


 
Ca peut venir également de la vétusté d'un moteur et de l'absence de suivi tant par le studio que les drivers.
 
 


 
Effectivement. Il y a aussi la gestion CPU je pense à prendre en compte aussi, souvent un seul voir 2 threads utilisés sur 4 ou plus. Et bien évidemment l'optimisation du moteur 3D.


Message édité par darkandy le 01-09-2015 à 10:28:08

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9598482
kimujix
Posté le 01-09-2015 à 10:28:16  profilanswer
 

darkandy a écrit :


 
He ho, je n'ai pas la parole divine hein [:cosmoschtroumpf] ce n'est qu'une expérience personnelle. Et effectivement je me rend compte (de mon avis encore une fois) que les anciennes générations de GPU on plus de facilité avec DX9. Hors puissance brut qui permet de combler cet écart.  
 
Edit : Tout comme je m'était aperçu que les HD4870 géraient mieux le DX8, que les HD6870/HD7870 par ex.


Et si ça n'était pas plutôt les vieux moteurs DX9 qui ne permenttent pas de dépasser un certain seuil de perfs? Comme Kotor2 chez moi qui aujourd'hui se tape des ralentissements aux mêmes endroits que lorsque j'y jouais avec une GTX 6600 et un Athlon XP. Les moteurs de jeux ont eux aussi des limites qu'on ne peut parfois pas dépasser, même avec du matos bien plus puissant. Ça ne veut absolument pas dire que l'ancien matos se débrouillait mieux avec moins de ressources, c'est juste que le moteur a ses limites.
 
Et les HD4870 ne sont pas des GPUs DX8... (enterré depuis longtemps vu qu'on en était déjà à DX10)

Message cité 1 fois
Message édité par kimujix le 01-09-2015 à 10:35:57
n°9598559
darkandy
?
Posté le 01-09-2015 à 11:33:17  profilanswer
 

kimujix a écrit :


Et si ça n'était pas plutôt les vieux moteurs DX9 qui ne permenttent pas de dépasser un certain seuil de perfs? Comme Kotor2 chez moi qui aujourd'hui se tape des ralentissements aux mêmes endroits que lorsque j'y jouais avec une GTX 6600 et un Athlon XP. Les moteurs de jeux ont eux aussi des limites qu'on ne peut parfois pas dépasser, même avec du matos bien plus puissant. Ça ne veut absolument pas dire que l'ancien matos se débrouillait mieux avec moins de ressources, c'est juste que le moteur a ses limites.
 
Et les HD4870 ne sont pas des GPUs DX8... (enterré depuis longtemps vu qu'on en était déjà à DX10)


 
 
Oui possible pour les moteurs 3D, je ne connait pas celui de Skyforge par exemple, de mémoire c'est un moteur conçu en interne par Allods Team et en dx9, sûrement mal optimisé pour le moment.
 
Les HD4870 ( RV770), ont des GPUs capable de gérer DX8/DX9 et DX10.1. Tout comme les HD3870.

Message cité 2 fois
Message édité par darkandy le 01-09-2015 à 11:41:39

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9598586
river_tam
Instable mentalement
Posté le 01-09-2015 à 11:54:06  profilanswer
 

darkandy a écrit :


Oui je possible pour les moteurs 3D, je ne connait pas celui de Skyforge par exemple, de mémoire c'est un moteur conçu en interne par Allods Team et en dx9, sûrement mal optimisé pour le moment.


 
Étant donné les chutes de framerate de barbare qu'on se tape à certains endroits en zone ouverte, je pense qu'on peut effectivement douter de la bonne opti de leur moteur :D


---------------
Une année s'écoula. Les jours défilèrent patiemment un à un. Au tout début du multivers ils avaient essayé de tous passer en même temps et ça n'avait pas marché.
n°9598593
kimujix
Posté le 01-09-2015 à 12:01:14  profilanswer
 

darkandy a écrit :


Les HD4870 ( RV770), ont des GPUs capable de gérer DX8/DX9 et DX10.1. Tout comme les HD3870.


Oui c'est rétro compatible, heureusement. Les Fury aussi gèrent DX8. Là où je veux en venir c'est les HD4870 ne sont pas plus optimisées pour DX8 que les Fury, a leur sortie DX8 était déjà mort et enterré depuis longtemps (et pour cause il est né avec les Geforce 3 et Radeon 8500), tout tournait sur DX9 depuis des années et DX10 faisait ses premiers pas concrets (même si il n'a jamais réellement été très plébiscité par les développeurs).


Message édité par kimujix le 01-09-2015 à 12:03:52
n°9598602
mazingerz
Posté le 01-09-2015 à 12:07:21  profilanswer
 

OrcusZ a écrit :

Et faut pas oubliez les OEM... La plupart c'est du NVidia, alors quand l'utilisateur lambda va vouloir acheter une CG il va se dire :  
 
"A carrefour tous les PC on intel + NVidia... ça doit être mieux"  
 
Faut aussi que les OEM fasse la part des choses pour restabiliser le marcher.


 
ça c'est pas forcement vraix
au taf j'ai eu des radeon aussi bien dans le HP, DELL, Apple
donc pas des petites boites  
ça fait du très gros volume
d’ailleurs je ne comprend pas avec des intégrateurs si gros qu'ils n'arrivent pas à avoir plus de PDM
 

Message cité 1 fois
Message édité par mazingerz le 01-09-2015 à 12:08:10
n°9598605
kimujix
Posté le 01-09-2015 à 12:09:36  profilanswer
 

Les intégrateurs n'ont pas forcément des contrats exclusifs.

n°9598613
mazingerz
Posté le 01-09-2015 à 12:18:57  profilanswer
 

je dit pas le contraire mais ils vendent de la radeon y a pas de soucis (j'ai jamais eu de NVIDIA au taf pour l'instant)  
 
ils suivent pas forcement le commercial de chez carrefour et ça fait des ventes  
 

n°9598617
OrcusZ
Pro AMD | .Net lover
Posté le 01-09-2015 à 12:26:00  profilanswer
 

mazingerz a écrit :


 
ça c'est pas forcement vraix
au taf j'ai eu des radeon aussi bien dans le HP, DELL, Apple
donc pas des petites boites  
ça fait du très gros volume
d’ailleurs je ne comprend pas avec des intégrateurs si gros qu'ils n'arrivent pas à avoir plus de PDM
 


 
Apple depuis cette année.
HP c'est des habitué des CG radeon
DELL je savais pas.
 
Toutes les autres marques, c'est très très rare.
 
c'est pas vrai à 100% mais pas faux à 100%
 
Et la on parle que des GPU, les CPU à part sur les pc à moins de 400 euros....


---------------
Made you your own sentence without believing that of the others...
n°9598633
- gab
Posté le 01-09-2015 à 12:46:07  profilanswer
 

aliss a écrit :

Je n'ai jamais parlé de magouille.
 
Par contre il semble évident que si il y avait une faiblesse des gpu's nV à exploiter, Oxide s'y soit engouffré.
 
J'aurais préféré que ça sorte via un studio qui ne soit pas tagué.


Je suis pas sûr de piger, si un dev exploite une nouvelle API (non-propriétaire), il est en tort parce que le plus gros fondeur a rien fait pour que sa dernière archi soit capable de l'exploiter ? :D
 


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9598636
mazingerz
Posté le 01-09-2015 à 12:52:59  profilanswer
 

non apple y a des radeon depuis facile 5 ans (date de mon premier mac au taf )  
 
bien sur c'est que sur les PC un peut haut en gamme les autre c'est intel qui fait tout
en pross par contre j'ai jamais vue du AMD au taf  

n°9598656
kimujix
Posté le 01-09-2015 à 13:33:04  profilanswer
 

- gab a écrit :


Je suis pas sûr de piger, si un dev exploite une nouvelle API (non-propriétaire), il est en tort parce que le plus gros fondeur a rien fait pour que sa dernière archi soit capable de l'exploiter ? :D
 

Et surtout je ne vois pas pourquoi un développeur se priverait d'utiliser des moyens qui permettent à son jeu de tourner de façon plus fluide.

n°9598659
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 13:39:10  profilanswer
 

- gab a écrit :


Je suis pas sûr de piger, si un dev exploite une nouvelle API (non-propriétaire), il est en tort parce que le plus gros fondeur a rien fait pour que sa dernière archi soit capable de l'exploiter ? :D
 


 
Je me rapelle d'une version de Heaven (Unigine) sortant à peu de chose prêt en même temps que Fermi et démontrant "l'insolente" domination de l'architecture de nV en tesselation.
 
Est-ce que ça a été le cas en situation réelle ? Non.
 
Tant que ça se résume à une bataille de communication et un bench synthétique, on ne peut rien en tirer.
 
 
 
 
 
 

n°9598667
- gab
Posté le 01-09-2015 à 13:48:47  profilanswer
 

aliss a écrit :

Je me rapelle d'une version de Heaven (Unigine) sortant à peu de chose prêt en même temps que Fermi et démontrant "l'insolente" domination de l'architecture de nV en tesselation.

 

Est-ce que ça a été le cas en situation réelle ? Non.


Parce que globalement les devs semblent avoir saisi la différence entre un benchmark et un jeu :o (à quelques exceptions près)

 

C'est intéressant d'avoir des benchs qui mettent en évidence les forces et faiblesses de différentes architectures, quelle que soit l'obédience supposée de leur auteur. Et bien moins problématique que des jeux qui eux intègrent à fond les features d'un unique fabricant de puces au détriment des possesseurs de cartes de l'autre fabricant.

Message cité 1 fois
Message édité par - gab le 01-09-2015 à 13:50:44

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9598675
kimujix
Posté le 01-09-2015 à 13:56:06  profilanswer
 

Et puis c'est différent, Heaven confirme les données théoriques révélées par les constructeurs qui affirment que les GTX crachent plus de triangle que les Radeon. Ça montre juste que si on colle des tonnes de triangles dans un jeu les GTX feront moins la gueule que les Radeon, point. Mais de toute façon faire de la tesselation complexe ça fait baisser les perfs sur tous les GPUs qu'ils soient AMD ou Nvidia. Ça n'a rien d'une optimisation, Heaven n'est pas optimisé pour Nvidia, c'est une démo sur la tesselation alors forcément ça montre que question puissance géométrique brute les GTX sont au dessus.
 
L'async compute de son côté c'est un gain potentiel de perfs pour les cartes qui supportent ce système.


Message édité par kimujix le 01-09-2015 à 13:59:14
n°9598682
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 14:05:33  profilanswer
 

- gab a écrit :


Parce que globalement les devs semblent avoir saisi la différence entre un benchmark et un jeu :o (à quelques exceptions près)
 
C'est intéressant d'avoir des benchs qui mettent en évidence les forces et faiblesses de différentes architectures, quelle que soit l'obédience supposée de leur auteur. Et bien moins problématique que des jeux qui eux intègrent à fond les features d'un unique fabricant de puces au détriment des possesseurs de cartes de l'autre fabricant.


 
Oui et non dans le sens ou mis à part le fameux pack dx11 de Crysis 2, les cartes AMD n'ont pas souffert de problème de tesselation.
 
Dès lors, les conclusions faites à l'importe-pièce concernant les résultats sous Heaven se sont avérées fausses.
 
Encore une fois, je trouve qu'il serait plus pertinent d'attendre plutôt que de conclure à quoi que ce soit à partir des propos d'un développeur issu d'un studio en partenariat avec AMD.
 
Ce qui peut être vrai avec le Nitrous Engine, ne le sera pas forcément avec d'autres moteurs de jeux.

n°9598736
kimujix
Posté le 01-09-2015 à 14:44:12  profilanswer
 

Nvidia n'a pas été tenu à l'écart puisque le dev d'Oxide dit avoir été en contact régulier avec eux lors du développement. Si Nvidia avait eu une solution à proposer sur comment exploiter correctement l'async compute ils l'auraient surement fait au lieu de demander à Oxide de le virer quand le moteur tourne avec un GPU Maxwell.


Message édité par kimujix le 01-09-2015 à 14:44:27
n°9598769
Yopfraize
Posté le 01-09-2015 à 15:26:22  profilanswer
 

aliss a écrit :

Je n'ai jamais parlé de magouille.

 

Par contre il semble évident que si il y avait une faiblesse des gpu's nV à exploiter, Oxide s'y soit engouffré.

 

J'aurais préféré que ça sorte via un studio qui ne soit pas tagué.

 


Non mais tu fais fausse route depuis le début en parlant de partialité et de features DX 12 uniques à chaque constructeur :o

 

On parle ici, en l'occurence de l'Async qui est la principale feature DX12 dont tout le monde parle : celle, sur le papier, de l'amélioration substantifique des performances de 30% ! C'est aussi en partie ce qui permet de profiter, pour les possesseurs de VR, d'un traîtement sans aucune latence.
On parle aussi et encore, d'un mensonge, oui un mensonge d'une soit disant prise en charge matérielle d'une feature, confirmée par le driver, qui est soudainement infirmée par Nvidia, tout comme "l'affaire" des 4Gb de la 970 où soudainement Nvidia a sorti un "aah oui ça ? ah maintenant que vous le dites oui, mais vous en faîtes pas les 500mb daubés c'est pas grave ;) "

 

Il s'agit pas seulement de choix de technologie à première vue (même si c'est un gros gros fail) , mais, en l'occurence aussi de la mise en place délibérée par Nvidia d'une zone d'ombre, encore une fois :o


Message édité par Yopfraize le 01-09-2015 à 15:41:59
n°9598780
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 15:40:50  profilanswer
 

Faire preuve de partialité, c'est prendre pour argent comptant les déclarations d'Oxide tête baissée.
 
Lorsque ça aura été établi par d'autres studios, devs, sites sérieux, alors on pourra déclarer que Maxwell n'est pas dx12 compliant.
 
Bref je demande à voir.

n°9598789
Yopfraize
Posté le 01-09-2015 à 15:46:41  profilanswer
 

aliss a écrit :

Faire preuve de partialité, c'est prendre pour argent comptant les déclarations d'Oxide tête baissée.

 

Lorsque ça aura été établi par d'autres studios, devs, sites sérieux, alors on pourra déclarer que Maxwell n'est pas dx12 compliant.

 

Bref je demande à voir.

 


Bien entendu, mais dans le même cheminement de pensée, il est tout aussi partial de déclarer que ce que ce studio raconte c'est forcément guidé et orienté simplement parce qu'il déclare que les cartes AMD s'en sortent mieux sur DX12.
Avec les 90% de jeux "The Way it's meant to be played" autant ne plus prendre aucune déclaration de développeur au sérieux :o

 

Moi aussi je demande à voir :whistle:

Message cité 1 fois
Message édité par Yopfraize le 01-09-2015 à 15:49:25
n°9598794
aliss
Rhyme the Rhyme Well
Posté le 01-09-2015 à 15:50:59  profilanswer
 

Yopfraize a écrit :


 
 
Bien entendu, mais dans le même cheminement de pensée, il est tout aussi partial de déclarer que ce que ce studio raconte c'est forcément guidé et orienté simplement parce que il déclare que les cartes AMD s'en sortent mieux sur DX12.
 
Moi aussi je demande à voir :whistle:


 
Si tu me relis, je ne remets pas en cause les résultats ou la problématique des cartes nV sur le Nitrous Engine.
 
Mais que le buzz soit lancé par un studio partenaire d'AMD depuis Mantle, est-ce du au hasard selon toi ?  :D  

n°9598916
CardinalFu​neste
Posté le 01-09-2015 à 17:36:55  profilanswer
 

aliss a écrit :


 
Si tu me relis, je ne remets pas en cause les résultats ou la problématique des cartes nV sur le Nitrous Engine.
 
Mais que le buzz soit lancé par un studio partenaire d'AMD depuis Mantle, est-ce du au hasard selon toi ?  :D  


 
La feature n'existe pas en hard che nv point. je pense pas qu'un studio même partenaire avec un constructeur aurait eu l'audace de sortir un si gros mito  :o

Message cité 1 fois
Message édité par CardinalFuneste le 01-09-2015 à 17:37:55
n°9598937
kimujix
Posté le 01-09-2015 à 17:48:16  profilanswer
 

CardinalFuneste a écrit :


 
La feature n'existe pas en hard che nv point. je pense pas qu'un studio même partenaire avec un constructeur aurait eu l'audace de sortir un si gros mito  :o


Ou alors ils peuvent aussi avoir tord, par parce qu'ils mentent mais parce qu'ils ne sont pas aussi compétents pour jauger un GPU qu'ils le pensent. :D
 
(mais ils ont peut être aussi 100% raison)


Message édité par kimujix le 01-09-2015 à 17:48:46
n°9598949
CardinalFu​neste
Posté le 01-09-2015 à 17:53:40  profilanswer
 

Tout a fait possible aussi :D Mais je pense que Nvidia aurait déjà éclairci la situation si cela avait été le cas...

n°9598967
Corleone_6​8
Posté le 01-09-2015 à 18:08:20  profilanswer
 

Le gars aura de nouveaux arguments pour porter plainte contre la terre entière pour faire échanger ca GTX970 par une GTX980 (Ha bin non) Fury cette fois ci :O :O


Message édité par Corleone_68 le 01-09-2015 à 18:08:43

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9599025
overclockp​ro
Posté le 01-09-2015 à 19:11:19  profilanswer
 

Vu l'historique, Nvidia n'est plus à un mensonge près. Ce n'est pas ça qui va influer leurs ventes.

n°9599031
Yopfraize
Posté le 01-09-2015 à 19:22:44  profilanswer
 

overclockpro a écrit :

Vu l'historique, Nvidia n'est plus à un mensonge près. Ce n'est pas ça qui va influer leurs ventes.

 

Personnellement si parce que j'en ai vraiment ras le popotin si ca s'avère exact ; ca leur fera une 980Ti vendue en moins déjà :o !
De ce fait j'attends impatiemment le test de la Nano pour voir si l'architecture est au final efficace une fois qu'on baisse les fréquences ou le TDP :) !

 

Si ca se confirme, c'est pas impossible (mais pas certain non plus) que j'achète une Fury X à laquelle je collerai un Power Limit equivalent à la Nano via AB :jap:

Message cité 1 fois
Message édité par Yopfraize le 01-09-2015 à 19:24:18
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  305  306  307  ..  399  400  401  402  403  404

Aller à :
Ajouter une réponse
 

Sujets relatifs
Carte Graphique 250€ (AMD/NVIDIA)Radeon R9 280X Tri-X, 3Go ou GeForce GTX 770
Portable pas cher : Intel Celeron N2830 2,16 GHz ou AMD E1-2100 1GHz ?CPU ET CM Choix pour 300 euro max
R9 280X a 15€ ^^R9 290 Tri-X Chauffe beaucoup
Carte graphique R9 290 ou GTX 770 ?R9 290 Trix OC (besoin de conseils sur refroidissement)
Upgrade Radeon 5770 -> GeForce 750 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)