Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1504 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15
Auteur Sujet :

[HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test

n°9534116
Gigathlon
Quad-neurones natif
Posté le 24-06-2015 à 18:57:01  profilanswer
3Votes positifs
 

Reprise du message précédent :

karbear a écrit :

Bon nombre de jeux sont des JEUX Sponsorisés NVIDIA GAMEWORKS!
Arrêtons d'être naïf pour ceux croyant en l'impartialité et l'objectivité du site HARDWARE.FR !


Tu veux de l'impartial et objectif?
 
La Fury X n'apporte rien de bien enthousiasmant en dehors de l'exclusivité de la HBM et quasiment tous les jeux actuels, GameWorks ou pas, exploitent tellement mal les GPU qu'on pourrait les faire tourner en 4k avec Pitcairn si ils s'étaient sortis les doigts du cul à hauteur de leur ambition...
 
Voilà la réalité, la planche de salut étant l'arrivée imminente d'API de plus bas niveau, mais là encore c'est pas gagné si Microsoft nous recolle des helpers aussi moisis que dans DX11.

mood
Publicité
Posté le 24-06-2015 à 18:57:01  profilanswer
 

n°9534118
fredo3
Posté le 24-06-2015 à 18:58:03  profilanswer
2Votes positifs
 

Je pense que le graphique de performance par Watt résume un peu tout le problème de l'entreprise.
Que ce soit sur les GPU ou les CPU, leur produit ont toujours eu une efficacité énergétique déplorable face au concurrent.


Message édité par fredo3 le 24-06-2015 à 20:34:52
n°9534127
Vodka-Char​treuse
Posté le 24-06-2015 à 19:02:30  profilanswer
3Votes positifs
 

karbear a écrit :


Bon nombre de jeux sont des JEUX Sponsorisés NVIDIA GAMEWORKS!
Arrêtons d'être naïf pour ceux croyant en l'impartialité et l'objectivité du site HARDWARE.FR !
Ce site comme bon nombre, Obéis à la loi du marché ! et cela se reflète dans le choix des Jeux testés qui plombent la moyenne de ce cette Nouvelle carte !


Je t'invite a aller voir les tests de GURU3D.
Même en mettant tout a son avantage et en désactivant tous ce qui ne l'arrange pas.
la carte fait AU MIEUX comme sa concurrente et ce seulement en 4K.
 
Sauf, qu'elle consomme bien plus, qu'elle n'a pas d'HDMI 2.0, qu'elle n'a pas de DVI, qu'elle n'a pas un suivit des pilotes aussi bon, qu'elle n'as pas de marge d'Overclocking, qu'elle a un refroidissement liquide de série avec les problèmes que cela génère, et qu'elle n'a que 4g de ram qui vont être limitant a terme là ou même une carte qui en a moins/pas besoin (R9 390X) en a le double (?).
 
Préférer une théorie du complot imaginaire a de simple fait n'engage que toi.
En attendant la seule concurrence permettant a nous tous d'avoir des tarifs moins prohibitif n'est plus....
RIP


Message édité par Vodka-Chartreuse le 24-06-2015 à 20:03:13
n°9534128
bjone
Insert booze to continue
Posté le 24-06-2015 à 19:02:41  profilanswer
0Votes positifs
 

karbear a écrit :


Si l'on prend de plus en considération, les futurs jeux en DX12,et des pilotes plus matures.
La Radeon Fury X a de la puissance en réserve !


 
Absolument.
 

karbear a écrit :


Il faut que AMD investisse plus dans sa branche marketing ( tel est le défaut de cette marque ).


 
Non : il leur faut de la force de frappe en ingénierie logiciel. nV est toujours plus robuste en support d'ingénierie, et tu le payes.
Il se font plus de marge, mais ils ont aussi toujours été pro-actifs. (bon Mantle est une belle initiative, mais pas toolée, et au final dépréciée pour Vulkan ; mais c'est un mal pour un bien)
Les devs se font d'abord corrompre par un driver qui est tolérant avec leur bricolages :D
 
Quand au reste...


Message édité par bjone le 24-06-2015 à 19:05:33
n°9534130
Yopfraize
Posté le 24-06-2015 à 19:03:54  profilanswer
0Votes positifs
 

Gigathlon a écrit :


Tu veux de l'impartial et objectif?

 

La Fury X n'apporte rien de bien enthousiasmant en dehors de l'exclusivité de la HBM et quasiment tous les jeux actuels, GameWorks ou pas, exploitent tellement mal les GPU qu'on pourrait les faire tourner en 4k avec Pitcairn si ils s'étaient sortis les doigts du cul à hauteur de leur ambition...

 

Voilà la réalité, la planche de salut étant l'arrivée imminente d'API de plus bas niveau, mais là encore c'est pas gagné si Microsoft nous recolle des helpers aussi moisis que dans DX11.

 

DX10/11 est le pire DX que j'ai vu et de loin.
Non seulement car il n'apporte substantifiquement rien du tout visuellement par rapport à DX9 et surtout, et je peux me planter mais, j'ai cru constater une hausse énorme de la demande en GPU sur tous les jeux avec en plus, la perte de mon MSAA adoré que je pouvais au moins forcer via drivers avant.

Message cité 2 fois
Message édité par Yopfraize le 24-06-2015 à 19:07:38
n°9534140
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 24-06-2015 à 19:11:35  profilanswer
0Votes positifs
 

tarrache a écrit :

@ Wirmish : ta 980 Ti a 610€ je veux bien savoir ou tu l'as trouvée ? :D


Je l'ai trouvé chez mon fournisseur: DirectCanada.com
 
Gigabyte GeForce GTX 980 Ti 1076Mhz: 814.14$ + 5% taxe = 854,85$ -> 616.79€ TTC
 
Aux USA c'est $649.99 + 4% taxe d'État (New York) + 4.5% taxe locale + 0.375% de surcharge = $707.68 -> 632.78€ TTC

n°9534145
Gigathlon
Quad-neurones natif
Posté le 24-06-2015 à 19:15:30  profilanswer
2Votes positifs
 

Yopfraize a écrit :

j'ai cru constater une hausse énorme de la demande en GPU sur tous les jeux


Effet du manque d'investissement côté développement... ces Direct3D ont permis de faire des rendus complexes, du coup au lieu de chercher à faire un truc exploitable par un savant mélange de conception graphique, de hacks et de programmation ils font de la simulation plus ou moins clean qui bouffe énormément sur un moteur tiers car c'est trop compliqué.

n°9534149
bjone
Insert booze to continue
Posté le 24-06-2015 à 19:17:03  profilanswer
2Votes positifs
 

Yopfraize a écrit :


 
DX10/11 est le pire DX que j'ai vu et de loin.
Non seulement car il n'apporte substantifiquement rien du tout visuellement par rapport à DX9 et surtout, et je peux me planter mais, j'ai cru constater une hausse énorme de la demande en GPU sur tous les jeux avec en plus, la perte de mon MSAA adoré que je pouvais au moins forcer avant.


 
"Non seulement car il n'apporte substantifiquement rien du tout visuellement par rapport à DX9"
 
Le mec qui donne son avis sur une api en regardant les résultats de ceux qui s'en servent :love:
 
La hausse en demande CPU est lié au moteur et aux assets et pas l'api.
 
La perte du MSAA est lié au deferred shading qui est une technique de rendu (l'AA hardware en prends un coup, mais tu scale mieux sur les sources de lumière).
Maintenant que la mode est au tiled forward, tu récupères l'AA et la flexibilité sur ton choix de modélisation du matos en conservant un avantage similaire au deferred.
 
bref rien de tout ça n'est lié à l'api, c'est que chaque nouvelle api libère de la flexibilité (en rajoutant des abstractions, uav) et simplifie la vie grâce à du refacto et à l'abandon de mauvais design (haaaaa ne pas avoir les device lost à la pelle...).
 
Le problème est que pour avoir un gain visuel significatif, la complexité du rendu en prends des coups de pelle.
On ne se rends pas compte des gains quand ils sont incrémentaux. La prochaine baffe viendra de la GI temps-réel et des textures paginées.

Message cité 1 fois
Message édité par bjone le 24-06-2015 à 19:20:57
n°9534151
jln2
Posté le 24-06-2015 à 19:17:56  profilanswer
0Votes positifs
 

Tout ce foin pour une quinzaine de % de perf en plus qu'une puce Hawai "refresh"
Le tout pour un prix approchant une 980ti avec 2go de Vram en plus et surtout plus puissante ...
Cette déception ...

n°9534160
Yopfraize
Posté le 24-06-2015 à 19:21:21  profilanswer
0Votes positifs
 

bjone a écrit :

 

Le mec qui donne son avis sur une api en regardant les résultats de ceux qui s'en servent :love:

 

J'entendais plutôt "mauvaise utilisation" dans ce cas, me tape pas  :o

 
Gigathlon a écrit :


Effet du manque d'investissement côté développement... ces Direct3D ont permis de faire des rendus complexes, du coup au lieu de chercher à faire un truc exploitable par un savant mélange de conception graphique, de hacks et de programmation ils font de la simulation plus ou moins clean qui bouffe énormément sur un moteur tiers car c'est trop compliqué.

 

J'espère que DX12 sera différent dans son utilisation dans ce cas car c'est vraiment pénible actuellement.

Message cité 2 fois
Message édité par Yopfraize le 24-06-2015 à 19:22:38
mood
Publicité
Posté le 24-06-2015 à 19:21:21  profilanswer
 

n°9534161
bjone
Insert booze to continue
Posté le 24-06-2015 à 19:21:54  profilanswer
0Votes positifs
 

Yopfraize a écrit :


 
J'entendais plutôt "mauvaise utilisation" dans ce cas, me tape pas  :o  


J'ai failli  :o  
 
C'est pas simple :/ (dans le sens mauvaise utilisation)
 
La complexité des techniques de rendu explose, car en temps réel on passe son temps à gruger, sinon on est pas en temps réel [:chrisbk]

Message cité 1 fois
Message édité par bjone le 24-06-2015 à 19:23:30
n°9534163
karbear
Posté le 24-06-2015 à 19:22:21  profilanswer
1Votes positifs
 

Hypothèse nouvelo ordo mondialiste, la stratégie concernant les industries visent à réduire les multiples marques, filiales... pour aboutir à un faible nombre de Firmes Multinationales regroupant la majeure partie de la production mondiale.
C'est probablement ce qui est entrain de ce produire ! après Microsoft en Software, il n ' y aura plus qu'Intel coté Hardware :p  
 
Vive l'Amérique ! car rappelons toutes ces marques sont US !
Et /NWO, rappelons que Intel et AMD étaient à la base des Filiales du géant IBM !
Je ne crois nullement en la concurrence entre ces 2 entités, je crois plutôt qu'il y a un agenda programmé par les tenants de ce marché colossale en l'occurrence IBM ;tirant les ficelles de ce marché depuis des lustres, depuis ses débuts.
IBM prévoit peut-être d'ici sous peu de fusionner Intel et Nvidia ? Wait and see :p
 
Un petit rêve , l'Europe, la Russie, la Chine, le Japon ne pourraient pas investir dans le secteur informatique ? (Software et HARDWARE )
Des OS de Différents pays, un marché des semis conducteur ou il y a une vrai diversité, du choix,de la concurrence...

n°9534167
leny14
Posté le 24-06-2015 à 19:24:44  profilanswer
0Votes positifs
 

karbear a écrit :


Des OS de Différents pays...


 
ça serait un bordel monstrueux.  :o

n°9534170
Yopfraize
Posté le 24-06-2015 à 19:25:07  profilanswer
0Votes positifs
 

bjone a écrit :


J'ai failli  :o

 

C'est pas simple :/ (dans le sens mauvaise utilisation)

 


Pour le deferred Shading j'étais au courant, seulement depuis DX11, la quasi totalité des jeux semblent n'utiliser que cela pour une raison qui m'échappe.
En DX9, les jeux deferred se comptaient sur les doigts d'une main, y'avait Witcher 2 et quelques autres, c'est tout, en fait la plupart des portages consoles bas de gamme.
Perdre la possibilité de mettre autre chose qu'un post AA dégueu, ça devrait être interdit sur cette foutue plateforme :o

Message cité 1 fois
Message édité par Yopfraize le 24-06-2015 à 19:27:23
n°9534174
bjone
Insert booze to continue
Posté le 24-06-2015 à 19:26:23  profilanswer
0Votes positifs
 

Yopfraize a écrit :


J'espère que DX12 sera différent dans son utilisation dans ce cas car c'est vraiment pénible actuellement.


 
Il sera pire, il faudra être un cador de la programmation multi-threadé et de l'ordonnancement des dépendances le long du pipe de rendu, et avoir le profiler connecté à son cerveau pour faire quelque chose de bien.
 
Par contre une fois que c'est acquis c'est acquis.


Message édité par bjone le 24-06-2015 à 19:45:23
n°9534187
cobrasony
cobrasony
Posté le 24-06-2015 à 19:36:52  profilanswer
0Votes positifs
 

amd creuse sont propre trou .
je comprend pas , je croit qu'il ont pas fait d'étude commerciale .  
sérieux il aurait put mettre plus de 4GO de vram , sa fait pas vendre sa .  ya que le nom de fury x qui passse bien .
quand tu vois nvidia , jme dit que eux ils ont tout compris. la titan x avec ses 12 go de vram qui n'ai jamais utilisé fait vendre car le fait d'avoir ses 12GO ont se dit que l'on ne sera pas limité a court terme. le nom de titan x est bien choisi et dire que s'est la carte la plus puissante au monde , sa fait rever .

n°9534188
hafx
What happens next is up to you
Posté le 24-06-2015 à 19:37:12  profilanswer
0Votes positifs
 

Bon bah y a plus qu'à attendre une baisse des 980 :whistle:

n°9534189
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 24-06-2015 à 19:38:37  profilanswer
0Votes positifs
 

http://media.bestofmicro.com/J/S/506152/original/33-Overview-Torture.png

n°9534200
bjone
Insert booze to continue
Posté le 24-06-2015 à 19:45:02  profilanswer
1Votes positifs
 

Yopfraize a écrit :


 
 
Pour le deferred Shading j'étais au courant, seulement pour je ne sais quelle raison, depuis DX11, la quasi totalité des jeux semblent n'utiliser que cela pour une raison qui m'échappe.
En DX9, les jeux deferred se comptaient sur les doigts d'une main, y'avait Witcher 2 et quelques autres, c'est tout.
Perdre la possibilité de mettre autre chose qu'un post AA dégueu, ça devrait être interdit sur cette foutue plateforme :o


 
Un forward de base scale mal avec les sources de lumières dynamiques.
 
Démo simple:
 
Dans L4D, forward, il n'y a que le spot de ta lampe qui éclaire le monde.
 
Dans Stalker, deferred, y'a un moment tu est en groupe avec d'autres stalkers de nuit, toutes les lampes de casque éclairent le monde.
 
-----------------------------------------------------------------------------------------------------
 
Parceque:
 
Dans un forward, quand tu passes n lights dans un constant buffer, et que tu itères dessus, tes n lights sont processés pour toute la géométrie du drawcall.
=> rendement de merde avec beaucoup de lumières dynamiques  
soit tu décomposes le monde en plein de bouts de trucs et tu te payes une masse de drawcall super par efficaces, soit tu fais tourner les unitées de shader sur du vent.
 
Dans un deferred,  
  - tu déposes dans des buffers (à la résolution écran) les propriétes de chaque surfaces (diffuse+normal+autre..) en première passe.  
  - En deuxième passe tes sources de lumières sont rendues comme des cubes (omni), pyramides (spots), bref un truc englobant, qui ne touchera que les pixels pertinent avec peu de calculs pour rien. (et là tu fais ton interaction matériau/lumière), le résultat s'ajoute au framebuffer (hdr, sinon c'est pas drôle)
=> bon rendement avec beaucoup de lumières dynamiques
=> overhead notable même sans sources de lumières
=> shader d'interaction matos/lumière assez restreint en possibilités (ie bf4 les pneus des véhicules ont le feeling d'une peinture de carrosserie)
=> Les multiples buffers pourrissent la résolution du MSAA hardware  
 
Dans un tiled forward:
 - en première passe, tu rends tes lights par cube/autre, lorsque tu touches du pixel pertinent (ztesté), tu ajoutes la light à la liste de la tile touchée
   donc genre si t'es en 1920x1080 et que tu prends une tile de 8 pixel de large, tu as un "buffer" de 240x135 qui amorce la liste de lights par tile
 - dans une deuxième passe, tu rends ta géométrie et tu fais le calcul matériau/lumière pour chaque lumière dans la liste de la tile du pixel courant
=> bon rendement avec beaucoup de lumières dynamiques
=> shader d'interaction matos/lumière non-restreint
=> tu conserves le MSAA hardware
=> moins de vram bouffé,  
=> mais tu payes un gros overhead à construire la liste de lights par tile (liste chainées par pixels, etc..)
 
(sous entendu il y a d'autres passes après: tonemapping hdr=>ldr)
 
En gros on se dirige avec du tiled forward pour le rendu direct  
Après il y a la GI, et c'est tout une histoire qui prendra dans pas longtemps le plus de temps par frame au rendu.
 
Bref l'api n'est responsable de rien, en fait si l'api et le modèle de programmation sont responsables de rendre des trucs compliqués possibles, et donc de leur utilisation au final :D

Message cité 1 fois
Message édité par bjone le 24-06-2015 à 19:51:20
n°9534205
sasuke87
Posté le 24-06-2015 à 19:49:48  profilanswer
0Votes positifs
 

Personnellement je m'interroge sur l'intérêt des 390X, la Fury fera surement aussi bien voire mieux, et vu le placement tarifaire de la concurrence ce serait un suicide commercial de la foutre à plus de 500€. Une tarification agressive, disons 399€ pour la Fury et au alentour des 320€ pour la Nano permettrai de relancer l'intérêt de Fiji.  
 
Pour résumer, je propose ceci à AMD  :D :
 
Fury X à 550€
Fury à 399€
Nano 320€
390X tu dégages!
290X à 270€
290 à 230€
 
Et avec ça on sert les dents jusqu'à l'arrivée d'une nouvelle finesse de gravure. AMD peut faire une croix sur ses chances de faire du bénéf, mais par contre ils peuvent encore se défendre en pdm.

n°9534217
madcat
Posté le 24-06-2015 à 19:56:17  profilanswer
0Votes positifs
 

Yeagermach42 a écrit :

Pourquoi virer des jeux de la moyenne parce qu'ils défavorisent une carte ou favorisent une autre ?


La réponse est dans mon post que tu cites:
"pratiques dommageables au jeu de la concurrence"
"permettrait d'avoir une vision plus objective de la pertinence des choix d'archi de l'un et de l'autre et des perfs auxquelles on peut s'attendre hors du cercle de jeux entrant dans le jeu d'avantager l'un ou l'autre"
 

Yeagermach42 a écrit :

La moyenne représente ce que tu es en droit d'attendre de la carte sur une sélection de jeu.


Et justement si aucun tri n'est fait pour construire cette moyenne alors elle sera dépendante d'un panel de jeux forcément limité et arbitraire (ou pas, dans le pire des cas), donc en aucun cas une représentation objective du niveau de perf auquel on peut s'attendre, en moyenne, pour les jeux n'étant optimisés ni pour l'un ni pour l'autre.  
 
Pour ces derniers je trouve plus pertinent un traitement spécifique, à part, une sorte de liste la plus exhaustive possible de jeux les plus (ou moins) populaires pour lesquels on me dira lesquels sont clairement opti nvidia ou amd et grosso modo la différence de perf que ça engendre.
 
J'ai conscience que ça poserait des soucis de temps si on voulait que ça suive le même protocole de test que pour les jeux servant à créer la moyenne globale, mais ce n'est pas ce que j'ai en tête. Une liste la plus exhaustive possible des "jeux rouges et jeux verts", et pour chacun l'écart que crée "grosso modo" cette optimisation. Pas besoin de chiffres très précis, 5 ou 10% ça suffit comme précision. Si on part du principe que pour un panel n'avantageant aucun des 2 la fury se situe à mi-chemin entre la 980 et 980ti (c'est déjà une info utile), j'ai juste besoin de savoir que pour tel jeu l'opti amd l'avantage grosso modo de 30% par rapport à son potentiel moyen objectif (mi-chemin en 980 et 980ti), ou que pour tel autre jeu l'opti nvidia lui fait perdre 40%.
 
Un protocole de test moins strict pour cette partie là permettrait d'avoir un panel plus vaste (pour cette partie), et je verrais même d'un bon oeil que soit mis à contribution la communauté hfr pour compléter encore plus au fil du temps, en compilant des retours. A partir du moment où on prévient d'où vient l'info je ne vois pas de soucis à faire ça, surtout quand on a une vaste communauté passionnée comme celle d'hfr à mettre à profit.
 
Je trouve que ça donnerait une vision bien plus claire du potentiel de chaque carte, et des infos plus pertinentes pour que l'acheteur puisse faire le meilleurs choix conformément à ses propres besoins, car on n'est pas tous à enchainer tous les blockbuster qui se présentent. Avec une telle méthodologie je pourrais en tant qu'acheteur faire mon choix en me basant d'une part sur un potentiel moyen des cartes, en dehors de tous biais induit par ces optimisations spécifiques, et basé sur un protocole strict mis en oeuvre par tridam, et d'autre par sur une analyse moins précise au cas par cas pour les jeux opti pour l'un ou l'autre, dont le coeur serait fait par tridam (protocole plus light) et complétée/étendue au fil du temps par compilation de retours de communauté triés par tridam pour bénéficier de son expertise (voir plus ou moins supervisés par lui en amont, en proposant un protocole par ex). Sachant ce à quoi je joue et ce qui pourrait potentiellement m'intéresser dans la liste j'aurais alors réellement un bonne base pour faire le meilleurs choix pour mes propres besoins.
 
Actuellement pour faire ça je dois visiter plusieurs tests pro, dont les panels sont testés avec plus ou moins de rigueur, et qui sont assez restreints et avec beaucoup de redondance (si je compare juste le test hfr et cluclu par ex, déjà pas mal de titres en commun) et si je ne trouve pas le jeu qui m'intéresse il faudra écumer les forums à la recherche de feedback d'utilisateurs, qu'il faudra recouper entre-eux pour être sûr d'avoir une info réellement pertinente. C'est la plus-value que j'aimerais avoir d'un test pro, plutôt que de retrouver x tests rigoureux des mêmes batman/bf4 etc.


---------------
" Mais putaaain... Mais les gars qu'est-ce qu'ils font quoi, ils développent un jeu quoi ils essayent leur truc là ? ils essayent ? ils s'voyent voyent pas qu'c'est d'la merde !? "
n°9534231
dave76
A momentary lapse of reason
Posté le 24-06-2015 à 20:04:11  profilanswer
0Votes positifs
 

Tout ce tapage pour ça L.O.L

n°9534241
Yeagermach​42
Posté le 24-06-2015 à 20:07:28  profilanswer
1Votes positifs
 

Le panel est constitué de jeux faisant l'actualité ou étant représentatifs pour les plus vieux. En virer certain sous prétexte que cela arrange pas un constructeur, c'est biaiser le résultat.
 
Si un constructeur est pas foutu d'optimiser ses drivers correctement pour les jeux, cela doit se voir.
 
Et dans le cas Project Cars, AMD est 99% responsable. Dans le cas Witcher 3 aussi.
 
D'ailleurs ils ont enfin amélioré leur moteur de tessalisation ou pas ?

n°9534243
boudeficel​le
Posté le 24-06-2015 à 20:08:16  profilanswer
0Votes positifs
 

Comment expliquez-vous de tels écarts avec les autres tests ?
https://www.techpowerup.com/reviews [...] _X/31.html

n°9534261
cocto81
Posté le 24-06-2015 à 20:16:22  profilanswer
7Votes positifs
 

Pour rééquilibrer un peu le test que je viens de lire, voilà quelques autres tests.
 
Test complet et très lisible avec une large gamme de jeux :
W7 sp1...
http://www.techpowerup.com/reviews [...] y_X/1.html
Tout à fait dans le coup.
 
W8.1 ici :
http://www.hardwarecanucks.com/for [...] rives.html
Là c'est carrément à égalité avec les Titan.
Devant ou derrière selon la défintion et le jeu :
- plus la déintion augmente, plus le jeux est lourd plus la Fury gagne.
 
Niveau conso, sensiblement moins qu'une R9 2/390.
Du coup, plus le jeu est lourd, plus la Fury reviens à égalité avec les Nvidia Maxwell niveau efficacité énergétique.
Au vu de la taille, cette carte rentre dans un boitier mini-ITX petit mais musclé.
Suffit de placer le ventirad à pompe en extraction du boitier.
 
Et enfin des gens sérieux, des Suédois :
Luxmark 3.0 OpenCL, test de la scène Hotel ici :
 
http://www.sweclockers.com/test/20 [...] 16#content
 
C'est pas la ramasse totale pour les autres AMD (Nvidia hors jeu).
scores:
- 3439 (seulement) pour la Fury X qui domine comme on s'y attendait.
- 3259 pour la R9 390x qui colle bien d'utant plus qu'avec 8Go de RAM elle est nettement moins limitée au niveau de la taille des scènes.
... quelques AMD plus loin - les R9 290/280x/7970...
- 2068 Nvidia GTX Titan X (1200 euros pour se faire quand même complètement mettre dans le vent)
- 1531 GTX 980 (= R9 380 nettement moins chère)
 
pas trouvé de test Folding@home mais ça ne devrait pas approcher un R9 390/390x.
 
... voilà tout est dit. La Fury est bien une carte top intéressante et elle risque de dépoter encore plus sous Windows 10.
J'ai tendance à dire que plus on veut un PC ultime compact avec une consommation plus faible et orienté média UHD et jeux, plus la Fury devient intéressante.
Si on s'en fout de la conso et de la taille, et surtout si on veut faire du GPGPU, rendu 3D, du mining, folding@home, alors la plus intéressante c'est la R 390X 8Go.
 
Ce qui est sûr : Nvidia ne Rulz pas !!!

n°9534263
jdemouth
Posté le 24-06-2015 à 20:17:57  profilanswer
7Votes positifs
 

Si je peux me permettre une remarque à certains, il serait bon d'apprendre à respecter le travail des autres (employés d'amd ou journalistes). Moi, ça me rend triste de me dire qu'aujourd'hui il y a des ingés qui ont bosser comme des malades et qui voient ces commentaires si acerbes. Quand on conçoit un gpu (ou un cpu), on fait des choix, des compromis. Parfois on prend les bonnes décisions et parfois on fait des erreurs. A coup sûr, il y a des mecs qui ont passé des heures à débugger des problèmes à droite et à gauche. Respectez leur travail, s'il-vous-plaît! Le HBM est une prouesse technique. Ils l'ont fait avant tout le monde. Bravo à eux à ce niveau; ça a sûrement été compliqué.

n°9534267
DayWalker ​II
Posté le 24-06-2015 à 20:18:52  profilanswer
3Votes positifs
 

Vu que DirectX 12 devrait largement réduire le goulet d'étranglement au niveau du CPU, est-ce que cela aurait un impact sur la comparaison des différentes cartes sous Windows 10 ?

n°9534279
tridam
Profil : Equipe HardWare.fr
Posté le 24-06-2015 à 20:30:32  profilanswer
2Votes positifs
 

Cela pourrait faire apparaître de nouveaux goulets d’étranglement, par exemple au niveau du processeur de commandes. Mais il faudrait pour cela qu'il y ait du contenu en Direct3D 12 qui représente une charge totalement différente de ce qui se fait actuellement.
 
Tester les jeux actuels sous Windows 10 ne fera aucune différence, à quelques optimisations près au niveau des pilotes.

n°9534280
noria1
Posté le 24-06-2015 à 20:30:42  profilanswer
0Votes positifs
 

boudeficelle a écrit :

Comment expliquez-vous de tels écarts avec les autres tests ?
https://www.techpowerup.com/reviews [...] _X/31.html


 
c est simple,c est pas la meme config test ni le meme pilote(nvidia)

n°9534287
noria1
Posté le 24-06-2015 à 20:34:55  profilanswer
0Votes positifs
 

c'est la qu'on voit,que AMD est a la rue.quand on regarde la dispo des 980 custom
 
La Fury X n'affiche en fait qu'un gain de 4% face à une 980 poussée telle que la Gigabyte.
 
+4% et + 120 EUROS,bref c'est de l'arnaque rien de plus

Message cité 1 fois
Message édité par noria1 le 24-06-2015 à 20:35:56
n°9534306
cocto81
Posté le 24-06-2015 à 20:48:14  profilanswer
2Votes positifs
 

noria1 a écrit :

c'est la qu'on voit,que AMD est a la rue.quand on regarde la dispo des 980 custom
 
La Fury X n'affiche en fait qu'un gain de 4% face à une 980 poussée telle que la Gigabyte.
 
+4% et + 120 EUROS,bref c'est de l'arnaque rien de plus


 
 
Tu as analysé ce que tu viens d'écrire ?
+ 4% de quoi ? Chaque application donne des résultats différents, et qui changent en fonction des réglages et de la définition. Plus c'est lourd, plus ça avantage la Fury X.
Cf plus haut : il y a 75% sur Luxrender en faveur de la Fury X par rapport à la Titan X à 1200 euros (+140% par rapport à la 980).
+ 120 euros sur des cartes qui ne se ressemblent pas à 500 euros, c'est peanuts. Prends une carte à 200 euros si tu veux faire des économies !


Message édité par cocto81 le 24-06-2015 à 20:51:42
n°9534311
karbear
Posté le 24-06-2015 à 20:52:14  profilanswer
2Votes positifs
 

[
 
 

Gigathlon a écrit :

[quotemsg=9534096,158,957329]Bon nombre de jeux sont des JEUX Sponsorisés NVIDIA GAMEWORKS!
Arrêtons d'être naïf pour ceux croyant en l'impartialité et l'objectivité du site HARDWARE.FR !


Tu veux de l'impartial et objectif?
 
La Fury X n'apporte rien de bien enthousiasmant en dehors de l'exclusivité de la HBM et quasiment tous les jeux actuels, GameWorks ou pas, exploitent tellement mal les GPU qu'on pourrait les faire tourner en 4k avec Pitcairn si ils s'étaient sortis les doigts du cul à hauteur de leur ambition...
 
Les Jeux Nvidia GameWokrs sont des investissement vis à vis de tel ou tel studio de développement impliquant qu'une partie des ingénieurs Nvidia Travaillent de concert avec le studio de jeux vidéo sponsorisé.
Il en résulte bien évidemment des optimisations améliorant de manière conséquente les performances des cartes NV.
 
Ta réaction est on ne peut plus déplacés car les GPUS AMD sont bien loin d'être exploité à leur Maximum sur bon nombre de jeux sponsorisés Nvidia.
Après, il n' y a qu'un Gamers avertis qui peut s'en rendre compte.
La plupart d'entre vous, ne sont pas des gamers !
Juste des passionnées de Matos informatique qui se payent des configurations pour essentiellement trippés sur leurs matos en lançant des BENCHS :p
Et pour Finir en ayant Visionnés bon nombre de Tests, peut-être à cause du prix et des exigences de certains mais la carte est plus que satisfaisante ! compte tenue des différents biais méthodologique du test !
à n'en pas douter cette carte va baisser en tarif.
Et son potentiel va fortement augmenté au fil des mois.
 
Sinon débat stérile comme d'habitude :p
 
 

n°9534312
karbear
Posté le 24-06-2015 à 20:54:27  profilanswer
0Votes positifs
 

karbear a écrit :

[
 
 

Gigathlon a écrit :

[quotemsg=9534096,158,957329]Bon nombre de jeux sont des JEUX Sponsorisés NVIDIA GAMEWORKS!
Arrêtons d'être naïf pour ceux croyant en l'impartialité et l'objectivité du site HARDWARE.FR !


Tu veux de l'impartial et objectif?
 
"La Fury X n'apporte rien de bien enthousiasmant en dehors de l'exclusivité de la HBM et quasiment tous les jeux actuels, GameWorks ou pas, exploitent tellement mal les GPU qu'on pourrait les faire tourner en 4k avec Pitcairn si ils s'étaient sortis les doigts du cul à hauteur de leur ambition..."
 
 
 
Les Jeux Nvidia GameWokrs sont des investissement vis à vis de tel ou tel studio de développement impliquant qu'une partie des ingénieurs Nvidia Travaillent de concert avec le studio de jeux vidéo sponsorisé.
Il en résulte bien évidemment des optimisations améliorant de manière conséquente les performances des cartes NV.
 
Ta réaction est on ne peut plus déplacés car les GPUS AMD sont bien loin d'être exploité à leur Maximum sur bon nombre de jeux sponsorisés Nvidia.
Après, il n' y a qu'un Gamers avertis qui peut s'en rendre compte.
La plupart d'entre vous, ne sont pas des gamers !
Juste des passionnées de Matos informatique qui se payent des configurations pour essentiellement trippés sur leurs matos en lançant des BENCHS :p
Et pour Finir en ayant Visionnés bon nombre de Tests, peut-être à cause du prix et des exigences de certains mais la carte est plus que satisfaisante ! compte tenue des différents biais méthodologique du test !
à n'en pas douter cette carte va baisser en tarif.
Et son potentiel va fortement augmenté au fil des mois.
 
Sinon débat stérile comme d'habitude :p
 
 

n°9534313
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 24-06-2015 à 20:55:44  profilanswer
3Votes positifs
 

boudeficelle a écrit :

Comment expliquez-vous de tels écarts avec les autres tests ?
https://www.techpowerup.com/reviews [...] _X/31.html


C'est normal que les positionnement varient un peu d'un site à l'autre, si tu veux les mêmes scores il faut que tout le monde se contente de tester sous 3DMark.
 
Exemple en 1440p entre TPU et HFR que tu sites si on met GTX 980 à indice 100
 
HFR : GTX 980 100, MSI R9 390X 102, Fury X 115, GTX 980 Ti 129
TPU : MSI R9 390X 98, GTX 980 100, Fury X 115, GTX 980 Ti 125
 
Donc la Fury X est un peu moins bien placée sur HFR, la R9 390X un peu moins bien placée sur TPU.  Et ?

n°9534318
loustic
Posté le 24-06-2015 à 21:00:35  profilanswer
1Votes positifs
 

Citation :

Des adaptateurs DisplayPort vers HDMI 2.0 seront proposés sous peu, mais ils ne permettront probablement pas de support le DRM HDCP 2.2, voué à se généraliser pour le contenu 4K, qu'il s'agisse de Blu-Ray UHD ou de streaming.

Merci Damien. Bah c'est formidable le hdmi 2.0 est pourtant sortie en 2013...
Les adapteurs seront aussi cher qu'une CG d'entré de gamme(plusieurs composants actifs ctte fois-ci) et certainement jamais de support du HDCDP2.2 avec quelque adaptateur que ce soit, c'est interdit sauf a sortir directement en analogique ce qui n'est pas le cas!
En plus c'est pas dans deux ans, déjà maintenant les series en UHD sur netflix si t'as pas le HDCP2.2 t'es bridé en fullHD. AMD se tire une balle dans le pied, certes pas bien grosse mais il en tire beaucoup en ce moment.
Quelle déception. :(

n°9534332
gils04
le soleil du sud !
Posté le 24-06-2015 à 21:10:31  profilanswer
3Votes positifs
 

:non:  
 
je pense que beaucoup de personne sont à côté de la plaque mais  ça les regardes , quand aux "conclusions bâclés" qui parlent plus de nV que de la CG concernée  me déçoit quelque peu . ( c'est mon avis) , je ne conteste nullement les chiffres et le travail de Tridam  mais un plus de recherche et une autre approche .
je rajouterai que la comparaison avec des custom n'ont rien à faire dans ce test étant donné qu'un seul modèle AMD est dispo !? .  
 
je prends une 295x et l'affaire est réglé pour jouer en 4k , le reste des résolutions est géré à 100 % par une majorité de GPU haut de gamme  , Titanx / Titanx castré et autre GPU GM 200 n'ont aucun intérêt à ce compte là .
 
je ne cautionne donc pas cet article mais plutôt celui là ;)  http://www.guru3d.com/articles_pag [...] iew,1.html
 
Merci  
 
PS : il aurait intéressant de voir quelque test OpenCL comme LuxMark , CompuBench etc.......
 

n°9534338
Zurkum
Posté le 24-06-2015 à 21:14:00  profilanswer
0Votes positifs
 

Gamer78 a écrit :

AMD  c'est clairement trop nul !


Intel é nvidia c deux la bal il déchir tou é kom c papa é maman ki paille ma beusoin de concurrence
Troll Off /
Effectivement carte assez décevante si ils n'ajustent pas le placement tarifaire.


Message édité par Zurkum le 24-06-2015 à 21:34:08
n°9534339
vanloque
Someone broke my AT Field
Posté le 24-06-2015 à 21:14:17  profilanswer
0Votes positifs
 
n°9534340
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 24-06-2015 à 21:16:34  profilanswer
2Votes positifs
 

Bon allez... je ne résiste pas
 

cocto81 a écrit :

Pour rééquilibrer un peu le test que je viens de lire, voilà quelques autres tests.
 
Test complet et très lisible avec une large gamme de jeux :
W7 sp1...
http://www.techpowerup.com/reviews [...] y_X/1.html
Tout à fait dans le coup.
 
W8.1 ici :
http://www.hardwarecanucks.com/for [...] rives.html
Là c'est carrément à égalité avec les Titan.
Devant ou derrière selon la défintion et le jeu :
- plus la déintion augmente, plus le jeux est lourd plus la Fury gagne.


 
Chez TPU l'avantage est de 9% pour la 980 Ti en 1440p, 2% en 4K
Chez HWC l'avantage est de 7% pour la 980 Ti en 1440p , 3% en 4K
 
Pourtant, d'après ta lecture du test de HWC la Fury X est a égalité avec une Titan X. Mwé.
 

cocto81 a écrit :


Et enfin des gens sérieux, des Suédois :
Luxmark 3.0 OpenCL, test de la scène Hotel ici :
 
http://www.sweclockers.com/test/20 [...] 16#content
 
C'est pas la ramasse totale pour les autres AMD (Nvidia hors jeu).
scores:
- 3439 (seulement) pour la Fury X qui domine comme on s'y attendait.
- 3259 pour la R9 390x qui colle bien d'utant plus qu'avec 8Go de RAM elle est nettement moins limitée au niveau de la taille des scènes.
... quelques AMD plus loin - les R9 290/280x/7970...
- 2068 Nvidia GTX Titan X (1200 euros pour se faire quand même complètement mettre dans le vent)
- 1531 GTX 980 (= R9 380 nettement moins chère)
 
pas trouvé de test Folding@home mais ça ne devrait pas approcher un R9 390/390x.
 
... voilà tout est dit. La Fury est bien une carte top intéressante et elle risque de dépoter encore plus sous Windows 10.
J'ai tendance à dire que plus on veut un PC ultime compact avec une consommation plus faible et orienté média UHD et jeux, plus la Fury devient intéressante.
Si on s'en fout de la conso et de la taille, et surtout si on veut faire du GPGPU, rendu 3D, du mining, folding@home, alors la plus intéressante c'est la R 390X 8Go.
 
Ce qui est sûr : Nvidia ne Rulz pas !!!


 
La fixette LuxMark ! Les GPU GCN sont bien devant les GPU NVIDIA sur LuxMark, ça fait un bail. Par contre sous Folding c'est l'inverse (on se demande pourquoi ut parle, donc si tu estimes que la Fury ne sera pas au niveau d'une 390/390X ça ne changera pas et du coup pourquoi seraient elles les plus intéressantes ? Par ailleurs le test CompubenchCL de tes gens sérieux montrent bien que selon les algos (y'en a 7), les archis se comportent très différemment les unes par rapport aux autres. Qu'en conclure ? Ah oui on s'en fiche seul LuxMark compte ;)
 
Pour le côté compact, tu dois confondre avec la Nano, car là il faut caser le radiateur sans pour autant se priver d'un ventirad CPU correct. Mais bon tu dois avoir un boitier en tête je suppose ?

n°9534342
Zurkum
Posté le 24-06-2015 à 21:17:58  profilanswer
0Votes positifs
 

LeiR3@G a écrit :


Sérieux les mecs c'est quoi votre argumentaire niveau CP là. Si tu critiques un vin dégueulasse je te demande si t'as un vignoble ??


Tu penses franchement que tes Nvidia serait si abordable si AMD avait pas un rapport perf/prix meilleur ? ( r9 290x à 280€ )
Édit : WTF j'avais pas prévu de prendre ce com là


Message édité par Zurkum le 24-06-2015 à 21:35:11
n°9534344
Yopfraize
Posté le 24-06-2015 à 21:19:02  profilanswer
0Votes positifs
 

bjone a écrit :


 
Un forward de base scale mal avec les sources de lumières dynamiques.
[...]
 
Bref l'api n'est responsable de rien, en fait si l'api et le modèle de programmation sont responsables de rendre des trucs compliqués possibles, et donc de leur utilisation au final :D


 
Merci pour les explications, ca m'a permis de comprendre pourquoi un deferred ne permet pas de l'AA Hardware, ou alors avec un cout extrêmement fort en GPU Usage.
 
Je ne savais pas que Stalker était en deferred cela dit étant donné qu'il disposait de MSAA, donc ca veut dire qu'à l'époque même en deferred les développeurs n'avaient pas abandonné l'idée d'un MSAA Hardware  :heink:  
 
En revanche il y'a un terme que j'ai pas trop capté dans ton explication : Overhead t'entends par là les ressources GPU utilisées ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15

Aller à :
Ajouter une réponse
 

Sujets relatifs
sapphire r9 380 nitro sous alimenté?question GPU
[HFR] Focus : MSI Radeon R9 390X Gaming 8 Go en testOptimisation AMD sapphire radeon Hd 7950 3gb OC with boost Batman AK
[HFR] Actu : AMD Catalyst 15.6 Beta pour Batman AK 
Plus de sujets relatifs à : [HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR