Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1600 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15
Auteur Sujet :

[HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test

n°9534640
obicat
Posté le 25-06-2015 à 01:16:03  profilanswer
1Votes positifs
 

Reprise du message précédent :
Citation :  
La HBM n'est en rien la propriété d'AMD, prévue de longue date chez le concurrent également, mais pas encore vraiment au point techniquement donc il attend.
Euh la première gen de hbm est pour AMD c'est pour ça qu'il ne l'ont pas.....
C'est plein de troll ici.....(j'ai des PCs avec les cartes des deux constructeurs, alors je suis fort neutre(sinon je ne continuerais pas à fonctionner comme ça), mais là il y a vraiment plein de troll vert qui s'acharne ici.... il commence à me faire moins aimer nvidia.....et ses carte qui sont  bien à part certaine génération à part le prix les drivers beta sur beta sur beta pour avoir les bonne perf ou la bonne qualité d'images....)

Message cité 1 fois
Message édité par obicat le 25-06-2015 à 01:17:47
mood
Publicité
Posté le 25-06-2015 à 01:16:03  profilanswer
 

n°9534643
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-06-2015 à 01:19:12  profilanswer
2Votes positifs
 

mazingerz a écrit :

LoL j'en peux plus de voir les commentaires des fanboy NVIDIA dégoutés que la carte face le coude à coude avec le haut de gamme NVIDIA
 
Cela me dégoute de voir des forumeurs/salariés d'NVIDIA avoir aussi peu de déontologie (s'ils savent ce que cela veut dire)


Coude à coude grâce à un refroidissement liquide, avec une conso supérieure, avec une bande passante immense, et avec des specs bien supérieures... sur le papier. Mais malgré tout ça, la Fury X se retrouve en face de la GTX 980, alors que son prix est équivalent à la GTX 980 Ti. On peut saluer l'effort, mais on peut aussi constater l'échec de cette puce.
 
Le Fiji, avec ses 4096 unités de calcul, ne peut faire mieux que le GM200-310 et ses 2816 unités de calcul. C'est triste.

n°9534646
ockiller
Posté le 25-06-2015 à 01:21:33  profilanswer
2Votes positifs
 

Ça aurait été une bonne carte si ça avait été la R9 390X, un vrai nouveau haut de gamme qui progresse sur les plus gros défauts de l'ancien, avec encore des défauts mais au prix de la R9 390X (et une bonne comm...) ça serait super bien passé. Le soucis c'est que cette carte coûte bien plus cher à fabriquer qu'une GTX 980 Ti et une guerre des prix avec nVidia n'aurait pas été une bonne idée. En plus les R200 n'étaient déjà pas à plaindre niveau bande passante mémoire donc il n'y avait pas tant que ça à gagner. Surtout que ce qu'ils ont le plus augmenté c'est ce qui consomme le moins de bande passante mémoire (puissance de calcul)... Il y a un manque de cohérence dans le design de cette carte, il faudra probablement attendre la prochaine génération pour qu'ils trouvent un bon équilibre.
 
Sinon je ne comprends pas les critiques sur le choix des jeux ou les conditions de test. On voit ce que valent toutes ces cartes dans les jeux les plus en vogues actuellement, avec les réglages appropriés pour ces types de cartes. Peu importe la raison de pourquoi une carte sous-performe, c'est comme ça qu'elle tournera chez les gens qui l'achètent, c'est tout ce qui compte non ? Les vraies performances du matériel, si elles sont gâchées par un mauvais pilote, ou à cause de Gameworks (qui au passage est un bonus apprécié au moins quand on a une Geforce), on ne pourra pas y faire grand chose, ça fait partie de ce qu'on achète. Et ceux qui comptent sur AMD pour améliorer la situation à ce niveau là... ça fait longtemps qu'on en rêve déjà...
 
Et la palme quand même, quand on s'intéresse autant (fixation !) au rendu 3D (double précision parce que je le vaux bien), alors qu'on n'est pas capable de faire la différence entre du path tracing et de la rastérisation, mais qu'à la place on nous bassine avec de la pseudo-science de comptoir agrémenté de théorie paranoïaque de complot mondial que seul des norvégiens auraient réussi à s'isoler (et encore...), un nouvelle religion va bientôt naître...


Message édité par ockiller le 25-06-2015 à 01:22:36
n°9534647
obicat
Posté le 25-06-2015 à 01:22:04  profilanswer
1Votes positifs
 

Wirmish a écrit :

mazingerz a écrit :

LoL j'en peux plus de voir les commentaires des fanboy NVIDIA dégoutés que la carte face le coude à coude avec le haut de gamme NVIDIA
 
Cela me dégoute de voir des forumeurs/salariés d'NVIDIA avoir aussi peu de déontologie (s'ils savent ce que cela veut dire)


Coude à coude grâce à un refroidissement liquide, avec une conso supérieure, avec une bande passante immense, et avec des specs bien supérieures... sur le papier. Mais malgré tout ça, la Fury X se retrouve en face de la GTX 980, alors que son prix est équivalent à la GTX 980 Ti. On peut saluer l'effort, mais on peut aussi constater l'échec de cette puce.
 
Le Fiji, avec ses 4096 unités de calcul, ne peut faire mieux que le GM200-310 et ses 2816 unités de calcul. C'est triste.


 
Euh sur le papier la 980ti est devant au niveau des triangle,des pixels et des rops (de plus en plus de troll...)  
 
Avant les gens se plaignaient du bruit maintenant qu'elles sont water cooler ils se plaignent  aussi au fait ils sont juste là pour se plaindre sans aucune objectivité .
 
PS moi aussi je trouve qu'attendre aussi longtemps pour sortir une carte pas assez performante s'est pas terrible, mais bon le milieux de gamme est tjs dans la compétition (malheureux, ça fait trois plombe quelles sont là ces cartes ;pareil chez les verts ou le mileu de gamme s'est du réchauffer...)
 
Personne peut contrer la r9 295 x2????elle est quand même moins cher de quelque euro qu'une 980ti????

Message cité 1 fois
Message édité par obicat le 25-06-2015 à 01:30:27
n°9534656
Vodka-Char​treuse
Posté le 25-06-2015 à 01:30:09  profilanswer
1Votes positifs
 

mazingerz a écrit :


quand on parle d'un cross d'une carte a 700€  
le bashing des NVIDIOT m'étonnera toujours


L'intérêt d'un cross ou d'un SLI est aussi de le faire plus tard, quand on trouve la même carte bien moins cher voir en occase.
Une autre méthode pour de l'économie a long terme. Rien ne te dit aussi que je prend cette carte demain a ce tarif de départ !
Mais ce n'est pas bien grave si tu captes pas, tu es visiblement un RAIDIOT, la ou j'ai changer de crèmerie quand c'était justifié.
 

gils04 a écrit :


techpower et guru3d


J'ai était le premier a proposer Guru3D au Fanboy AMD ayant besoin de se rassurer, et j'ai pas parcourut Techpower.
Visiblement tu ne sais pas lire.
 

Spartan88 a écrit :


comme indiqué dans le test c'est une belle prouesse technique cette Fury X, Nvidia doit l'avoir constaté et ils savent qu'ils vont devoir passer un palier sur le 16nm à venir faute de quoi AmD risque de leur faire mal.


Je ne comprend pas, ou est la prouesse ???
Un nouveau Type de RAM ultra Performant, un TDP de 75W supplémentaire réel, et du refroidissement liquide.
Pour moins de perf en 1080/1440P et seulement a peut prêt équivalent en 4K face a du air-cooling en RAM moins performante.
 

Wirmish a écrit :


Heu... la HBM a été développée par AMD avec la participation de Hynix.


obicat a écrit :

Citation :  
Euh la première gen de hbm est pour AMD c'est pour ça qu'il ne l'ont pas.....
C'est plein de troll ici....


Non, là c'est de l'ignorance avec interprétation.
Mais expliquez moi ? Si la HBM appartient a AMD et non a Hynix, pourquoi laisse t-il le concurrent s'en servir pour qu’il les viole avec l'année suivante ???
Pourquoi ne pas se la garder ???

Message cité 4 fois
Message édité par Vodka-Chartreuse le 25-06-2015 à 09:53:57
n°9534659
D-Ther
Posté le 25-06-2015 à 01:33:13  profilanswer
1Votes positifs
 

obicat a écrit :


 
Personne peut contrer la r9 295 x2????


 
 
Un bi-GPU a base de Fiji est prevu, suffit d'attendre un peu

n°9534662
obicat
Posté le 25-06-2015 à 01:36:43  profilanswer
0Votes positifs
 

D-Ther a écrit :

obicat a écrit :


 
Personne peut contrer la r9 295 x2????


 
 
Un bi-GPU a base de Fiji est prevu, suffit d'attendre un peu


 
Surement moins cher qu'une titanx ^^
Ps la r9 295 x2 n'a que 4gb par puce, ça n'a pas l'air de la gêner...

n°9534671
gils04
le soleil du sud !
Posté le 25-06-2015 à 01:50:28  profilanswer
1Votes positifs
 


 

Vodka-Chartreuse a écrit :


J'ai était le premier a proposé Guru3D au Fanboy AMD éyant besoin de ce rassurer, et j'ai pas parcourut Techpower.
Visiblement tu ne sais pas lire.
 


 
euh la iFury est juste devant la 980ti en 4k avec 12 jeux contre 10 pour la 980ti , tu ne sais pas lire   :heink:  
 
ps : tu fais comme moi , tu comptes !  :lol:  
 
http://www.techpowerup.com/reviews [...] y_X/7.html
 
bon ensuite , comme souligné sur le post d'avant , la 295x met la trempe à tout le monde , comme ça le problème Fanboy AMD est réglé et le Fanboy NV pleure ces 1000 € pour le moins  :lol:  :lol:  :lol:

n°9534675
Vodka-Char​treuse
Posté le 25-06-2015 à 01:56:45  profilanswer
0Votes positifs
 

gils04 a écrit :


euh la iFury est juste devant la 980ti en 4k avec 12 jeux contre 10 pour la 980ti ,


gils04 a écrit :


Quand à la Fury avec 11 ou 12 jeux sur 20 (il faut les compter exactement) elle est devant en 2160p la 980ti


My mystake.
J'ai lu ça.
je suis PRO VR.
2160/1200P pour le Rift et le Vive.
Elle est en effet devant en 4K de quelques (parfois 1) FPS.
 
Je serais curieux de savoir qui joue en 4K ici, si ça intéresse au delà du combat NV AMD, surtout vue les taux de rafraichissement et autres sur ces écrans.
Comme je l'ai marqué plusieurs fois déjà, "les gens" jouent en 1080P, certain en 1440P et c'est surtout ça qui importe au jour d'aujourd'hui.

gils04 a écrit :


 la 295x met la trempe à tout le monde


C'est du BI-GPU, ça n'a rien de comparable et un certain nombre de problême.
D'autant qu'au niveau consommation on atteint des sommets.

Message cité 1 fois
Message édité par Vodka-Chartreuse le 25-06-2015 à 02:07:08
n°9534680
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-06-2015 à 02:10:19  profilanswer
0Votes positifs
 

obicat a écrit :

Euh sur le papier la 980ti est devant au niveau des triangle,des pixels et des rops (de plus en plus de troll...)


Ouais, je sais que du côté du caméléon les triangles parfaits doivent mesurer 1 pixels de côté. C'est totalement stupide, mais c'est la façon qu'ils ont trouvé pour écraser AMD.

 

http://www.ozone3d.net/public/jegx/201011/amd_tessellation_16pixels_triangle.jpg <-- À droite on peut voir le triangle parfait... selon nVidia.

 

Quant aux ROPs (c'est pareil que les pixels) c'est sûr que 64 c'est assez faible. Mais bon, si les techs d'AMD ont préférer mettre plus d'ALUs au lieu de mettre 96 ou 128 ROPs, c'est que leurs tests devaient montrer que c'est la chose à faire. Peut-être que leur architecture ne peut gérer convenablement plus de 64 ROPs. Peut-être que les bus internes sont déjà saturés.

 

nVidia a choisi de mettre 3072 ALUs, 192 TMUs, et 96 ROPs.
AMD a choisi de mettre 4096 ALUs, 256 TMUs, et 64 ROPs.
C'est clair qu'une des 2 architectures est mieux équilibrée...

 

Hawaii intègre 2816 ALUs, 176 TMUs, et 64 ROPs.
À fréquence égale (1050 MHz) Fiji ne fait que 15% mieux.

 

Si on augmente les specs de 15% on obtient: 3236 ALUs, 202 TMUs, et 74 ROPs. Avec une architecture identique, et une bande passante augmentée de 15%, une telle carte aurait dû offrir les mêmes perfs que Fiji... sauf s'il y a un goulot d'étranglement dans le reste de la puce.

 

Avec la taille de Fiji, AMD aurait pu intégrer 6 SE de 10 CU, soit 3840 ALUs, 240 TMUs, et 64 ROPs améliorés (traitant 6 "pixels" au lieu de 4, ce qui serait équivalent à 96 ROPs mais en prenant un peu moins de place). Cela aurait augmenté de 50% le nombre de Geometry Processor et de Rasterizer, une faiblesse de l'archi actuelle. Et cela aurait donné naissance à une puce beaucoup mieux équilibrée.

 

Mais AMD n'a plus d'argent.
Et quand on a plus d'argent on modifie le moins de trucs possible.
Et comme ça l'archi évolue plus lentement.
Et comme ça on se fait dépasser par le concurrent.
Et ensuite le concurrent il rigole.
Puis le consommateur pleure.

Message cité 2 fois
Message édité par Wirmish le 25-06-2015 à 02:17:41
mood
Publicité
Posté le 25-06-2015 à 02:10:19  profilanswer
 

n°9534681
gils04
le soleil du sud !
Posté le 25-06-2015 à 02:13:48  profilanswer
1Votes positifs
 

Vodka-Chartreuse a écrit :


My mystake.
J'ai lu ça.
je suis PRO VR.
2160/1200P pour le Rift et le Vive.
Elle est en effet devant en 4K de quelques (parfois 1) FPS.
 
Je serais curieux de savoir qui joue en 4K ici, si ça intéresse au delà du combat NV AMD, surtout vue les taux de rafraichissement et autres sur ces écrans.
Comme je l'ai marqué plusieurs fois déjà, "les gens" jouent en 1080P, certain en 1440P et c'est surtout ça qui importe au jour d'aujourd'hui.


 

Vodka-Chartreuse a écrit :


C'est du BI-GPU, ça n'a rien de comparable et un certain nombre de problême.
D'autant qu'au niveau consommation on atteint des sommets.


 
Merci  :jap:  
 
disons que le 4k n'a pas trop de succès car ça reste cher mais bon , quand on balance 650 boules dans un GPU , on peu acheter un moniteur à 500 boules 4k :D , c'est une histoire de moyen :)  
 
et puis ça va faire le bonheur d'Apple sur ces iMac 5k :) tout n'est pas si noir , en plus Apple développe des nouveaux supports 3D (Metal) , ce que je déplore , ce sont les conclusions bâclées sur ce GPU d'une prouesse technologique sans précédant ;)

n°9534684
Vodka-Char​treuse
Posté le 25-06-2015 à 02:20:14  profilanswer
1Votes positifs
 

gils04 a écrit :


quand on balance 650 boules dans un GPU , on peu acheter un moniteur à 500 boules 4k :D , c'est une histoire de moyen :)  


J'ai les moyens, la VR va me couter du nouveau matos.  
(I7 6700 - DDR4 - 980TI) + probablement 2 casques + tapis (en suspend pour le moment).
Avoir les moyens ne signifie pas avoir l'envie.
 
4K c'est a peine du 60Hz (pas de 3D même passive) souvent en 3 voir 5 ms avec au minimum 28" de diagonal qui n'est pas forcément très agréable (préfère plus petit).
Y'a qu'une minorité de jeux qui la supporte et même avec des bons GPU y'a des problèmes.
Les écrans ont baissé depuis 6 mois, mais au delà du prix, visuellement y'a surtout rien qui les justifie vraiment. Même pas pour les films.
Et entre un 1440P G-Sync 120 Hz et un 4k 60Hz, y'a donc pas photo sur le choix en Gaming.
 

Wirmish a écrit :


Mais AMD n'a plus d'argent.


Ils ont le marché de 3 consoles... Y branle quoi ?


Message édité par Vodka-Chartreuse le 25-06-2015 à 09:58:40
n°9534687
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-06-2015 à 02:24:52  profilanswer
0Votes positifs
 

Vodka-Chartreuse a écrit :

Non, là c'est de l'ignorance avec interprétation.
Mais expliquez moi ? Si la HBM appartient a AMD et non a Hynix, pourquoi laisse t-il le concurrent s'en servir pour qu’il les violent avec l'année suivante ???
Pourquoi ne pas se la garder ???


Simple.

 

AMD fait la conception, mais c'est Hynix qui produit la HBM.
Hynix est là pour faire du profit. Ce n'est pas une âme charitable.

 

AMD aurait pu se réserver la HMB pour l'éternité, mais vu le faible nombre de cartes qu'il vend, la production n'aurait pas été rentable pour
Hynix. Bien sûr, si AMD avait offert une compensation monétaire, Hynix aurait pu attendre 2 ou 3 ans avant de permettre aux concurrents de se procurer de la HBM. Sauf que justement, AMD n'a pas le fric nécessaire. Hynix a quand même été bon joueur et a donné 1 an d'exclusivité à AMD.

 

Avec l'arrivée de nVidia l'année prochaine, Hynix pourra multiplier ses ventes par quatre, juste avec le haut de gamme. Ce qui remplira ses chaînes de production et lui permettra de les rentabiliser.

Message cité 2 fois
Message édité par Wirmish le 25-06-2015 à 02:25:58
n°9534691
Vodka-Char​treuse
Posté le 25-06-2015 à 02:28:40  profilanswer
0Votes positifs
 


Donc ça n'appartient absolument pas a AMD.
Au mieux c'est une CO-Appartenance.  
Si toute fois AMD touche des dividendes/Royalties sur les ventes, ce qui, au vue de tes dires ne semble même pas certain.


Message édité par Vodka-Chartreuse le 25-06-2015 à 10:02:55
n°9534694
Yeagermach​42
Posté le 25-06-2015 à 02:33:31  profilanswer
0Votes positifs
 

Wirmish a écrit :


Simple.
 
AMD fait la conception, mais c'est Hynix qui produit la HBM.
Hynix est là pour faire du profit. Ce n'est pas une âme charitable.
 
AMD aurait pu se réserver la HMB pour l'éternité, mais vu le faible nombre de cartes qu'il vend, la production n'aurait pas été rentable pour  
Hynix. Bien sûr, si AMD avait offert une compensation monétaire, Hynix aurait pu attendre 2 ou 3 ans avant de permettre aux concurrents de se procurer de la HBM. Sauf que justement, AMD n'a pas le fric nécessaire. Hynix a quand même été bon joueur et a donné 1 an d'exclusivité à AMD.
 
Avec l'arrivée de nVidia l'année prochaine, Hynix pourra multiplier ses ventes par quatre, juste avec le haut de gamme. Ce qui remplira ses chaînes de production et lui permettra de les rentabiliser.


Ça permet aussi d'éviter qu'il y ait deux sortes de mémoires différentes, les assembleurs apprécient cela.

n°9534695
MrPlus
Posté le 25-06-2015 à 02:33:45  profilanswer
2Votes positifs
 

Toutes ces discussions oublient qu'Nvidia a eu des plombes pour sortir des drivers optimise pour les differentes variantes Maxwell. AMD, qui, soyont honete, n'est deja pas au top du top avec les drivers, se fait juger ici sur du software qui est probablement presque (ou carrement) beta...
 
Bref, il sera interesent de revisiter tout ca dans 3 mois. Perso, je pense plutot prendre une p'tit R9 290 au rabait de toute facon. Ce sera largement suffisent pour mes besoins.

n°9534697
gils04
le soleil du sud !
Posté le 25-06-2015 à 02:38:33  profilanswer
1Votes positifs
 


j'attends la Nano :D mais vu  mes moyens une 380 itx ira bien pour les miens :D , il me reste juste 100 000 boules à payer à mon banquier :D

n°9534724
ockiller
Posté le 25-06-2015 à 07:18:40  profilanswer
0Votes positifs
 

MrPlus a écrit :

Toutes ces discussions oublient qu'Nvidia a eu des plombes pour sortir des drivers optimise pour les differentes variantes Maxwell. AMD, qui, soyont honete, n'est deja pas au top du top avec les drivers, se fait juger ici sur du software qui est probablement presque (ou carrement) beta...
 
Bref, il sera interesent de revisiter tout ca dans 3 mois.


En même temps ils n'ont pas attaqué le pilote la semaine où la carte est sortie. De plus pour un GPU GCN 1.2 ils se sont déjà fait la main avec Tonga. La HBM ? Je ne vois pas en quoi il faudrait forcer pour l'exploiter efficacement, il y a de la bande passante en excès et les 4 Go sont suffisants actuellement.

n°9534726
Triple-Nax
Demi-Core Atom + HT
Posté le 25-06-2015 à 07:50:47  profilanswer
0Votes positifs
 

Pourquoi ne pas avoir sorti directement la Fury X2, AMD aurait repris la première place peu importe la manière et le prix. Il n'est pas normal de ne pas battre clairement la GTX980TI/Titan X avec autant de retard et cela est d'autant plus inquietant pour l'avenir ...
 
Une fois de plus AMD va jouer sur le levier prix, c'est bon pour nous mais certainement pas pour l'avenir d'AMD. A moins qu'ils jouent le levier rareté de la carte ...

n°9534739
bossamiral​2
Ctrl+Alt+Del
Posté le 25-06-2015 à 08:22:30  profilanswer
0Votes positifs
 

J'ai juste une question AMD n'a pas intégré une fonctionnalité de limitation du nombre de fps a partir d'un certain niveau pour réduire la consommation de sa puce ?

n°9534762
lulu1980
Posté le 25-06-2015 à 09:04:04  profilanswer
1Votes positifs
 

Il serait intéressant que cette carte soit vendue avec juste un waterblock pour ceux qui possèdent déjà un watercooling, cela permettrait peut être un tarif un peu plus bas et bien sur un meilleure refroidissement.

n°9534766
Gigathlon
Quad-neurones natif
Posté le 25-06-2015 à 09:09:46  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

Quand je vois que la GTX 980 G1 est vraiment pas loin de la Fury-X (important le X pour la comm' ces derniers temps...) en 1440p avec ses 400mm², son bus 256-bit GDDR5 et qui consomme 30% de moins, je me dis qu'il y a quelque chose qui va pas du tout  [:cyber-solaris]


Je serais curieux de voir les chiffres de conso du WC, en fait... :o

n°9534771
It_Connexi​on
Posté le 25-06-2015 à 09:13:27  profilanswer
0Votes positifs
 

Salut Tridam
 
Merci pour ce test, juste une petite erreur dans la phrase suivante  :jap:  
 
Au repos, le R9 Fury X n'est pas la plus discrète. Sa pompe semble fonctionner tout le temps à plein régime et se fait clairement entendre avec produit un bruit strident très agaçant

n°9534774
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 25-06-2015 à 09:16:40  profilanswer
0Votes positifs
 

:jap:

n°9534797
Er1c
Higher is better
Posté le 25-06-2015 à 09:31:24  profilanswer
0Votes positifs
 

Bon ben voilà. La HBM sera très certainement une belle évolution... quand nVidia s'en servira :(

n°9534800
Quarmelite
Posté le 25-06-2015 à 09:33:25  profilanswer
0Votes positifs
 

La HBM est un codéveloppement entre AMD et Hynix, en rien la propriété de l'une des marques. Si personne n'utilise la HBM v1, c'est que cette 1ère version n'est pas assez compétitive, ce qui devrait s'arranger avec la HBM v2. Du coup, on suppose (surement a juste titre) qu'AMD a obtenu un tarif préférentiel pour la HBM, vu que personne d'autre n'en voulait, histoire pour Hynix de se faire la main sur la prod et d'écouler la marchandise.

n°9534841
mazingerz
Posté le 25-06-2015 à 10:02:40  profilanswer
1Votes positifs
 

Vodka-Chartreuse a écrit :


L'intérêt d'un cross ou d'un SLI est aussi de le faire plus tard, quand on trouve la même carte bien moins cher voir en occase.
Une autre méthode pour de l'économie a long terme. Rien ne te dit aussi que je prend cette carte demain a ce tarif de départ !
Mais ce n'est pas bien grave si tu captes pas, tu es visiblement un RAIDIOT, la ou j'ai changer de crèmerie quand c'était justifié.
 


 

Vodka-Chartreuse a écrit :


J'ai était le premier a proposer Guru3D au Fanboy AMD ayant besoin de se rassurer, et j'ai pas parcourut Techpower.
Visiblement tu ne sais pas lire.
 


 

Vodka-Chartreuse a écrit :


Je ne comprend pas, ou est la prouesse ???
Un nouveau Type de RAM ultra Performant, un TDP de 75W supplémentaire réel, et du refroidissement liquide.
Pour moins de perf en 1080/1440P et seulement a peut prêt équivalent en 4K face a du air-cooling en RAM moins performante.
 


 
 
 

Vodka-Chartreuse a écrit :


Non, là c'est de l'ignorance avec interprétation.
Mais expliquez moi ? Si la HBM appartient a AMD et non a Hynix, pourquoi laisse t-il le concurrent s'en servir pour qu’il les viole avec l'année suivante ???
Pourquoi ne pas se la garder ???


 
 
mdr  
plus tard cool t'aura la carte a 350€ dans 2 ans  
 
et une alim a 100€ qui dure 10 ans trop cher pour toi
 
sérieux arrête ton char t'es juste complètement ridicule essaye pas de te rattraper au branches
 

n°9534856
Vodka-Char​treuse
Posté le 25-06-2015 à 10:10:16  profilanswer
0Votes positifs
 

mazingerz a écrit :


sérieux arrête ton char t'es juste complètement ridicule essaye pas de te rattraper au branches


Non, j'ai juste une vision de la consommation différente de la tienne.
Mais comme tu es visiblement Pro AMD tu ne captes pas qu'on peut fonctionner différement.
 
Je ne compte pas changer d'Alimentation a chaque fois que je change de matos graphique.
Donc je fais déjà des choix en fonction de ce que j'ai: A savoir 680W depuis des lustres, que je vais encore garder des lustres.
Je change de matos pour la VR, et m’intéresse a ce type de carte pour la VR. (J'ai un Q9650 a l'heure actuel).
 
Je vais donc calibrer mon achat sur un I7 6700 (65W) afin de pouvoir contenir correctement le graphique en sli a terme sans avoir de pross a la ramasse non plus.
La VR sort au mieux en Décembre, si HTC Re-Vive n'a pas de retards, donc entre le délais et les sites export, il y aura moyens de toucher ce genre de carte bien
moins cher.  Qui a dit 500 euros ?!
 
C'est d'ailleurs bien là Qu'AMD intervient/intervenait pour moi.  Soit il avait une carte qui consommait comme d'hab plus, mais qui affichait de vraie performance 10-15% supplémentaire (du a leur révolution de RAM),  et je me lançais avec un I7K et leur carte, soit c'était une demi déconvenue (et pas cet échec) et il servait au moins a baisser les tarif correctement d'ici la fin d'année, comme il l'avait toujours fait.
 
C'est aussi ça avoir les moyens, ne pas dépenser a tord et a travers pour des choses dont tu n'as pas besoin et conserver les bons composant le plus longtemps possible.  
 

bossamiral2 a écrit :

J'ai juste une question AMD n'a pas intégré une fonctionnalité de limitation du nombre de fps a partir d'un certain niveau pour réduire la consommation de sa puce ?


Oui, c'est bien inclus avec les drivers.
Et c'est une excellente fonctionnalité.
Maintenant, sur les jeux lourds, ce pourquoi sont fait ces cartes, ça ne changera pas le problème.
Sauf si tu joues a 30 FPS.. Mais c'est un peu un sacrilège d'avoir un PC et de jouer avec ce framerate infâme.


Message édité par Vodka-Chartreuse le 25-06-2015 à 10:52:36
n°9534876
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 25-06-2015 à 10:22:17  profilanswer
1Votes positifs
 

Vodka-Chartreuse a écrit :


Je ne comprend pas, ou est la prouesse ???
Un nouveau Type de RAM ultra Performant, un TDP de 75W supplémentaire réel, et du refroidissement liquide.
Pour moins de perf en 1080/1440P et seulement a peut prêt équivalent en 4K face a du air-cooling en RAM moins performante.


 
Prouesse technique : HBM, Interposer, c'est une première.
 

Vodka-Chartreuse a écrit :


Non, là c'est de l'ignorance avec interprétation.
Mais expliquez moi ? Si la HBM appartient a AMD et non a Hynix, pourquoi laisse t-il le concurrent s'en servir pour qu’il les viole avec l'année suivante ???
Pourquoi ne pas se la garder ???


 
Personne n'a dit que la HBM appartenait à AMD, et c'est pas la peine d'utiliser des termes du genre viol : d'une part tu ne sais rien du rapport de force de l'an prochain, d'autre part ce terme est dans tous les cas inapproprié.
 
AMD et Hynix ont travaillé main dans la main pour la développer et la proposer en tant que standard au JEDEC, d'ou l'avance d'AMD dans ce domaine. Malheureusement la pratique montre que cet avance n'est pas très utile combinée à un GPU 28nm, cela aurait été probablement différent si on avait eu du 20nm.

n°9534883
cortexzehe​f
Posté le 25-06-2015 à 10:27:16  profilanswer
4Votes positifs
 

C'est beau de voir que les jeux en collabo avec AMD tournent bien sur du nvidia, mais que l'inverse n'est pas vrai...
 
Gameworks! A la trappe! :o

n°9534910
Vodka-Char​treuse
Posté le 25-06-2015 à 10:37:37  profilanswer
0Votes positifs
 

Marc a écrit :


Personne n'a dit que la HBM appartenait à AMD


Je me suis fait remballé quand j'ai dit l’inverse. ^^
 

Marc a écrit :


d'une part tu ne sais rien du rapport de force de l'an prochain


Non, mais sa perspective fait peur.
 
Nvidia est en roue libre au niveau tarif depuis un moment parce que AMD n'arrive pas a suivre au niveau architecture. A la base ça fonctionne mal (moins bien).
Je ne crois pas que le 28nm soit la cause de ce "manque" de performance avec cette RAM. Conclusion logique quand NV fait mieux avec de la "vieille" ram.
Sauf changement fondamental (heureux pour le consommateur) il est bien difficile de voir AMD rebondir le prochain coup.
Pas avec ces finances en berne pour ce permettre de gonfler a fond la RetD.
Concrètement ça commence a sentir/ressembler a la même dérive qu'avec leurs Pross.


Message édité par Vodka-Chartreuse le 25-06-2015 à 10:48:05
n°9534961
cloud1109
Posté le 25-06-2015 à 11:02:42  profilanswer
0Votes positifs
 

vanloque a écrit :

Une MSI R7970 Twin Frozr OC "Boost Edition" 3 Go achetée en solde à 250€ le 26 Septembre 2013, et peu après je me disais que j'allais rapidement regretter avec l'arrivée de cartes AMD aux meilleurs rendements....   :lol: :lol:
 
:sweat:


 
Pareil... Une MSI R7970 Twin Frozr OC BE achetée en octobre 2013 a 220€ sur LDLC... :o
Dire que bientôt deux ans après, il n'y a toujours pas vraiment de carte avec un meilleur rapport perfs/prix  :sweat:  :sweat:  
 
ça n'évolue vraiment plus dans le milieu de gamme :/

n°9534962
sasuke87
Posté le 25-06-2015 à 11:04:46  profilanswer
1Votes positifs
 

cortexzehef a écrit :

C'est beau de voir que les jeux en collabo avec AMD tournent bien sur du nvidia, mais que l'inverse n'est pas vrai...
 
Gameworks! A la trappe! :o


Faut dire aussi que les jeux sponsorisés par AMD sont un peu plus vieux, nvidia a eu le temps de bosser ses drivers pour optimiser les perfs sur ces jeux (souvent repris dans les benchmark). Les jeux sponso nvidia sont par contre plus récents, et vu la réactivité d'AMD faut pas s'étonner des perfs actuelles... Mais d'ici quelques mois je pense qu'on est en droit d'espérer quelques gains significatifs dans certains de ces jeux (project car en premier).

n°9534965
sasuke87
Posté le 25-06-2015 à 11:05:48  profilanswer
0Votes positifs
 

cloud1109 a écrit :


 
Pareil... Une MSI R7970 Twin Frozr OC BE achetée en octobre 2013 a 220€ sur LDLC... :o
Dire que bientôt deux ans après, il n'y a toujours pas vraiment de carte avec un meilleur rapport perfs/prix  :sweat:  :sweat:  
 
ça n'évolue vraiment plus dans le milieu de gamme :/


La 290 se rapproche tout doucement de ce prix, mais c'est vrai que ça n'a pas trop bougé  :(

n°9535142
lulu1980
Posté le 25-06-2015 à 12:43:20  profilanswer
1Votes positifs
 

J'adore votre site cependant je reconnais que ce test me laisse un arrière gout désagréable, je viens de lire celui de Tom's Hardware et franchement la conclusion me parait bien plus objective (que ce soit pour las aspects positifs mais aussi négatifs).
Pour moi c'est une belle vitrine avec de l'innovation (malgré leurs moyens limités), pensée pour la 4K, avec un beau travail sur la taille, la conso et la chauffe en comparaison de hawaii. Et qui présage de bonne chose avec une meilleure finesse de gravure.
Par contre effectivement le HDMI 2.0 manque (surtout pour une carte visant la 4k), à voire si un adaptateur DP vers HDMI permet d'obtenir la 4K en 60hz pour l'affichage sur TV. Reste le HDCP pour les amateurs de films qui peut poser problème à l'avenir, il me semble par contre que le HDMI 1.4 peut envoyer de la 4k en 24hz ce qui est suffisant pour les films (pas besoin du 60).

n°9535166
CyberMomo
Posté le 25-06-2015 à 13:01:51  profilanswer
2Votes positifs
 

Merci pour cette excellent dossier qui nous en apprend des tonnes et qui montre combien vous maitrisé le sujet.

n°9535181
ever_over
Posté le 25-06-2015 à 13:09:45  profilanswer
0Votes positifs
 

lulu1980 a écrit :

J'adore votre site cependant je reconnais que ce test me laisse un arrière gout désagréable, je viens de lire celui de Tom's Hardware et franchement la conclusion me parait bien plus objective (que ce soit pour las aspects positifs mais aussi négatifs).
Pour moi c'est une belle vitrine avec de l'innovation (malgré leurs moyens limités), pensée pour la 4K, avec un beau travail sur la taille, la conso et la chauffe en comparaison de hawaii. Et qui présage de bonne chose avec une meilleure finesse de gravure.
Par contre effectivement le HDMI 2.0 manque (surtout pour une carte visant la 4k), à voire si un adaptateur DP vers HDMI permet d'obtenir la 4K en 60hz pour l'affichage sur TV. Reste le HDCP pour les amateurs de films qui peut poser problème à l'avenir, il me semble par contre que le HDMI 1.4 peut envoyer de la 4k en 24hz ce qui est suffisant pour les films (pas besoin du 60).


C'est normal d'observer des différences entre les tests. A chacun de se faire une idée suivant ses références.
- Pour moi, Tom's Hardware et Guru3D ne sont pas des sites de test sérieux. Il y a régulièrement des erreurs et incohérences qui ne sont même pas corrigées alors qu'elles sont grossières.
- Toujours pour moi, les sites de référence sont, HFR, Techreport et Hardocp. Ces 3 sites ont un protocole sérieux avec des orientations complémentaires. HFR pour les FPS moyens, la puissance brute en quelque sorte. Techreport pour les fps min, donc la régularité. Hardocp pour l'aptitude a encaisser les options graphiques, le vécu du joueur.
 
Si on s'interesse à ces 3 références, on s'aperçoit que HFR a été "gentil" avec la Fury. Pour Techreport et Hardocp, la Fury X n'est même pas au niveau d'une 980 en 4K, les fps varient trop, le résultat pour le joueur n'est pas bon.
 
http://techreport.com/review/28513 [...] eviewed/14

Citation :

What's important to note in this context is that these scores aren't just numbers. They mean that you'll generally experience smoother gameplay in 4K with a $499 GeForce GTX 980 than with a $649 Fury X. Our seat-of-the-pants impressions while play-testing confirm it.


 
http://www.hardocp.com/article/201 [...] YvgYIcViUk

Citation :

In terms of gaming performance, the AMD Radeon R9 Fury X seems like better competition for the GeForce GTX 980 4GB video card, rather than the GeForce GTX 980 Ti.


Message édité par ever_over le 25-06-2015 à 13:24:41
n°9535200
bjone
Insert booze to continue
Posté le 25-06-2015 à 13:20:57  profilanswer
0Votes positifs
 

Yopfraize a écrit :


 
Merci pour les explications, ca m'a permis de comprendre pourquoi un deferred ne permet pas de l'AA Hardware, ou alors avec un cout extrêmement fort en GPU Usage.
 
Je ne savais pas que Stalker était en deferred cela dit étant donné qu'il disposait de MSAA, donc ca veut dire qu'à l'époque même en deferred les développeurs n'avaient pas abandonné l'idée d'un MSAA Hardware  :heink:  
 
En revanche il y'a un terme que j'ai pas trop capté dans ton explication : Overhead t'entends par là les ressources GPU utilisées ?


 
L'overhead c'est la notion de coût constant : par exemple sur un deferred ou un tiled renderer sans sources de lumières, il y a un coût constant. (ie le ticket d'entrée est plus élévé, mais les sources de lumières sont beaucoup beaucoup plus cheap que sur le forward).
par exemple: courbes de temps par light suivant la technique: (page 17)
http://bps10.idav.ucdavis.edu/talk [...] _Notes.pdf

n°9535203
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 25-06-2015 à 13:22:11  profilanswer
0Votes positifs
 

Il y a d'ailleurs une chose vraiment bien vue sur le test de Hardware.fr, c'est que pour la mesure thermique, ils ont eu l'excellente idée d'ouvrir la carte, pour s'apercevoir que les composants (dont les vrm) chauffaient vraiment pas mal. Lire http://www.hardware.fr/articles/93 [...] nores.html.
 
Alors que quand je vois les captures thermiques de Guru3D par ex (http://www.guru3d.com/articles_pag [...] ew,12.html), on voit rien de tout cela.
 
Du coup, le gars qui lit que le test de Guru3D, il se dit, cool, chauffe pas du tout cette carte. Je vais pouvoir l'OC à donfe.


Message édité par wgromit le 25-06-2015 à 13:24:26
n°9535204
Darkraver4​6
Posté le 25-06-2015 à 13:22:37  profilanswer
0Votes positifs
 

AMD????? eheheheheh ils oublies! Bon marché mais moins bon!!!

n°9535214
bjone
Insert booze to continue
Posté le 25-06-2015 à 13:27:01  profilanswer
0Votes positifs
 

Wirmish a écrit :


Ouais, je sais que du côté du caméléon les triangles parfaits doivent mesurer 1 pixels de côté. C'est totalement stupide, mais c'est la façon qu'ils ont trouvé pour écraser AMD.
 
http://www.ozone3d.net/public/jegx [...] iangle.jpg <-- À droite on peut voir le triangle parfait... selon nVidia.


 
A mon avis tu cites un truc hors-contexte.
 

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15

Aller à :
Ajouter une réponse
 

Sujets relatifs
sapphire r9 380 nitro sous alimenté?question GPU
[HFR] Focus : MSI Radeon R9 390X Gaming 8 Go en testOptimisation AMD sapphire radeon Hd 7950 3gb OC with boost Batman AK
[HFR] Actu : AMD Catalyst 15.6 Beta pour Batman AK 
Plus de sujets relatifs à : [HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR