Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1898 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Focus : CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 !

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Page Précédente
Auteur Sujet :

[HFR] Focus : CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 !

n°9540311
tridam
Profil : Equipe HardWare.fr
Posté le 29-06-2015 à 21:05:02  profilanswer
2Votes positifs
 

Ayant eu l'opportunité d'avoir deux Radeon R9 Fury X à notre disposition, nous avons bien entendu voulu observer comment elles se comportaient en CrossFire face aux GeForce GTX
Lire la suite ...

mood
Publicité
Posté le 29-06-2015 à 21:05:02  profilanswer
 

n°9540320
Gein
Posté le 29-06-2015 à 21:13:40  profilanswer
0Votes positifs
 

Merci :)

n°9540323
D-Ther
Posté le 29-06-2015 à 21:16:50  profilanswer
1Votes positifs
 

voila qui peut donner un image generale de ce que sera la future carte bi-gpu Fiji
 
d'ailleurs vu le scaling du crossfire, il ne serait pas plus interressant de faire un cross de 390x avec ses 8 go dans le cas ou on s'interresse a cette solution en comparo avec le sli 980ti?


Message édité par D-Ther le 29-06-2015 à 21:28:35
n°9540347
wnorton
Je suis néerlandophone
Posté le 29-06-2015 à 21:40:25  profilanswer
0Votes positifs
 

C'est dommage pour le manque de mémoire, car en cross elle dépote :love:


---------------
Je suis néerlandophone une fois
n°9540352
lulunico06
Posté le 29-06-2015 à 21:41:37  profilanswer
1Votes positifs
 

Un test pour savoir si le pci e limite les cartes c'est possible ?

n°9540370
McNulty
Posté le 29-06-2015 à 21:53:07  profilanswer
1Votes positifs
 

sur TW3 enlever l'AA temporel ne règle pas tout, il y a encore des bugs graphiques visibles ici ou là, par exemple sur des textures métalliques ou sur certaines ombres (qui clignotent façon CRT 60Hz en fin de vie), ou à certains endroits le sol en terre devient comme transparent, enfin c'est largement jouable mais pas parfait.


Message édité par McNulty le 29-06-2015 à 21:53:36
n°9540394
virrius
Le gras c'est la joie
Posté le 29-06-2015 à 22:03:28  profilanswer
1Votes positifs
 

Merci pour le taf Damien ;) j'attend avec impatience, le moment ou on refera le test avec la fury OC (HBM compris) et des drivers potables :)

n°9540395
Z Machine
Fusion is future
Posté le 29-06-2015 à 22:03:33  profilanswer
0Votes positifs
 

Citation :

C'est différent en SLI, Nvidia force la fréquence des deux GPU à se synchroniser au niveau de celui qui souffre le plus, un comportement assez logique dans le cas d'un rendu AFR avec lequel il n'est pas utile qu'un GPU soit plus rapide que l'autre, alors que la consommation peut ainsi être réduite, tout comme la variabilité entre temps de rendu des images.


Je n'ai pas compris le raisonnement  :??:  
 
Si l'on accélère le gpu le plus lent au niveau du plus rapide, on augmente la conso, non ?
 


---------------
http://fr.wikipedia.org/wiki/Z_machine
n°9540420
lulunico06
Posté le 29-06-2015 à 22:17:47  profilanswer
1Votes positifs
 

Z Machine a écrit :

Citation :

C'est différent en SLI, Nvidia force la fréquence des deux GPU à se synchroniser au niveau de celui qui souffre le plus, un comportement assez logique dans le cas d'un rendu AFR avec lequel il n'est pas utile qu'un GPU soit plus rapide que l'autre, alors que la consommation peut ainsi être réduite, tout comme la variabilité entre temps de rendu des images.


Je n'ai pas compris le raisonnement  :??:  
Si l'on accélère le gpu le plus lent au niveau du plus rapide, on augmente la conso, non ?


C'est l'inverse nvidia ralentie le gpu le plus rapide pour être au niveau du plus lent.
Si on le gpu le plus rapide calcule des images en plus pour rien.
ralentir un des 2 gpu réduit la consommation.

n°9540435
Z Machine
Fusion is future
Posté le 29-06-2015 à 22:29:33  profilanswer
0Votes positifs
 

J'ai interprété "le gpu qui souffre le plus" = "le gpu le plus rapide"
Ce serait donc l'inverse ?
 


---------------
http://fr.wikipedia.org/wiki/Z_machine
mood
Publicité
Posté le 29-06-2015 à 22:29:33  profilanswer
 

n°9540443
tridam
Profil : Equipe HardWare.fr
Posté le 29-06-2015 à 22:35:20  profilanswer
1Votes positifs
 

Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost.

 

Ce n'esp pas un offset qui modifie la courbe des freqs/tension, Nvidia limite juste la fréquence max, du coup la conso du gpu plus rapide peut être réduite nettement vu qu'il tournera à une faible tension.

n°9540448
lulu-bleac​h
Posté le 29-06-2015 à 22:36:41  profilanswer
1Votes positifs
 

Je pense qu'il ne faut pas oublier que directX 12 est censé permettre de considérer un système comme celui ci comme une seule et unique carte graphique, et par conséquent une carte de 8Gb HBM, ce qui permettrait à la fury d'encore plus creuser l'écart en crossfire face au SLI de 980Ti, et de ne plus connaitre de limitation de mémoire !

n°9540458
McNulty
Posté le 29-06-2015 à 22:44:30  profilanswer
2Votes positifs
 

lulu-bleach a écrit :

Je pense qu'il ne faut pas oublier que directX 12 est censé permettre de considérer un système comme celui ci comme une seule et unique carte graphique, et par conséquent une carte de 8Gb HBM, ce qui permettrait à la fury d'encore plus creuser l'écart en crossfire face au SLI de 980Ti, et de ne plus connaitre de limitation de mémoire !


 
non, déjà démonté 50 fois cet argument...

n°9540490
lulu-bleac​h
Posté le 29-06-2015 à 23:01:13  profilanswer
0Votes positifs
 

Parlant d'arguments t'as pas l'air d'en avoir McNulty... En revanche si tu peux expliquer pourquoi ça ne serait pas le cas je suis preneur !

n°9540509
esKarGO
Posté le 29-06-2015 à 23:14:32  profilanswer
0Votes positifs
 
n°9540530
D-Ther
Posté le 29-06-2015 à 23:31:54  profilanswer
0Votes positifs
 

excuser moi d'insister, parce que ca m'interresse:

D-Ther a écrit :


d'ailleurs vu le scaling du crossfire, il ne serait pas plus interressant de faire un cross de 390x avec ses 8 go dans le cas ou on s'interresse a cette solution en comparo avec le sli 980ti?


 
meilleurs scaling du cross , pas de limitation de memoire. on devrait se rapprocher des perfs du SLI de 980ti pour un cout bien moindre? (pour du 4k ultra)


Message édité par D-Ther le 29-06-2015 à 23:35:08
n°9540532
Z Machine
Fusion is future
Posté le 29-06-2015 à 23:35:37  profilanswer
0Votes positifs
 

tridam a écrit :

Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost.
 
Ce n'esp pas un offset qui modifie la courbe des freqs/tension, Nvidia limite juste la fréquence max, du coup la conso du gpu plus rapide peut être réduite nettement vu qu'il tournera à une faible tension.


Merci Tridam, c'est clair maintenant  
[:missbt]


---------------
http://fr.wikipedia.org/wiki/Z_machine
n°9540537
gils04
le soleil du sud !
Posté le 29-06-2015 à 23:40:21  profilanswer
0Votes positifs
 


complètement clair , merci pour ce test , ce qui conforte mes pensées :)

n°9540606
Ds9Defiant​1701
Posté le 30-06-2015 à 02:30:04  profilanswer
0Votes positifs
 

C'est possible un test des R9 300 un jour? Ou bien il n'y en aura jamais?

n°9540618
ragondin
Un pote ragondin c'est cool
Posté le 30-06-2015 à 03:06:00  profilanswer
0Votes positifs
 

Ds9Defiant1701 a écrit :

C'est possible un test des R9 300 un jour? Ou bien il n'y en aura jamais?


C'est quoi ca : http://www.hardware.fr/focus/110/m [...] -test.html

n°9540620
marllt2
Posté le 30-06-2015 à 04:05:01  profilanswer
0Votes positifs
 

McNulty a écrit :

non, déjà démonté 50 fois cet argument...


Par tridam par exemple:
http://forum.hardware.fr/hfr/Hardw [...] m#t9477277
 

tridam a écrit :


Sinon concernant l'addition des zones mémoires, en théorie tout est possible. En pratique, il y aura toujours au moins un GPU qui devra contenir toutes les textures. Déporter le post processing, ou une partie de celui-ci, vers un autre GPU pourra peut-être économiser quelques buffers dans la mémoire du GPU principal mais ça ne devrait pas faire de différence énorme au niveau de l'utilisation mémoire de ce dernier.
 
En fait ce qu'il sera surtout possible de faire c'est d'avoir par exemple une carte graphique 8 Go pour le rendu de base (avec le texturing) et une carte graphique 1 Go pour le post processing. Mais je vois mal l'industrie se focaliser sur des solutions aussi spécifiques, d'autant plus que peu de jeux pourront en profiter, surtout au départ. Enfin, à moins qu'AMD et Nvidia ne soient capables de prendre en charge eux-mêmes ce type de rendu en multi-GPU avec des optimisations spécifiques qui "couperaient" à la volée le rendu au bon endroit suivant les GPU utilisés.

n°9540744
lulu1980
Posté le 30-06-2015 à 09:41:19  profilanswer
1Votes positifs
 

Et comparé à une Titan X ça donne quoi? Car les tarifs ne sont pas si éloignés que ça.
Finalement plutôt pas mal le méga flop dont parlaient certains.

n°9540756
ockiller
Posté le 30-06-2015 à 09:51:10  profilanswer
0Votes positifs
 

Ça serait effectivement intéressant de voir comment se comporte les R9 390, d'un côté plus de VRAM et de l'autre plus de watts à dissiper et un refroidissement classique... :)

n°9540765
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 30-06-2015 à 09:58:27  profilanswer
1Votes positifs
 

La Titan X n'a pas d'intérêt face à la 980 Ti, si ce n'est les 12 Go pour des usages spécifiques, dès lors je ne vois pas l'intérêt d'une comparaison.

 

Pour les 390X en CF, logiquement ce sera un peu au-dessus la 295X2 mais sans les soucis liés à la VRAM, après 650-700W de CG dans un boitier hum... :D

 


Message édité par Marc le 30-06-2015 à 10:19:25
n°9540771
thandorsna​kes
Team ExU
Posté le 30-06-2015 à 10:04:37  profilanswer
0Votes positifs
 

il faudra revoir pour la config de tests, c'est pas la bonne:
 
Pour rappel, voici les détails de notre système de test :
 
Intel Core i7 3960X (HT off, Turbo 1/2/3/4/6 cores: 4 GHz)
Asus P9X79 WS
8 Go DDR3 2133 Corsair
Windows 7 64 bits
Pilotes GeForce 353.30 WHQL
Catalyst 15.15beta
 
C'est plutôt le pilote AMD Catalyst™ Display Driver version 15.15.1004 qui a été utilisé.
 
 
Sinon super test et toujours aussi détaillés.


Message édité par thandorsnakes le 30-06-2015 à 10:05:42
n°9540782
D-Ther
Posté le 30-06-2015 à 10:14:35  profilanswer
0Votes positifs
 

Marc a écrit :

Pour les 390X en CF, logiquement ce sera un peu au-dessus la 295X2 mais sans les soucis liés à la VRAM logiquement, après 650-700W de CG dans un boitier hum... :D
 


 
 
C'est pas ca qui gene certains ;)
 
D'ailleurs je suis tombé la dessus  
http://www.tweaktown.com/tweakiped [...] index.html
 
Ensuite faut voir la légitimité des résultats, j'ai juste survolé
(d'ailleurs, zarb ils comparent meme pas a un sli....)

Message cité 1 fois
Message édité par D-Ther le 30-06-2015 à 10:38:45
n°9540795
Noim
pwnd
Posté le 30-06-2015 à 10:26:33  profilanswer
2Votes positifs
 

lulu1980 a écrit :

Et comparé à une Titan X ça donne quoi? Car les tarifs ne sont pas si éloignés que ça.
Finalement plutôt pas mal le méga flop dont parlaient certains.


Le flop (qui n'en est pas un d'ailleurs, juste un fiasco comm) concerne déjà ceux qui pourraient se laisser aller à payer leur CG dans les 700€. S'il faut doubler cette somme pour effacer le "méga flop", on a dépassé le marché de niche, on est carrément dans le marché interstitiel.

n°9540831
Jerry_Cbn
Posté le 30-06-2015 à 10:53:08  profilanswer
6Votes positifs
 

En résumé, cette R9 Fuxy X est une excellente carte, tout comme la GTX 980 Ti ...
AMD et nVidia sont donc au coude à coude.. comme bien souvent.

n°9540841
Tetedepioc​he
Posté le 30-06-2015 à 10:57:36  profilanswer
0Votes positifs
 

Je suis curieux, quel est le volume de Fury X qui seront distribuées?
 
Pace qu'en fait on parles d'un carte qui n'est même pas disponible ou en stock très faible (chez LDLC la saphire stock : 1 pièce ...)

n°9540865
edtech
Posté le 30-06-2015 à 11:17:19  profilanswer
0Votes positifs
 

La mienne est en cours d'acheminement, hâte de tester la bête :)

n°9540869
Invite_Sur​prise
Racaille de Shanghaï
Posté le 30-06-2015 à 11:19:28  profilanswer
0Votes positifs
 

Merci Damien pour ce focus !

n°9540902
kimujix
Posté le 30-06-2015 à 11:33:16  profilanswer
0Votes positifs
 

D-Ther a écrit :


 
 
C'est pas ca qui gene certains ;)
 
D'ailleurs je suis tombé la dessus  
http://www.tweaktown.com/tweakiped [...] index.html
 
Ensuite faut voir la légitimité des résultats, j'ai juste survolé
(d'ailleurs, zarb ils comparent meme pas a un sli....)


760W sous BF4 avec des pointes à 805... j'ose pas imagine combien ça peut donner avec Anno 2070. :lol:

n°9540906
greenboro
Posté le 30-06-2015 à 11:34:27  profilanswer
0Votes positifs
 

@ Tridam, j'ai une question à propos du scaling en multi-gpu et ceci dans une perspective non-gamer mais plus en terme de puissance brut en calcul brut en GPGPU et en me basant notamment sur cet article :
http://www.tomshardware.fr/article [...] 56669.html
 
et plus précisément  sur ce passage : "Passer d’une à deux cartes accroît les performances de 82 %. Passer à trois cartes offre 50 % de performances en plus, contre seulement 30 % lorsque l’on installe la quatrième, selon les tests de l’ingénieur."
 
Si je prends une base 100 pour une carte, 2 cartes donnent 180. 50% de 180 produisent 90, ce qui fait donc 270. 30% de 270 font 90 ce qui va faire 360 avec 4 cartes. la progression est bien linéaire, non ?
 
En tout cas, c'est vraiment regrettable ces problèmes de bruit avec les pompes. On a l'impression qu'il n'existe pas de suivi d'un produit de A à Z chez AMD.


Message édité par greenboro le 30-06-2015 à 11:34:53
n°9540908
armandrayn​al
Posté le 30-06-2015 à 11:35:28  profilanswer
1Votes positifs
 

"AMD nous a indiqué que son approche prioritaire était de travailler avec les développeurs pour s'assurer d'un comportement plus efficace de leurs jeux vis-à-vis de l'utilisation mémoire. Une approche idéale mais qui peut avoir ses limites si tous n'acceptent pas de faire des efforts."
 
D'autant plus qu'ils ne peuvent pas traiter tous les jeux qui sortent, y'en a juste trop. Ils drevront laisser de cote les indes je pense. Ou alors ils feront l'opti directement sur les moteurs très populaires(Unreal Engine, cryEngine, Unity, Source ?) et indépendamment les AAA avec des moteurs maison.
Mais je vois ca peu probable.
 
En tout cas AMD a fait du chemin sur son CrossFire. On est loin du lancement de la 7990. Moins de memoire, moins balese que la concurrence en 1vs1, et pourtant une moyenne notablement plus haute en CF 4K, meme avec des jeux vraiment pas en leur faveur. Chapeau bas.

n°9540922
lapin
Posté le 30-06-2015 à 11:42:49  profilanswer
0Votes positifs
 

@greenboro, si tu veut faire du GPGPU utilise deux R9 390X, surtout en double précision c'est plus performants.

n°9540933
Gilbert Go​sseyn
Dr Liara T'Soni
Posté le 30-06-2015 à 11:47:05  profilanswer
0Votes positifs
 

Question : une Radeon FuryX consomme combien sur le rail +12V (PCI-E) ? Et une Radeon 290(X) ?

 

Ma Seasonic M12II 82+ - 620W pourrait-elle passer avec l'une de ces cartes ? (pas de CFx pour moi et je jouerai en 1080p)


Message édité par Gilbert Gosseyn le 30-06-2015 à 11:47:14

---------------
Tant que la couleur de la peau sera plus importante que celle des yeux, nous ne connaitrons pas la paix. ● L'écriture, c'est la mémoire du futur. ● Mods FO4
n°9540947
vincezebos​s
Posté le 30-06-2015 à 11:51:34  profilanswer
0Votes positifs
 

Je trouve que l'augmentation des prix de AMD n'est pas justifiée, la r9 fury coûte 750 euros ! , soit 150 euros plus cher qu'une Bonne gtx 980 (on peut aller jusqu'à 550 euros), De plus, avec un crossfire de Fury, vaut mieux préparer la 2000 watts platinum x)


Message édité par vincezeboss le 30-06-2015 à 11:53:53
n°9540949
lapin
Posté le 30-06-2015 à 11:53:02  profilanswer
0Votes positifs
 

Je crois que la r9 fury x consomme un peux plus, http://www.hardware.fr/articles/93 [...] tique.html
 
Jusqu'à 301 watts sur le deuxième sample.

n°9540956
Xixou2
Posté le 30-06-2015 à 11:58:30  profilanswer
0Votes positifs
 

Si il y a une table de clocking et tension qui va avec dans le bios titan x ou 980  

tridam a écrit :

Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost.
 
Ce n'esp pas un offset qui modifie la courbe des freqs/tension, Nvidia limite juste la fréquence max, du coup la conso du gpu plus rapide peut être réduite nettement vu qu'il tournera à une faible tension.


Message édité par Xixou2 le 30-06-2015 à 11:59:27
n°9540975
Gilbert Go​sseyn
Dr Liara T'Soni
Posté le 30-06-2015 à 12:19:04  profilanswer
0Votes positifs
 

lapin a écrit :

Je crois que la r9 fury x consomme un peux plus, http://www.hardware.fr/articles/93 [...] tique.html
 
Jusqu'à 301 watts sur le deuxième sample.


Malheureusement, cela ne me donne pas l'ampérage nécessaire sur les rails PCI-E des alims (la mienne serai normalement dotée de deux rails 24A). Si ça demande plus, je serai obligé de changer d'alim, chose qui je me réjouierai pas des masses ...


---------------
Tant que la couleur de la peau sera plus importante que celle des yeux, nous ne connaitrons pas la paix. ● L'écriture, c'est la mémoire du futur. ● Mods FO4
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Focus : CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 !

 

Sujets relatifs
La nouvelle Radeon r9 390 ou la GeForce GTX 970Idle clock instable R9 FuryX
R9 380 4go ?Différence SODIMM et Hyper-X Impact ?
Choix de carte graphique : GTX 970 ou R9 290x (ou R 390)?Asus ROG Matrix ou Asus Radeon ?
Alim de 460W gold suffisante pour R9 270X dual ?[HFR] Dossier : Celeron N3150 et Pentium N3700 : Braswell en test
Plus de sujets relatifs à : [HFR] Focus : CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR