Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1075 connectés 

 

 

Vous avez :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  330  331  332  ..  399  400  401  402  403  404
Auteur Sujet :

[Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)

n°9661218
aliss
Rhyme the Rhyme Well
Posté le 19-11-2015 à 10:45:27  profilanswer
 

Reprise du message précédent :

dasan63 a écrit :

Merci aliss,

 

petit souci avec le fofo je voyais pas mon post donc doublon.

 

J'ai pas dit que je ne jouais plus et ne jouerais jamai plus, juste que j'ai pas trop de temps ces derniers mois. Mais on rentre dans l'hiver et j'aurais plus de temps.

 

Pas de soucis.

 

Je ne suis pas emballé par la carte bi-gpu prévue, essentiellement par sa quantité de vram embarquée que je trouve légère (ceci dans l'optique d'un achat à long terme).

 

Evidemment, sous dx12 la gestion de la vram en multi-gpu pourra être amélorée mais ça reste au bon vouloir des développeurs et j'avoue ne pas leur faire extrêmement confiance lorsque il s'agit d'optimisations ne touchant qu'un maigre éventail de clients.

 

Si tu es pressé, je te conseille te te tourner vers une Fury dans un premier temps, quitte à en prendre une seconde si tu estimes en avoir besoin.

 

Si tu as le temps, la prochaine génération risque d'être bien plus intéressante.


Message édité par aliss le 19-11-2015 à 10:46:18
mood
Publicité
Posté le 19-11-2015 à 10:45:27  profilanswer
 

n°9661226
dasan63
Posté le 19-11-2015 à 10:52:32  profilanswer
 

Merci,
 
En fait c'est pas une question de temps. Y a aucune urgence je peu patienter encore jusqu'aux fêtes et la sortie de la x2. Pour la 295x2 qu'on ne trouve plus qu'en occase, et pas a moins de 500 600. Soin architecture ne sera pas maintenue (drivers) aussi longtemps, plus gourmande et surtout 500 600 pour de l'occase non merci. L'interet des furyx et x2  vient de l'excellente gestion de la temp. Même le coté nuisance sonore ne me gène pas (casque et une piece qui m'est entierement dédiée au fond de la maison).

n°9661235
Zurkum
Posté le 19-11-2015 à 10:58:09  profilanswer
 

Une Fury X c'est déjà énorme en perf hein :)

n°9661240
dasan63
Posté le 19-11-2015 à 11:00:32  profilanswer
 

Surement mais comme les avis client sont rare sur les sites marchands, ca m'inquiète un peu.

n°9661243
Zurkum
Posté le 19-11-2015 à 11:03:04  profilanswer
 

En gros c'est assez proche des GTX980Ti quand tu as beaucoup de pixels à afficher

n°9661250
dasan63
Posté le 19-11-2015 à 11:06:08  profilanswer
 

je te remercie pour tes réponses. Mais la grosse question reste:
 
FURY x2 (gemini) ca passera sur du pcie-2.0 ? ou ca risque de bottleneck ?

n°9661251
aliss
Rhyme the Rhyme Well
Posté le 19-11-2015 à 11:06:19  profilanswer
 

Le premier lot souffrait d'un défaut de pompe et la Fury X ne bénéficie pas vraiment d'un rapport prix/perf réellement supérieur à la concurrence.

 

Ca explique en partie les faibles ventes mais ça reste néanmoins de bonnes cartes.

 

Tu pourras trouver des feedback d'utilisateurs ici,

 

http://www.overclock.net/t/1547314 [...] wners-club

 

En théorie, la Gemini ne devrait pas être impactée grâce à sa puce PLX, en outre ta carte mère est capable de gèrer suffisament de lignes pci-e pour 2 cartes en pci 2.0 x16, ce qui ne pose pas de problème avec Fiji.

 


Message édité par aliss le 19-11-2015 à 11:09:19
n°9661256
dasan63
Posté le 19-11-2015 à 11:10:22  profilanswer
 

Merci je vais aller voir ca et apres faut que je me bouge un peu ce matin, je repasserai ce soir pour voir a plus.

n°9662615
Activation
21:9 kill Surround Gaming
Posté le 20-11-2015 à 21:14:13  profilanswer
 

Ma meconnaissance de linux (enfin pour pas dire que j'y trouve aucun intérèt :o )
 
C'est vraiment bien géré le bigpu sous nux ????
Nop car j'ai l'impression que des windowsiens répondent à un linuxien de comment ça 'pourrait marcher'  :D
 
Je dis ça.... Vu que j'ai pas forcément vu des voleur de alienware,  asus , etc... Essayer de nous refourguer des steambox bigpu


Message édité par Activation le 20-11-2015 à 21:16:20
n°9663853
dasan63
Posté le 22-11-2015 à 11:46:53  profilanswer
 

Salut activation,

 

AMD a fait et en fera plus pour linux que n'en fera jamais nvidia. Question de mentalité. Le bi gpu était apparemment pas mal supporté avec les r9 295x2. Après cela dépends surtout pour quoi faire. Pour les jeux c'est au bon vouloir des devs. Pour le reste je pense pas qu'il y a aura de pb.

 

Pour moi qui fait tout sous nux, même jouer lorsque c'est possible, l'interet est certain.

 

Le principal intérêt de linux c'est avant tout de ne pas être otage des formats propriétaires.

 

Mais bon mon post n'était pas là pour lancer un nouveau troll sur W vs linux. Juste pour savoir si ma CM msi 990fxa gd80 avec seulement du pcie-2.0 pourrait supporter une fury x2. pour une r9 295x2 ca m'inquiétait pas trop, mais avec 2 gpu en hbm j'ai un doute naturel.

 

Je n'ai pas posé de question sur un OS mais sur du hardware

 


Message édité par dasan63 le 22-11-2015 à 11:51:08
mood
Publicité
Posté le 22-11-2015 à 11:46:53  profilanswer
 

n°9664032
Activation
21:9 kill Surround Gaming
Posté le 22-11-2015 à 16:02:59  profilanswer
 

j'avais bien compris, et c'est justement là dessus que je m'interroge, est ce bien prit en charge le bi (ou tri ou quad) gpu en opengl
 
nop car la dernière fois que j'ai participé au dev d'un jeu qui utilisait opengl ça date de 1999 (autant dire que c'est très vieux, j'ai plus touché à opengl depuis... putain 16ans :o )
 
autant dire qu'à l'époque on avait soit une geforce 256, soit une rage 128 pro
et limite personne s'achetait une rage fury max
 
y avait de vague souvenir possibilité de coupler 2 voodoo de 3Dfx  mais tu utilisait le glide pour ça
 
donc autant dire que je me suis jamais pencher sur la faculter de opengl à bien gérer le multigpu
et vu que de toute façon d'avenir il faudra utiliser "vulkan" qui fait table rase et repart d'une copie propre et n'utilise plus les base de opengl


Message édité par Activation le 22-11-2015 à 16:04:18
n°9664283
AMD Powere​d
My Topal Burn The Fp
Posté le 22-11-2015 à 21:40:38  profilanswer
 

Salut all :)

 


dites moi sur une fury x sapphire, est-ce que le démontage du capot+autocollant couvrant la pompe pour en vérifier la version fait sauter la garantie chez sapphire ?

 

Merci d'avance

 

capture de l'autocollant :

 

http://image.noelshack.com/minis/2015/47/1448230328-image2.png

Message cité 1 fois
Message édité par AMD Powered le 22-11-2015 à 23:12:17

---------------
F€€D-B@cK 392 Transac   En 2x je te rendrais ce que tu me fais chier   ACH/ECH Hardware
n°9664352
Mini_BN
Le Goujat est un fromage !
Posté le 22-11-2015 à 23:40:49  profilanswer
 

Bah, c'est pas marqué "warranty avoid if removed" ?
 
Si c'est pas marqué, tu peux le gicler.


---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
n°9664361
gils04
le soleil du sud !
Posté le 22-11-2015 à 23:53:12  profilanswer
 

:ouch:  
 
c'est rustique vu de près  "honteux bidouillage" attention quand même , ça fait office de cachet , tu peux décoller le papier proprement ?

n°9664381
tridam
Profil : Equipe HardWare.fr
Posté le 23-11-2015 à 01:11:36  profilanswer
 

AMD Powered a écrit :

Salut all :)
 
 
dites moi sur une fury x sapphire, est-ce que le démontage du capot+autocollant couvrant la pompe pour en vérifier la version fait sauter la garantie chez sapphire ?
 
Merci d'avance
 
capture de l'autocollant :
 
http://image.noelshack.com/minis/2 [...] image2.png


 
Euh cet autocollant c'est un film de protection qu'il faut enlever en fait :D

n°9664403
darkandy
?
Posté le 23-11-2015 à 03:24:07  profilanswer
 

tridam a écrit :


 
Euh cet autocollant c'est un film de protection qu'il faut enlever en fait :D


 
 
+1000000


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9664410
plamet
Posté le 23-11-2015 à 04:55:47  profilanswer
 

pourquoi il ne cherche pas une solution à fin de réduire la consommation en RAM? sa coûterait moins cher à produire des cartes non? car bon 6 go de RAM alors qu'on est en 2015 ils devrait mieux bosser sur la compression. coquegsm.com

Message cité 1 fois
Message édité par plamet le 26-11-2015 à 10:36:10
n°9664711
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 23-11-2015 à 09:17:16  profilanswer
 

Space vs Time.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°9665112
havoc_28
Posté le 23-11-2015 à 14:18:53  profilanswer
 

plamet a écrit :

pourquoi il ne cherche pas une solution à fin de réduire la consommation en RAM? sa coûterait moins cher à produire des cartes non? car bon 6 go de RAM alors qu'on est en 2015 ils devrait mieux bosser sur la compression.


 
Nvidia et AMD l'ont déjà fait ... Tonga et le GM206 ont introduit de nouveau algorithme améliorant la compression sans perte du frame buffer .
 

Citation :

Pour éviter d'être trop limité par le bus mémoire relativement étroit des GM204/GM206, et la bande passante qui y est liée, Nvidia a amélioré quelque peu ses techniques de compression sans perte du framebuffer. Plus spécifiquement, c'est le codage différentiel pour les couleurs, également appelé compression delta, qui progresse, exactement comme l'a fait AMD avec Tonga.
 
Le principe de base consiste à ne pas enregistrer directement la couleur mais sa différence par rapport à une autre qui fait office de repère. Ce n'est bien entendu utile que quand l'écart entre deux couleurs est suffisamment faible, de manière à ce que cette information représente moins de bits que la couleur en elle-même. Ce type d'approche est exploitée depuis plusieurs générations de GPU mais les nouvelles puces Maxwell profitent d'un algorithme plus flexible, capable de profiter de cette compression dans plus de cas.


 
Bref ils essaient d'améliorer les compressions couleurs / textures etc au fil des générations mais bon ça ne compense quand même pas l'augmentation des ressources demander par des jeux de plus en plus gourmands etc .


Message édité par havoc_28 le 23-11-2015 à 14:20:09
n°9665124
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 23-11-2015 à 14:27:49  profilanswer
 

Ça c'est pour le débit, pas le stockage.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°9665129
havoc_28
Posté le 23-11-2015 à 14:29:44  profilanswer
 

Meilleur compression : moins de places ça aide selon moi dans les deux cas .

n°9665138
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 23-11-2015 à 14:38:18  profilanswer
 

havoc_28 a écrit :

Meilleur compression : moins de places ça aide selon moi dans les deux cas .


 
Le framebuffer final est non compressé, c'est ce qu'il faut y écrire qui est compressé.
La compression étant différentiel, il doit forcément y avoir la référence quelque part.
Les compressions sur les élements statiques (Framebuffers, textures) existent depuis longtemps (S3TC)


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°9665155
havoc_28
Posté le 23-11-2015 à 15:04:41  profilanswer
 

darkstalker a écrit :


 
Le framebuffer final est non compressé, c'est ce qu'il faut y écrire qui est compressé.
La compression étant différentiel, il doit forcément y avoir la référence quelque part.
Les compressions sur les élements statiques (Framebuffers, textures) existent depuis longtemps (S3TC)


 
Hum effectivement , dans tous les cas mêmes s'ils arrivaient à developper de nouveau algorythme de compression ils ne feraient que retarder inéluctable besoin d'augmenter la quantité de VRAM pour les gpu .

n°9665160
aliss
Rhyme the Rhyme Well
Posté le 23-11-2015 à 15:17:17  profilanswer
 

Etant donné qu'avec la 380x ils n'ont fait que réactiver les CU, ils ont encore la possibilité de sortir Tonga dans sa version "full" avec un bus 384bit/6go d'ici quelques mois.

 

Message cité 1 fois
Message édité par aliss le 23-11-2015 à 15:21:32
n°9665163
havoc_28
Posté le 23-11-2015 à 15:21:39  profilanswer
 

aliss a écrit :

Etant donné qu'avec la 380x ils n'ont fait que réactiver les CU, ils ont encore la possibilité de sortir Tonga dans sa version "full" avec un bus 384bit d'ici quelques mois.
 
 


 
Faudrait déjà qu'il y est réellement 384 bits sur Tonga : / . Et dans 5/9 mois y aura le 16/14 nm . Je pense de plus en plus que Tonga n'avait bien qu'un bus 256 bits , dans les produits apples utilisant une base Tonga actuellement il n'y a rien avec 3/6 go de ram .


Message édité par havoc_28 le 23-11-2015 à 15:24:48
n°9665164
aliss
Rhyme the Rhyme Well
Posté le 23-11-2015 à 15:26:03  profilanswer
 

C'est ce que semble assez clairement indiquer Tridam dans sa preview (bus 384bit bridé).
 
Toute la question est de savoir si le full gpu verra le jour et pour quelle raison AMD ne l'a pas utilisé pour cette 380x, elle aurait eu plus d'intérêt.


Message édité par aliss le 23-11-2015 à 15:26:27
n°9665202
tridam
Profil : Equipe HardWare.fr
Posté le 23-11-2015 à 16:05:58  profilanswer
 

Ce que me dit AMD me laisse penser qu'il y aurait bien un bus 384-bit mais que pour des raisons commerciales ils auraient préféré opter pour 256-bit et 4 Go plutôt que pour 384-bit et 3 Go (bouh c'est nul) ou que pour 384-bit et 6 Go (trop cher).
 
Après il faut aussi observer que Tonga en 256-bit consomme presqu'autant que Tahiti en 384-bit. Tonga consomme un peu moins dans Anno qui charge bcp le GPU mais un peu plus dans BF4 avec MSAA4x qui charge beaucoup plus le bus. Ce n'est pas impossible que l'interface GDDR5 soit très gourmande sur Tonga (qui utilise une autre variante du process 28nm, comme Fiji mais qui n'a pas ce type d'interface), et qu'AMD ait dû se contenter de 256-bit pour ne pas faire exploser l'enveloppe thermique ou devoir réduire la fréquence GPU pour compenser (elle l'est déjà légèrement même comme ça).

Message cité 1 fois
Message édité par tridam le 23-11-2015 à 16:06:33
n°9665221
havoc_28
Posté le 23-11-2015 à 16:28:45  profilanswer
 

tridam a écrit :

Ce que me dit AMD me laisse penser qu'il y aurait bien un bus 384-bit mais que pour des raisons commerciales ils auraient préféré opter pour 256-bit et 4 Go plutôt que pour 384-bit et 3 Go (bouh c'est nul) ou que pour 384-bit et 6 Go (trop cher).
 
Après il faut aussi observer que Tonga en 256-bit consomme presqu'autant que Tahiti en 384-bit. Tonga consomme un peu moins dans Anno qui charge bcp le GPU mais un peu plus dans BF4 avec MSAA4x qui charge beaucoup plus le bus. Ce n'est pas impossible que l'interface GDDR5 soit très gourmande sur Tonga (qui utilise une autre variante du process 28nm, comme Fiji mais qui n'a pas ce type d'interface), et qu'AMD ait dû se contenter de 256-bit pour ne pas faire exploser l'enveloppe thermique ou devoir réduire la fréquence GPU pour compenser (elle l'est déjà légèrement même comme ça).


 
C'est à marcher sur la tête , l'ancien process n'est plus disponible chez TSMC ? Car si c'est pour changer de process et faire pire , je ne vois pas bien l’intérêt : / .
Et de la GDDR 5 à 1250 mhz n'aurait pas non plus aider à contenir l'explosion du dégagement thermique ?  
 

n°9665234
tridam
Profil : Equipe HardWare.fr
Posté le 23-11-2015 à 16:37:59  profilanswer
 

Fiji et Tonga sont fabriqués en HPm censé offrir un meilleur compromis perfs/conso. Le reste ce ne sont que des spéculations ;)
 
Les chiffres qui me font spéculer dans ce sens sous BF4 1080p Ultra (MSAA 4x) :
 
R9 380X Nitro (1040/1500) : 52.3 fps / 173W
R9 280X DCU2 (1000/1500) : 55.4 fps / 160W
 
Après il n'y a qu'une carte de chaque testée donc ça vaut ce que ça vaut ;)


Message édité par tridam le 23-11-2015 à 16:46:26
n°9665330
AMD Powere​d
My Topal Burn The Fp
Posté le 23-11-2015 à 18:02:18  profilanswer
 

merci pour vos réponses :D


---------------
F€€D-B@cK 392 Transac   En 2x je te rendrais ce que tu me fais chier   ACH/ECH Hardware
n°9667427
genom
urinam non decolor unda
Posté le 26-11-2015 à 06:53:07  profilanswer
 

l'adaptateur DP 1.2 vers Hdmi 2.0 tant attendu est là, pas si cher finalement 35$ HT...  :D  
 
http://www.guru3d.com/index.php?ct=news&action=file&id=12977
 
http://www.guru3d.com/news-story/c [...] 60-hz.html

n°9667463
Zurkum
Posté le 26-11-2015 à 09:03:12  profilanswer
 

Sinon on achète une 950 :whistle:

n°9667604
mazingerz
Posté le 26-11-2015 à 11:58:04  profilanswer
 

très bien une 950 pour jouer en 4K :pt1cable:

n°9667615
lapin
Posté le 26-11-2015 à 12:11:31  profilanswer
 

question stupide, qu'est ce qui empêche à part l'argent et le manque de connecteur PCI-express, de mettre par exemple une Fury X et un Geforce GTX 950, en suite de dire que même si c'est la Fury X qui fait tous les calcul exécuter les jeux et les applications sur la fury X y compris vidéo et audio et décodage Hardware HEVC d'en suite envoyer le tous via le Port PCI-Express vers la Geforce GTX 950 qui elle s'occupera de tout envoyer en HDMI 2.0 et HDCP 2.2 à la TV ou l'ampli HomeCinéma !!!?
 
bon c'est complexe et pas donner, m'enfin techniquement c'est faisable.
 
en fait dans se cas la la Geforce GTX 950 ne sert que de HUB HDMI ou d'adaptateur vidéo.

Message cité 1 fois
Message édité par lapin le 26-11-2015 à 12:13:08
n°9667684
Pipould's
Posté le 26-11-2015 à 13:35:15  profilanswer
 

Tu viens de reinventer les Voodoo :D

n°9667691
Zurkum
Posté le 26-11-2015 à 13:48:56  profilanswer
 

lapin a écrit :

question stupide, qu'est ce qui empêche à part l'argent et le manque de connecteur PCI-express, de mettre par exemple une Fury X et un Geforce GTX 950, en suite de dire que même si c'est la Fury X qui fait tous les calcul exécuter les jeux et les applications sur la fury X y compris vidéo et audio et décodage Hardware HEVC d'en suite envoyer le tous via le Port PCI-Express vers la Geforce GTX 950 qui elle s'occupera de tout envoyer en HDMI 2.0 et HDCP 2.2 à la TV ou l'ampli HomeCinéma !!!?
 
bon c'est complexe et pas donner, m'enfin techniquement c'est faisable.
 
en fait dans se cas la la Geforce GTX 950 ne sert que de HUB HDMI ou d'adaptateur vidéo.


Sinon tu joues avec la R9 et ult lis les films / décode x265 avec la 950
 
Au pire, il y a la 980Ti, elle fait tout :o

n°9667719
havoc_28
Posté le 26-11-2015 à 14:10:59  profilanswer
 

de quoi un processeur moderne style core i5 n'est pas capable de lire une video en X265 ? :o . Car bon quand on a une Fury en général on est équipé correctement niveau CPU , a moins de lire une video sur un écran et jouer en même temps sur un autre mais bon .


Message édité par havoc_28 le 26-11-2015 à 14:15:35
n°9667722
Zurkum
Posté le 26-11-2015 à 14:16:19  profilanswer
 

Ça consomme moins de resources si c'est du décodage hardware ( ce que ne fais pas le i5 hein ) un truc tout con, un Snapdragon 801 en chie avec le x265 ( comme quoi tous les procos n'y arrivent pas )
Édit : Et c'est l'encodage où tu gagnes aussi


Message édité par Zurkum le 27-11-2015 à 00:08:49
n°9667734
havoc_28
Posté le 26-11-2015 à 14:28:48  profilanswer
 

Oui je le sais bien , que le décodage n'est pas hardware sur les CPUs actuels , et que certains processeurs ne peuvent tout simplement pas décoder correctement du X265 pour avoir une simple lecture fluide , sans compter le temps que ça met niveau encodage (c'est surtout à ce niveau la qu'une puce le faisant en hardware , est intéressante, car si c'est juste pour de la lecture , vu que le contenu X265 courre pas les rues pour l'instant ...)
 
Avant je faisais pas mal d'encodage video , mais ce n'est plus le cas , comme je ne fais pas de streaming ou autre , je resterais pour l'instant sur du X264 .  
 
Et même s'il m'arrivait d'avoir du contenu X265 , ce n'est pas comme si lire une video à ce format la de temps à autre , qui allait faire exploser ma facture d'électricité .  
 
A voir dans le temps quand ça commencera à ce généraliser , pour l'instant ça reste destiné à des usages assez spécifiques .


Message édité par havoc_28 le 26-11-2015 à 14:32:23
n°9667773
mazingerz
Posté le 26-11-2015 à 15:15:54  profilanswer
 

ça doit être parfaitement possible sauf que NVIDIA fera sont possible pour empêcher ce genre de pratiques si AMD sort ce genre d'option sur les drivers  

n°9667808
CardinalFu​neste
Posté le 26-11-2015 à 15:57:53  profilanswer
 

Ouai bon l'adaptateur fera parfaitement l'affaire avec une nano pour 40€ :whistle:  J’espère que des constructeurs vont l'inclure dans certains packs

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  330  331  332  ..  399  400  401  402  403  404

Aller à :
Ajouter une réponse
 

Sujets relatifs
Carte Graphique 250€ (AMD/NVIDIA)Radeon R9 280X Tri-X, 3Go ou GeForce GTX 770
Portable pas cher : Intel Celeron N2830 2,16 GHz ou AMD E1-2100 1GHz ?CPU ET CM Choix pour 300 euro max
R9 280X a 15€ ^^R9 290 Tri-X Chauffe beaucoup
Carte graphique R9 290 ou GTX 770 ?R9 290 Trix OC (besoin de conseils sur refroidissement)
Upgrade Radeon 5770 -> GeForce 750 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR