Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1897 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15
Page Suivante
Auteur Sujet :

[HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test

n°9544550
piratees
Posté le 03-07-2015 à 15:09:05  profilanswer
0Votes positifs
 

Reprise du message précédent :
moi je suis sur une GTX690 avec 2Go par GPU et je joue a the witcher 3 tous à fond entre 50-60FPS. donc bon meme en 4k les 4Go de la fury x sont bien suffisant

mood
Publicité
Posté le 03-07-2015 à 15:09:05  profilanswer
 

n°9544565
bjone
Insert booze to continue
Posté le 03-07-2015 à 15:28:34  profilanswer
2Votes positifs
 

mazingerz a écrit :


 
tu mélange tout est n'importe quoi
 
le rendu n'a rien à voir avec la sensation de fluidité
 
toi tu mélange tout n'importe comment dans ton argumentaire  
tant que tu y est parle nous du gameplay parce que bon dans le fond c'est ça le plus important


 
La discussion ne porte pas initialement sur la sensation de fluidité apporté par le 144hz, la discussion porte sur la pertinence de benchmarker en 4K (post de XxXNorthMan59), auquel il était opposé le fait qu'il était déjà dur de maintenir alimenté un moniteur 144hz.
 
Sauf que comme j'expliquais l’intérêt de benchmarker du 4K (plus que de chercher à savoir si la carte peut feeder du 1080p 144hz) était d'augmenter la proportion de temps hardware GPU devant le temps software CPU au niveau drivers (en 4k, le temps CPU par frame est le même, mais le temps GPU fait un x4).
 
Merci de ne pas débarquer en ayant rien compris à rien, et de faire un réaction épidermique hors-contexte.
 
Après ok si mon petit commentaire expliquant que le haut framerate n'est pas une fin en soin ne t'a pas plus, ne joues surtout pas aux jeux qui ne tournent qu'à 40fps sur ta machine.
 
Sinon merci de ta contribution technique fortement éduquée.

Message cité 1 fois
Message édité par bjone le 03-07-2015 à 16:13:18
n°9544587
Quarmelite
Posté le 03-07-2015 à 15:49:10  profilanswer
2Votes positifs
 

CardinalFuneste a écrit :

le topic nvidiot c'est la porte a coté

T'aurais pas le même en AMDébile ?

n°9544597
Jerry_Cbn
Posté le 03-07-2015 à 16:02:18  profilanswer
2Votes positifs
 

C'est dommage qu'une version nue (sans AIO) ne soit pas disponible à la vente, pour ceux qui souhaitent intégrer la carte à un circuit déjà existant. Je ne trouve pas gênant de devoir ôter le ventirad d'une carte dotée d'un refroidissent classique, mais si elle est d'office watercoolée ça me semble lourd et coûteux au final car le prix de l'AIO a quand même un coût plus élevé qu'un ventirad, même custom.

n°9544604
mazingerz
Posté le 03-07-2015 à 16:14:33  profilanswer
0Votes positifs
 

bjone a écrit :


 
La discussion ne porte pas initialement sur la sensation de fluidité apporté par le 144hz, la discussion porte sur la pertinence de benchmarker en 4K (post de XxXNorthMan59), auquel il était opposé le fait qu'il était déjà dur de maintenir alimenté un moniteur 144hz.
 
Sauf que comme j'expliquais l’intérêt de benchmarker du 4K (plus que de chercher à savoir si la carte peut feeder du 1080p 144hz) était d'augmenter la proportion de temps hardware GPU devant le temps software CPU au niveau drivers (en 4k, le temps CPU par frame est le même, mais le temps GPU fait un x4).
 
Merci de ne pas débarquer en ayant rien compris à rien, et de faire un réaction épidermique hors-contexte.
 
Sinon merci de ta contribution technique fortement éduquée.


 
t'as parlé d’immersion de sensation et de pertinence
t'a dérivé tout seul  
 
essaye pas de faire croire que tu n'as pas dit des choses que tu as dites c'est écris noir sur blanc

n°9544605
bjone
Insert booze to continue
Posté le 03-07-2015 à 16:14:44  profilanswer
0Votes positifs
 

Jerry_Cbn a écrit :

C'est dommage qu'une version nue (sans AIO) ne soit pas disponible à la vente, pour ceux qui souhaitent intégrer la carte à un circuit déjà existant. Je ne trouve pas gênant de devoir ôter le ventirad d'une carte dotée d'un refroidissent classique, mais si elle est d'office watercoolée ça me semble lourd et coûteux au final car le prix de l'AIO a quand même un coût plus élevé qu'un ventirad, même custom.


C'est aussi ce que je pense: quitte à faire du watercooling, je préfère que ce soit ma boucle plutôt qu'un système modéré en perfs/coût.

n°9544606
lulu1980
Posté le 03-07-2015 à 16:15:00  profilanswer
0Votes positifs
 

Tout à fait, ce sera peut être fait par un fabricant (de mémoire EVGA vend parfois une version de la carte avec Waterblock).

n°9544607
mazingerz
Posté le 03-07-2015 à 16:15:42  profilanswer
1Votes positifs
 

Jerry_Cbn a écrit :

C'est dommage qu'une version nue (sans AIO) ne soit pas disponible à la vente, pour ceux qui souhaitent intégrer la carte à un circuit déjà existant. Je ne trouve pas gênant de devoir ôter le ventirad d'une carte dotée d'un refroidissent classique, mais si elle est d'office watercoolée ça me semble lourd et coûteux au final car le prix de l'AIO a quand même un coût plus élevé qu'un ventirad, même custom.


 
+1  
 
de même il est dommage qu'il n'existe pas des version totalement nue des cartes en général (AMD comme NVIDIA toute gamme confondu)  
c'est pour ce couvrir en cas de mauvais montage
 
 
vraiment dommage  
 

n°9544610
bjone
Insert booze to continue
Posté le 03-07-2015 à 16:19:56  profilanswer
1Votes positifs
 

mazingerz a écrit :


 
t'as parlé d’immersion de sensation et de pertinence
t'a dérivé tout seul  
 
essaye pas de faire croire que tu n'as pas dit des choses que tu as dites c'est écris noir sur blanc


 
J'ai ptet dérivé un peu tout seul, mais chercher à voir qui tape le plus proche du 144hz n'est pas pertinent: lorsque que l'on passe à des moteur qui monte un cran en complexité, l'image des perfs à haut-frame sur les moteurs de génération précédente n'est plus trop pertinente (bon faut une bonne grosse rupture, mais ça a déjà été le cas).
 
Les GPU sont optimisés pour des patterns de plus en plus complexe, et ils ne faut pas non plus bencher sur des moteurs trop "simplistes", bon ok bf4 ça va encore :D
 
enfin chacun voit midi à sa porte après. mais dans une discussion il y a un contexte.

Message cité 1 fois
Message édité par bjone le 03-07-2015 à 17:02:14
n°9544611
Vodka-Char​treuse
Posté le 03-07-2015 à 16:27:22  profilanswer
1Votes positifs
 

Merci pour cette ajout.  
L'Histoire pourrait être bénéfique pour AMD sur PC d'ici quelques temps si le rachat par Microsoft fini par ce faire. Tout ça pourrait bien chambouler la donne actuel. Peut être un vrai rebond de la firme.
 
Sinon, vous êtes un des rares tests a avoir remarqué les bruits du refroidissement, et il y a eu pas mal de retour utilisateur sur ce fait par la suite.  
Merci

mood
Publicité
Posté le 03-07-2015 à 16:27:22  profilanswer
 

n°9544630
Noim
pwnd
Posté le 03-07-2015 à 16:52:52  profilanswer
2Votes positifs
 

lulu1980 a écrit :

Tout à fait, ce sera peut être fait par un fabricant (de mémoire EVGA vend parfois une version de la carte avec Waterblock).


Je peux me gourrer, mais il me semble qu'EVGA ne fait que du Nvidia.

n°9544636
lulu1980
Posté le 03-07-2015 à 17:00:14  profilanswer
0Votes positifs
 

c'est bien possible

n°9544641
lulu1980
Posté le 03-07-2015 à 17:07:19  profilanswer
1Votes positifs
 

En fait c'est surtout pour éviter de perdre la garantie, la pose d'un waterblock n'est pas très compliquée en soit.

n°9544711
marllt2
Posté le 03-07-2015 à 18:49:43  profilanswer
2Votes positifs
 

Powercolor avait d'ailleurs proposé une 290X avec un WB d'origine:
 
http://image.noelshack.com/fichiers/2015/27/1435942125-powercolor-lcs-r9-290x-03.jpg

n°9544738
Jerry_Cbn
Posté le 03-07-2015 à 19:26:52  profilanswer
0Votes positifs
 

Merci pour l'info ! C'est bon à savoir qu'il puisse exister des cartes équipées d'un WB seul.

n°9544757
mazingerz
Posté le 03-07-2015 à 19:53:08  profilanswer
0Votes positifs
 

bjone a écrit :


 
J'ai ptet dérivé un peu tout seul, mais chercher à voir qui tape le plus proche du 144hz n'est pas pertinent: lorsque que l'on passe à des moteur qui monte un cran en complexité, l'image des perfs à haut-frame sur les moteurs de génération précédente n'est plus trop pertinente (bon faut une bonne grosse rupture, mais ça a déjà été le cas).
 
Les GPU sont optimisés pour des patterns de plus en plus complexe, et ils ne faut pas non plus bencher sur des moteurs trop "simplistes", bon ok bf4 ça va encore :D
 
enfin chacun voit midi à sa porte après. mais dans une discussion il y a un contexte.


 
ça j'ai pas dit le contraire
 
la fury semble taillé pour les moteur complexe au passage
après les testeur peuvent pas inventer des jeux pas sortie

n°9544761
mazingerz
Posté le 03-07-2015 à 19:55:44  profilanswer
1Votes positifs
 

http://i.imgur.com/vG2RNKo.jpg
 
NVIDIA semblerais gruger via les drivers?  
 
a confirmer ou infirmer
 
si ça s'avère vrais ça mériterais un procès parce que là ça vas loin
 
même si je suis pro AMD je pense plus à un bug
mais la vérification est primordial

Message cité 2 fois
Message édité par mazingerz le 03-07-2015 à 19:56:26
n°9544921
sagittaire
Posté le 03-07-2015 à 23:10:21  profilanswer
4Votes positifs
 

XxXNorthMan59 a écrit :

La 4k ? vraiment ?  
 
SVP arrêtez de faire des tests comme ça, aucune carte ne sait faire tourner du bf4, du crysis ou dur farcry sur un écran 144hz en qualité full.
 
C'est de la poudre au yeux.  
 
Même en 60hz ça passe pas pour tous les jeux et pour le peux ou ça passe faut se taper les ralentissements...
 
Qu'il gère déjà le 144 images par seconde en 1080p sur tous les jeux et après on commencera à parler du 2k pour commencer avant d'aller taper du 4k
 
A bon entendeur ...


 
Sauf que:
 
1) Le 144 Hz est aussi de la poudre au yeux. Cette fréquence est utilisé pour palier un défaut hardware, à savoir la fréquence de rafraichissement fixe de la chaine d'affichage. Par nature il sera difficile pour un rendu se faire à fréquence fixe (il faudrait pour cela avoir une complexité de rendu variable et prédictive). Pour éviter d'avoir des défauts d'affichage liée à l'inconstance temporelle du rendu, on utilise donc une fréquence de rafraichissement constante très élevé. Mais cette fréquence est bien plus élevé que la limite physiologique des yeux humains sans pour autant être suffisamment haute pour avoir un rendu parfait (il faudrait une fréquence de plus de 400 Hz pour cela). Or on ne sera plus capable de voir de différence en terme de fluidité au delà de 60 à 80 fps avec un rendu parfaitement régulier d'image. C'est ce que corrige Freesync et GSync. Ces techno sont utiles à faible framerate mais améliorent aussi le rendu à haut framerate. Tu aura donc un bien meilleur rendu avec Freesync et Gsync à 80 fps qu'avec un écran 144 Hz à rafraichissement constant. En fait freesync et Gsync permettent de reproduire une chaine d'affichage à rafraichissement constant infini (ou presque avec pour seul limite le temps de réponse de la dalle).
 
2) La 4K est effectivement de la poudre aux yeux dans bien des cas. Les hauts framerates sont particulièrement utiles dans les jeux avec beaucoup de mouvement. Or il sera particulièrement difficile de distinguer les détails dans ces jeux: les yeux se focalisant toujours sur les objets en mouvement. On distingue bien les détails dans des plans fixes et dans ce cas la 4K est vraiment utile. D'ailleurs par exemple le cinéma applique presque systématiquement un flou de mouvement pour améliorer la fluidité dans les scènes "high motion", techno que l'on retrouve aussi dans beaucoup de jeux.

n°9544990
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 04-07-2015 à 01:55:29  profilanswer
5Votes positifs
 

mazingerz a écrit :

http://i.imgur.com/vG2RNKo.jpg
 
NVIDIA semblerais gruger via les drivers?  
 
a confirmer ou infirmer
 
si ça s'avère vrais ça mériterais un procès parce que là ça vas loin
 
même si je suis pro AMD je pense plus à un bug
mais la vérification est primordial


IMPOSSIBLE !  :o  
 
Tu crois vraiment que nVidia oserait tricher au vu et au su de tous ?
Franchement, tu crois que Huang oserait mentir devant un auditoire ?
C'est tout simplement impossible. Le caméléon se bat toujours à la loyale.
 
[:trollol]

n°9545185
Profil sup​primé
Posté le 04-07-2015 à 12:58:54  answer
0Votes positifs
 

Wirmish a écrit :


IMPOSSIBLE !  :o  
 
Tu crois vraiment que nVidia oserait tricher au vu et au su de tous ?
Franchement, tu crois que Huang oserait mentir devant un auditoire ?
C'est tout simplement impossible. Le caméléon se bat toujours à la loyale.
 
[:trollol]


 
C'est pas bien de l'encourager à spammer encore d'autres topics en lui répondant :o

n°9545404
Quarmelite
Posté le 04-07-2015 à 17:26:12  profilanswer
0Votes positifs
 

Surtout qu'il nous sort une image qui vient a priori d'un topic quelque part, sans fournir d'explications ou de liens...
Qu'est ce que tu veux qu'on fasse avec ça ?

n°9545530
docdino2
Posté le 04-07-2015 à 20:27:25  profilanswer
0Votes positifs
 

7% d'overclocking maximum... vu qu'il faut alors appliquer une marge de sécurité, autant dire 0% voire même moins. 7% de marge avant plantage c'est vraiment limite! Comme ma amd hd6870 dans certains jeu il fallait l'underclocker pour ne pas qu'il plante...

n°9545963
bjone
Insert booze to continue
Posté le 05-07-2015 à 11:47:26  profilanswer
1Votes positifs
 

mazingerz a écrit :

http://i.imgur.com/vG2RNKo.jpg
 
NVIDIA semblerais gruger via les drivers?  
 
a confirmer ou infirmer
 
si ça s'avère vrais ça mériterais un procès parce que là ça vas loin
 
même si je suis pro AMD je pense plus à un bug
mais la vérification est primordial


 
Filtrage anisotropique.
 
Il est possible que les mipmaps soient différents. Ça dépends comment le moteur les crée :  
- au runtime (indépendant vendor si fait par le runtime D3D, dépendant vendor si fait par le driver).
- ou pré-stockés compressés DXTC/BC. (par un tool qui essaye de faire ça au mieux)
Maintenant tout le monde pré-compresse les textures à la maison (c'est plus rapide (pas de coût de runtime), c'est plus propre, c'est déterministe au niveau visuel).
 
Donc le plus logique c'est que le filtrage aniso est pas le même.
 
Pour info le filtrage de texture est quasi le seul domaine laissé un peu libre par les specs D3D (qui sont pas mal carrés au niveau validation de l'api et de l'aspect calculatoire).
 
Maintenant ça a toujours été un sujet tatillon (ie les tests de tunnels de 3dmark).
 
Maintenant vu l'écart visuel, la Titan X semble être en trilinéaire normal voir (trili) aniso 2x, et la radeon plus.
Sur un plan horizontal ça me parait être trop d'écart (c'est les obliques qui prennent normalement) pour ne pas être une différence de configuration des samplers par le moteur.
Donc soit conf, soit override côté drivers.  
le mec aurait choisi autre chose que "Laisser l'application 3D prendre la décision" dans les drivers nV que ça m'étonnerais pas.


Message édité par bjone le 07-07-2015 à 11:07:04
n°9546314
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 05-07-2015 à 18:38:39  profilanswer
0Votes positifs
 

Bon, là moi je veux un test de la Fury undervoltée. :o

n°9548090
MikjoA
Posté le 07-07-2015 à 15:20:24  profilanswer
3Votes positifs
 

sagittaire a écrit :


 
Sauf que:
 
1) Le 144 Hz est aussi de la poudre au yeux. Cette fréquence est utilisé pour palier un défaut hardware, à savoir la fréquence de rafraichissement fixe de la chaine d'affichage. Par nature il sera difficile pour un rendu se faire à fréquence fixe (il faudrait pour cela avoir une complexité de rendu variable et prédictive). Pour éviter d'avoir des défauts d'affichage liée à l'inconstance temporelle du rendu, on utilise donc une fréquence de rafraichissement constante très élevé. Mais cette fréquence est bien plus élevé que la limite physiologique des yeux humains sans pour autant être suffisamment haute pour avoir un rendu parfait (il faudrait une fréquence de plus de 400 Hz pour cela). Or on ne sera plus capable de voir de différence en terme de fluidité au delà de 60 à 80 fps avec un rendu parfaitement régulier d'image. C'est ce que corrige Freesync et GSync. Ces techno sont utiles à faible framerate mais améliorent aussi le rendu à haut framerate. Tu aura donc un bien meilleur rendu avec Freesync et Gsync à 80 fps qu'avec un écran 144 Hz à rafraichissement constant. En fait freesync et Gsync permettent de reproduire une chaine d'affichage à rafraichissement constant infini (ou presque avec pour seul limite le temps de réponse de la dalle).
 
2) La 4K est effectivement de la poudre aux yeux dans bien des cas. Les hauts framerates sont particulièrement utiles dans les jeux avec beaucoup de mouvement. Or il sera particulièrement difficile de distinguer les détails dans ces jeux: les yeux se focalisant toujours sur les objets en mouvement. On distingue bien les détails dans des plans fixes et dans ce cas la 4K est vraiment utile. D'ailleurs par exemple le cinéma applique presque systématiquement un flou de mouvement pour améliorer la fluidité dans les scènes "high motion", techno que l'on retrouve aussi dans beaucoup de jeux.


 
 
Les écrans 144Hz ne sont pas de la poudre aux yeux ils ont une réelle utilité, bien que plus spécifiques.
C’est même pour moi un critère plus important que GSync et FreeSync même si ces deux technologies sont efficaces.
Le but du 144Hz n’a d’ailleurs jamais été de résoudre les problèmes de déchirements d’images bien qu’ils soient un peu moins pénibles en 144Hz. Les seuls objectifs de cette fréquence sont d’augmenter la fluidité et la clarté de mouvement en jeu.
 
Tu sembles aussi penser que parce que freesync et gsync sont capables de régler le problème de déchirement en faisant varier la fréquence de l'écran en fonction du nombre d’FPS dans les limites respectives de ces technologies que ça améliore la fluidité ?
Et bien non, le ressenti des saccades n'est pas, ou presque pas, lié aux déchirements d'images.  
Pour avoir eu un écran GSync, la fluidité à 30 ou 40 fps n’est pas vraiment différente avec ou sans gsync, tu es juste épargné des déchirements d’images. Tu ne gagnes en fluidité que si tu joues avec VSync à bas fps pour éviter les déchirements au prix de plus grosse saccade.
 
D’ailleurs, gsync/freesync se comportent exactement comme le Vsync lorsque tu as 60FPS pour un écran 60Hz. C'est à dire qu'ils limitent cette fois la carte graphique pour la synchroniser à l'écran. Et cela induit du lag sur les périphériques, on le ressent comme de l'inertie en jeu, injouable pour un FPS ou jeu de course. Mais plus la fréquence est élevée plus le lag ressenti par la vsync s'atténu pour devenir presque indiscernable à 120/144Hz. C’est pour ça que les seuls écrans 60Hz avec gsync sont ceux avec de grosses résolutions où l'on sera rarement à plus de 60FPS.
 
Dire que 144Hz c’est plus élevée limite physiologique des yeux humains c'est complétement ridicule ce ragot farfelu qui vise à comparer le nombre d'image par seconde avec les capacités de l'oeil humain.. certains disent 60, d'autre 90 images par secondes etc... Alors que les bâtonnets et les cônes de nos yeux capte un flux continu de lumière. Notre capacité à percevoir une image sur un très bref laps de temps dépend complétement de ce que l'on regarde par exemple : Les écrans CRT alternent image/image noire et pourtant on ne la voit pas hormis un léger scintillement. Le flash d’un appareil photo te permet de voir dans le noir un bref instant alors que ça dure moins d'un millième de seconde.
 
Le cinéma n'applique du flou de mouvement que sur les images de synthèses pour qu'elles paraissent plus fluide. Pour le reste du temps il n'y a même pas de quelconque "filtre"  car lorsque l’on filme à 24 images par secondes ça revient à faire des photo à 1/24s et seront flou des que le sujet est en mouvement, ne serait-ce que les lèvres d'une personne lorsqu'elle parle.
La fluidité perçue, comme tu l'as dit dépend du nombre d'images par secondes et du flou de mouvement. Quand on active l'ULMB qui à l’instar des bon vieux CRT consiste en un balayage de l’image par une image noire en 120Hz, la clarté de mouvement augmente énormément, mais du coup la fluidité perçue baisse un peu bien que ce soit plus que suffisant en terme de fluidité.
 
En gros l’écran parfait serait un OLED avec une grosse résolution et une très grosse fréquence à rafraichissement variable, ainsi que doté d’une technologie d’anti-flou par balayage avec une image noire comme sur les bons vieux CRT ou la technologie ULMB. Mais là… faudrait une config de la NASA.
 
edit : présentation, orthographe


Message édité par MikjoA le 07-07-2015 à 18:08:07
n°9548099
bjone
Insert booze to continue
Posté le 07-07-2015 à 15:28:26  profilanswer
0Votes positifs
 

:D

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
sapphire r9 380 nitro sous alimenté?question GPU
[HFR] Focus : MSI Radeon R9 390X Gaming 8 Go en testOptimisation AMD sapphire radeon Hd 7950 3gb OC with boost Batman AK
[HFR] Actu : AMD Catalyst 15.6 Beta pour Batman AK 
Plus de sujets relatifs à : [HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR