Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
911 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6
Auteur Sujet :

[HFR]Focus AMD FreeSync : Efficace et pas chère, la FRV qu'on préfère?

n°10020359
Roms56
Posté le 22-12-2016 à 16:36:56  profilanswer
1Votes positifs
 

Reprise du message précédent :

mukumi a écrit :

 

Fiche ldlc. Et généralement si il n'y a pas d'info c'est que il y a une couille dans le potager.

 

Les fabricants sont les premiers à mettre en avant les qualités d'un modèle si ils n'en parlent pas c'est qu'il y a anguille sous roche.


Dans 3/4 mois, fouillant les modèles 24" 1080P freesync, les fiches ldlc/mat.net auront la mention LFC[OUI-NON] ? Car aujourd'hui il n'y a rien de marqué sur ces sites...

Message cité 1 fois
Message édité par Roms56 le 22-12-2016 à 16:44:10
mood
Publicité
Posté le 22-12-2016 à 16:36:56  profilanswer
 

n°10020364
mum1989
Posté le 22-12-2016 à 16:41:01  profilanswer
2Votes positifs
 

Roms56 a écrit :


Dans 3/4 mois, fouillant les modèles 24" 1080P freesync, les fiches ldlc/mat.net auront la mention FLC [OUI-NON] ? Car aujourd'hui il n'y a rien de marqué sur ces sites...


tu peux essayer de le demander sur leurs réseaux sociaux (Twitter Facebook)
J'avais réussi à leur faire ajouter deux filtres, le filtre 144hz et FreeSync ! (fin 2015):
https://twitter.com/mum1989/status/655723664818708481

n°10020367
Roms56
Posté le 22-12-2016 à 16:43:19  profilanswer
0Votes positifs
 

mum1989 a écrit :


tu peux essayer de le demander sur leurs réseaux sociaux (Twitter Facebook)
J'avais réussi à leur faire ajouter deux filtres, le filtre 144hz et FreeSync ! (fin 2015):
https://twitter.com/mum1989/status/655723664818708481


Ah oui j’essaiera de contacter Matériel.net sur Facebook la semaine prochaine ;) Mais ça risque d'être dur aussi pour eux si les constructeurs ne le donne pas clairement non plus  :pfff:
Mais oui bonne idée ! *poucenlair*


Message édité par Roms56 le 22-12-2016 à 16:45:00
n°10020410
martyx
Posté le 22-12-2016 à 17:32:58  profilanswer
0Votes positifs
 

"LinusTechTips" avait aussi fait une vidéo pas mal pour la comparaison
 
https://www.youtube.com/watch?v=MzHxhjcE0eQ

n°10020417
quicksilve​r01
Posté le 22-12-2016 à 17:40:31  profilanswer
0Votes positifs
 

Lestanquet a écrit :


Le tearing c'est monnaie courante ... Si tu n'y es pas sensible tant mieux pour toi ;) ces technos son très intéressantes en dessous de 60 FPS aussi, on garde un réelle sensation de fluidité.

Merci c'était juste une question car cela ne m'est pas arrivé, donc je me demandais si c'est du pur marqueting ou si c'est vraiment utile :jap:  :hello:  


---------------
Bnet D3   Instant gaming  Rejoins world of warships et prend tes bonus
n°10020433
manusfreed​om
''Le reste est a venir''
Posté le 22-12-2016 à 17:58:35  profilanswer
1Votes positifs
 

Pour le 16/10 faut arréter de dire, que c'est parce qu'il n'y en a pas que la demande n'est pas là. Les contructeurs en veulent juste pas se prendre la tête.

n°10020454
bluedevil
Posté le 22-12-2016 à 18:17:55  profilanswer
1Votes positifs
 

Je me pose une question bête, mais comment est géré le cas des bi-écran composites (un écran FreeSync et un classique) ?
 
Si un seul écran est déclaré FreeSync ça ne pose aucun problème ?

n°10020456
The_Balrog
Et là, c'est le drame...
Posté le 22-12-2016 à 18:18:42  profilanswer
6Votes positifs
 

" il fonctionne très bien et permet une économie substantielle par rapport à G-Sync !"  Etonnant, non? *siflotte*

n°10020505
HashBoost
Posté le 22-12-2016 à 19:26:32  profilanswer
2Votes positifs
 

grosnabot a écrit :

Qu'on me traite de fanboy parce que je dis qu'nvidia tend un piège aux joueurs me fait bien rire :D
"    ben piégé oui mais c'est pareil que tu sois chez amd ou nvidia en fait."
En pratique oui, pour l'instant, parce que nvidia fout comme d'hab la merde avec leurs trucs dans leur coin...pu...rée...qu'est-ce que je peux objectivement détester les pratiques de cette compagnie.


Expliques moi... Tu achètes un écran G-sync pour jouer avec ta carte Nvidia, et plus tard tu passes chez AMD. Ton écran est inutile.
Tu achètes un écran Freesycn pour jouer avec ta carte AMD, et plus tard tu passes chez NVidia. Ton écran est inutile.
Tu cherches a prouver quoi ? Que la solution NVidia est plus chère ? Oui, c'est certain, mais techniquement plus aboutie. Et après ?

n°10020507
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 22-12-2016 à 19:27:28  profilanswer
2Votes positifs
 

Comme indiqué dans l'article, le problème d'AMD c'est d'arriver souvent en retard. En retard sur Intel, en retard sur nVidia.
 
Quand on vient de changer de matos, même si le concurrent propose mieux ou aussi bien un peu plus tard. Ben on ne rechange pas tout de suite.
 
Donc faut juste espérer que dans les années à venir AMD compte sortir en même temps ou en avance sur son concurrent des technologies utile ou plus performante. C'est tout le mal que je leur souhaite.


Message édité par Paul-Hewson le 22-12-2016 à 20:48:46
mood
Publicité
Posté le 22-12-2016 à 19:27:28  profilanswer
 

n°10020509
HashBoost
Posté le 22-12-2016 à 19:33:27  profilanswer
1Votes positifs
 

The_Balrog a écrit :

" il fonctionne très bien et permet une économie substantielle par rapport à G-Sync !"  Etonnant, non? *siflotte*


Sortir une phrase du contexte pour la mettre en valeur est une pratique courante quand on manque d'arguments. *siflotte*
Et si tu lisais l'article au complet en essayant de le comprendre ? Tu me rappelle le gars (Ravenloft je crois) qui soutenait que le FPGA et la RAM dans le G-Sync ne servait a rien :)
Ce focus est très intéressant et met particulièrement en lumière la différence d'approche des deux sociétés. Bon travail


Message édité par HashBoost le 22-12-2016 à 19:34:05
n°10020521
mukumi
Hands up! Guns out!
Posté le 22-12-2016 à 19:47:00  profilanswer
0Votes positifs
 

Les écrans ne deviennent pas inutiles pour la cause  [:hurle]


---------------
Isn't it strange to create something that hates you?
n°10020528
sagittaire
Posté le 22-12-2016 à 19:52:36  profilanswer
2Votes positifs
 

très bon article.
 
Par contre je ne comprends pas cette histoire d'écrans compatibles LFC. Il suffit en effet que le moniteur ait un ratio d'au moins 2x entre la limite haute et basse de bon fonctionnement du VFR. Ca implique des plages d'au moins 30-60 à 50-100Hz par exemple. Ce sont des plages de fonctionnements qui devraient être atteinte même par des écrans de qualités moyennes.  
 
Mais admettons que cela ne soit pas le cas. Disons qu'un écran 1080p de faible qualité ne fonctionne correctement en VFR que sur un refresh 48-75 Hz. Pour avoir un VFR "compatible" LFC il suffirait de contraindre la CG à ne pas utiliser la plage 37-48 Hz en la contraignant à ralentir son fps via les pilotes (c'est tout à fait réalisable et AMD vient d'ailleurs juste de l'annoncer pour avoir une meilleure efficacité énergétique à très haut fps). On est bien sûr sur un refresh très stratégique car la perte de fluidité commence à être très génante justement à ces fréquences. Mais la perte de fluidité est bien plus visible dans le créneau en dessous (24-37 Hz). Même avec une limitation de ce genre on aurait encore un très gros gain en terme de fluidité. Et à mon avis la plupart des écrans même de faibles qualités sont plutôt capables de supporter du 40-75Hz en 2K et du 40-60Hz en 4K: cela implique juste des créneaux de fréquences interdites de 37-40Hz en 2K et 30-40Hz en 4K. Sachant qu'un 30 fps contraint implique en plus un temps rigoureusement constant pour l'affichage de chaque image et donc pas de judder.  
 
Enfin je dis ça, je dis rien.

n°10020546
sagittaire
Posté le 22-12-2016 à 20:15:01  profilanswer
1Votes positifs
 

Et pour aller plus loin:
 
La méthode de nvidia est en fait par nature plus efficace. Prenons le cas extrême d'une dalle 4K capable de fonctionner en 200 Hz. Il n'existe aucune norme capable de supporter un flux 4K en 200 Hz (aucun câble ne supporte une telle BP en flux non compressé). Gsync permet la mise en buffer de l'image directement au niveau de l'écran ce qui permet techniquement d'avoir un refresh image au maximum de ce que permet l'écran. L'approche de Nvidia permet donc d'avoir un VFR qui atteind toujours la limite haute fixée par la limite technologique de l'écran et non la limite haute de la norme DP ou HDMI.

n°10020560
sagittaire
Posté le 22-12-2016 à 20:35:07  profilanswer
2Votes positifs
 

Ce qui ne m'empêche pas de penser que la politique de nvidia est néfaste. Si nvidia travaillait avec AMD pour permettre l'émergence d'une norme VFR commune, tout les écrans gamers seraient, à mon avis, aujourd'hui compatible VFR. Je ne suis même pas sûr qu'avec cette politique, nvidia fasse plus de bénéfices. Cette politique ne fait que ralentir la mise en place de nouvelles normes: avec DX12 (ou vulkan) et le VFR, la techno est là pour jouer très confortablement en 4K. Dans les faits presque personne ne joue en 4K et à mon avis cela ne sert à rien de mettre 500€ dans une GTX 1070 ou 1080 pour jouer à 100 fps en 1080p ou même en 1440p.


Message édité par sagittaire le 22-12-2016 à 20:36:48
n°10020569
Dark Schne​iderr
⭐⭐
Posté le 22-12-2016 à 20:54:10  profilanswer
1Votes positifs
 

ravenloft a écrit :


Tu perds ton temps à répondre aux trolls surtout qu'ils vivent en meute et s'amusent comme des petits fous avec les like et dislike :D  
http://tof.canardpc.com/view/67c68 [...] 32eca4.jpg


 
Tu perds ton temps à lui répondre.
 

Citation :

Tu me rappelle le gars (Ravenloft je crois) qui soutenait que le FPGA et la RAM dans le G-Sync ne servait a rien


 


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°10020639
The_Balrog
Et là, c'est le drame...
Posté le 22-12-2016 à 21:57:59  profilanswer
6Votes positifs
 

HashBoost a écrit :

The_Balrog a écrit :

" il fonctionne très bien et permet une économie substantielle par rapport à G-Sync !"  Etonnant, non? *siflotte*


Sortir une phrase du contexte pour la mettre en valeur est une pratique courante quand on manque d'arguments. *siflotte*
Et si tu lisais l'article au complet en essayant de le comprendre ? Tu me rappelle le gars (Ravenloft je crois) qui soutenait que le FPGA et la RAM dans le G-Sync ne servait a rien :)
Ce focus est très intéressant et met particulièrement en lumière la différence d'approche des deux sociétés. Bon travail


Et si tu te disais que j'ai lu l'article au complet? hum? :)  Il n'empêche que cette simple phrase est un résumé valable des approches des 2 boites, dans leur ensemble. Reste donc, que quelque soit l'approche,la note, est, comme d'hab, bien salée chez Nv. Simple constat, simple évidence.  Heureux de voir que (mais c'était un peu attendu, qu'il faille du temps), que Freesync soit enfin abouti,  et permet de ne pas payer l'éternelle dime +++ Nv :)

n°10020642
grosnabot
Posté le 22-12-2016 à 22:10:15  profilanswer
2Votes positifs
 

HashBoost a écrit :


Tu cherches a prouver quoi ? Que la solution NVidia est plus chère ? Oui, c'est certain, mais techniquement plus aboutie. Et après ?


 
Et il ne te viendrait pas à l'esprit que dans qqs temps nvidia sera probablement obligé de passer à adaptive sync ? Sauf s'ils veulent juste viser un marché élitiste et restreint.
 
Ton argumentation à toi se porte juste sur un instant t alors qu'un écran n'est généralement pas un achat qu'on change tous les deux ans.
 
Oui, maintenant, c'est pareil pour les deux, en pratique, pas sur le papier, on verra ça d'ici une ou deux gen de gpu si c'est toujours le cas.
 
 
 
edit: sur reddit je vois des gens dire que les écrans gsync ne se valent pas tous non plus au niveau de leur frv, certains parlent même de "gaspillage d'argent" pour certains modèles...et non je ne me trompe pas, je parle bien de gsync. En lisant ça la situation ne me semble pas bien différente entre les deux.
 
 
En parlant de vsync, sur fallout 4 je remarque que mon framerate varie de 40 à 60 en gardant la vsync, comment c'est possible ? oO
 
Dans les slides amd indique qu'on ne voit pas de tearing en vsync off sous 60fps, pourtant moi je les vois...ils doivent s'etre planté dans leur slide

Message cité 1 fois
Message édité par grosnabot le 22-12-2016 à 22:33:14
n°10020673
HashBoost
Posté le 22-12-2016 à 22:46:18  profilanswer
0Votes positifs
 

ravenloft a écrit :

Tu crois très mal.  Tu te trompes de personne car je n'ai jamais soutenu ça. D'ailleurs j'ai jamais parlé de ça car je ne me suis jamais intéressé à ce qu'il y a dans la puce fpga.
Ce qui serait bien c'est pas de croire mais d'être certain de la personne que tu inclus dans ton débat. ;)


C'est bien pour ça que j'emploi "je crois", la conversation date de la présentation du Freesync (2 ans ?), ou un type voulait faire croire que la solution FPGA + RAM du G-Sync était de la poudre aux yeux. Bref, un gars de plus qui pense qu'AMD a tout inventé et que NVidia n'est qu'un vilain copieur.
 
Les deux solutions se valent presque, disons que techniquement le G-Sync est plus joli et que le Freesync est plus astucieux.
 
Quand a savoir si NVidia passera un jour sur du Freesync ou un de ses dérivés, cela arrivera si cette solution arrive au même confort d'utilisation et que les constructeurs d'écrans font une pression suffisante pour unifier leur gamme.
 

n°10020703
tridam
Profil : Equipe HardWare.fr
Posté le 22-12-2016 à 23:29:36  profilanswer
0Votes positifs
 

grosnabot a écrit :


 
En parlant de vsync, sur fallout 4 je remarque que mon framerate varie de 40 à 60 en gardant la vsync, comment c'est possible ? oO
 
Dans les slides amd indique qu'on ne voit pas de tearing en vsync off sous 60fps, pourtant moi je les vois...ils doivent s'etre planté dans leur slide


 
Le framerate peut varier en v-sync ON quand le moteur utilise du triple buffering.
 
En v-sync off, il y a du tearing à n'importe quel niveau de fps, mais il y aura plus de cassures avec un niveau de fps bien plus élevé que le taux de rafraîchissement. Ceci dit le pire c'est quand les fps restent stables à presque 60 fps à 60 Hz, par exemple 58-62 fps. On voit alors la ligne de tearing se déplacer dans l'image ce qui est assez pénible.

n°10020705
havoc_28
Posté le 22-12-2016 à 23:32:15  profilanswer
1Votes positifs
 

Jerry_Cbn a écrit :


 
Perso, je n'achète QUE des 16/10 (quel qu'en soit l'usage, et que ce soit pour moi ou mes clients).
 
Question de principe.


 
Depuis mon achat cet été d'un 16/10, je ne veux plus que ça :p . Mais bon 3 mois après il est tombé en panne et la sav : / . Tant pis pour Freesync, G-sync :o .


Message édité par havoc_28 le 22-12-2016 à 23:32:46
n°10020706
tridam
Profil : Equipe HardWare.fr
Posté le 22-12-2016 à 23:36:23  profilanswer
3Votes positifs
 

HashBoost a écrit :


Quand a savoir si NVidia passera un jour sur du Freesync ou un de ses dérivés, cela arrivera si cette solution arrive au même confort d'utilisation et que les constructeurs d'écrans font une pression suffisante pour unifier leur gamme.
 


 
Les fabricants d'écrans sont bien contents que Nvidia les aide à tirer les prix et les marges vers le haut sur les écrans gamers. Vu que le marché haut de gamme est à peu près du 100% Nvidia, ils n'ont pas de raison de ne plus coopérer de la sorte.
 
La seule chose qui fera bouger Nvidia c'est qu'il y ait un impact néfaste sur ses revenus. Le jour où 50% du segment des cartes graphiques milieu de gamme passe chez AMD grâce à l'argument FreeSync, Nvidia fera en sorte de proposer un G-Sync "light" à travers l'adaptive-sync. Mais ils sont loin de devoir faire face à une telle pression pour l'instant.

n°10020717
grosnabot
Posté le 23-12-2016 à 00:17:03  profilanswer
2Votes positifs
 

Merci Tridam, donc le triple buffering peut potentiellement m'aider à limiter les stutering du passage de 60 à 30fps.

n°10020724
vanloque
Someone broke my AT Field
Posté le 23-12-2016 à 00:49:18  profilanswer
0Votes positifs
 

Ah voilà un bon article plein de bonnes nouvelles ! :)

 

J'ai un écran TN 144hz qui ne supporte malheureusement pas Freesync mais qui a des couleurs parfaites et un très bon contraste alors je ne songerai à changer d'écran que pour du oled ou quasi-oled avec support HDR !

 

Les TV OLED+HDR de LG (qui ont une image à tomber par terre) sont dans les 2000€ pour du 65pouces. Ca fait 30€ le pouce :D  Allez ça fait 738€ pour 24 pouces, on peut négocier à 600€ ? :love:


Message édité par vanloque le 23-12-2016 à 00:49:40
n°10020746
Silmarys
Posté le 23-12-2016 à 02:18:17  profilanswer
0Votes positifs
 

Est-ce que Nvidia n'aurait tout simplement pas intérêt à ce que ses pilotes ne supportent pas FreeSync en parallèle de G-Sync, pour les simples et bonnes raisons que :

  • Cela permettrait de faire une comparaison totalement objective entre FreeSeync et G-Sync, à partir du même matériel Nvidia, et donc de déterminer si G-Sync vaut vraiment son prix caché ?
  • Cela placerait Nvidia en position de suiveur d'AMD, et il serait de plus possible d'opérer des comparaisons objectives sur ce point (en mode FreeSync) entre les cartes des différentes marques, ce qui pourrait ne pas être forcément à leur avantage ?
  • Comme dit précédemment, le surcoût important de G-Sync inciterait fortement à investir dans une carte graphique capable d'en tirer parti, et cette « prise en hotage » créerait une rente de situation ?
  • Et pour terminer, introduire le support de FreeSync ne reviendrait-il pas d'office à enterrer leur propre technologie G-Sync, puisque FreeSync deviendrait de facto le standard de fait par sa plus large diffusion ?


En tout cas, je suis bien content de voir AMD donner l'impression de sortir la tête de l'eau, et de possiblement revenir dans la course ces prochains mois. Je n'attends plus qu'une chose désormais, c'est un meilleur support de leurs pilotes sous Linux, à peu près équivalent à ce qu'offre Nvidia actuellement, et ce serait alors avec plaisir que j'achèterais à nouveau leurs produits, comme ce fut le cas par le passé.


Message édité par Silmarys le 23-12-2016 à 02:20:09
n°10020752
B00lay Ier
Posté le 23-12-2016 à 02:47:46  profilanswer
1Votes positifs
 

sagittaire a écrit :

Par contre je ne comprends pas cette histoire d'écrans compatibles LFC. Il suffit en effet que le moniteur ait un ratio d'au moins 2x entre la limite haute et basse de bon fonctionnement du VFR. Ca implique des plages d'au moins 30-60 à 50-100Hz par exemple. Ce sont des plages de fonctionnements qui devraient être atteinte même par des écrans de qualités moyennes.


Pense temps et pas fréquence, ça change totalement la vision du bricolage qu'est le VFR.
 
Le VSync c'était nécessaire au fonctionnement des écrans cathodiques, mais un écran LCD ne connaît pas, lui il ne voit que des signaux numériques et des fronts, même pas des horloges. Partant de là, le reste coule de source.
 
La carte sait dans quelle plage temporelle envoyer ses images (EDID), si l'écran ne gère pas de lui-même la LFC c'est elle qui le fera en envoyant une 2e fois la même image arrivé au délai maximum (rien de neuf mais je dois envoyer quelque chose, bon, bah je renvoie la dernière). Bête comme chou.
 
Je me demande par contre la validité technique de ce délai maximum... surtout dans le cas où l'écran aurait un scaler PSR.
 

HashBoost a écrit :

un type voulait faire croire que la solution FPGA + RAM du G-Sync était de la poudre aux yeux. Bref, un gars de plus qui pense qu'AMD a tout inventé et que NVidia n'est qu'un vilain copieur.


Techniquement, le PSR (framebuffer dans le scaler) est dans l'eDP depuis 2011... donc qui a inventé quoi? Honnêtement on s'en fout, nVidia vend bien sous forme propriétaire quelque chose qui existait déjà sous forme libre, faisant partie du groupe ayant défini le standard au même titre qu'AMD.
 
http://www.vesa.org/news/vesa-issu [...] rsion-1-3/
 
Le seul mérite côté nVidia c'est l'utilisation intelligente de l'existant pour autre chose que ce qui était documenté (efficacité énergétique), c'est maigre.

Message cité 1 fois
Message édité par B00lay Ier le 23-12-2016 à 03:02:11
n°10020779
t3ddy
Posté le 23-12-2016 à 09:08:06  profilanswer
1Votes positifs
 

Silmarys a écrit :

Est-ce que Nvidia n'aurait tout simplement pas intérêt à ce que ses pilotes ne supportent pas FreeSync en parallèle de G-Sync, pour les simples et bonnes raisons que :

  • Cela permettrait de faire une comparaison totalement objective entre FreeSeync et G-Sync, à partir du même matériel Nvidia, et donc de déterminer si G-Sync vaut vraiment son prix caché ?
  • Cela placerait Nvidia en position de suiveur d'AMD, et il serait de plus possible d'opérer des comparaisons objectives sur ce point (en mode FreeSync) entre les cartes des différentes marques, ce qui pourrait ne pas être forcément à leur avantage ?
  • Comme dit précédemment, le surcoût important de G-Sync inciterait fortement à investir dans une carte graphique capable d'en tirer parti, et cette « prise en hotage » créerait une rente de situation ?
  • Et pour terminer, introduire le support de FreeSync ne reviendrait-il pas d'office à enterrer leur propre technologie G-Sync, puisque FreeSync deviendrait de facto le standard de fait par sa plus large diffusion ?


En tout cas, je suis bien content de voir AMD donner l'impression de sortir la tête de l'eau, et de possiblement revenir dans la course ces prochains mois. Je n'attends plus qu'une chose désormais, c'est un meilleur support de leurs pilotes sous Linux, à peu près équivalent à ce qu'offre Nvidia actuellement, et ce serait alors avec plaisir que j'achèterais à nouveau leurs produits, comme ce fut le cas par le passé.


Nvidia ne supportera jamais freesync étant donné que freesync est une marque propriétaire du rtg qui correspond à l'ensemble des solutions mises au point par rtg pour le support par les radeon de l'adaptative sync qui lui est le standard. D'autant plus que freesync n'est pas open et que l'implémentation via hdmi est propriétaire. La nuance a son importance car Nvidia a toute liberté de proposer le support logiciel de l'option quand cela lui paraîtra utile/rentable, et ce sans plus passer pour un suiveur que ça puisqu'ils sont les premiers à avoir proposé une solution viable et efficace.
 Sinon, à mon avis, le gsync pourrait bien disparaître sous sa forme actuelle et devenir logiciel lorsque ça sera au point (chez nvidia qui un train de retard sur rtg à ce niveau) sous peine de péricliter et devenir confidentiel comme un autre truc proprio appelé physX ou bien la 3d by nvidia. Cette séparation du marché n'a pas aidé la 3d à se développer comme elle l'aurait pu.
Ps : Cet article aura le mérite de me conforter dans mon attente pour l'achat d'un moniteur et du coup pour celui du renouvellement de ma CG puisqu'à mon grand désespoir c'est devenu plus ou moins lié. Je risque fort de me lier à la marque radeon pour les 10 ans à venir. Comme d'autres l'ont dit, ça fait un paramètre de plus à regarder pour le choix...


Message édité par t3ddy le 23-12-2016 à 09:18:50
n°10020817
scrat51
Posté le 23-12-2016 à 10:04:39  profilanswer
2Votes positifs
 

Le FreeSync est un argument de plus en faveur d'AMD. Pour ceux qui n'ont pas un budget illimité (G-Sync, 1080...), une combinaison RX480 (éventuellement en crossfire) couplé à un écran en 1440p FreeSync présente un excellent rapport qualité prix.
Et puis d'un point de vue esthétique, les Rx4xx Nitro ont un look très sobre qui est très agréable comparé à des MSI et autres ASUS bardées de LED.
Mais bon, chacun achète ce qu'il veut, du moment qu'il en est content, tout va bien dans le meilleur des mondes

n°10020832
Eric B
Posté le 23-12-2016 à 10:29:57  profilanswer
0Votes positifs
 

ravenloft a écrit :

La 3d avec lunettes serait morte même si nvidia avait rendu sa techno ouverte. Elle est morte dans les tvs sans qu'nvidia y ait son mot à dire.


 
Les lunettes tentent de revenir en force avec la réalité virtuelle: oculus and co..

n°10020834
vanloque
Someone broke my AT Field
Posté le 23-12-2016 à 10:32:53  profilanswer
0Votes positifs
 

la 3D sur tv c'est clairement bofbof, en revanche j'ai vu 2 films dans les nouvelles salles IMAX 3D-Laser et ça déboite. 2 projecteurs 4K et lunettes actives. 4K par oeil pour la netteté et les détails ça change tout. Et leurs projos ont un niveau de luminosité facilement doublé par rapport aux salles 3D "classiques".

 

Alors une 3D de cette qualité sur ma tv ou dans un casque pour ma part ça me ferait plaisir de revoir Dr Strange ou Rogue One dans les même conditions de qualité qu'au ciné en IMAX !


Message édité par vanloque le 23-12-2016 à 10:33:50

---------------
--- https://steamcommunity.com/id/Vanlock ---
n°10020838
lulu1980
Posté le 23-12-2016 à 10:38:00  profilanswer
0Votes positifs
 

La 3d j'aime bien et elle est de mieux en mieux maitrisée.
Par contre Rogue One c'est une grosse bouse!

n°10020898
gougui
Posté le 23-12-2016 à 12:08:07  profilanswer
1Votes positifs
 

Deux aspects qui me semble important ne sont pas abordé, questions pour tridam du coup :D :  
Qu'en est il de Intel, le plus gros fabriquant tout de même (sur lequel on peu jouer quand même, et qui à justement besoin de gérer ses grosse variations de frame rate) ? Associé à NVIDIA dans les portable avec optimus, je ne les vois pas supporter un gsync pour autant !  
Et sinon, en mode double écrans, comment se comporte gsync et freesync ? Les connecteurs (HDMI ou displayP) ont ils leurs importances ?

Message cité 1 fois
Message édité par gougui le 23-12-2016 à 12:10:54
n°10020943
Zurkum
Posté le 23-12-2016 à 12:56:15  profilanswer
0Votes positifs
 

De mémoire les iGP Intel devrait être compatible avec l'Adaptive Sync qui est un standard et donc FreeSync ( sous DP puisque sous HDMI c'est la techno proprio AMD )

n°10020947
mukumi
Hands up! Guns out!
Posté le 23-12-2016 à 12:59:04  profilanswer
1Votes positifs
 

Zurkum a écrit :

De mémoire les iGP Intel devrait être compatible avec l'Adaptive Sync qui est un standard et donc FreeSync ( sous DP puisque sous HDMI c'est la techno proprio AMD )

 

Il y avait une rumeur que les GPU de Kaby Lake pourraient être compatibles mais d'après techreport Intel a confirmé que finalement non.

 

Maintenant Tridam pourrait tester Ashes of Singularity avec un Mix de GPU pour voir si les cartes Nvidia deviennent Freesync grâce à cette bidouille (et courage pour la configuration :lol:)


Message édité par mukumi le 23-12-2016 à 13:00:09

---------------
Isn't it strange to create something that hates you?
n°10020972
Zurkum
Posté le 23-12-2016 à 13:15:46  profilanswer
1Votes positifs
 

Une petite Fury X avec un Broadwell et une Titan XP et il faut faire fonctionner tout ça ensemble  :O

n°10020979
vladobar
J'aime pas quand ça rame…
Posté le 23-12-2016 à 13:22:08  profilanswer
3Votes positifs
 

lulu1980 a écrit :

La 3d j'aime bien et elle est de mieux en mieux maitrisée.


[HS]
Je hais la 3D. Pourquoi ? Tout simplement parce que je porte des lunettes et que dans 90% des cas les lunettes 3D passent pas avec mes lunettes et dans les 10% restant ca passe mais c’est désagréable.
T’ajoute à ca que certains cinémas ne diffusent certain films qu’en 3D, donc au mieux je paye plus cher pour un truc moins bien
C’était mon coup de gueule contre la 3D :jap:.
[/HS]
 

n°10020988
t3ddy
Posté le 23-12-2016 à 13:32:23  profilanswer
0Votes positifs
 

ravenloft a écrit :

t3ddy tu joues sur les mots. Quand les gens parlent de supporter freesync c'est sous entendu supporter le standard adaptive sync. Freesync n'est que le nom commercial donné par amd pour l'adaptive sync et la seule différence entre freesync et l'adaptive sync vient qu'amd certifie les écrans. Technologiquement, c'est strictement la même chose.
 
Gsync ne pourra pas devenir logiciel vu que que ce soit gsync ou l'adaptive sync, il y a forcément une puce hardware qui doit faire le boulot. Si gsync perd son avantage, nvidia passera au standard adaptive sync.
 

Citation :

sous peine de péricliter et devenir confidentiel comme un autre truc proprio appelé physX ou bien la 3d by nvidia. Cette séparation du marché n'a pas aidé la 3d à se développer comme elle l'aurait pu.


La 3d avec lunettes serait morte même si nvidia avait rendu sa techno ouverte. Elle est morte dans les tvs sans qu'nvidia y ait son mot à dire.  
 
Concernant physx il est très loin d'être mort, utilisé dans de nombreux jeux et absolument pas propriétaire car ouvert à tous avec des perfs égales pour tous vu que tout est géré uniquement par le cpu. Toi qui joue sur les mots avec freesync, tu aurais du parlé de physx accéléré qui est la partie accélérée par gpu qui là est exclusif à nvidia et est comme tu le dis quasi morte vu le nombre de jeux proche du néant qui l'utilisent.
 


Je ne joue pas sur les mots. Freesync est le nom donné par rtg pour le support du standard, support qui est bien uniquement logiciel du côté de rtg en dehors des CG : que je saches rtg n'ajoute rien en hardware pour cela à un écran qui utilise la frv standard. Dire qu'nvidia supporte freesync sous entend donc qu'ils utiliseraient la partie logicielle incluse dans les drivers des radeons et qui leur permet de gérer la frv telle que rtg a choisi de l'implémenter.
Deuxième point, explique moi en quoi nvidia ne pourrait pas apporter le support de l'adaptative sync de façon logicielle comme l'a fait rtg en développant leur propre truc et en quoi cela ne devra pas s'appeler gsync... Nawak
Pour ce qui est de physX je parle bien de physX by nvidia comme j'ai pris la peine de préciser en éditant comme tu peux le voir dans ce que tu cites de ce que j'ai dit. La prochaine fois lis tout et évite de ne citer que des morceaux choisis sortis de leur contexte. Tu me comprendras mieux.
Pour ce qui est des tv, c'est un autre marché avec une application différente. Rien ne te permet de dire que la 3d n'aurait pas pu se généraliser un peu plus avec un standard utilisé par les deux concepteurs de CG. On est dans la même situation avec la frv qui divise le marché en deux et pour faire un autre parallèle avec la HD sur disque entre le bluray et son concurrent disparu depuis. La HD sur les supports n'a décollé que lorsqu'un unique standard s'est répandu, avant cela ça patinait dans la semoule.

n°10021017
Zurkum
Posté le 23-12-2016 à 14:05:21  profilanswer
6Votes positifs
 

Sinon @HashBoost tes actions NVIDIA vont bien ?  :O

n°10021020
Nilav2
Posté le 23-12-2016 à 14:07:31  profilanswer
0Votes positifs
 

Super le tableau AMD des produits mais en plus de ne pas être à jour, il donne des informations erronées. Genre le Acer BE270U qui n'est pas un écran 144Hz mais 75.
Pratique de faire un choix dans ces conditions. J'envisageais de me prendre un écran freesync correct en 1440p mais ça coûte déjà une blinde. Bref, il est urgent d'attendre.

n°10021026
Zurkum
Posté le 23-12-2016 à 14:11:30  profilanswer
1Votes positifs
 

Le tableau AMD est pourri oui : le LG 29UM58 n'est pas du tout FreeSync ...

n°10021079
tridam
Profil : Equipe HardWare.fr
Posté le 23-12-2016 à 14:54:57  profilanswer
2Votes positifs
 

B00lay Ier a écrit :


...
La carte sait dans quelle plage temporelle envoyer ses images (EDID), si l'écran ne gère pas de lui-même la LFC c'est elle qui le fera en envoyant une 2e fois la même image arrivé au délai maximum (rien de neuf mais je dois envoyer quelque chose, bon, bah je renvoie la dernière). Bête comme chou.
...
 
...
Techniquement, le PSR (framebuffer dans le scaler) est dans l'eDP depuis 2011... donc qui a inventé quoi? Honnêtement on s'en fout, nVidia vend bien sous forme propriétaire quelque chose qui existait déjà sous forme libre, faisant partie du groupe ayant défini le standard au même titre qu'AMD.
...
 
...
Le seul mérite côté nVidia c'est l'utilisation intelligente de l'existant pour autre chose que ce qui était documenté (efficacité énergétique), c'est maigre.


 
Tu devrais expliquer à Nvidia et AMD comment concevoir leurs moteurs d'affichages, c'est si bête ! Sérieusement tu sous-estimes grandement la complexité de faire varier en temps réel la fréquence de rafraîchissement et de prendre au milieu de tout cela la décision de doubler une image. Il y a un aspect logiciel important mais il consiste à exploiter la flexibilité du moteur d'affichage matériel existant. D'ailleurs à ce jour rien ne dit que les GPU Nvidia sont capables de doubler une image par exemple, je n'ai vu aucun test poussé de G-Sync mobile sur ce point.
 

gougui a écrit :

Deux aspects qui me semble important ne sont pas abordé, questions pour tridam du coup :D :  
Qu'en est il de Intel, le plus gros fabriquant tout de même (sur lequel on peu jouer quand même, et qui à justement besoin de gérer ses grosse variations de frame rate) ? Associé à NVIDIA dans les portable avec optimus, je ne les vois pas supporter un gsync pour autant !  
Et sinon, en mode double écrans, comment se comporte gsync et freesync ? Les connecteurs (HDMI ou displayP) ont ils leurs importances ?


 
Intel a annoncé qu'il supporterait adaptive-sync... un jour. Mais il ne faut pas oublier que la modification en temps réel de la fréquence de rafraîchissement est la possibilité ultime autorisée par la FRV mais rien n'empêche de supporter adaptive-sync pour faire uniquement des choses plus simple, par exemple dans le cadre des vidéos.
 
Ce n'est pas possible pour un portable G-Sync de supporter Optimus.
 
G-Sync et FreeSync supportent le multi-écran. Soit tous les écrans doivent être G-Sync/FreeSync pour le surround gaming, soit un seul écran peut être G-Sync/FreeSync et on peut y faire tourner une application en borderless. Il doit probablement y avoir un paquet de bugs et autres situations complexes dans lesquelles ça ne fonctionne pas par contre.
 

t3ddy a écrit :


Je ne joue pas sur les mots. Freesync est le nom donné par rtg pour le support du standard, support qui est bien uniquement logiciel du côté de rtg en dehors des CG : que je saches rtg n'ajoute rien en hardware pour cela à un écran qui utilise la frv standard. Dire qu'nvidia supporte freesync sous entend donc qu'ils utiliseraient la partie logicielle incluse dans les drivers des radeons et qui leur permet de gérer la frv telle que rtg a choisi de l'implémenter.
Deuxième point, explique moi en quoi nvidia ne pourrait pas apporter le support de l'adaptative sync de façon logicielle comme l'a fait rtg en développant leur propre truc et en quoi cela ne devra pas s'appeler gsync... Nawak


 
Pour faire de la FRV de manière dynamique et pilotée par le GPU, il faut encore que son moteur d'affichage en soit capable, idem pour le LFC. Il faut donc que le matériel ait été prévu pour ou avec suffisamment de flexibilité pour pouvoir l'exploiter dans ce sens. Il n'est pas impossible que Nvidia ne soit pas capable de prendre en charge la partie LFC au niveau de ses GPU.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Pilotes Radeon Software 16.12.2 Beta[Résolu]Branchement alimentation carte graphique Shappire Radeon RX460
Pas de son 5.1 avec ancienne Radeon 4300 Series en HDMIAMd ZEN consommation soit disant maîtrisée...
[HFR] Sondage : Attendez-vous Zen pour upgrader ?AMD RX 480 nitro+ reboot incessants
Problème processeur Amd Athlon x4 880kFreesync pré requis
[HFR] Actu : Mise à jour importante des pilotes Nvidia 
Plus de sujets relatifs à : [HFR]Focus AMD FreeSync : Efficace et pas chère, la FRV qu'on préfère?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR