Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2480 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Page Précédente
Auteur Sujet :

[HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?

n°8993963
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 19:30:02  profilanswer
0Votes positifs
 

Avec G-SYNC, Nvidia s'introduit dans les écrans pour leur permettre de mieux s'adapter au rythme des GPU. De quoi améliorer le confort de jeu sur PC en termes de fluidité, de latence et de qualité.
Lire la suite ...

mood
Publicité
Posté le 30-12-2013 à 19:30:02  profilanswer
 

n°8993972
Giulietta2​6
Avanti!!!
Posté le 30-12-2013 à 19:34:55  profilanswer
7Votes positifs
 

Bon article, mais la conclusion semble être pleine de parti pris, non?

n°8993977
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 19:38:29  profilanswer
23Votes positifs
 

Quand quelque chose est bien et qu'on le dit c'est un parti pris ? Etre objectif c'est trouver autant de point négatifs que positifs ? :p
 
Sinon désolé pour le retard de ce dossier dont nous avions annoncé la sortie imminente il y a 3 semaines. C'est en grande partie de ma faute. Prendre le temps de vraiment tester G-SYNC... ça prend du temps et malheureusement je n'étais qu'à moitié disponible ces dernières semaines.

n°8993987
mazingerz
Posté le 30-12-2013 à 19:48:27  profilanswer
0Votes positifs
 

ça me fait dire que je devrais activer le Vsync dans BF4 ^^ (étant a 80fps de moyenne)  
 
a tester déjà ça donc (jamais activé le vsync depuis 20 ans que j'ai un PC)

n°8993995
marcaurel1​5
Posté le 30-12-2013 à 19:54:58  profilanswer
0Votes positifs
 

Pas compris grand chose à cet article tres technique; pour résumer qu'est ce que ca va apporter de mieux pour les joueurs ? est ce que la différence en vaut vraiment le prix ??

n°8994004
d@nz
PC, XBOX Series X & PS5
Posté le 30-12-2013 à 20:00:32  profilanswer
9Votes positifs
 

Le surcoût lié au module G-SYNC rend le tarif du moniteur final prohibitif. Ça plus le fait qu'on soit cantonné à un unique constructeur - en l’occurrence les verts - en terme de GPU c'est beaucoup trop limitant pour être viable. Ça part d'une bonne intention, c'est ingénieux mais je ne pense pas que ça puisse marcher avec ces restrictions. Au final on peut très bien choisir de s'en passer & de privilégier la puissance brute du GPU pour contrebalancer le problème de fluidité.  
 
525€ pour jouer en FHD en 2013 - 2014 d'ici peu - ça fait un peu mal au derrière je trouve.  :D

n°8994038
Omelmike
On plante des radis...
Posté le 30-12-2013 à 20:20:18  profilanswer
2Votes positifs
 
n°8994061
olioops
Si jeune et déjà mabuse.
Posté le 30-12-2013 à 20:38:02  profilanswer
2Votes positifs
 

marcaurel15 a écrit :

Pas compris grand chose à cet article tres technique; pour résumer qu'est ce que ca va apporter de mieux pour les joueurs ? est ce que la différence en vaut vraiment le prix ??


T'inquiètes ! ça concerne surtout les joueurs PC ... et eux savent bien de quoi il s'agit !
Perso j'attends cela depuis des années [:sangokai:5] le nombre de jeux gâchés par des saccades pourries [:chewee297:1]
 
Du coup je vais laisser AC4 ( pas loin de la fin ) que j'aime beaucoup mais qui n'est pas fluide avec une 780 ...et le finir en G-SYNC sans être emmerder à chaque changement de framerates .
 
Merci pour l'article  [:b-rabbit]  
 
et gros MERCI à NVidia  :jap:


Message édité par olioops le 30-12-2013 à 20:39:19

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°8994077
Joelepain
Posté le 30-12-2013 à 20:46:02  profilanswer
2Votes positifs
 

Très bon article mise à part la partie sur le triple buffering.
Il existe un "vrai" et un "faux" triple buffering (aka render ahead ou render queue).
Ce que vous appelez "le vrai mais qui en fait n'existe pas" EST le triple buffering tel qu'il a été pensé et tel qu'il est décrit sur wikipédia, et dans les articles dont wikipédia prend source (dont un article de anadtech par exemple). Il est d'ailleurs évoqué dans cette vidéo d'explication de g-sync http://www.youtube.com/watch?v=KhLYYYvFp9A
Alors oui le problème du "vrai" triple buffering c'est qu'il introduit du stutter par rapport à v-sync on. Mais il y a le même problème avec v-sync off. Oui le "vrai" triple buffering a du lag par rapport à v-sync off, mais par contre il est théoriquement moins prononcé que v-sync on. Oui le "vrai" triple buffering "gaspille" des ressources gpu car certaines images ne sont pas affichées, mais le problème existe aussi avec v-sync off qui n'affiche que des parties d'image.
Le vrai problème du vrai triple buffering, c'est qu'il n'était fonctionnel qu'avec openGL, donc il a disparu petit à petit avec l'adoption massive de directX, et de plus comme il consomme plus de mémoire que le double buffering, il n'a forcément jamais été utilisé sur les consoles qui n'ont jamais été bien loties niveau quantité de mémoire.
En fait le triple buffering au début des années 2000 était un peu la solution "la moins pire" entre v-sync off et v-sync on pour ceux qui ne supportait pas le tearing, mais est tombée (à tort!) petit à petit dans l'oublie.
 
Commentaire un peu hors sujet car ici on parle de g-sync, mais ca m'a fait tiqué quand j'ai vu votre passage "on veut rétablir la verité sur le triple buffering" et que vous vous trompez quand même...

Message cité 2 fois
Message édité par Joelepain le 30-12-2013 à 20:49:56
n°8994086
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 20:57:47  profilanswer
1Votes positifs
 

ravenloft a écrit :



Une question tridam
: tu dis que les CRT avaient des fréquences de rafraichissement fixe.

Citation :

Parmi les contraintes héritées des écrans CRT, nous retrouvons la fréquence de rafraîchissement fixe


C'est bizarre parce que justement dans les CRT on pouvait modifier la fréquence de rafraichissement aussi comme sur un LCD. C'était manuel mais pourquoi cela ne pouvait-il pas être dynamique? Il y a quelque chose que je dois mal comprendre. Si c'est possible d'expliquer, merci.


 
Ce n'est pas possible sur un CRT parce qu'allonger le VBLANK revient à allonger la période totalement noire de l'écran et donc faire varier la luminosité.

mood
Publicité
Posté le 30-12-2013 à 20:57:47  profilanswer
 

n°8994095
Omelmike
On plante des radis...
Posté le 30-12-2013 à 21:01:52  profilanswer
3Votes positifs
 

Omelmike a écrit :


Ce troll. :ouch:  
Tu essais de dire quoi? Qu'amd fait la même chose en mieux?


 
Exactement, pour la simple et bonne raison que c'est du matériel pro. Le problème est, l'article le souligne, que la "nouvelle-technologie-nvidia-G-Sync" n'a pas d'intérêt pour le propriétaire d'un GPU haut de gamme en activant la syncro V. Tous les lecteurs de HFR, ou presque, ont une config suffisante pour cela, j'en suis certain, du moins les Geeks ^^
Ensuite, l'écran proposé a une dalle à la qualité relative, qui ne satisfera pas tout le monde, surtout au prix dû à la "nouvelle-techno-toussa" accrochée dessus.
Je ne mets pas en doute la qualité du produit ni son efficacité. Je me permets simplement de dire : sérieusement, à qui, raisonnablement, cette grande et ô combien novatrice et originale invention servira ? Le mec à ptit budget ne paiera pas 100 euros une carte graphique et dans un même temps pourra se permettre l'achat d'un écran comme ça. Et pour 200 euros, le GPU, syncro V activée, sera suffisant. Donc voilà.  
Je sais, je suis un gros fanboy, allez-y, lâchez vous :D


Message édité par Omelmike le 30-12-2013 à 21:02:50
n°8994096
$k-flown
Posté le 30-12-2013 à 21:02:15  profilanswer
2Votes positifs
 

Bonne initiative de rappeler les bases au début de l'article (même si visiblement c'est déjà trop compliqué pour certains...), parce qu'on en voit certains des fois dans les commentaires ou les forums sortir des énormités ça fait peur.
 
Faudrait aussi faire (ou refaire) un article pour (re)expliquer et démonter une bonne fois pour toute le mythe des 24fps du cinéma et pourquoi 30fps en même pas 1080p en 2014(et+) c'est quand même une honte.
 
C'est la base mais visiblement c'est toujours bien de faire des rappels.

n°8994101
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 21:06:17  profilanswer
1Votes positifs
 

Joelepain a écrit :

Très bon article mise à part la partie sur le triple buffering.
Il existe un "vrai" et un "faux" triple buffering (aka render ahead ou render queue).
Ce que vous appelez "le vrai mais qui en fait n'existe pas" EST le triple buffering tel qu'il a été pensé et tel qu'il est décrit sur wikipédia, et dans les articles dont wikipédia prend source (dont un article de anadtech par exemple). Il est d'ailleurs évoqué dans cette vidéo d'explication de g-sync http://www.youtube.com/watch?v=KhLYYYvFp9A
Alors oui le problème du "vrai" triple buffering c'est qu'il introduit du stutter par rapport à v-sync on. Mais il y a le même problème avec v-sync off. Oui le "vrai" triple buffering a du lag par rapport à v-sync off, mais par contre il est théoriquement moins prononcé que v-sync on. Oui le "vrai" triple buffering "gaspille" des ressources gpu car certaines images ne sont pas affichées, mais le problème existe aussi avec v-sync off qui n'affiche que des parties d'image.
Le vrai problème du vrai triple buffering, c'est qu'il n'était fonctionnel qu'avec openGL, donc il a disparu petit à petit avec l'adoption massive de directX, et de plus comme il consomme plus de mémoire que le double buffering, il n'a forcément jamais été utilisé sur les consoles qui n'ont jamais été bien loties niveau quantité de mémoire.
En fait le triple buffering au début des années 2000 était un peu la solution "la moins pire" entre v-sync off et v-sync on pour ceux qui ne supportait pas le tearing, mais est tombée (à tort!) petit à petit dans l'oublie.
 
Commentaire un peu hors sujet car ici on parle de g-sync, mais ca m'a fait tiqué quand j'ai vu votre passage "on veut rétablir la verité sur le triple buffering" et que vous vous trompez quand même...


Wikipedia n'est pas la bible et il ne faut pas croire que parce qu'un article est écrit en anglais il est correct. Cet article d'anandtech est erroné sur plusieurs points, je ne comprends même pas comment il a pu rester en l'état en ligne si longtemps. Render ahead n'a strictement aucun rapport avec le triple buffering, peu importe comment il fonctionne, de la manière vue par le rédacteur d'anandtech ou comme c'est le cas dans les jeux. La consommation mémoire est identique peu importe le type de triple buffering. Ce que décrit l'article d'anandtech c'est surtout utile pour jouer à Quake à 300 fps (avec textures désactivées :o) sans tearing avec la plus faible latence possible. Dans des conditions normales ça réduit le confort de jeu par rapport au triple buffering tel qu'exploité dans 8 des 10 jeux testés ici.


Message édité par tridam le 30-12-2013 à 21:16:44
n°8994105
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 21:08:27  profilanswer
6Votes positifs
 


 
Ca n'a donc strictement aucun rapport avec la fréquence de rafraîchissement variable ;) ce n'est pas parce qu'AMD fait quelque chose avec le mot synchronisation dedans qu'ils sont prêts pour faire du G-SYNC-like :p

n°8994113
akuoni119
Posté le 30-12-2013 à 21:13:12  profilanswer
5Votes positifs
 

Salut,
 
je voulais remercier Tridam pour cet article très intéressant, le retard vaut la qualité !

n°8994119
vitalic660
Posté le 30-12-2013 à 21:17:00  profilanswer
3Votes positifs
 

En gros G-sync est utile quand on as une carte graphique moyen de gamme et inutile, voire moins bon, quand on utilise une carte haut de gamme.
Le souci c'est le prix. Si les moniteurs coutent beaucoup plus cher, autant prendre une carte haut de gamme et un moniteur normal et activer le v-sync en cas de tearing....
En conclusion c'est inutile, a moins que g-sync sois gratuit. Merci nvidia !

n°8994122
olioops
Si jeune et déjà mabuse.
Posté le 30-12-2013 à 21:19:30  profilanswer
1Votes positifs
 

vitalic660 a écrit :

En gros G-sync est utile quand on as une carte graphique moyen de gamme et inutile, voire moins bon, quand on utilise une carte haut de gamme.
Le souci c'est le prix. Si les moniteurs coutent beaucoup plus cher, autant prendre une carte haut de gamme et un moniteur normal et activer le v-sync en cas de tearing....
En conclusion c'est inutile, a moins que g-sync sois gratuit. Merci nvidia !


Non t'as rien compris  :sleep:
ou simplement jamais jouer sur PC  [:airforceone]


Message édité par olioops le 30-12-2013 à 21:20:32

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°8994124
mum1989
Posté le 30-12-2013 à 21:20:23  profilanswer
0Votes positifs
 

Citation :

A noter qu'utiliser un limiteur de performances, que ce soit à 59 ou 60 fps en 60 Hz VSYNC OFF, permet d'obtenir un résultat très proche de celui d'une synchronisation verticale dynamique.(...)


c'est à dire ?
utiliser un logiciel qui bloque les FPS comme MSI afterburner ?
 
question bête dans ce cas, pourquoi ce n'est pas généralisé ?

n°8994126
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 21:20:50  profilanswer
0Votes positifs
 

ravenloft a écrit :


Merci pour la précision.
Autre question;: comment savez vous que dans blacklist, il y a du triple buffering en 120hz et du double en 60hz? Est-ce qu'ubi vous l'a dit ou est-ce une observation dans le comportement dans le jeu?


 
C'est une observation. Si je me mets à un endroit qui donne 47 fps en VSYNC off, je vais avoir 30 fps en VSYNC ON 60 Hz et 47 fps en VSYNC ON 144 Hz.

n°8994129
d@nz
PC, XBOX Series X & PS5
Posté le 30-12-2013 à 21:21:25  profilanswer
0Votes positifs
 

Pas forcément un soft, une commande via "²" suffit dans pas mal de jeux par exemple.  :)

n°8994133
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 21:25:45  profilanswer
0Votes positifs
 

mum1989 a écrit :

Citation :

A noter qu'utiliser un limiteur de performances, que ce soit à 59 ou 60 fps en 60 Hz VSYNC OFF, permet d'obtenir un résultat très proche de celui d'une synchronisation verticale dynamique.(...)


c'est à dire ?
utiliser un logiciel qui bloque les FPS comme MSI afterburner ?
 
question bête dans ce cas, pourquoi ce n'est pas généralisé ?


 
Parce que plus qu'une solution aux problèmes de VSYNC ON/OFF, c'est un compromis différent avec ses avantages et ses désavantages.

n°8994140
Redvex
Posté le 30-12-2013 à 21:30:36  profilanswer
0Votes positifs
 

d@nz a écrit :

Le surcoût lié au module G-SYNC rend le tarif du moniteur final prohibitif. Ça plus le fait qu'on soit cantonné à un unique constructeur - en l’occurrence les verts - en terme de GPU c'est beaucoup trop limitant pour être viable.

Hormis la question du prix, même si c'est un tout petit borderline sur le troll, moi ça me parait encore hurler "16:9 only" tout ça :/

Joelepain a écrit :

Très bon article mise à part la partie sur le triple buffering.
Il existe un "vrai" et un "faux" triple buffering (aka render ahead ou render queue)


Ce qui explique cette note que je ne comprenais pas dans l'ATI CCC à ce sujet :jap:

d@nz a écrit :

Pas forcément un soft, une commande via "²" suffit dans pas mal de jeux par exemple.  :)


Ou via cfg/ini, souvent une entrée avec un "62" par défaut pour ça :)

 

Quoi qu'il en soit merci pour le dossier !


Message édité par Redvex le 30-12-2013 à 21:31:56
n°8994164
Joelepain
Posté le 30-12-2013 à 21:42:49  profilanswer
0Votes positifs
 

tridam a écrit :


Wikipedia n'est pas la bible et il ne faut pas croire que parce qu'un article est écrit en anglais il est correct. Cet article d'anandtech est erroné sur plusieurs points, je ne comprends même pas comment il a pu rester en l'état en ligne si longtemps. Render ahead n'a strictement aucun rapport avec le triple buffering, peu importe comment il fonctionne, de la manière vue par le rédacteur d'anandtech ou comme c'est le cas dans les jeux. La consommation mémoire est identique peu importe le type de triple buffering. Ce que décrit l'article d'anandtech c'est surtout utile pour jouer à Quake à 300 fps (avec textures désactivées :o) sans tearing avec la plus faible latence possible. Dans des conditions normales ça réduit le confort de jeu par rapport au triple buffering tel qu'exploité dans 8 des 10 jeux testés ici.


 
Vous avez complété l'article, merci c'est plus clair maintenant ;-)
Par contre il y a l'air d'avoir un problème de police en gras.

Message cité 1 fois
Message édité par Joelepain le 30-12-2013 à 21:43:22
n°8994169
ouam49
Posté le 30-12-2013 à 21:45:07  profilanswer
1Votes positifs
 

okay cool ce test complet, mais ça reste cher pour un 24  avec  3d , on espere de prochaines annonces avec  d'autres écrans

Message cité 1 fois
Message édité par ouam49 le 30-12-2013 à 21:45:20
n°8994175
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 21:47:01  profilanswer
0Votes positifs
 

Joelepain a écrit :


 
Vous avez complété l'article, merci c'est plus clair maintenant ;-)
Par contre il y a l'air d'avoir un problème de police en gras.


 
Corrigé, petit bug, j'ai mis en évidence la distinction entre les buffers au niveau de l'API (avant) et les buffers en sortie du GPU (après) de manière à ce que soit bien clair le fait que render ahead n'a aucun rapport avec le triple buffering.

n°8994177
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 21:48:03  profilanswer
0Votes positifs
 

ouam49 a écrit :

okay cool ce test complet, mais ça reste cher pour un 24  avec  3d , on espere de prochaines annonces avec  d'autres écrans


 
Un PQ321 G-SYNC Edition  :o  vite  :o

n°8994180
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 21:49:21  profilanswer
0Votes positifs
 

ravenloft a écrit :


Autre question tu indiques  

Citation :

Crysis 3 : triple buffering


En y jouant j'avais pourtant remarqué du double buffering sur mon 120hz.  
J'avais du utiliser d3d overrider pour activer le triple buffering.
Cela se voyait car j'étais bloqué à 30 i/s en vsync on alors qu'avec d3d overrider j'étais à 36-38 comme en vsync off.
 
Vous vous êtes pas trompé?


 
Non c'est bien du triple buffering par défaut (cf les perfs). Crytek a peut-être mis à jour ce point ? je teste ici sur la dernière version du jeu.


Message édité par tridam le 30-12-2013 à 21:50:30
n°8994194
ever_over
Posté le 30-12-2013 à 21:57:32  profilanswer
0Votes positifs
 

Il semble évident qu'il y aura un Gsync 2, puis Gsync 3... L'article précise que les versions prototypes ne seront pas upgradables, qu'en est-il des versions de série en vente l'année prochaine ?

n°8994202
Merlin_L_E​nchanteur
Informaticien depuis 1979...
Posté le 30-12-2013 à 21:59:50  profilanswer
0Votes positifs
 

ravenloft a écrit :


Très bon article.
C'est vrai que tu nous as fait languir mais au final, c'est la qualité de l'article qui compte.

Une question tridam
: tu dis que les CRT avaient des fréquences de rafraichissement fixe.

Citation :

Parmi les contraintes héritées des écrans CRT, nous retrouvons la fréquence de rafraîchissement fixe


C'est bizarre parce que justement dans les CRT on pouvait modifier la fréquence de rafraichissement aussi comme sur un LCD. C'était manuel mais pourquoi cela ne pouvait-il pas être dynamique? Il y a quelque chose que je dois mal comprendre. Si c'est possible d'expliquer, merci.

 
tridam a écrit :

 

Ce n'est pas possible sur un CRT parce qu'allonger le VBLANK revient à allonger la période totalement noire de l'écran et donc faire varier la luminosité.

 

Tiens c'est curieux mais je ne comprends pas :o Mon CRT pouvait varier de 60 à 85 Hz et je ne savais pas qu'il y avait un passage au noir sur de l'analogique ??? Vu que le spot se déplaçait constamment :??:

 

Edit : en lisant l'article, je comprends mieux ;) Tu as oublié un détail (je ne sais pas si c'est opportun ou pas) en ce qui concerne la rémanence des CRT qui permettait de bien gagner au niveau sensibilité à l'effet de scintillement aux basses fréquences.

 

En ce qui concerne le temps de remonté du canon à électron, j'avais ouïe dire que suivant les éléctros-aimants (et pas des aimants) c'était instantané...

 

D'autre part, le VBLANK que tu nommes ainsi a toujours été utilisé pour passer des tas d'infos comme le Close Caption du temps des LD ou d'autres signaux sur les TV comme le télétexte et autre

Message cité 1 fois
Message édité par Merlin_L_Enchanteur le 30-12-2013 à 22:13:33
n°8994204
Lykomax
Posté le 30-12-2013 à 22:00:12  profilanswer
1Votes positifs
 

Dommage que ça revienne si chère, surtout pour les possesseurs de carte ATI, et que ça arrive trop tard.

 

De plus je pense que les cartes graphiques pourront aller jusqu'à doubler de puissance dans les prochaines années alors qu'en même temps les besoins graphique vont stagner à cause des consoles, on pourra facilement se passer de ce genre de fonctionnalité et jouer confortablement.

 

Surtout que dans tous les cas il vaut mieux limiter les FPS afin d'éviter la chauffe de la carte, les nuisances sonores et la surconsommation d'énergie.


Message édité par Lykomax le 30-12-2013 à 22:12:01
n°8994208
Joelepain
Posté le 30-12-2013 à 22:01:30  profilanswer
0Votes positifs
 

tridam a écrit :


Corrigé, petit bug, j'ai mis en évidence la distinction entre les buffers au niveau de l'API (avant) et les buffers en sortie du GPU (après) de manière à ce que soit bien clair le fait que render ahead n'a aucun rapport avec le triple buffering.


 
Par contre je ne suis toujours pas d'accord pour dire que le problème du triple buffering c'est l'introduction de stutter. Oui c'est vrai par rapport à du double buffering v-sync on, mais c'est faux par rapport à du v-sync off. D'ailleurs le monsieur de nVIDIA dans la démo de g-sync insiste bien sur ce point : v-sync off ne règle PAS les problèmes de stutter (chaque "bout" d'image micro saccade en fait) et c'est ce qui est paradoxal car les joueurs souvent désactivent la v-sync en croyant que ça va régler les problèmes de stutter.
Par contre une fois qu'on a bien défini ce qu'est le render ahead, on se retrouve avec la même confusion : il y au niveau de la sortie du gpu deux méthodes de triple buffering, qu'on ne va pas appeler vrai ou fausse parce que c'est débile et faux. Chacune a ses avantages et inconvénient. L'une n'augmentant peu l'input lag mais ne réglant pas le stutter, l'autre augmentant l'input lag.
En fait cette notion de "vrai" et "faux" vient du fait qu'il y a deux méthodes qui portent le même nom, donc les joueurs se sont sentis "trompé" à un moment.

n°8994211
wnorton
Je suis néerlandophone
Posté le 30-12-2013 à 22:03:16  profilanswer
3Votes positifs
 


 
Rien à voir ton lien réaction de fanboy  :o  
 
AMD tu as beaucoup de vidéo de bla bla mais rien a la bonne date, des retards à répétition.
 
Mantle depuis qui en parle toujours pas sorti   :o  
 


---------------
Je suis néerlandophone une fois
n°8994212
madcat
Posté le 30-12-2013 à 22:03:32  profilanswer
2Votes positifs
 

Article intéressant, merci tridam  :jap:

 

Quelques questions cependant:

 

- tu ne parles pas de ton ressenti à propos des variations de framerate en mode gsync. Quand un jeu oscille entre 40 et 70fps ça doit tout de même se ressentir (un autre test évoquait ce point il me semble).

 

- dans ta conclusion tu n'évoques pas la possibilité de modules gsync externes à brancher sur des écrans qui seraient livrés en version "sans électronique", ce qui permettrait de réutiliser son module lors d'un changement d'écran. Nvidia et l'industrie des écrans n'envisage pas cette possibilité ?

 

Sinon je reste un peu déçu que même en gsync il puisse rester des saccades / à-coups. J'aurais espéré que gsync soit l'assurance de ne plus en avoir du tout (si fps > 30, puisqu'en deçà il y a répétition forcée d'image). De même je suis un peu étonné que tu mentionnes les accès disques comme possible cause de saccades contre lesquelles gsync ne peut rien. Avec les quantités de ram et vram que l'on trouve de nos jours dans nos pécés on en serait encore à pouvoir avoir des saccades causées par des accès disques (bien souvent ssd qui plus est) ?

Message cité 1 fois
Message édité par madcat le 30-12-2013 à 22:14:16

---------------
" Mais putaaain... Mais les gars qu'est-ce qu'ils font quoi, ils développent un jeu quoi ils essayent leur truc là ? ils essayent ? ils s'voyent voyent pas qu'c'est d'la merde !? "
n°8994215
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 22:07:31  profilanswer
0Votes positifs
 

ravenloft a écrit :


Ok. J'avais joué avec le premier patch ou le second et c'était clairement du double.
 
 
Autre chose: tu dis que dans metro last light tu n'avais que du 60hz. J'avais bien du 120hz avec le vsync on sur le jeu. Dans le driver je met toujours dans fréquence de rafraichissement préféré: utiliser la fréquence la plus élevée.


 
Je n'ai pas cette option, bizarre...

n°8994218
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 22:08:45  profilanswer
1Votes positifs
 

Merlin_L_Enchanteur a écrit :


 
Tiens c'est curieux mais je ne comprends pas :o Mon CRT pouvait varier de 60 à 85 Hz et je ne savais pas qu'il y avait un passage au noir sur de l'analogique ??? Vu que le spot se déplaçait constamment :??:


 
Roh faudrait lire l'article et la description du VBLANK :o

n°8994229
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 22:15:40  profilanswer
0Votes positifs
 

Joelepain a écrit :


 
Par contre je ne suis toujours pas d'accord pour dire que le problème du triple buffering c'est l'introduction de stutter. Oui c'est vrai par rapport à du double buffering v-sync on, mais c'est faux par rapport à du v-sync off. D'ailleurs le monsieur de nVIDIA dans la démo de g-sync insiste bien sur ce point : v-sync off ne règle PAS les problèmes de stutter (chaque "bout" d'image micro saccade en fait) et c'est ce qui est paradoxal car les joueurs souvent désactivent la v-sync en croyant que ça va régler les problèmes de stutter.
Par contre une fois qu'on a bien défini ce qu'est le render ahead, on se retrouve avec la même confusion : il y au niveau de la sortie du gpu deux méthodes de triple buffering, qu'on ne va pas appeler vrai ou fausse parce que c'est débile et faux. Chacune a ses avantages et inconvénient. L'une n'augmentant peu l'input lag mais ne réglant pas le stutter, l'autre augmentant l'input lag.
En fait cette notion de "vrai" et "faux" vient du fait qu'il y a deux méthodes qui portent le même nom, donc les joueurs se sont sentis "trompé" à un moment.


 
Ha mais l'article indique justement qu'il reste des saccades en VSYNC OFF :o
 
Le triple buffering, sans images sautées, tel qu'utilisé dans tous les jeux réduit les saccades au prix d'une image de latence. Le triple buffering avec images sautées, ne réduit pas les saccades mais réduit la latence par rapport au double buffering (sans ajouter de tearing) si le niveau de performances est largement supérieur à 60 fps.

n°8994230
Merlin_L_E​nchanteur
Informaticien depuis 1979...
Posté le 30-12-2013 à 22:16:38  profilanswer
0Votes positifs
 

tridam a écrit :


 
Roh faudrait lire l'article et la description du VBLANK :o


 
 
voui voila, lacune comblée et texte édité ;)

n°8994236
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 22:22:36  profilanswer
0Votes positifs
 

madcat a écrit :

Article intéressant, merci tridam  :jap:  
 
Quelques questions cependant:
 
- tu ne parles pas de ton ressenti à propos des variations de framerate en mode gsync. Quand un jeu oscille entre 40 et 70fps ça doit tout de même se ressentir (un autre test évoquait ce point il me semble).
 
- dans ta conclusion tu n'évoques pas la possibilité de modules gsync externes à brancher sur des écrans qui seraient livrés en version "sans électronique", ce qui permettrait de réutiliser son module lors d'un changement d'écran. Nvidia et l'industrie des écrans n'envisage pas cette possibilité ?
 
Sinon je reste un peu déçu que même en gsync il puisse rester des saccades / à-coups. J'aurais espéré que gsync soit l'assurance de ne plus en avoir du tout (si fps > 30, puisqu'en deçà il y a répétition forcée d'image). De même je suis un peu étonné que tu mentionnes les accès disques comme possible cause de saccades contre lesquelles gsync ne peut rien. Avec les quantités de ram et vram que l'on trouve de nos jours dans nos pécés on en serait encore à pouvoir avoir des saccades causées par des accès disques (bien souvent ssd qui plus est) ?


 
C'est mieux à 70 fps qu'à 40 fps, mais on ne ressent pas trop la variation. Ce serait peut-être problématique si un jeux tournait 1s à 70fps, 1s à 40 fps, 1s à 70 fps et ainsi de suite mais ce n'est pas ce qui se passe en pratique.
 
Ce n'est pas prévu, probablement parce que le module G-SYNC doit être programmé spécifiquement pour une dalle donnée, donc il faudrait un firmware spécifiques à chaque fois, que les fabricants d'écrans acceptent le surcoût de cette infrastructure modulaire etc (faut bien réaliser qu'ajouter le support de G-SYNC dans un ASIC et non via un FPGA ça coûte 3x moins que peanuts ;) :). Par contre Nvidia réfléchit à la possibilité d'une intégration dans les TV prévus pour être modulaires. Pas facile de convaincre Samsung et co mais ils pourraient en profiter pour fluidifier l'affichage de la VOD.  
 
G-SYNC ne peut pas faire de miracles, si le moteur du jeu génère une grosse saccades de 100ms (soit en interrompant le débit d'image soit l'évolution de la simulation du monde), il ne peut rien y faire.


Message édité par tridam le 30-12-2013 à 22:30:07
n°8994241
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 22:26:51  profilanswer
0Votes positifs
 

ravenloft a écrit :


Essaie de mettre ton écran à 120hz, elle devrait apparaitre.
 
Je sais que si j'ai moins de 120hz, cette option n'existe pas. Je m'étais posé la question à l'époque de mon CRT car Ms a merdé depuis vista (pas de problème sous xp) en forçant le 60hz dans les jeux. Crysis 1 n'ayant pas d'option pour gérer la fréquence, je me trouvais à 60hz ce qui était inbuvable sur un CRT. Impossible de forcer le 85hz. J'avais pourtant vu qu'nvidia avait implémenté cette option dans les drivers en 2009 ou 2010 mais je ne la voyais pas. Je crois que c'est Space qui m'en avait parlé et m'avait fait comprendre qu'elle n'était activé qu'avec un écran 120hz (à l'époque il n'existait pas de 144hz).
 
Si elle n'existe pas quand on est à 144hz, peut être qu'il faudrait le signaler à nvidia car c'est surement un oubli et les joueurs ne s'en sont pas rendu compte. Je pense que tu aurais plus de poids qu'un quidam comme nous pour le signaler.
 
J'ai toujours trouvé ça idiot de ne pas l'activer en dessous de 120 hz mais ça l'est encore plus si ce n'est pas actif en dessus de 120hz.
 
 
A part sous splinter celle balcklist qui est le seul jeu qui déconne avec le dernier patch (j'ai 60hz même avec ça en mode plein écran et je dois modifier le .ini pour passer en 120hz car dans le jeu l'option est grisée en mode pleine écran mais pas en mode fenêtré. Bizarre), cette option m'a toujours permis d'être  à 120hz dans les jeux ne proposant pas de choisir la fréquence et avec vista/seven forçant le 60hz.


 
Il faudra que je vérifie à l'occasion, je ne peux pas le faire là maintenant. C'est le seul jeu qui était dans ce cas. Par contre sous Splinter Cell BL il y a effectivement des bugs: dans certains cas il faut passer par l'ini alors que dans d'autres toutes les options sont dispos.

n°8994285
tridam
Profil : Equipe HardWare.fr
Posté le 30-12-2013 à 22:54:59  profilanswer
0Votes positifs
 

Le système n'est pas connecté sur cet écran pour le moment. C'est possible que ce soit lié à la connectique DP aussi, ou tout simplement que je sois passé à côté.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?

 

Sujets relatifs
Faible score 3D Marks et jeux (et oui, encore un)Problème Nvidia Geforce 315
Petite configuration Virtualisation & Jeux légers[HFR] Actu : Intel baisse le prix des Haswell ''R''
Aide pour une C.GUpgrade montage video/Jeux
Carte reseau deconnectée pendant les jeuxMa télé sony bravia affiche 'Pas de sync"
Demande conseils : upgrade config pour montage vidéo et jeux 
Plus de sujets relatifs à : [HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR