guig2000 a écrit :
Bonjour,
Si ton jeu affiche 50 images par secondes, cela fait 20ms par images rendues par ton jeu (en moyenne), si un jeu tourne à 45 images par secondes (cela fait 22.2ms par images) Un affichage à 60Hz corresponds à 16.67 ms d'affichage par image. il y a donc disparité. sur un écran 60Hz, pour 45 images seconds, au mieux une image seras affiché pendant 33.3ms puis la suivante pendant 16.67ms.
Avec un écran 120Hz et 144Hz, le temps d'affichage par image est bien sûr inférieur (8.33ms et 6.94ms).
Or 8.33ms x 3 = 25ms et 6.94 x 3 = 20.83 ms. Ces écrans en affichant trois fois d’affilé l'image de ton jeu seront donc capable de donner un ressenti de fluidité supérieur à ton écran 60 Hz.
Mais la vrai réponse c'est de prendre un affichage capable de "variable refresh rate (VRR)". Ces écrans sont capable d'adapter leur vitesse d'affichage ou d'attendre que la nouvelle image de la source soit prête avant d'afficher la suivante, permettant la meilleure sensation de fluidité possible.
Ces affichages répondent à la double norme des VESA et HDMI forum appelé "adaptive sync" ou à la technologie propriétaire nvidia G-sync. Chez AMD le nom "adaptive sync" est marketé sous l’appellation "freesync".
Fenêtre de variation de fréquence: Attention, la qualité n'est pas forcément au rendez-vous: si tu veux que cette techno fonctionne bien, il faut que l'écran soit capable de descendre jusqu'à la demi-fréquence de sa fréquence max, par exemple 60Hz-120Hz ou 72Hz-144Hz.
Donc si tu as une carte graphique nvidia, tu peut choisir n'importe quel écran avec les appellation VRR, freesync, adaptative-sync ou G-sync. Si tu as une carte graphique AMD, un écran avec les mêmes labels sauf G-sync. A noter que les écrans estampillés "G-Sync", "G-Sync Ultimate", "FreeSync Premium" et "FreeSync Premium Pro" sont plus chers car les constructeurs ont payés une licence (certificatrion) à AMD ou nvidia.
|