Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1226 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

[HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?

n°8997778
Nono0000
Posté le 02-01-2014 à 19:32:20  profilanswer
1Votes positifs
 

Reprise du message précédent :

sagittaire a écrit :

 

Gsync n'est pas fait pour corriger les défauts des systèmes multi-GPU. GSync permet en gros d'afficher quasi-immédiatement (dans la limite de la fréquence de l'écran) les images générées par le système graphique.

 


 

Vu que les contraintes sur les buffers de sortie sont totalement changees, il se peut qu'indirectement certaines micro-saccades du au SLI soient corrigees.
Il n'est pas idiot de poser la question...
Egalement, est-ce qu'en theorie cela permettrait de se passer de la frame de latence en AFR?

Message cité 1 fois
Message édité par Nono0000 le 02-01-2014 à 19:36:08
mood
Publicité
Posté le 02-01-2014 à 19:32:20  profilanswer
 

n°8998064
sagittaire
Posté le 02-01-2014 à 22:29:20  profilanswer
1Votes positifs
 

Nono0000 a écrit :


 
Vu que les contraintes sur les buffers de sortie sont totalement changees, il se peut qu'indirectement certaines micro-saccades du au SLI soient corrigees.
Il n'est pas idiot de poser la question...
Egalement, est-ce qu'en theorie cela permettrait de se passer de la frame de latence en AFR?


 
Non le stuttering des système Multi-GPU est lié à des images consécutives calculé presque en même temps. GSync ne peut rien faire pour ça. D'ailleurs s'il y a une information à retenir de ce dossier c'est bien que le fps brut ne fait pas tout. Si on a 60 fps avec un débit très régulier, l'oeil humain ne verra pas de différence au dessus comme beaucoup d'étude scientifiques le montrent. Dans les jeux vidéos si l'oeil perçoit encore des saccades au dessus de 60 fps, ce n'est pas à cause du débit insuffisant d'image mais à cause d'un débit local trop irrégulier.
 
D'ailleurs cette technologie est très utile avec les écrans actuel qui finalement ne montent pas très haut en fréquence. Mais le jour où un fabriquant sera capable de sortir un écran à 200 Mhz ou plus (et on en est pas loin), cette techno sera complétement inutile. A mon avis, tout les défauts du V-Sync OFF sont très atténué à 200 hz et complètement invisible pour l'oeil humain à 400 hz.


Message édité par sagittaire le 02-01-2014 à 22:57:26
n°8998219
Joelepain
Posté le 03-01-2014 à 00:22:12  profilanswer
0Votes positifs
 

sagittaire a écrit :

D'ailleurs cette technologie est très utile avec les écrans actuel qui finalement ne montent pas très haut en fréquence. Mais le jour où un fabriquant sera capable de sortir un écran à 200 Mhz ou plus (et on en est pas loin), cette techno sera complétement inutile. A mon avis, tout les défauts du V-Sync OFF sont très atténué à 200 hz et complètement invisible pour l'oeil humain à 400 hz.


 
Justement, imaginons un écran capable de rafraichir à 500 voir 1000hz (c'est d'ailleurs ce que Carmack et un mec de Valve travaillant sur les casques VR souhaitaient), avec v-sync off on ne verrait peut être plus le tearing. Avec v-sync on comme il y aurait beaucoup plus de palliers dans la zone 40 - 100hz, on verrait très peu les changement de palliers de framerate. Mais dans tous les cas les défauts de v-sync off et on sont là, même si très peu visible.
 
Alors qu'avec g-sync on aurait le même résultat voir mieux. Et comme tu le dis toi même, des études montrent qu'à un certains seuil on ne perçoit plus la montée du framerate.
 
Du coup g-sync permettrait justement d'éviter cette nécessité de monter le framerate inutilement.
D'un coté tu as une solution qui demande de faire des recherches pour augmenter le taux de rafraichissement des écrans et le débit des liaisons vidéo.
De l'autre tu as une solution bien plus "propre" dans son concept : c'est à dire que tu rafraichis l'écran uniquement et dés qu'une image pleine est prête, et le reste du temps tu fais rien, tu rafraichis pas l'écran inutilement et tu n'envoies pas de données sur la liaison vidéo inutilement.
 


Message édité par Joelepain le 03-01-2014 à 00:23:29
n°8998291
schpounzzz
mangeur de hardware.
Posté le 03-01-2014 à 02:28:11  profilanswer
0Votes positifs
 

Oki doki, si quelqu'un test une confit sli sur un Ecran g-sync je serai bien curieux "au cas ou" de voir comment cela réagi!
 
Dans mon cas, farcry 3 en sli gtx660 sur un ecran 60hz je bloque le framerate à 30ips pour voir disparaître le micro stutering, au delà de 30 ips sa reviens! Par contre sur mon 27" 144hz, sans rien changer en terme de mise à jour ou pilotes et de zone de jeu, le microstut sont moins présent et je peu mettre le framerate (MSI afterburner) à 70ips et ils disparaissent! D'où ma petite hésitation sur le fait que la synchro adaptative pourrait peut être un temps soit peu améliorer le schmilblique!

n°8998295
schpounzzz
mangeur de hardware.
Posté le 03-01-2014 à 02:31:31  profilanswer
0Votes positifs
 

Marc, si il est toujours dans vos locos, si il est possible de se pencher sur la question (si cela est efficace, grand nombres dont moi serait ravis de l'apprendre)!
 

n°8998311
helloworld​256
Hello, World.
Posté le 03-01-2014 à 04:35:30  profilanswer
1Votes positifs
 

Oui, g-sync c'est comme un écran à 1000Hz(ou infini) avec la vsync on en ce qui concerne la granularité temporelle d'affichage...sauf qu'il ne peut atteindre que 144Hz réels.
 
Ca ne peut pas être comparable au genlock sinon ce ne serait rien d'autre que du 144Hz vsync on triple buffered (le vrai hinhin) si la granularité de sortie était à 144Hz. Puis, juste, les ingénieurs chez nvidia doivent un peu savoir de quoi ils parlent et ne pas faire des trucs inutiles pour le plaisir.
 
En bref c'est ni plus ni moins qu'un système où l'écran affiche le framebuffer au moment du blit, point. Ca supprime une cause d'aliasing et jitter temporels complètement inutiles néfastes et non réguliers à la fin de la chaîne, c'est toujours ça. C'est évident que c'est La Bonne Chose A Faire et que quel que soit le reste du système on est systématiquement mieux loti avec que sans, et que ça aurait dû être fait avant, donc à partir de là, ça devrait être l'avenir de tous les écrans. Quand on y pense l'impact aurait été encore plus phénoménal à l'époque où on n'avait que du 60Hz. Dommage. Mais même avec une dalle qui prend 1000Hz (pour info une obscure vidéo youtube montre un "amateur" pilotant une vieille dalle fhd TN à 250Hz avec succès) ce serait mieux d'avoir le gsync à granularité sub-millsec, tant qu'à faire. En fait on ne peut s'empêcher de penser qu'avec une meilleure implémentation globale il y aurait plutôt de l'électronique à enlever qu'à rajouter, moi aussi ça m'a surpris qu'on puisse pas faire plus simple, maintenant bon c'est vrai que les contrôleurs font du traitement ne serait-ce que pour l'overdrive de la dalle. Il fallait le faire sans être un constructeur d'écran surtout, nvidia l'a fait, ça marche, vive nvidia. On se dit qu'il y a quand même des chances que tout ça soit une conséquence lointaine supplémentaire de l'article Inside the second de Scott Wasson.
 
Avec ce superbe système en plus comme le transfert se fait à la vitesse max du link dans tous les cas, on profite de la faible latence de transfert des 144Hz même à 50fps@50Hz.
 
Maintenant, le seul jitter spatio-temporel du mouvement des objets à l'écran qui subsiste provient du temps variable et difficilement prédictible de calcul des frames. On verra peut-être du coup du frame metering en logiciel à la fin du rendu, avant de faire le blit, pour contrer ce jitter restant au prix d'un micro lag pour la bonne cause. Enfin ça c'est si l'applicatif pouvait décider du moment réel d'envoi vers l'écran, sans render ahead queue dans les drivers, mais justement ça va peut-être venir grâce à cette barrière levée. Actuellement il y a du frame metering dans les drivers/le hard selon nvidia. La solution serait peut-être de donner le timestamp du début de la frame/ de la simulation en paramètre au blit pour que le driver fasse le frame metering, comme une boucle à verrouillage de phase avec une constante de temps d'une ou deux douzaine de frames à la louche. Mais en fait maintenant que j'y pense je ne vois plus trop de besoin de render ahead, c'est tout pareil que si on est en vsync off, le moteur est en roue libre, y a pas de raison que le blit soit pas le vrai blit (ah si, si on rend plus que 144fps peut-être, on sait pas si ça stoppe le thread ou si ça fait un beau tearing).
 
Pour info on est très loin d'avoir tous les hertz qu'on peut voir.
L'autre jour j'ai refait quake live, le client lourd peut maintenant débloquer 250fps, sur un vieux crt apacher (enfin apacher mainenant:) )en baissant la résol pour atteindre 200Hz, +souris 250Hz. Eh ben y a pas photo plus on en a mieux c'est.
C'est juste...époustouflant ce qu'on peut faire comme rail shots et à quel point ça glisse.
 
Après j'ai réussi en bidouillant à faire tourner warsow, crt@500Hz vsync-on, moteur qui crache 500fps compteur bloqué, et souris à 500Hz. Je me demande combien de gens ont fait ça, toute la chaîne à 500Hz. 500Hz ça fait 2 millis.
Eh ben, y a qu'à secouer la souris pour comprendre qu'un tft actuel (non strobed j'entends) ne peut même pas toucher ça en rêve.
 
Comme quoi l'avenir est sans doute intéressant...Et plus fluide que nous ne l'avons jamais vu.


Message édité par helloworld256 le 03-01-2014 à 06:00:54
n°8998364
Boulou
Wingfoil
Posté le 03-01-2014 à 09:05:48  profilanswer
1Votes positifs
 

Il manque le v sync off avec l'écran à 144hz sur la gtx 760 !! Je suis sûr que le confort de jeu est pas mal !!!

n°8998387
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-01-2014 à 09:30:46  profilanswer
0Votes positifs
 

schpounzzz a écrit :

Marc, si il est toujours dans vos locos, si il est possible de se pencher sur la question (si cela est efficace, grand nombres dont moi serait ravis de l'apprendre)!
 


Damien a toujours l'écran G Sync mais il est en route pour le CES là. ;)

n°8998467
Shorony
Posté le 03-01-2014 à 10:32:27  profilanswer
3Votes positifs
 

En tout cas perso je trouve qu'autant G-sync coté Nvidia que Mantle coté Amd nous amène des améliorations d'une autre manière que la recherche de la puissance brut et je trouve ceci vraiment bien !

n°8998566
Sandalfo
Posté le 03-01-2014 à 11:26:00  profilanswer
1Votes positifs
 

Si la G-Sync rendait les jeux parfaitement fluides à 40fps, on aurait besoin de moins de puissance GPU. Une façon pour Nvidia de se tirer une balle dans le pied.

mood
Publicité
Posté le 03-01-2014 à 11:26:00  profilanswer
 

n°8998606
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-01-2014 à 11:41:10  profilanswer
1Votes positifs
 

Oui, mais on pourrait aussi avoir des jeux avec une charge graphique plus lourde (à terme).

n°8998702
olioops
Si jeune et déjà mabuse.
Posté le 03-01-2014 à 12:23:50  profilanswer
0Votes positifs
 

Sandalfo a écrit :

Si la G-Sync rendait les jeux parfaitement fluides à 40fps, on aurait besoin de moins de puissance GPU. Une façon pour Nvidia de se tirer une balle dans le pied.


C'est un peu vrai, mais ils ont du penser à cet aspect financier ! Il faut plus voir la G-SYNC comme une nécessité qui aurait dû être mise en pratique depuis pas mal de temps. Comme dit Marc, l'évolution des perfs graphiques obligera quand même à avoir un matos qui suit. Il y aura juste une période de transition pendant laquelle l'achat d'une nouvelle CG HDG sera moins " obligatoire " pour le commun des joueurs , mais NVidia récupérera une partie ( ou plus ) du manque à gagner par la vente d'écrans compatibles et par l'interêt de choisir leur marque. A terme on retrouvera la même nécessité de faire évoluer son matos (et au même rythme) pour ne pas être trop bas en FPS, on aura gagner un gros confort de jeu et nul doute que si cette techno séduit les joueurs, AMD trouvera un moyen de faire la même chose en contournant les brevets ( ou en les transgressant un ptit peu  :whistle: ) ou même en améliorant le concept si c'est possible .

 


Message édité par olioops le 03-01-2014 à 12:24:55

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°8998711
steven67
Posté le 03-01-2014 à 12:29:51  profilanswer
3Votes positifs
 

Je ne suis qu'un simple amateur et je voudrais aborder le Gsync et ses conséquences sous un angle  
qui n'est pas celui du 'pur' technicien, que l'on pourrait qualifier pompeusement de philosophique,  
mais qui ressort plutôt du marketing.
On débat pour savoir si Nvidia a raison ou tort de proposer cette technologie, mais aussi
sur la question de savoir si Gsync existait déjà. Dans ce cas qu'est-ce que Gsync ?  
Pour en parler, je ne peux m'appuyer sur des concepts techniques aussi pointus que
le 'blit', le 'jitter' et mes mots pour le décrire seront donc plus simples.
 
En lisant la discussion très intéressante du topic, je me suis fait  
une idée sur cette question. Gsync constitue une révolution, une rupture dans l'approche
du traitement graphique et pour employer un mot à la mode
"un changement de paradigme" dans le jeu vidéo.
 
Edit 1:
Je ne vais pas non plus aborder le prix de Gsync, pourquoi ?
En lisant le topic, je comprends bien que Gsync est un démonstrateur technologique,
ce que certains appellent 'proof of concept', peu importe, un démonstrateur est destiné à prouver qu'une fonction cruciale d'un système est techniquement faisable, en l'état actuel des connaissances.  
La fonction de Gsync serait (en première analyse) 'contribuer à améliorer l'expérience de jeu en réduisant les latences, déchirements d'images et les micro-saccades'. Même s'il existe d'autres manières de réaliser cette fonction, et certains ont pointé une amélioration de la fréquence d'affichage fixe des moniteurs comme un concurrent possible, il n'en reste pas moins que l'objet de Gsync est de prouver que cela est aujourd'hui réalisable. Evidemment, à ce stade, on est dans la recherche pure et la question de la rentabilité industrielle n 'entre pas en jeu, compte tenu des investissements importants consentis.  
Le 'grand public' devra attendre un peu (et même le ciel qui sait ...).
De ce point de vue, Gsync est un coup de pied au cul (conceptuel, bien sûr) des fabriquants d'écran 'gamers' pour leur dire de s'activer un peu sur la question, vu que 'ca urge'. Mais voilà, Gsync est avant tout une idée.
 
Edit 2 :
De mon point de vue, qui n'est pas le point de vue technique, Gsync est aussi bien plus qu'un démonstrateur, pour plusieurs raisons.
Premièrement, la nature de Gsync est d'être une idée, et beaucoup d'entre vous l'ont dit, une idée simple que je pourrais résumer ainsi : "En jeu, le framerate n'est pas constant, pour rendre compte correctement du travail du GPU, la fréquence d'affichage ne doit pas être fixe (même si c'est intéressant pour les films ou le bureau) mais doit varier dynamiquement !"
Une idée ! D'abord ça ne se protège pas et ensuite ça apprend quoi sur ce que va en faire Nvidia ? Nada.  
Je vais comparer Gsync avec les trois nefs de Christophe Colomb qui voguent vers l'Amérique en 1492 en allant "vers l'Ouest". Aucun des navigateurs qui l'ont précédé n'a osé s'éloigner des côtes de l'Afrique, ils ont tous voyagé vers l'Est.  
 
Ce qui est frappant avec les bonnes idées, c'est que dès qu'on les entend, on découvre qu'on les avait en nous, qu'on y avait pensé, d'ailleurs "elles existaient déjà" et "je le faisais depuis longtemps". C'est vrai ! les bonnes idées se reconnaissent tout de suite parce qu'elles nous rendent intelligents.  
 
"Aller vers l'Ouest", comme le répète le capitaine Haddock dans les aventures de Tintin,  il suffisait donc juste d'y penser ? De marcher à contre-courant des idées reçues ?
C'est ce que fait Gsync qui va à contre-courant de la fréquence d'affichage fixe qui est le cadre technique invariant des moniteurs depuis 10, 20, 30 ans. Mais, dans notre cadre de pensée actuel caractérisé par le copier-coller (enfin surtout le copier ...) une idée n'est rien (sauf pour les copieurs) tant qu'elle n'a pas fait l'objet d'une implémentation, d'une instanciation dans la réalité et cela Nvidia avec ses moyens a pu le faire.
C'est pourquoi Nvidia présente Gsync comme un produit. Mais comme ce n'est pas sa nature, je pense que Nvidia ne produira jamais d'écrans Gsync, au mieux vendra t-elle les droits et licences de brevets relatifs à son implémentation technique. Ce raisonnement vaut ce qu'il vaut, mais il a le mérite d'être cohérent.  
 
Si Gsync n'est qu'une idée, alors où est l'intérêt, le profit ?  
On débouche alors sur la deuxième raison qui fait de Gsync une révolution dans le jeu, un  "changement de paradigme". Et si la philosophie doit maintenant cèder la place au marketing, c'est parce que les conséquences me semblent très prometteuses.
 
Edit 3:
Révolution implique fin d’une période et ouverture d’une nouvelle. De la période finissante, quelques images me reviennent, comme ce « Framerate is life » qui s’affiche lorsque je lance mon test de performance « Mad Onion  3Dmark2001 », comme ce compteur de FPS qui défile en haut de mon écran  lorsque j’utilise FRAPS. Ce qui caractérise alors la jouabilité, ce qui permet de comparer les cartes entre elles, ce qui conditionne aussi l’acte d’achat, c’est le framerate : moyen ou mini ou maxi.  
 
Bref des indicateurs quantitatifs, sous-entendu objectifs, qu’on peut comparer, classer. Des métriques en phase aussi avec les références essentiellement masculines des joueurs, pour lesquels « la performance compte ». Ces indicateurs sont présentés comme donnant une mesure objective de la qualité du produit acheté, c’est à dire la carte graphique.
 
A mon avis, rien ne saurait mieux dater l’émergence de la nouvelle période que l’article de Techreport qui met en lumière des « démons cachés » sous les indicateurs quantitatifs comme le framerate et dont notre topic offre quelques belles dissections.
http://techreport.com/review/21516 [...] nchmarking
 
Il me semble même que cet article invente son objet d’étude, tant il est vrai que les outils de mesure de ces « démons cachés » n’existant pas, il les crée. Avec cet article, on entre dans une autre dimension, beaucoup plus qualitative, qui est celle de « la qualité de l’expérience de jeu ». Ce changement de paradigme n’a t-il pas d’ailleurs été anticipé par les constructeurs, chacun à sa manière ?
L’arrivée en force d’une dimension, par nature subjective, constitue à mon avis un bouleversement majeur en termes de marché et de produits que je ne peux développer maintenant.  
Je peux juste émettre quelques idées. En termes d’évaluation, on peut se demander comment les fabricants vont pouvoir mettre en avant cette dimension subjective ? En installant le joueur devant deux écrans qui déroulent une vidéo «avec » et une vidéo « sans » ? Il me semble que le test de Hfr, aussi précis soit-il ne puisse qu’aboutir à classer les résultats en trois catégories « Bon, Moyen, Mauvais » qui restent à l’appréciation de l’expert. Ce dont l’expert pourrait être garant serait alors plus de l’ordre de « l’assurance de la qualité » du produit que de sa « qualité ».
Dans ce cas, il sera difficile d’affirmer que telle carte est meilleure parce que 7% plus performante que l’autre, comme cela se voyait il y a peu encore. Il ne s’agit pas d’une critique, mais d’une constatation qui ouvre des perspectives sur la valeur des notations et le rôle des experts.  
Il se peut que l’expert ultime soit finalement le client. Dans ce cas, cette capacité qu’on lui reconnaitrait à s’affranchir du référentiel normatif que constitue le « framerate » pour appliquer ses propres normes, n’ouvrirait-elle pas le marché à de nouveaux consommateurs ou nouvelles consommatrices ?
 :jap:  


Message édité par steven67 le 03-01-2014 à 15:59:24
n°8998747
steven67
Posté le 03-01-2014 à 12:50:04  profilanswer
1Votes positifs
 

Oui, mais pour la lisibilité de mon propos, je vais éditer mon premier post.

n°8998799
Blue Apple
Posté le 03-01-2014 à 13:16:14  profilanswer
0Votes positifs
 

C'est quand-même dommage de s'amuser à tout démonter et ne pas penser à mettre une probe sur les signaux de sortie pour vérifier que la dalle est bel et bien rafraîchie à une fréquence variable.
 
(overdrive & rafraîchissement variable sont incompatibles mais bon...)

n°8998895
steven67
Posté le 03-01-2014 à 13:50:00  profilanswer
0Votes positifs
 

Edit 2 :  
De mon point de vue, qui n'est pas le point de vue technique, Gsync est aussi bien plus qu'un démonstrateur, pour plusieurs raisons.  
Premièrement, la nature de Gsync est d'être une idée, et beaucoup d'entre vous l'ont dit, une idée simple que je pourrais résumer ainsi : "En jeu, le framerate n'est pas constant, pour rendre compte correctement du travail du GPU, la fréquence d'affichage ne doit pas être fixe (même si c'est intéressant pour les films ou le bureau) mais doit varier dynamiquement !"  
Une idée ! D'abord ça ne se protège pas et ensuite ça apprend quoi sur ce que va en faire Nvidia ? Nada.   :non:  
Je vais comparer Gsync avec les trois nefs de Christophe Colomb qui voguent vers l'Amérique en 1492 en allant "vers l'Ouest". Aucun des navigateurs qui l'ont précédé n'a osé s'éloigner des côtes de l'Afrique, ils ont tous voyagé vers l'Est.  
 
Ce qui est frappant avec les bonnes idées, c'est que dès qu'on les entend, on découvre qu'on les avait en nous, qu'on y avait pensé, d'ailleurs "elles existaient déjà" et "je le faisais depuis longtemps". C'est vrai ! les bonnes idées se reconnaissent tout de suite parce qu'elles nous rendent intelligents.  ;)  
 
"Aller vers l'Ouest", comme le répète le capitaine Haddock   :pt1cable: dans les aventures de Tintin,  il suffisait donc juste d'y penser ? De marcher à contre-courant des idées reçues ?  
 
C'est ce que fait Gsync qui va à contre-courant de la fréquence d'affichage fixe qui est le cadre technique invariant des moniteurs depuis 10, 20, 30 ans. Mais, dans notre cadre de pensée actuel caractérisé par le copier-coller (enfin surtout le copier ...) une idée n'est rien (sauf pour les copieurs  :D ) tant qu'elle n'a pas fait l'objet d'une implémentation, d'une instanciation dans la réalité et cela Nvidia avec ses moyens a pu le faire.  
C'est pourquoi Nvidia présente Gsync comme un produit. Mais comme ce n'est pas sa nature, je pense que Nvidia ne produira jamais d'écrans Gsync, au mieux vendra t-elle les droits et licences de brevets relatifs à son implémentation technique. Ce raisonnement vaut ce qu'il vaut, mais il a le mérite d'être cohérent.  
 
Si Gsync n'est qu'une idée, alors où est l'intérêt, le profit ?    
On débouche alors sur la deuxième raison qui fait de Gsync une révolution dans le jeu, un  "changement de paradigme". Et si la philosophie doit maintenant cèder la place au marketing, c'est parce que les conséquences me semblent très prometteuses.


Message édité par steven67 le 03-01-2014 à 13:55:11
n°8999021
Singman
The Exiled
Posté le 03-01-2014 à 14:38:36  profilanswer
1Votes positifs
 

schpounzzz a écrit :

Marc, si il est toujours dans vos locos, si il est possible de se pencher sur la question (si cela est efficace, grand nombres dont moi serait ravis de l'apprendre)!
 


Hardware.fr travaille dans les locaux de la SNCF ?


Message édité par Singman le 03-01-2014 à 14:39:04
n°8999170
steven67
Posté le 03-01-2014 à 16:00:23  profilanswer
2Votes positifs
 

Révolution implique fin d’une période et ouverture d’une nouvelle.  
De la période finissante, quelques images me reviennent, comme ce « Framerate is life » qui s’affiche lorsque je lance mon test de performance « Mad Onion  3Dmark2001 », comme ce compteur de FPS qui défile en haut de mon écran  lorsque j’utilise FRAPS. Ce qui caractérise alors la jouabilité, ce qui permet de comparer les cartes entre elles, ce qui conditionne aussi l’acte d’achat, c’est le framerate : moyen ou mini ou maxi.  
Bref des indicateurs quantitatifs, sous-entendu objectifs, qu’on peut comparer, classer. Des métriques en phase aussi avec les références essentiellement masculines des joueurs, pour lesquels « la performance compte ». Ces indicateurs sont présentés comme donnant une mesure objective de la qualité du produit acheté, c’est à dire la carte graphique.
 
A mon avis, rien ne saurait mieux dater l’émergence de la nouvelle période que l’article de Techreport qui met en lumière des « démons cachés » sous les indicateurs quantitatifs comme le framerate et dont notre topic offre quelques belles dissections.
http://techreport.com/review/21516 [...] nchmarking
 
Il me semble même que cet article invente son objet d’étude, tant il est vrai que les outils de mesure de ces « démons cachés » n’existant pas, il les crée. Avec cet article, on entre dans une autre dimension, beaucoup plus qualitative, qui est celle de « la qualité de l’expérience de jeu ». Ce changement de paradigme n’a t-il pas d’ailleurs été anticipé par les constructeurs, chacun à sa manière ?
 
L’arrivée en force d’une dimension, par nature subjective, constitue à mon avis un bouleversement majeur en termes de marché et de produits que je ne peux développer maintenant.  
Je peux juste émettre quelques idées. En termes d’évaluation, on peut se demander comment les fabricants vont pouvoir mettre en avant cette dimension subjective ? En installant le joueur devant deux écrans qui déroulent une vidéo «avec » et une vidéo « sans » ? Il me semble que le test de Hfr, aussi précis soit-il ne puisse qu’aboutir à classer les résultats en trois catégories « Bon, Moyen, Mauvais » qui restent à l’appréciation de l’expert. Ce dont l’expert pourrait être garant serait alors plus de l’ordre de « l’assurance de la qualité » du produit que de sa « qualité ».
 
Dans ce cas, il sera difficile d’affirmer que telle carte est meilleure parce que 7% plus performante que l’autre, comme cela se voyait il y a peu encore. Il ne s’agit pas d’une critique, mais d’une constatation qui ouvre des perspectives sur la valeur des notations et le rôle des experts.  
Il se peut que l’expert ultime soit finalement le client. Dans ce cas, cette capacité qu’on lui reconnaitrait à s’affranchir du référentiel normatif que constitue le « framerate » pour appliquer ses propres normes, n’ouvrirait-elle pas le marché à de nouveaux consommateurs ou nouvelles consommatrices ?
 :jap:  

n°8999219
SirGallaha​d
What's your favorite color ?
Posté le 03-01-2014 à 16:27:03  profilanswer
0Votes positifs
 

Dans le cas des cartes graphiques, je pense qu'on a pas encore atteint le pallier qui fera passer la conception des cartes de performance à performance/watt contrairement a ce qu'on commencer a voir niveau processeur.

n°8999590
Singman
The Exiled
Posté le 03-01-2014 à 20:33:14  profilanswer
2Votes positifs
 

Je pense au contraire qu'on a atteint une limite, du moins dans la course a la performance. NVidia a amorcé un virage avec le travail sur leurs cartes au niveau du confort (meilleur ventirad pour éviter l'effet turbine), sort une technologie G-Sync qui vise a optimiser la fluidité plus qu'un framerate, AMD travaille sur son Crossfire pour améliorer aussi la fluidité, tout laisse a penser que ce sera la prochaine étape : moins de puissance mais plus de confort dans le jeu.
Est ce que c'est du à une barrière technologique au niveau de la gravure ? Surement aussi, et on peut penser que la course va reprendre mi-2014, mais le travail fait actuellement ne sera pas perdu.

n°8999948
schpounzzz
mangeur de hardware.
Posté le 04-01-2014 à 01:49:00  profilanswer
0Votes positifs
 

Dsl, iphone correction! Tchouuuutchouuuuuu!
 

n°9000495
Singman
The Exiled
Posté le 04-01-2014 à 14:50:18  profilanswer
0Votes positifs
 


Tu es bien péremptoire de critiquer si négativement les personnes qui vont a l'essentiel. Car en fait, la seule chose qui compte c'est le contenu et lui seul. On s'en fiche complètement si ça tourne sur une carte graphique avec 48 ROP ou 1 Teraflop, pourvu que l'expérience utilisateur soit là. Ta qualification de "coté obscur" est complètement dépassé, tu fais peut être partie d'une secte qui pense que Minecraft a besoin d'une 780Ti ?

n°9002748
sasuke87
Posté le 06-01-2014 à 01:31:10  profilanswer
0Votes positifs
 

G-Sync peut améliorer les choses pour les solutions multi-GPU?

n°9002787
fifoos
Posté le 06-01-2014 à 08:00:33  profilanswer
1Votes positifs
 

steven67 a écrit :

Révolution implique fin d'une période et ouverture d'une nouvelle.  
De la période finissante, quelques images me reviennent, comme ce « Framerate is life » qui s'affiche lorsque je lance mon test de performance « Mad Onion  3Dmark2001 », comme ce compteur de FPS qui défile en haut de mon écran  lorsque j'utilise FRAPS. Ce qui caractérise alors la jouabilité, ce qui permet de comparer les cartes entre elles, ce qui conditionne aussi l'acte d'achat, c'est le framerate : moyen ou mini ou maxi.  
Bref des indicateurs quantitatifs, sous-entendu objectifs, qu'on peut comparer, classer. Des métriques en phase aussi avec les références essentiellement masculines des joueurs, pour lesquels « la performance compte ». Ces indicateurs sont présentés comme donnant une mesure objective de la qualité du produit acheté, c'est à dire la carte graphique.
 
A mon avis, rien ne saurait mieux dater l'émergence de la nouvelle période que l'article de Techreport qui met en lumière des « démons cachés » sous les indicateurs quantitatifs comme le framerate et dont notre topic offre quelques belles dissections.
http://techreport.com/review/21516 [...] nchmarking
 
Il me semble même que cet article invente son objet d'étude, tant il est vrai que les outils de mesure de ces « démons cachés » n'existant pas, il les crée. Avec cet article, on entre dans une autre dimension, beaucoup plus qualitative, qui est celle de « la qualité de l'expérience de jeu ». Ce changement de paradigme n'a t-il pas d'ailleurs été anticipé par les constructeurs, chacun à sa manière ?
 
L'arrivée en force d'une dimension, par nature subjective, constitue à mon avis un bouleversement majeur en termes de marché et de produits que je ne peux développer maintenant.  
Je peux juste émettre quelques idées. En termes d'évaluation, on peut se demander comment les fabricants vont pouvoir mettre en avant cette dimension subjective ? En installant le joueur devant deux écrans qui déroulent une vidéo «avec » et une vidéo « sans » ? Il me semble que le test de Hfr, aussi précis soit-il ne puisse qu'aboutir à classer les résultats en trois catégories « Bon, Moyen, Mauvais » qui restent à l'appréciation de l'expert. Ce dont l'expert pourrait être garant serait alors plus de l'ordre de « l'assurance de la qualité » du produit que de sa « qualité ».
 
Dans ce cas, il sera difficile d'affirmer que telle carte est meilleure parce que 7% plus performante que l'autre, comme cela se voyait il y a peu encore. Il ne s'agit pas d'une critique, mais d'une constatation qui ouvre des perspectives sur la valeur des notations et le rôle des experts.  
Il se peut que l'expert ultime soit finalement le client. Dans ce cas, cette capacité qu'on lui reconnaitrait à s'affranchir du référentiel normatif que constitue le « framerate » pour appliquer ses propres normes, n'ouvrirait-elle pas le marché à de nouveaux consommateurs ou nouvelles consommatrices ?
 :jap:  


 
 
Intéressante conclusion, mais non, je ne pense pas.
 
L'arrivée de G-sync améliorera la fluidité globale et donc le confort des jeux, mais ça ne changera en rien l'importance et le rôle des cartes graphiques.
De fait, les cartes graphiques seront toujours comparée entre-elles, et le framerate sera toujours une donnée aussi importante, voire même encore plus qu'avant, puisque ce sera la puissance de la carte graphique qui fera le framerate de référence de l'écran, et non plus le contraire (enfin, dans la limite des hertz disponible)
 
 L'impact sur la fluidité sera donc encore plus importante entre les cartes graphique de gammes et puissances différente qui ne l'est déjà puisque il n'y aura plus de limite de fps induit par la v-syncro, et donc, tout ce qui sera supérieur à 60fps (ou 120,ou 144 etc... tout dépend du taux de rafraichissement de l'écran) sera enfin utile et compatible avec une expérience de jeux sans tearing et stuttering. Les joueurs (et acheteurs) seront donc plus enclin que jamais à dépasser les fameux 60 fps (et donc, à changer de carte graphique) car, ce qui n'était qu'un "surplux" de puissance jusqu'à maintenant, deviendra un supplément réel pour l'expérience de jeu.
 
En gros: ça ne va pas handicaper l'évolution des cartes graphique, au contraire, ça va renforcer encore plus leurs marché, et notamment celui des cartes haut de gammes, qui ne servirons non plus juste aux joueurs friands de très hautes résolutions, mais aussi aux "simples" joueurs 1080p à la recherche de plus de confort et de fluidité.
 
Bref, ça va rendre l'expérience de jeu plus agréable pour tous le monde, mais l'écart entre les cartes graphiques et leurs performances sera toujours là et bien palpable, et leurs intérêt serons donc toujours d'actualité.
 
Ps: à tout ça -bien sûr- viens s'ajouter la course aux graphismes (pour des jeux toujours plus beau et gourmands) qui aura -je pense- encore lieu, et qui réclamera toujours plus de puissance de calculs, et donc, de nouvelles cartes graphiques.
 


Message édité par fifoos le 06-01-2014 à 08:38:23
n°9003899
sasuke87
Posté le 07-01-2014 à 00:11:11  profilanswer
0Votes positifs
 
n°9003912
steven67
Posté le 07-01-2014 à 00:29:10  profilanswer
0Votes positifs
 

@fifoos : remarquez quand même
que je n'avais justement pas conclu  :na:  
 

Citation :

L’arrivée en force d’une dimension, par nature subjective,  
constitue à mon avis un bouleversement majeur en termes de marché et de produits  
que je ne peux développer maintenant.  


 
mais simplement insisté sur l'émergence d'une variable subjective "le ressenti du client".
Pour donner un exemple, ce ressenti pourrait se traduire pour des cartes de performances à peu près similaires
par un plus grand impact de l'image de marque dans l'acte d'achat.
Jouons à un jeu maintenant  : je vais dans le tuner cleartype et je choisis l'affichage 2
c'est pour moi le meilleur en termes d'expérience visuelle, pouvez-vous le contester ?
 
Le fait que l'affichage rende compte au plus près du travail effectué par le GPU  
est de toutes manières une bonne chose, un 'coup de pied au cul' des fabricants
d'écrans 'gamers'.
Bonne soirée.


Message édité par steven67 le 07-01-2014 à 00:44:57
n°9003921
Giulietta2​6
Avanti!!!
Posté le 07-01-2014 à 00:46:59  profilanswer
0Votes positifs
 


 
une petite MAJ de la conclusion  :sweat:


---------------
Demain c'est loin
n°9015763
ryback94
Posté le 15-01-2014 à 12:08:29  profilanswer
0Votes positifs
 

donc au final tu as plus besoin de carte graphique si c'est intégré au moniteur

n°9015950
Fouge
Posté le 15-01-2014 à 14:38:09  profilanswer
0Votes positifs
 

La carte graphique n'est pas intégrée au moniteur. C'est juste l'électronique qui est changée pour supporter un taux de refresh variable.

n°9017336
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 16-01-2014 à 15:36:59  profilanswer
0Votes positifs
 

Blurbuster a mis au point une technique pour mesurer l'input lag :
http://www.blurbusters.com/gsync/preview2/

 

D'après ces résultats, comme prévu/ressent, GSYNC = VSYNC Off, par contre sous CS avec un framerate trop élev.

 

C'est assez intéressant de voir que pour BF4 en VSYNC off à 84 fps il y a 72-74ms de lag, contre 53-55ms pour Crysis 3 à 47 fps, tous les moteurs ne sont pas égaux de ce côté :D


Message édité par Marc le 16-01-2014 à 15:37:12
n°9017484
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 16-01-2014 à 17:33:33  profilanswer
0Votes positifs
 

Pour ceux que ça intéresse :
 
http://forum.hardware.fr/hfr/Hardw [...] 2326_1.htm
 
2 kits G-SYNC pour ASUS VG248QE offerts par Nvidia

n°9019324
raysar
Posté le 18-01-2014 à 03:42:34  profilanswer
0Votes positifs
 

ravenloft a écrit :


Très bon article.
C'est vrai que tu nous as fait languir mais au final, c'est la qualité de l'article qui compte.

Une question tridam
: tu dis que les CRT avaient des fréquences de rafraichissement fixe.

Citation :

Parmi les contraintes héritées des écrans CRT, nous retrouvons la fréquence de rafraîchissement fixe


C'est bizarre parce que justement dans les CRT on pouvait modifier la fréquence de rafraichissement aussi comme sur un LCD. C'était manuel mais pourquoi cela ne pouvait-il pas être dynamique? Il y a quelque chose que je dois mal comprendre. Si c'est possible d'expliquer, merci.


 
T'as déjà changé la fréquence de rafraichissement sur un CRT?
Tu comprendras.
Mais t'as raison ce n'est pas le principe physique du canon à électron qui limite les choses.


---------------
Les bons écran IPS de portable |  "Faut pas croire tout ce qu'on voit sur le web." – Einstein
n°9044331
NoradII
Il y a 17 ans naquit un PC
Posté le 05-02-2014 à 01:34:23  profilanswer
0Votes positifs
 

"développement de la FRV"
 
késako FRV ? français railleur vautré ?


---------------
valid.x86.fr/575505 /842925 /902578
n°9044515
tridam
Profil : Equipe HardWare.fr
Posté le 05-02-2014 à 10:23:10  profilanswer
1Votes positifs
 

Fréquence de rafraîchissement variable, le terme générique pour décrire G-Sync et les autres technos similaires.

n°9044536
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-02-2014 à 10:43:55  profilanswer
0Votes positifs
 

C'est pas comme si c'était en première page
 

Citation :

La fluidité et la latence sont deux aspects importants pour John Carmack, d'autant plus depuis qu'il travaille sur le système Oculus Rift, très sensible sur ce point. Ce qu'il propose ici, le rafraîchissement non-isochrone de l'affichage, c'est en fait ce que Nvidia a décidé d'implémenter sous le nom de Fréquence de Rafraîchissement Variable (FRV) et sous la marque G-SYNC.

n°9045235
NoradII
Il y a 17 ans naquit un PC
Posté le 05-02-2014 à 19:40:45  profilanswer
1Votes positifs
 

[:dawa_neowen]


---------------
valid.x86.fr/575505 /842925 /902578
n°9045303
NoradII
Il y a 17 ans naquit un PC
Posté le 05-02-2014 à 20:29:49  profilanswer
1Votes positifs
 

tridam a écrit :

Quand quelque chose est bien et qu'on le dit c'est un parti pris ? Etre objectif c'est trouver autant de point négatifs que positifs ? :p

 

Sinon désolé pour le retard de ce dossier dont nous avions annoncé la sortie imminente il y a 3 semaines. C'est en grande partie de ma faute. Prendre le temps de vraiment tester G-SYNC... ça prend du temps et malheureusement je n'étais qu'à moitié disponible ces dernières semaines.

non être objectif est, pour certain, de faire autant pour une marque que pour une autre. Par exemple, presque aucun dossier complet dédié à une plateforme ou à un chipset AMD depuis Mars 2005, date du dossier dédié aux cartes-mères NForce4 :ouch:

 

Tu remontes dans le temps ça fait :

 

09/2013 > Z87
08/2013 > Z87
07/2013 > B85/H87

 

09/2012 > Z77
07/2012 > Z77
04/2012 > Z77
03/2012 > Z77

 

11/2011 > X79
09/2011 > Z68
05/2011 > Double dose de Z68
03/2011 > P67
02/2011 > P67/H67
01/2011 > P55/P67 avec une belle pointe de 890GX ! Sinon on se reprend une dose de P67, pour la route !

 

09/2010 > P55 & Avertissement !

 

09/2009 > P55

 

06/2008 > P45
03/2008 > 790i
02/2008 > 780i

 

09/2007 > X38
05/2007 > P35

 

07/2006 > P965 & i975x

 

04/2005 > NF4i SLI

 

Et hop Mars 2005 comparo VIA & Nforce pour AMD ! Attention, je ne dis pas que vous avez tout testé en plateforme Intel, mais quand même la prise de partie est limite Obvious là, quand même [:the geddons]

 

[:dehors2]


Message édité par NoradII le 05-02-2014 à 20:31:42

---------------
valid.x86.fr/575505 /842925 /902578
n°9045510
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-02-2014 à 23:09:46  profilanswer
0Votes positifs
 

Le mec qui s'est fait taclé qui essaie de prendre sa revanche avec du HS, c'est beau :love:
 
Si tu faisait les choses de manière un peu plus intelligentes qu'un bête listing de la partie "articles"  pour "cartes mères" tu verrais que :
 
- Une bonne partie des articles que tu cites ne sont pas des dossier complet dédié à une plateforme ou à un chipset mais des focus regroupant les cartes mères annoncées à l'occasion du lancement d'une plate-forme, ce qu'on fait depuis quelques temps maintenant (2011) et oui on le fait pas sur des plates-formes dont l'intérêt n'est pas évident à leur lancement.... ce qui n'empêche pas pour autant les news (et ça fait plus de pages distinctes, wouhou). Tu met également des focus de warning sur le bug des puces B2 ou le cablage moisi du second PCIe sur des cartes P55, quel traitement de faveur de faire des titres dessus :lol: (focus qui au passage ont été publiés sous forme de news à la base, je les ais mis en focus le temps que la section carte mère revive, je vais faire le chemin inverse).
- Le contrôleur mémoire est intégré dans les CPU chez AMD depuis 2003, ce qui a réduit notablement l'intérêt de faire les dossiers chipsets. Mais il y a quand même eu un dossier chipset A64 en 2005 opposant les deux chipsets gérant le PCIe. Chez Intel le contrôleur mémoire est intégré depuis fin 2008, le dernier dossier chipset Intel date de juin 2008. CQFD.
- Pour autant, que ce soit chez Intel ou AMD les aspects plates formes sont traités dans les dossiers ... processeurs, les deux étant intimement liés avec souvent des lancements conjoints
- Il n'y a pas eu de comparatif de cartes mères entre leur arrêt en 2003 (nForce 2, mince c'est du Socket A) et leur reprise en septembre 2011 ... et oui là encore on le fait sur les plates-formes qu'on jugent les plus intéressantes
 
Bref :sleep:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faible score 3D Marks et jeux (et oui, encore un)Problème Nvidia Geforce 315
Petite configuration Virtualisation & Jeux légers[HFR] Actu : Intel baisse le prix des Haswell ''R''
Aide pour une C.GUpgrade montage video/Jeux
Carte reseau deconnectée pendant les jeuxMa télé sony bravia affiche 'Pas de sync"
Demande conseils : upgrade config pour montage vidéo et jeux 
Plus de sujets relatifs à : [HFR] Dossier : Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR