Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2915 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Nvidia G-SYNC: la v-sync enfin dynamique !

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Page Précédente
Auteur Sujet :

[HFR] Actu : Nvidia G-SYNC: la v-sync enfin dynamique !

n°8901900
tridam
Profil : Equipe HardWare.fr
Posté le 18-10-2013 à 21:05:02  profilanswer
0Votes positifs
 

Au cours de sa seconde conférence, et après avoir tiré en longueur sur une utilisation tordue de la console Shield, Nvidia a dévoilé une technologie pour le ...
Lire la suite ...

mood
Publicité
Posté le 18-10-2013 à 21:05:02  profilanswer
 

n°8901903
Tony_capri​ani
Posté le 18-10-2013 à 21:08:53  profilanswer
10Votes positifs
 

John Carmack, ce vendu qui a jamais optimisé ses jeux pour les cartes AMD, Doom 3 et Rage en tête, ça se comprend quand on le voit invité aux conférences de Nvidia...


Message édité par Tony_capriani le 18-10-2013 à 21:09:20
n°8901911
Profil sup​primé
Posté le 18-10-2013 à 21:18:46  answer
1Votes positifs
 

Citation :

La carte contrôleur développée par Nvidia qui sera nécessaire au bon fonctionnement des premiers moniteurs G-SYNC.


Sérieux???
 
Je pensais que c'était un GPU complet sur l'image http://forum-images.hardware.fr/icones/smilies/pt1cable.gif.
Die "énorme", grande quantité de RAM.... ca n'a pas l'air bon marché, pas demain la veille qu'on verra ca dans tous les écrans en effet.


Message édité par Profil supprimé le 19-10-2013 à 16:54:43
n°8901912
Lockz
Posté le 18-10-2013 à 21:18:49  profilanswer
3Votes positifs
 

Il ne desserait plus les dents lorsque ca parlait Mantle :p
 
A voir concretement, là ca sent le gadget proprio de +


Message édité par Lockz le 18-10-2013 à 21:20:49
n°8901920
fkanker
Posté le 18-10-2013 à 21:33:21  profilanswer
10Votes positifs
 

Citation :

La réponse de Nvidia au gain de performances des Radeon dans la version Mantle de Battlefield 4 serait-elle simplement qu'avec G-SYNC, les GeForce n'ont pas besoin de ce gain de performances ?


En plus de devoir racheter éventuellement une carte graphique, ça implique de racheter obligatoirement un moniteur pour en profiter. Ca commence à coûter...

n°8901926
Mysterieus​eX
Chieuse
Posté le 18-10-2013 à 21:50:19  profilanswer
2Votes positifs
 

Ca me fait vaguement penser a un GenLock/FrameLock appliqué au monde grand publique.

n°8901936
Crashdent
Posté le 18-10-2013 à 21:59:42  profilanswer
2Votes positifs
 

Ça à l'air sympa, vivement la commercialisation.  :)


---------------
Parce que je suis un troll : j'ai déconseillé Winrar sur clubic.
n°8901940
fire du 57
The futur is Fusion
Posté le 18-10-2013 à 22:05:50  profilanswer
5Votes positifs
 

Très bonne idée !  :)  

 

Par contre si l'écran est relié à une Radeon il fonctionne correctement ( vsync dynamique désactivé mais comme écran "standard" )  ou alors il y a une incompatibilité matériel ?  


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8901942
Fabz49
Bouh !
Posté le 18-10-2013 à 22:07:37  profilanswer
5Votes positifs
 

ça risque de brider un peu les choix d'écran quand on cherche du polyvalent... :/

n°8901956
ever_over
Posté le 18-10-2013 à 22:20:30  profilanswer
1Votes positifs
 

Pendant le streaming de la présentation sur pcper, sur le tchat, quelqu'un a dit qu'il avait pu demander à un représentant NVidia, et qu'il serait possible d'acheter le contrôleur seul pour rendre un moniteur compatible. Je ne vois pas comment se serait possible techniquement,mais si c'est le cas il m'en faut 3 svp   :love: .


Message édité par ever_over le 18-10-2013 à 22:21:12
mood
Publicité
Posté le 18-10-2013 à 22:20:30  profilanswer
 

n°8901968
Profil sup​primé
Posté le 18-10-2013 à 22:28:12  answer
6Votes positifs
 

fkanker a écrit :

Citation :

La réponse de Nvidia au gain de performances des Radeon dans la version Mantle de Battlefield 4 serait-elle simplement qu'avec G-SYNC, les GeForce n'ont pas besoin de ce gain de performances ?


En plus de devoir racheter éventuellement une carte graphique, ça implique de racheter obligatoirement un moniteur pour en profiter. Ca commence à coûter...


et puis si comme moi tu as l'habitude d'aller soi chez les rouges soit chez les verts selon le moment ou t'achète , en admettant qu'AMD développe un truc similaire ( en espérant que ce soit pas dans dix ans non plus )  , il t'en faudra deux des écrans.  
faut espérer qu'ils aillent pas jusque là :lol:
ça serait dommage , car c'est plutôt intéressant  :jap:


Message édité par Profil supprimé le 18-10-2013 à 22:29:38
n°8901971
Profil sup​primé
Posté le 18-10-2013 à 22:30:09  answer
1Votes positifs
 

Non comme d'habitude ce sera une techno fermer comme physX... Après ça vient chialer pour mantle comme si nvidia avait rien à ce reprocher.

n°8901988
TildeKa
AKA RollingPanda
Posté le 18-10-2013 à 22:46:01  profilanswer
5Votes positifs
 

Comme le physix, c'est le genre de techno qui fait rêver ET qui fait haïr l'existence de la propriété intellectuelle !

n°8902015
ockiller
Posté le 18-10-2013 à 23:34:05  profilanswer
0Votes positifs
 

Ca marche aussi avec du VGA sur des écrans à tubes ? :D

n°8902029
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 18-10-2013 à 23:40:36  profilanswer
2Votes positifs
 

Ça doit surtout être intéressant sur des écrans 60Hz (les 120Hz+ ayant un tearing moins prononcé), entre 30 et 60 img/sec.
 
Effectivement, depuis le temps que ces écrans choisissent pour nous le moment du refresh, étonnant que ca ai mis si longtemps pour que quelqu'un décide d'inverser l'asservissement, très bonne idée ! La disparition complète du tearing est une bonne chose.
 
A voir si ca s'étend et surtout se normalise, ca pourra être intéressant pour tout ce qui est consoles, GPU intégrés, téléphones, ou même lecture vidéo (dédicaces aux premières télé 1080p qui font pas le 24FPS comme la mienne ...).  
 
C'est finalement bien sur PC avec une carte graphique type 660 et + que je vois le moins d'intérêt au truc, puisque c'est là qu'on a le moins de problèmes pour tenir 60 FPS. En tous cas c'est pas ce qui me fera changer mon écran avec un gentil surcoût (auquel j'ai déjà eu droit en prenant un 3DVision) ou mettre 80-100€ de plus dans une nVidia pour avoir les même perfs que sur une AMD.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8902067
tridam
Profil : Equipe HardWare.fr
Posté le 19-10-2013 à 00:37:07  profilanswer
2Votes positifs
 

Je pense que dans l'immédiat pour les joueurs, sauf urgence, mieux vaut attendre avant d'acheter un nouvel écran (d'autant plus si vous êtes tentés par un écran 4K assez cher) et voir ce qu'il se passe avec G-SYNC.

n°8902076
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-10-2013 à 00:53:36  profilanswer
1Votes positifs
 

Personne n'est tenté par les écrans 4K actuels voyons, même si AMD et NVIDIA aiment le mettre en avant histoire de jouer à qui à la plus grosse :o
 
Quid du comportement de G-Sync en multi-écran ?

n°8902078
sun_storm
Posté le 19-10-2013 à 01:02:50  profilanswer
0Votes positifs
 

John Carmack présent sur une démo d'écran alors qu'il est à la tête de l'Oculus Rift ???
 
Perso je ne passerais pas au 4K sans un taux de rafraîchissement de 120Hz mini, je n'arrive plus à repasser sur des écrans de 60Hz


Message édité par sun_storm le 19-10-2013 à 01:04:20
n°8902115
$k-flown
Posté le 19-10-2013 à 04:32:26  profilanswer
1Votes positifs
 

C'est bien beau tout ça, mais quid de la latence entre l'action réalisée et l'affichage à l'écran, déjà que c'est pas terrible avec les LCD actuels, si c'est pour en rajouter une couche en plus.
 
Je parle même pas de la réactivité des pixels, parce que ça G-sync ou pas ça restera la même, c'est-à-dire médiocre depuis la fin des CRT, vivement la démocratisation de l'oled pour nous sortir de cette escroquerie qui dure depuis trop longtemps.

n°8902153
blazkowicz
Posté le 19-10-2013 à 07:31:29  profilanswer
0Votes positifs
 

Tony_capriani a écrit :

John Carmack, ce vendu qui a jamais optimisé ses jeux pour les cartes AMD, Doom 3 et Rage en tête, ça se comprend quand on le voit invité aux conférences de Nvidia...


 
Doom 3 tournait bien sur Radeon 9700 and co, c'est juste qu'il tournait également bien sur geforce FX 5800 parce que les pixel shaders étaient légers. Il n'y avait rien de plus à optimiser.
Pour Rage, encore un jeu peu gourmand, il y avait juste un bug de driver AMD à la sortie du jeu :o.

n°8902176
asmomo
Modérateur
Posté le 19-10-2013 à 08:31:10  profilanswer
0Votes positifs
 

Sur FX5800 il n'y avait pas une histoire de textures en 16bit moches ?
 
Sinon techno intéressante, dommage qu'avec nvidia on est sur que ce sera jamais standard, espérons que d'autres inventent qqchose de similaire et l'intègrent à une prochaine norme vidéo.
 
AMD est déjà en train de pousser pour une norme 4K avec VESA Display ID v1.3


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°8902182
asmomo
Modérateur
Posté le 19-10-2013 à 08:40:31  profilanswer
0Votes positifs
 

En tout cas je vois 768Mo de DDR3 sur le bouzin.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°8902185
TildeKa
AKA RollingPanda
Posté le 19-10-2013 à 08:46:52  profilanswer
0Votes positifs
 

Bé quoi, c'est pas cher la RAM en ce moment en plus ! :o

n°8902202
tridam
Profil : Equipe HardWare.fr
Posté le 19-10-2013 à 09:40:00  profilanswer
0Votes positifs
 

Marc a écrit :

Personne n'est tenté par les écrans 4K actuels voyons, même si AMD et NVIDIA aiment le mettre en avant histoire de jouer à qui à la plus grosse :o
 
Quid du comportement de G-Sync en multi-écran ?


 
En multi-écran ça ne change rien. Par contre en multi-GPU il y a toujours du frame metering qui peut influer quelque peu sur le résultat final.

n°8902297
Keser
Posté le 19-10-2013 à 11:44:43  profilanswer
2Votes positifs
 

Est ce que cette technologie supprime l'input lag induit par la v-sync ?
 
J'ai remarqué que cet input lag diminuait en augmentant la vitesse de rafraichissement de l'écran (par exemple il est à peine perceptible sur un écran 144Hz), mais il augmente également en baissant vitesse de rafraichissement (facilement perceptible sur les écrans 60Hz).
A 60Hz ce lag est déjà bien présent, je désactive même la vsync dans certains jeux pour gagner en temps de réaction.
 
Donc avec une v-sync/g-sync à 35 ou 40Hz, ne risque-t-on pas d'avoir un lag trop important ?
 
Ou pire, lors de la désactivation du g-sync à cause de la limite basse (30 à 40Hz suivant les situations si j'ai bien compris), cette différence de lag ne nuirait-elle pas trop à l'expérience de jeux ?

n°8902300
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 19-10-2013 à 11:46:17  profilanswer
0Votes positifs
 

Keser a écrit :

Est ce que cette technologie supprime l'input lag induit par la v-sync ?


 
Probablement pas, en tous cas je vois pas comment elle le pourrai.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8902312
madcat
Posté le 19-10-2013 à 12:01:06  profilanswer
0Votes positifs
 

Citation :

Il pourrait d'ailleurs être intéressant que Nvidia mette en place une telle interpolation, qui pourrait être un compromis intéressant par rapport au calcul gourmand de toutes les images.


J'ai déjà évoqué cela sur des forums mais cela impliquerait de la latence puisque pour pouvoir interpoler il faut avoir l'image n et n+1. Ca serait par contre très adapté pour des replays (simu de course auto par exemple), puisque là la latence n'a plus aucune importance.
 

Citation :

la commercialisation d'un kit de modification dédié à ce moniteur pour apporter le support de G-SYNC


roh punaise, need un kit pour mon eizo fs2333  :love:  :love:


---------------
" Mais putaaain... Mais les gars qu'est-ce qu'ils font quoi, ils développent un jeu quoi ils essayent leur truc là ? ils essayent ? ils s'voyent voyent pas qu'c'est d'la merde !? "
n°8902321
ever_over
Posté le 19-10-2013 à 12:11:54  profilanswer
1Votes positifs
 

Keser a écrit :

Est ce que cette technologie supprime l'input lag induit par la v-sync ?


En théorie, ça ne le supprimera pas mais devrait le réduire. L'image est affichée dès qu'elle est calculée, alors qu'avec vsync il faut attendre le cycle suivant du moniteur. On est gagnant à tous les niveaux (si ça fonctionne bien).

n°8902329
Keser
Posté le 19-10-2013 à 12:20:24  profilanswer
0Votes positifs
 

darkstalker a écrit :

Keser a écrit :

Est ce que cette technologie supprime l'input lag induit par la v-sync ?


Probablement pas, en tous cas je vois pas comment elle le pourrai.

Dans certains jeux il est possible de réduire cet input lag en activant la vsync à 60Hz et en mettant un frame limiter allant de 55 à 59 Hz, par exemple :
http://forums.steampowered.com/for [...] 74636.html
http://www.overclock.net/t/1246149 [...] no-tearing
 
Il serait donc possible de réduire l'input lag généré par la v-sync, reste à voir si ce g-sync le permet nativement.

n°8902334
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 19-10-2013 à 12:25:07  profilanswer
0Votes positifs
 

Citation :


Citation :


Probablement pas, en tous cas je vois pas comment elle le pourrai.

Dans certains jeux il est possible de réduire cet input lag en activant la vsync à 60Hz et en mettant un frame limiter allant de 55 à 59 Hz, par exemple :
http://forums.steampowered.com/for [...] 74636.html
http://www.overclock.net/t/1246149 [...] no-tearing

 

Il serait donc possible de réduire l'input lag généré par la v-sync, reste à voir si ce g-sync le permet nativement.

 

Hmm, c'est peut être parce qu'il y a plus de trames pré-rendues avec Vsync que sans, et donc en bloquant à 59 vrai frames non synchros (donc une seule image doublée) on force la carte graphique à pas trop en calculer d'avance ?
Parce qu'une Vsync sans trames prérendues, ca n'a aucune raison intrinsèque  d'avoir un lag d'entrée drastiquement plus elevé qu'un 60Hz non synchro.

Message cité 1 fois
Message édité par darkstalker le 19-10-2013 à 12:26:03

---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8902419
Mysterieus​eX
Chieuse
Posté le 19-10-2013 à 13:41:18  profilanswer
2Votes positifs
 

Ajout a mon commentaire précédent, c'est typiquement du genlock/framelock appliqué au monde grand publique. Avec surement une compensation de latences induites par le lock et un gen basé sur un frame swap issus de la CG, donc en gros, ça permet de synchroniser tout un écosystème qu'il soit multi GPU où multi écran.

n°8902480
ledesillus​ionniste
Posté le 19-10-2013 à 14:24:46  profilanswer
3Votes positifs
 

Tony_capriani a écrit :

John Carmack, ce vendu qui a jamais optimisé ses jeux pour les cartes AMD, Doom 3 et Rage en tête, ça se comprend quand on le voit invité aux conférences de Nvidia...


Perso je dirais surtout que Carmack ne fait plus partie de la crème des dev de moteur.
Rage ne m'a clairement pas impressionné en partie à cause de textures dégueulasses.
Mitigé, ce moteur n'est pas très impressionnant mais il a le mérite de tenir un bon framerate.


Message édité par ledesillusionniste le 19-10-2013 à 14:35:42
n°8902483
Keser
Posté le 19-10-2013 à 14:25:51  profilanswer
0Votes positifs
 

darkstalker a écrit :

Hmm, c'est peut être parce qu'il y a plus de trames pré-rendues avec Vsync que sans, et donc en bloquant à 59 vrai frames non synchros (donc une seule image doublée) on force la carte graphique à pas trop en calculer d'avance ?
Parce qu'une Vsync sans trames prérendues, ca n'a aucune raison intrinsèque d'avoir un lag d'entrée drastiquement plus elevé qu'un 60Hz non synchro.


C'est aussi ce que je me dis. Pourquoi la v-sync devrait générer du lag ?
 
On peut voir que certains jeux n'ont plus de tearing en mode fenêtré (d'ailleurs certains jeux propose le mode fenêtré sans bordure), dans ce cas windows doit bloquer automatiquement le framerate à environ 59 ou 60Hz ce qui empêche le gpu de calculer trop de trame et donc d'avoir une désynchro...

n°8902615
BossyHarde​st
Posté le 19-10-2013 à 16:39:15  profilanswer
4Votes positifs
 

Ça sent encore le gadget propriétaire qui va avantager leur marque visuellement, ils cherche loin pour se mettre des batons dans les roues...

n°8902625
Singman
The Exiled
Posté le 19-10-2013 à 16:53:41  profilanswer
2Votes positifs
 

Certains commentaires sont tellement remplis de mauvaise fois que ça en devient ridicule :)

n°8902648
t3ddy
Posté le 19-10-2013 à 17:10:42  profilanswer
5Votes positifs
 

D'abord on dit "se mettre des bâtons dans les trous" :D

n°8902669
ever_over
Posté le 19-10-2013 à 17:40:30  profilanswer
3Votes positifs
 

BossyHardest a écrit :

Ça sent encore le gadget propriétaire qui va avantager leur marque visuellement, ils cherche loin pour se mettre des batons dans les roues...


Oui, c'est vraiment vicieux qu'un fabricant de CG travaille a améliorer la qualité du rendu. ça devrait être interdit.

n°8902691
tridam
Profil : Equipe HardWare.fr
Posté le 19-10-2013 à 18:05:23  profilanswer
3Votes positifs
 

[quotemsg=8902312,28,30715]

Citation :

Il pourrait d'ailleurs être intéressant que Nvidia mette en place une telle interpolation, qui pourrait être un compromis intéressant par rapport au calcul gourmand de toutes les images.


J'ai déjà évoqué cela sur des forums mais cela impliquerait de la latence puisque pour pouvoir interpoler il faut avoir l'image n et n+1. Ca serait par contre très adapté pour des replays (simu de course auto par exemple), puisque là la latence n'a plus aucune importance.
 
Carmack a indiqué faire de la recherche au niveau d'algo en partie prédictifs pour pour éviter ce pb de latence.

n°8902705
Louvano
Posté le 19-10-2013 à 18:22:18  profilanswer
3Votes positifs
 

Cette G-Sync sera exclusive aux cartes Nvidia mais sera-t-elle uniquement compatible avec les nouvelles séries de cartes de la marque ou bien sera-t-elle compatible avec toutes les Gforces ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Nvidia G-SYNC: la v-sync enfin dynamique !

 

Sujets relatifs
[HFR] Actu : La GeForce GTX 780 Ti en approche[HFR] Actu : AMD dans le vert grâce aux consoles
[HFR] Actu : GameWorks : Nvidia investit dans le jeu PC[HFR] Actu : Nouveau bundle Nvidia: Assassin's Creed 4
Plus de sujets relatifs à : [HFR] Actu : Nvidia G-SYNC: la v-sync enfin dynamique !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR