Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1982 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Nvidia G-SYNC : les tests sont en cours

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Page Précédente
Auteur Sujet :

[HFR] Actu : Nvidia G-SYNC : les tests sont en cours

n°8971308
tridam
Profil : Equipe HardWare.fr
Posté le 12-12-2013 à 15:05:02  profilanswer
0Votes positifs
 

C'est à partir d'aujourd'hui 15h que Nvidia autorise la publication des premières previews de la technologie G-SYNC qui avait été dévoilée il y a près de 2 ...
Lire la suite ...

mood
Publicité
Posté le 12-12-2013 à 15:05:02  profilanswer
 

n°8971330
Park_it
Posté le 12-12-2013 à 15:31:11  profilanswer
13Votes positifs
 

Intéressant mais à partir du moment où il faut des écrans spécifiques électroniquement ça va limiter la commercialisation et sa diffusion auprès du public... :/


Message édité par Park_it le 12-12-2013 à 15:31:27
n°8971337
Singman
The Exiled
Posté le 12-12-2013 à 15:36:15  profilanswer
5Votes positifs
 

Allez ! Plus vite, vous nous mettez l'eau à la bouche ! (fouettes, fouettes)

n°8971339
Drakal
Posté le 12-12-2013 à 15:37:23  profilanswer
3Votes positifs
 

J'aimerais juste savoir si c'est compatible toutes GTX ou il faut une gen précise? (et si oui à partir de quelle gen?)


Message édité par Drakal le 12-12-2013 à 15:38:55
n°8971342
superjo007
Posté le 12-12-2013 à 15:38:55  profilanswer
9Votes positifs
 

Si on pouvait avoir Mantle + G-Sync ca serait la classe


Message édité par superjo007 le 12-12-2013 à 15:39:18
n°8971351
tridam
Profil : Equipe HardWare.fr
Posté le 12-12-2013 à 15:43:39  profilanswer
4Votes positifs
 

Si ta carte graphique maintient en permanence au moins autant de fps que le taux de rafraîchissement, G-Sync ne sert à rien.

n°8971352
Drakal
Posté le 12-12-2013 à 15:44:08  profilanswer
1Votes positifs
 

Merci bobsaget.  
 
Du coup avec ma 580 j'suis niqué.

n°8971354
dohc16v
Posté le 12-12-2013 à 15:44:34  profilanswer
1Votes positifs
 

changement obligatoire d'ecran donc ? damn..

n°8971360
SirGallaha​d
What's your favorite color ?
Posté le 12-12-2013 à 15:47:20  profilanswer
2Votes positifs
 

bobsaget a écrit :

Un coup de fps cap avec Msi AB ou autre et c'est réglé nan?


 
Bah justement les fou avec plusieurs écrans/ la 3D ou une méchante résolution (voire les 3 en même temps) sont surement pas a 144fps.
 
Mais le budget reste "abordable" pour du nVidia :D
 
PS : Park_it qui fait un commentaire sans troller !

n°8971385
reve22
Posté le 12-12-2013 à 16:02:20  profilanswer
16Votes positifs
 

225€ en plus c'est le prix pour passer d'une CG moyen de gamme a une CG Haut de gamme (faisant tout tourner à plus de 60 FPS) ...
 
Sans une baisse de prix drastique, cette techno n'a pas de sens pour un achat "direct".
 
Sur le long terme cela peut devenir intéressant, mais ça reste un pari risqué (techno propriétaire).

mood
Publicité
Posté le 12-12-2013 à 16:02:20  profilanswer
 

n°8971387
Nokia94
Posté le 12-12-2013 à 16:04:52  profilanswer
5Votes positifs
 

Bande de chanceux! J'aimerais bien voir ce que ça donne mais à 500€ l'écran c'est un peu trop pour moi. Il faut arrêter de se la jouer élitiste chez Nvidia! :D

n°8971391
Profil sup​primé
Posté le 12-12-2013 à 16:06:13  answer
4Votes positifs
 

Comme dit, ce qui est dommage c'est le surcoût, ce dernier permet à une personne de passer à une carte graphique plus costaude et de tenir le taux de refresh de son écran .... sans avoir besoin du G-Sync :/

n°8971394
Profil sup​primé
Posté le 12-12-2013 à 16:08:38  answer
5Votes positifs
 

Trop cher pour ce que c'est. Ils rêvent.

 

:o


Message édité par Profil supprimé le 12-12-2013 à 16:08:57
n°8971420
Singman
The Exiled
Posté le 12-12-2013 à 16:23:18  profilanswer
5Votes positifs
 

Concernant le prix, il ne faut s'y tenir. Le surcoût actuel est donné pour une intégration "artisanale" à l'unité. L'accord de NVidia avec les fabricants est justement là pour faire diminuer au plus vite ce tarif.

n°8971448
tfpsly
Sly
Posté le 12-12-2013 à 16:42:15  profilanswer
2Votes positifs
 

G-Sync est intéressant dès que les FPS varient et/ou dès que le taux de rafraichissement de l'écran n'est pas un multiple des FPS.
 
- pas de sync : GPU et écran ne fonctionnent pas de manière synchrone, d'où tearing quand le GPU balance une nouvelle image alors que l'écran est encore en train d'afficher l'ancienne.
 
- V-Sync : l'écran force le GPU à travailler à son rythme fixe, par ex 50 ou 60 ou 75 ou 120Hz. Si le PC/jeu/GPU ne peut suivre, les FPS vont être à la moitié, au tiers ou pire du taux de rafraichissement. Et augmentation de l'input lag forcément, car le jeu ne tournera pas aussi vite qu'il pourrait.
 
- G-Sync : le GPU force l'écran à travailler à son rythme (qui peut ne pas être stable - FPS fluctuantes).

Message cité 2 fois
Message édité par tfpsly le 12-12-2013 à 16:43:41
n°8971453
cyberfred
Posté le 12-12-2013 à 16:44:47  profilanswer
1Votes positifs
 

@bobsaget : justement moi j'ai compris comme Tridam , tant que ta carte tient les 60 fps par exemple sur un écran 60 Hz , il n'y a aucun souci.
Si je parle de mon cas personnel , je joue à BF4 uniquement  "vsync on" car si j'enleve la vsync c'est juste affreux sur mon écran 60 Hz , un tearing ommi présent et la sensation que c'est pas fluide du tout :/
"Vsync on" c'est parfait 60 fps constant et pas de sensation d'input lag :spamafote:
 
par contre comme le dit tfpsly , on ressent l'input lag dés que le taux de FPS varie en dessous des 60 fps du coup , effectivement la fluidité se retrouve amoindri fortement d'où la sensation d'input lag.

Message cité 1 fois
Message édité par cyberfred le 12-12-2013 à 16:47:18
n°8971457
manusfreed​om
''Le reste est a venir''
Posté le 12-12-2013 à 16:47:11  profilanswer
1Votes positifs
 

L'autre intérêt est de pouvoir limiter les FPS de la CG sans avoir de problème d'affichage. Cela permet dans un petit boitier (HTPC) d'avoir une carte plus silencieuse en jeu.
Edit: Je parle de limiter les FPS et non de mettre une fréquence GPU max, cela est plus dynamique et est un réglage constant quelque soit le jeu.


Message édité par manusfreedom le 12-12-2013 à 16:49:23
n°8971458
reve22
Posté le 12-12-2013 à 16:47:34  profilanswer
7Votes positifs
 

Le G-sync est assurément une bonne idée.
 
Mais pour qu'elle soit réellement déployée il faudrait qu'elle entre dans une norme ... et pas qu'elle soit limitée à nVidia :s
 
L’intérêt n'est pas que sur PC. Des TV de salon avec un G-sync permettrais aussi de tirer parti des consoles de façon optimale (baisse de FPS car scène surchargée a un moment du jeu => osef)
 
Le fait que cette tech soit "propriétaire" et "fermée" est assez rédhibitoire.

n°8971480
gliterr
Posté le 12-12-2013 à 17:01:00  profilanswer
3Votes positifs
 

Singman a écrit :

Concernant le prix, il ne faut s'y tenir. Le surcoût actuel est donné pour une intégration "artisanale" à l'unité. L'accord de NVidia avec les fabricants est justement là pour faire diminuer au plus vite ce tarif.


Et meme si ca coutait 0 euros, il faut quand meme changer d'ecran.

n°8971498
Z_cool
HFR profile rating:⭐⭐⭐⭐
Posté le 12-12-2013 à 17:12:39  profilanswer
2Votes positifs
 

a mettre a coté de la 3D dans les films/jeux cette technologie a mon goût: a la poubelle.

n°8971514
bep
Posté le 12-12-2013 à 17:22:16  profilanswer
1Votes positifs
 

Ca peut etre bien --  mais on est encore loin du compte.
 
Et oui merci un peu d'ouverture svp -- vive les standards! Je veux dire il y a rien de "revolutionnaire"
 
Ca peut etre pratique pour plein de choses un ecran qui adapte son taux de rafraichissement a la source. Meme pour des films/blu-ray/... fini les conversions 23.976fps vers 25fps et autre.
 
Un peu de patience, et ca viendra!

n°8971560
Nono0000
Posté le 12-12-2013 à 18:07:13  profilanswer
3Votes positifs
 

Comme dit par les journalistes de HW.fr, cela n'aurait jamais du etre developpe par Nvidia mais par les fabricants d'ecrans (visiblement peu enclin a s'entendre et a investir dans la recherche de ce cote)
Rien n'empeche Nvidia de licencier G-sync a d'autres constructeurs comme AMD ou l'etendre a la TV et autres peripheriques mais c'est vrai que ca n'est pas le genre de la maison...


Message édité par Nono0000 le 12-12-2013 à 18:09:19
n°8971616
mosie
GEEK PRO POWER !
Posté le 12-12-2013 à 18:40:05  profilanswer
1Votes positifs
 

A voir aussi, si pour syncro, debit FPS CG/ecran cela ce fait en vrais temps réel, sans connso de ''cycle'' de sortie image CG. Ce qui augementerai l'input lag.
 
Sinon, avec un ecran 100Hz , plus de probleme :)

n°8971677
crashteste​ur
Le monde est une hypothèse.
Posté le 12-12-2013 à 19:13:07  profilanswer
1Votes positifs
 

allez un petit kit pour l'Asus 236HE !! avec un petit prix pour ce petit kit!

n°8971715
MasterDav
Posté le 12-12-2013 à 19:28:22  profilanswer
0Votes positifs
 

bobsaget a écrit :

si on a une grosse cg permettant d'assurer des fps au refresh rate de l'écran en permanence (60, 120 ou 144 fps donc). Un coup de fps cap avec Msi AB ou autre et c'est réglé nan?


Autant activer la vsync adaptive d'nvidia plutôt que d'utiliser ce genre d'utilitaire.
Mais que ça soit afterburner/precisionX, la vsync ou un fps limiter ingame ça ne changera rien au problème des baisses de framerate.
Et c'est ce problème là que gsync tient à résoudre.
 

reve22 a écrit :

225€ en plus c'est le prix pour passer d'une CG moyen de gamme a une CG Haut de gamme (faisant tout tourner à plus de 60 FPS) ...
Sans une baisse de prix drastique, cette techno n'a pas de sens pour un achat "direct".


Quand t'as déjà un SLI de 780 et que t'as 250€ en rabe, ça rentre pile poil.
Après, les pauvres ne sont pas concernés vu qu'ils auront déjà de l'AMD/ATI.  :o  
 
 
C'est bien là la plus grosse épine dans le pied de cette technologie: elle sera intégrée sur des écrans 24" 1080p à électronique et dalle pourries, dans un emballages plastique immonde façon transformers.
Quoique s'ils font un effort ils arriveront bien à sortir une version haut de gamme en 27" 1080p de même qualité que les bouses précitées.
 

bobsaget a écrit :

- VSync : input lag (imblairable sur la plupart des jeux, en particulier les FPS)


Non.
Certains le ressentent, d'autres non, moi pas.
Et pourtant l'input lag, comme le tearing et le suttering, ce sont trucs que je ne supporte pas.
 

tfpsly a écrit :

- V-Sync : l'écran force le GPU


Non, l'écran ne force rien.
La carte connait la fréquence de rafraichissement de l'écran, grâce à une mémoire dont j'ai oublié le nom qui est intégrée dans l'écran, et agit en conséquence.

n°8971836
silverati
Posté le 12-12-2013 à 20:09:36  profilanswer
2Votes positifs
 

Pas d'accord. Il y a de l'input lag mais c'est vraiment gênant que pour les gros pros des FPS old school. Le reste du temps et pour 99% des joueurs et des jeux, tu ne le ressentiras pas.
 
Je ne dirais pas 99%, et beaucoup de jeux ont cet effet indésirable !

n°8971849
katset
Marcel Poutre
Posté le 12-12-2013 à 20:17:45  profilanswer
0Votes positifs
 

Ca va encore couter un bras et demi alors :o  
 
Est-ce que ca va remettre en question l'intérêt d'avoir un écran 120hz, niveau confort de jeu?  [:gordon shumway]  
 

tridam a écrit :

....Sauf mauvaise surprise, nous devrions pouvoir publier notre preview dès demain.


Bonne nuiiiiit tridam  [:hephaestos]

n°8971870
katset
Marcel Poutre
Posté le 12-12-2013 à 20:30:17  profilanswer
1Votes positifs
 

cyberfred a écrit :

@bobsaget :.... je joue à BF4 uniquement  "vsync on" car si j'enleve la vsync c'est juste affreux sur mon écran 60 Hz , un tearing ommi présent et la sensation que c'est pas fluide du tout :/
"Vsync on" c'est parfait 60 fps constant et pas de sensation d'input lag :spamafote:
 
par contre comme le dit tfpsly , on ressent l'input lag dés que le taux de FPS varie en dessous des 60 fps du coup , effectivement la fluidité se retrouve amoindri fortement d'où la sensation d'input lag.


 
tu joues bf4 en multi? vsync on et tu trouve que c'est plus fluide que sans vsync?  [:dks:3]  
moi c'est absolument l'inverse, j'ai jamais pu supporter de jouer un fps en multi en V5, au point "d'accepter" le tearing (a la limite dans bf tu mets le blur, ca le masque un peu)
Évidemment, je serai ravi qu'il n'y ait pas de tearing! D'ou mon intéret pour cette techno..
J'ai hate de lire le test!  
 
p.s: t'arrives à...buter des gens sur bf4 avec la synchro activée?  [:kikadukana]

n°8971895
MasterDav
Posté le 12-12-2013 à 20:50:45  profilanswer
3Votes positifs
 

katset a écrit :

j'ai jamais pu supporter de jouer un fps en multi en V5, au point "d'accepter" le tearing (a la limite dans bf tu mets le blur, ca le masque un peu)
p.s: t'arrives à...buter des gens sur bf4 avec la synchro activée?  [:kikadukana]


Mais qu'est-ce qu'il faut pas lire...

n°8971957
Calinou_
Hache et fer
Posté le 12-12-2013 à 21:39:08  profilanswer
3Votes positifs
 

Sans compter qu'activer la V-sync limite les FPS et c'est donc une économie d'énergie, de température et de bruit ! Même s'il est également possible de limiter ses FPS "à la main" sur certains jeux, mettre la V-sync le fait automatiquement. :)


Message édité par Calinou_ le 12-12-2013 à 21:39:29
n°8972002
Gigathlon
Quad-neurones natif
Posté le 12-12-2013 à 22:12:43  profilanswer
1Votes positifs
 

bobsaget a écrit :

ce que je ne m'explique pas, c'est l'intérêt de G-Sync si on a une grosse cg permettant d'assurer des fps au refresh rate de l'écran en permanence


C'est de l'asynchronisme et du même tonneau que Vsync ON/OFF... dans un cas on gère ça niveau lecture RAM (Vsync OFF = on lit à intervalles réguliers peu importe l'avancement, Vsync ON = on lit à intervalles réguliers en attendant que le framebuffer soit rempli), dans l'autre niveau logique de l'écran (Gsync OFF = on affiche à intervalles réguliers, Gsync ON = on affiche dès qu'on a une image complète).
 
L'un ne remplace pas l'autre, c'est juste prendre le problème dans l'autre sens pour arriver à un meilleur résultat sans pour autant changer fondamentalement les besoins, ce qui était sans grand intérêt quand les premiers standards de synchronisation sont apparus.
 
Au lieu d'avoir un signal carré bien constant en guise d'horloge, le front actif est généré "flottant". Il me semble que certaines normes de communication ont déjà intégré ce principe, mais je ne me souviens plus lesquelles... vu que c'était dans le but de réduire la consommation, ça pourrait être la radio?


Message édité par Gigathlon le 12-12-2013 à 22:14:12
n°8972040
Doomsayer
Posté le 12-12-2013 à 22:41:51  profilanswer
0Votes positifs
 

Je me demande si AMD prépare quelque chose de similaire à G-Sync... Trouvé dans la séance de questions-réponses sur Tom's Hardware avec des représentants d'AMD : « You'll hear more from us on G-Sync soon. » http://www.tomshardware.co.uk/foru [...] l#11878271

n°8972069
Singman
The Exiled
Posté le 12-12-2013 à 23:27:34  profilanswer
1Votes positifs
 

Vous pouvez pas attendre demain pour lire le test ? Je suis certain que toutes vos questions trouveront une réponse a ce moment là.

n°8972117
SiZZiGETTE
BANNI de HFR
Posté le 13-12-2013 à 00:58:55  profilanswer
1Votes positifs
 

On entends de tout ici... LE v-sync qui limite les FPS dans les jeux en économisant de "l'energie"... LOULLLLL
 
Le vsync SYNCRONISE ! Il ne limite que dalle! Ca affiche 60 FPS mais les calculs sont faits au dela de ces 60 FPS :/ Si tu veux économiser des ressources il faut passer par MSI afterburner par exemple pour les limiter manuellement.
 
Sinon le G-Sync ca fais du lag input??? Si oui à combien? ;) Puis franchement payer 200 boules pour être fluide à 40 FPS... MDR ^^ Autant payer 200€ de plus dans une bonne  :sol:  
 
Genre je veux jouer peinard, je prends une GTX Ti 660 + Gsync kit de mise à jour = 350€  
Chez amd pour le même prix il y a la R9 290 autrement plus puissante.
 
Bref à ce prix c'est de l'attrape pigeon, ceux qui peuvent cracher 1000€ dans une CG ont les moyens de faire tourner les jeux à 150+ FPS et n'ont aucun intêret avec le G-Sync.
 
Franchement je ne voit aucun intêret au G-Sync à ce prix. Si c'était 20 ou 30€ de plus sur l'achat d'un moniteur pk pas, mais 200€...
 
Ce G-Sync ca me fais un peu penser au motion blur dans les FPS, dans crysis on trouvait ca super, et depuis on le désactive tous car ca nuit à la lisibilité des FPS en multi, je sens que ce G-Sync va faire plus de désaventges que d'avantages... Prix, Lag input, restriction sur le choix des moniteurs...

Message cité 2 fois
Message édité par SiZZiGETTE le 13-12-2013 à 02:21:39
n°8972121
tridam
Profil : Equipe HardWare.fr
Posté le 13-12-2013 à 01:07:13  profilanswer
7Votes positifs
 

Le vsync ON à 60 Hz limite à 60 FPS max tout comme une limite de fps manuelle dans afterburner.

n°8972122
Gigathlon
Quad-neurones natif
Posté le 13-12-2013 à 01:08:02  profilanswer
1Votes positifs
 

SiZZiGETTE a écrit :

Sinon le G-Sync ca fais du lag input??? Si oui à combien? ;)


Ca en enlève, d'un point de vue théorique.
 
Là où en Vsync on doit attendre 16.67/8.33ms entre 2 images, avec Gsync on tourne Vsync OFF et on peut afficher "immédiatement" (tout dépend des paramètres exacts, je reste dans la théorie) toute nouvelle image complète.
 
Au lieu de travailler sur le framebuffer puis sur l'écran, on travaille sur les 2 à la fois.

n°8972125
SiZZiGETTE
BANNI de HFR
Posté le 13-12-2013 à 01:15:15  profilanswer
1Votes positifs
 

tridam a écrit :

Le vsync ON à 60 Hz limite à 60 FPS max tout comme une limite de fps manuelle dans afterburner.


 
Fais un monitoring alors vsync activé et ensuite MSI activé :) C'est pas vraiment la même chose coté charge GPU ^^
 
Avec ma config :
BF3 + Vsync = 100% charge GPU2 ET 90% GPU1
BF3 + Afterburner = 100% charge GPU2 et  60% charge GPU1
BF3 + Vsync + Afterburner = 100% charge GPU2 et 60% charge GPU1
 
En mono GPU c'est encore plus flagrant... Il y a la théorie et la pratique et bien souvent les escomptés ne sont pas présents :/
 
Puis franchement, dans 2/3 ans les écrans 3D sans lunettes commenceront à envahir le marché, qui va encore jouer à 40 FPS hein? Non je maintiens, je trouve que cette technologie bien qu'innovante va être totalement inutile car mal placée dans le contexte actuel technologiquement parlant, ca va être une technologie complétement dispensable, un peu comme le PhysX qui tombe dans l'oubli. Ce genre de moniteur aurait été cool il y a dix ans, aujourd'hui on est en marche pour généraliser la 3D à plus de 120Hz, qui va vouloir encore jouer à 40Hz dans 3 ans?  
 
Coup d'épée dans l'eau pour nvidia... Même si ca marche bien, pour 200€ et avec la 3D cette technologie n'a aucun avenir à moyen terme. Investir 200€ + éventuellement une carte si besoin avec un écran compatible ca fais déjà cher, mais s'il faut en plus se taper le moniteur... 500€ le moniteur + la carte :/ Et quand la 3D arrive sérieusement on fais quoi? On réinvestis? Oui mais dans quoi?? Un G-Sync 2.0 Compatible 3D sur des moniteurs à 700€?? Pendant 2/3 ans ca peut être cool à condition d'en payer le prix (argent avec lequel on peu sinon tout simplement opter pour du matos plus puissant). Bref bonne idée mais pas viable à moyen terme et trop onéreuse à court terme.
 
Ces écrans sont faits pour JOUER et pour ce faire il faut des jeux. Là où son concurrent  à compris un peu tard qu'il fallait bosser main dans la main avec les éditeurs, Nvidia délaisse abusément ces derniers qui migrent sur le "Gaming Evolved", tout en voulant coller l'étiquette Nvidia à l'intérieur de nos moniteurs pour s'assurer des plus grosses parts de marchés. Alors oui ils sont contents, nouveau produits, développement de l'activité de la boite, profits énormes, et tout ca pourquoi? Car on veut JOUER! On vient pas pour nvidia on vient d'abord pour s'amuser :) Je préfère 1000 fois donner mon argent à des entreprises qui ont compris que leur succés dépend de celui des autres et qui se mouillent la chemise pour serrer les coudes et proposer des projets coopératifs qui seront infiniment plus riche que ce que peut fournir une seule firme aussi grosse soit elle.

Message cité 1 fois
Message édité par SiZZiGETTE le 13-12-2013 à 02:05:48

---------------
BANNI de HFR
n°8972128
SiZZiGETTE
BANNI de HFR
Posté le 13-12-2013 à 01:18:22  profilanswer
1Votes positifs
 

Gigathlon a écrit :


Ca en enlève, d'un point de vue théorique.
 
Là où en Vsync on doit attendre 16.67/8.33ms entre 2 images, avec Gsync on tourne Vsync OFF et on peut afficher "immédiatement" (tout dépend des paramètres exacts, je reste dans la théorie) toute nouvelle image complète.
 
Au lieu de travailler sur le framebuffer puis sur l'écran, on travaille sur les 2 à la fois.


 
Non toi tu parle du temps entre 2 images, moi je te parle du temps qu'il faut au G-Sync pour faire le calcul, Ok il va afficher 8.33ms entre deux images mais la totalité des images si elles ont 50ms de retard sur un moniteur "normal" c'est tendu :/
 


---------------
BANNI de HFR
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Nvidia G-SYNC : les tests sont en cours

 

Sujets relatifs
[HFR] Actu : Les GeForce Maxwell pour bientôt ? Oui et non[HFR] Actu : R9 290 et 290X WindForce 3X pour Gigabyte
[Conseil] Upgrade petit gamer ---> GrOs G@mEr[HFR] Actu : Micron abdique contre Rambus
FREEZE le pilote nvidia windows kernel driver ne répondait plus…le pilote nvidia windows kernel driver ne répondait plus...
Probleme drivers Nvidia et ma carte ... 
Plus de sujets relatifs à : [HFR] Actu : Nvidia G-SYNC : les tests sont en cours


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR