Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2970 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  630  631  632  ..  804  805  806  807  808  809
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11290157
Space
Profil: Maux des rateurs
Posté le 21-10-2023 à 21:35:55  profilanswer
 

Reprise du message précédent :

Xixou2 a écrit :

Z'avez essayé le Vsync rapide, je trouve que ça fonctionne très bien, plus besoin de Gsync.
Pas de tearing et smooth.
Pas de glitch d'écran lors du switch de fenêtre causé par le Gsync.
 
Edit: quand même vu style tearing avec ça, le Vsync classic reste le meilleur.
 
https://zupimages.net/up/23/42/fyz3.png

je n'ai jamais trouvé ça concluant , cela ne vaut pas le g-sync.
 
Ce n'est pas smooth dès que le framerate descend un peu en dessous du refreshrate.  


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
mood
Publicité
Posté le 21-10-2023 à 21:35:55  profilanswer
 

n°11290160
frabill
Posté le 21-10-2023 à 21:40:12  profilanswer
 

Kenshineuh a écrit :


 
J’ai eu ça pendant un temps. C’était simplement un soucis de pilote Nvidia. J’ai downgrade sur ancienne version pendant 2/3 mois et ensuite j’ai remis à jour. C’est jamais revenu.  
Je sais pas si ça va t’aider, j’ai pas suivit toute l’histoire.


 
A propos de drivers pourris, les derniers 545.84 (qui sont d'ailleurs censés résoudre des problèmes d'écran noir...)  sont bien bugués dans mon cas (4070, plusieurs moniteurs, win10). Gros freeze à l'ouverture de windows et sur le bureau rien qu'en lisant des vidéos... Je n'ai même pas lancé un jeu. Et j'ai vu des témoignages similaires
 
Retour aux précédents

n°11290171
Xixou2
Posté le 21-10-2023 à 23:13:57  profilanswer
 

545.84 ras ici (mono screen Win 11)

n°11290181
booba92i
Posté le 22-10-2023 à 00:40:56  profilanswer
 

Xixou2 a écrit :

Z'avez essayé le Vsync rapide, je trouve que ça fonctionne très bien, plus besoin de Gsync.
Pas de tearing et smooth.
Pas de glitch d'écran lors du switch de fenêtre causé par le Gsync.
 
Edit: quand même vu style tearing avec ça, le Vsync classic reste le meilleur.
 
https://zupimages.net/up/23/42/fyz3.png


 
Je suis en VR donc d'aucune utilité pour moi  :o


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
n°11290182
belek37
Posté le 22-10-2023 à 01:00:51  profilanswer
 

havoc_28 a écrit :


 
Toutes les cartes mères LGA 1700 avec un M2 PCI-E 5.0 y a une indication quelque part comme quoi si le port M2 pouvant gérer le PCI-E 5.0 est occupé, le port PCI-E 16X compatible PCI-E 5.0  passerait en 8X.
 
Dans le manuel ou autre c'est forcément quelque part. Sur LGA 1700 y a que 16 lignes PCI-E 5.0 venant du processeur, pas une de plus.
 
https://dlcdnets.asus.com/pub/ASUS/ [...] ING%20WIFI
 
C'est bien dans le manuel, tu as peut être passé la chose : / .
 

Citation :

Intel® 13th & 12th Gen Processors*
1 x PCIe 5.0 x16 slot**
Intel® Z790 Chipset
2 x PCIe 4.0 x16 slots (supports x4 mode)
* Please check the PCIe bifurcation table on support site
(https://www.asus.com/support/FAQ/1037507/).
** When M.2_1 is occupied with SSD device, PCIEX16(G5) will run x8 only.


 
Dans le récapitulatif des specs.
 
ROG STRIX Z790-E GAMING WIFI specifications summary


 
 
Je suis carrément passé à côté oui !!
Je m'en veux, quel boulet !

n°11290183
spark
Luc ?
Posté le 22-10-2023 à 01:02:58  profilanswer
 

belek37 a écrit :


 
 
Je suis carrément passé à côté oui !!
Je m'en veux, quel boulet !


c'était sur que c'était un partage de lignes :o


---------------
Un cycle complet sera une série de 100.
n°11290189
Profil sup​primé
Posté le 22-10-2023 à 05:03:40  answer
 

havoc_28 a écrit :


 
Toutes les cartes mères LGA 1700 avec un M2 PCI-E 5.0 y a une indication quelque part comme quoi si le port M2 pouvant gérer le PCI-E 5.0 est occupé, le port PCI-E 16X compatible PCI-E 5.0  passerait en 8X.
 
Dans le manuel ou autre c'est forcément quelque part. Sur LGA 1700 y a que 16 lignes PCI-E 5.0 venant du processeur, pas une de plus.
 
https://dlcdnets.asus.com/pub/ASUS/ [...] ING%20WIFI
 
C'est bien dans le manuel, tu as peut être passé la chose : / .
 

Citation :

Intel® 13th & 12th Gen Processors*
1 x PCIe 5.0 x16 slot**
Intel® Z790 Chipset
2 x PCIe 4.0 x16 slots (supports x4 mode)
* Please check the PCIe bifurcation table on support site
(https://www.asus.com/support/FAQ/1037507/).
** When M.2_1 is occupied with SSD device, PCIEX16(G5) will run x8 only.


 
Dans le récapitulatif des specs.
 
ROG STRIX Z790-E GAMING WIFI specifications summary


 
Arf, l'informatique, dans la même veine, sur X570, même si le CPU a 16 lignes PCIE dédié au GPU, et bin non  :non:  ,  
si tu as, comme moi, la chance d'avoir des M2 PCIE 4.0 x4, la mobo bouffe 8 lignes du Pcie de la CG....  
Mais bien sûr, rien dans la notice... sinon ce n'est pas rigolo, mais bon, Pcie 4.0 8x = Pcie 3.0 16x,  
donc bon, je ne suis pas à 1% de perf, et quand je vois les bench des 3090 en Pcie 4.0 x16,  
finalement, je suis encore dans le haut du tableau, merci au watercooling... et la chance d'avoir un GPU, presque gold,  
pas loin finalement, si je pouvais pousser le PL à 110%  :ange:  ...  Je suis plus à brider le PL en ce moment ^^
Fini les GPU à 350watts, je vais viser un futur GPU à ~250 watts max, on peut toujours rêver pour le haut de gamme… non :??:  [:arank'thnar]  
 [:jedi_le_retour]

n°11290205
oliviermdv​y
Posté le 22-10-2023 à 09:52:44  profilanswer
 

 

Pas de soucis les futures 5090 seront compactes et consommeront 100W de moins pour le double de puissance..

 


... on peut toujours rêver  :o


Message édité par oliviermdvy le 22-10-2023 à 09:52:58

---------------
i5 13600K|32Go GSkill DDR4 3600Mhz|MSI Shadow OC RTX 5080|Meta Quest 3
n°11290207
Valaint671​30
Cinquième soleil
Posté le 22-10-2023 à 09:59:30  profilanswer
 

En ce moment sur CB2077 TAF + RT + FG en 4K, j'ai mis la 4090 à 360w max.
 
Entre 500w de tdp et 360w je n'ai que 2 fps de différence, soit 83 / 81 sur le bench :D

Message cité 1 fois
Message édité par Valaint67130 le 22-10-2023 à 10:08:41

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11290210
Turrican08
Gamer
Posté le 22-10-2023 à 10:20:32  profilanswer
 

Salut a tous .
 
Je viens de me refaire une config , j'ai comme carte mère une ASUS ROG STRIX Z790-F GAMING WIFI avec ( d’après les caractéristiques officiel )  un 1 x Slot PCIe 5.0 x 16 .
 
Ma 4090 est reconnu en PCIe 4.0 selon CPUZ :
 
https://image.noelshack.com/minis/2023/42/7/1697962792-presse-papiers-1.png
 
Une idée  ?


---------------
Le tennis et le ping-pong, c'est pareil. Sauf qu'au tennis, les joueurs sont debout sur la table.
mood
Publicité
Posté le 22-10-2023 à 10:20:32  profilanswer
 

n°11290211
Regla88
Posté le 22-10-2023 à 10:23:37  profilanswer
 

Turrican08 a écrit :

Salut a tous .
 
Je viens de me refaire une config , j'ai comme carte mère une ASUS ROG STRIX Z790-F GAMING WIFI avec ( d’après les caractéristiques officiel )  un 1 x Slot PCIe 5.0 x 16 .
 
Ma 4090 est reconnu en PCIe 4.0 selon CPUZ :
 
https://image.noelshack.com/minis/2 [...] iers-1.png
 
Une idée  ?


 
Normal, la série 4000 est en PCIE 4.0, pas en 5.0.

n°11290216
Xixou2
Posté le 22-10-2023 à 10:58:45  profilanswer
 

Turrican08 a écrit :

Salut a tous .
 
Je viens de me refaire une config , j'ai comme carte mère une ASUS ROG STRIX Z790-F GAMING WIFI avec ( d’après les caractéristiques officiel )  un 1 x Slot PCIe 5.0 x 16 .
 
Ma 4090 est reconnu en PCIe 4.0 selon CPUZ :
 
https://image.noelshack.com/minis/2 [...] iers-1.png
 
Une idée  ?


 
Gen4 la 4090.

n°11290220
Turrican08
Gamer
Posté le 22-10-2023 à 11:22:09  profilanswer
 

Ha ok merci .


---------------
Le tennis et le ping-pong, c'est pareil. Sauf qu'au tennis, les joueurs sont debout sur la table.
n°11290237
Xixou2
Posté le 22-10-2023 à 12:57:25  profilanswer
 


Idem pour le display port: 1.4a (y a quand même la compression DSSC qui permet d'atteindre l'UHD en 240 Hz) ,mais  pas 2.0.

n°11290458
Profil sup​primé
Posté le 23-10-2023 à 08:43:41  answer
 

Oui, je trouve ça vraiment dommage pour des cartes a ce prix, toujours DP 1.4a :( , franchement, Nvidia, sur ce coup…   [:haha]


Message édité par Profil supprimé le 23-10-2023 à 08:44:06
n°11290463
mimieseb
Posté le 23-10-2023 à 09:44:56  profilanswer
 

Sans vouloir défendre nvidia  
Pour le moment y’a t’il une réelle utilité au dp 2.0 car faire du 4K 240hz c’est pas pour maintenant et attention au prix de l’écran si il y’en a.
Pour moi c’est un peu comme le pcie gen 5


---------------
Matos watercooling  http://forum.hardware.fr/forum2.ph [...] =3&trash=0
n°11290466
Valaint671​30
Cinquième soleil
Posté le 23-10-2023 à 09:50:35  profilanswer
 

La plupart des gens réagissent par opposition.
 
AMD propose mieux dans les faits, mais totalement inutile à cette heure pourtant...
 
La conclusion dépends de la personne ensuite :o


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11290484
Scrabble
Posté le 23-10-2023 à 11:00:58  profilanswer
 

mimieseb a écrit :

Sans vouloir défendre nvidia  
Pour le moment y’a t’il une réelle utilité au dp 2.0 car faire du 4K 240hz c’est pas pour maintenant et attention au prix de l’écran si il y’en a.
Pour moi c’est un peu comme le pcie gen 5


Oui, il y a une réelle utilité au DP 2.0
Pas aujourd'hui, mais dans un an, les moniteurs l'utilisant existeront
Nvidia fait à moitié exprès de ne pas le supporter, ça poussera à acheter des RTX 50X0 en 2024 ou 2025

n°11290488
petit-tigr​e
miaou
Posté le 23-10-2023 à 11:24:59  profilanswer
 

Ca ne poussera rien du tout. Quel intérêt d'avoir un moniteur 240hz ? 144 OK, au delà...

 

Surtout que plus on cherche du haut framerate, plus les chances d'avoir un facteur limitant autre que le GPU sont grandes (CPU).

 

Je vois déjà les topics ici : "j'ai que 217 fps dans mon jeu au lieu de 240, pourquoi ? Aidez moi, je change tout si il faut".

 

Intel etc s'en frottent déjà les mains.
Piège à con pour faire plus simple et sans animosité aucune :o

Message cité 3 fois
Message édité par petit-tigre le 23-10-2023 à 11:26:40

---------------
mIaOuUuUuUuUuUu
n°11290490
Scrabble
Posté le 23-10-2023 à 11:31:29  profilanswer
 

petit-tigre a écrit :

Ca ne poussera rien du tout. Quel intérêt d'avoir un moniteur 240hz ? 144 OK, au delà...


Je n'ai qu'un moniteur 144Hz, donc je n'ait jamais testé le 240Hz, mais je pense que le 240Hz est intéressant pour du gaming
Que les moniteurs 4K 240Hz soient très chers, ça sera une certitude, mais ça sera un réel progrès

n°11290494
ddlabrague​tte
Posté le 23-10-2023 à 12:27:49  profilanswer
 

Si tu joues à counter strike éventuellement  
 
Mais pour la grande majorité des gens c'est totalement inutile


Message édité par ddlabraguette le 23-10-2023 à 14:34:36
n°11290495
- gab
Posté le 23-10-2023 à 12:30:57  profilanswer
 

CS ça se joue sur un CRT ou en 1280x960, non ? :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11290502
petit-tigr​e
miaou
Posté le 23-10-2023 à 13:05:54  profilanswer
 

- gab a écrit :

CS ça se joue sur un CRT ou en 1280x960, non ? :o


en 800x600 avec les PODbots qui visent à travers les murs.


---------------
mIaOuUuUuUuUuUu
n°11290511
marijuo
Posté le 23-10-2023 à 13:28:57  profilanswer
 

petit-tigre a écrit :


en 800x600 avec les PODbots qui visent à travers les murs.


 
 :ange:


---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°11290587
Scalpt0
Posté le 23-10-2023 à 17:18:09  profilanswer
 

C'est drôle comme on veut toujours et toujours plus.
Il y a 20 ans, on jouait en 1024*768 à 60hz, et on était super heureux
Il y a 10 ans, on jouait en 1920*1080 à 60Hz, et on était super heureux
 
Aujourd'hui, on pleurniche car on a pas du 240hz en 4K.
Les fabricants sont fautifs également à toujours proposer plus, mais on à clairement un problème aussi.
 
Surtout qu'on s'amusait plus il y a 20 ans, on était pas constamment en train de monitorer les perfs.

n°11290589
cyberfred
Posté le 23-10-2023 à 17:25:18  profilanswer
 

Moi le premier je fais parti du "on en veut toujours plus"  , je le reconnais  ;  maintenant  , faut reconnaitre que le confort du gaming entre du 60hz et du 120Hz/144Hz est plus qu'appréciable :jap:
d'ailleurs , je ronge mon frein sur Forza Motorsport quand je joue en multi et que le jeu repasse automatiquement à 60 fps max  , l'impression que ca rame comme c'est pas permis  :(  
bon je me réhabitue au bout de quelques tours mais j'avoue que ca me fait bizarre ! (j'avais lâché "the crew" à cause de ça d'ailleurs)

n°11290591
coil whine
Renvoie-là au SAV
Posté le 23-10-2023 à 17:27:21  profilanswer
 

cyberfred a écrit :

Moi le premier je fais parti du "on en veut toujours plus"  , je le reconnais  ;  maintenant  , faut reconnaitre que le confort du gaming entre du 60hz et du 120Hz/144Hz est plus qu'appréciable :jap:
d'ailleurs , je ronge mon frein sur Forza Motorsport quand je joue en multi et que le jeu repasse automatiquement à 60 fps max  , l'impression que ca rame comme c'est pas permis  :(  
bon je me réhabitue au bout de quelques tours mais j'avoue que ca me fait bizarre ! (j'avais lâché "the crew" à cause de ça d'ailleurs)


Salut !  
(Petit HS parce que on a pas le droit de parler pc sur le topic du jeu lol).
On peut pas capter ses fps dans le jeu on dirait. D'ailleurs les réglages sont vraiment pauvres. J’aurais bien voulu caper à 80 à peu près car j’ai l’impression que le jeu gère mal les fps variables. Et le vsync 60 ne fonctionne pas …

n°11290592
Scrabble
Posté le 23-10-2023 à 17:29:49  profilanswer
 

Scalpt0 a écrit :

C'est drôle comme on veut toujours et toujours plus.
Il y a 20 ans, on jouait en 1024*768 à 60hz, et on était super heureux
Il y a 10 ans, on jouait en 1920*1080 à 60Hz, et on était super heureux
 
Aujourd'hui, on pleurniche car on a pas du 240hz en 4K.
Les fabricants sont fautifs également à toujours proposer plus, mais on à clairement un problème aussi.
 
Surtout qu'on s'amusait plus il y a 20 ans, on était pas constamment en train de monitorer les perfs.


Bah ouais mais il n'y a pas que le jeu dans la vie
Il y a 25 ans, quand tu travaillais sur PC, tu te tuait les yeux sur un écran CRT, il y a 20 ans tu devait encore supporter le bruit continuel de la tour posée à tes pieds (Les ventilos étaient peu ou mal régulés)
Aujourd'hui le confort est incomparable

n°11290595
cyberfred
Posté le 23-10-2023 à 17:42:02  profilanswer
 

coil whine a écrit :


Salut !  
(Petit HS parce que on a pas le droit de parler pc sur le topic du jeu lol).
On peut pas capter ses fps dans le jeu on dirait. D'ailleurs les réglages sont vraiment pauvres. J’aurais bien voulu caper à 80 à peu près car j’ai l’impression que le jeu gère mal les fps variables. Et le vsync 60 ne fonctionne pas …


 
Hello Coil whine  , j'ai vu ça sur le topic du jeu donc j'évite de parler "perf sur PC" en effet ;)  alors en multijoueur , c'est cappé à 60 donc c'est vite vu :D
pour le solo je t'avoue que j'ai pas regardé , je joue en vsync off , framerate dévérouillé de mon côté mais je vois ce que tu veux dire car les fps font du yoyo pour moi aussi en effet (même si globalement ca reste super fluide , heureusement avec une 4090 sous le capot :D )  
le jeu souffre encore d'optimisation générale , faudra voir avec le prochain patch.

Message cité 1 fois
Message édité par cyberfred le 23-10-2023 à 17:43:10
n°11290596
LeMakisar
Posté le 23-10-2023 à 17:44:34  profilanswer
 

Scalpt0 a écrit :

C'est drôle comme on veut toujours et toujours plus.
Il y a 20 ans, on jouait en 1024*768 à 60hz, et on était super heureux
Il y a 10 ans, on jouait en 1920*1080 à 60Hz, et on était super heureux

 

Aujourd'hui, on pleurniche car on a pas du 240hz en 4K.
Les fabricants sont fautifs également à toujours proposer plus, mais on à clairement un problème aussi.

 

Surtout qu'on s'amusait plus il y a 20 ans, on était pas constamment en train de monitorer les perfs.

 

:jap:
Les tests toujours plus orientés "regardez les perfs *4 (sur un jeu mal foutu et dans des conditions très particulières)" et la plupart d'entre nous se sont fait avoir.
J'en fais partie, bon même si l'écran 4k pour le boulot a pas aidé côté "besoin" ou plutôt envie de puissance pour les jeux...


---------------
Feedback
n°11290598
coil whine
Renvoie-là au SAV
Posté le 23-10-2023 à 17:49:33  profilanswer
 

cyberfred a écrit :


 
Hello Coil whine  , j'ai vu ça sur le topic du jeu donc j'évite de parler "perf sur PC" en effet ;)  alors en multijoueur , c'est cappé à 60 donc c'est vite vu :D
pour le solo je t'avoue que j'ai pas regardé , je joue en vsync off , framerate dévérouillé de mon côté mais je vois ce que tu veux dire car les fps font du yoyo pour moi aussi en effet (même si globalement ca reste super fluide , heureusement avec une 4090 sous le capot :D )  
le jeu souffre encore d'optimisation générale , faudra voir avec le prochain patch.


Merci pour ton retour.  :jap:

n°11290604
cedric39
Posté le 23-10-2023 à 18:16:16  profilanswer
 

mimieseb a écrit :

Sans vouloir défendre nvidia  
Pour le moment y’a t’il une réelle utilité au dp 2.0 car faire du 4K 240hz c’est pas pour maintenant et attention au prix de l’écran si il y’en a.
Pour moi c’est un peu comme le pcie gen 5


 
C'est déjà le cas avec l'Odyssey G8 ( que je possède )  
 
Je vous assure que même en bureautique, une fois que vous avez goûté au 240 Hz, vous remarquez la différence entre 120 Hz et 240 Hz (bien que ce ne soit pas aussi marqué que le passage de 60 à 120 Hz) et c'est dur de repasser au 120Hz :o
 
Après en jeu évidemment 120Hz et 240Hz c'est quasiment imperceptible

Message cité 2 fois
Message édité par cedric39 le 23-10-2023 à 18:20:32

---------------
''9800X3D // RTX 4090 // 32Go de RAM 6000Mhz CL30 // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11290611
marijuo
Posté le 23-10-2023 à 18:44:44  profilanswer
 

Scalpt0 a écrit :

C'est drôle comme on veut toujours et toujours plus.
Il y a 20 ans, on jouait en 1024*768 à 60hz, et on était super heureux
Il y a 10 ans, on jouait en 1920*1080 à 60Hz, et on était super heureux
 
Aujourd'hui, on pleurniche car on a pas du 240hz en 4K.
Les fabricants sont fautifs également à toujours proposer plus, mais on à clairement un problème aussi.
 
Surtout qu'on s'amusait plus il y a 20 ans, on était pas constamment en train de monitorer les perfs.


 
 
Et il a 50 ans ont regardais la télé en noir et blanc :o
 
 
 
Plus sérieusement rien n'oblige les gens a monter a plus que 1080p 60hz, mais déjà, passer à 144hz, c'est vraiment super appréciable.
Techniquement on peut très bien se satisfaire d'un 24" 144hz en 1080p, je pense qu'on gagne encore dans les jeux niveau finesse s'il on passe en 1440p mais le véritable avantage de la 4k auquel je criais bullshit moi le 1er avant de tester, c'est la finesse qui te permet de jouer sans AA..
quand je repasse a 1440p 21/9, je vois la diff sous rdr2 par exemple.
 
En revanche je suis plutôt d'accords qu'au delà de 144hz, je suis pas sur que ça soit bien utile.
On est là, selon moi, plus sur du marketing qu'autre chose en effet.
 
 


---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°11290616
petit-tigr​e
miaou
Posté le 23-10-2023 à 18:53:47  profilanswer
 

Scalpt0 a écrit :

on était pas constamment en train de monitorer les perfs.


Ben c'est un peu ça le problème en fait : il y en a beaucoup trop qui "jouent" avec le moniteur de MSI ou autre dans un coin. Du coup ils se focalisent bien plus sur ça que sur le jeu lui-même. Et dès que ça descend sous le "seuil de tolérance mathématique même si ça se voit pas en jouant", vite : Y A UN PROBLEME JE DEMANDE DE L'AIDE !... alors que tout va bien.

 

Enlevez-les ces compteurs et vous allez halluciner de combien vous allez kiffer vos jeux tels qu'ils tournent car l'attention sera entièrement focalisée sur autre chose !
Je ne vise personne en particulier au passage, le vous = impersonnel :D


Message édité par petit-tigre le 23-10-2023 à 18:56:04

---------------
mIaOuUuUuUuUuUu
n°11290618
Xixou2
Posté le 23-10-2023 à 18:59:59  profilanswer
 

petit-tigre a écrit :

Ca ne poussera rien du tout. Quel intérêt d'avoir un moniteur 240hz ? 144 OK, au delà...
 
Surtout que plus on cherche du haut framerate, plus les chances d'avoir un facteur limitant autre que le GPU sont grandes (CPU).
 
Je vois déjà les topics ici : "j'ai que 217 fps dans mon jeu au lieu de 240, pourquoi ? Aidez moi, je change tout si il faut".
 
Intel etc s'en frottent déjà les mains.
Piège à con pour faire plus simple et sans animosité aucune :o


need 200 fps perso. Je ne reviendrai jamais sur un 144 Hz.

Message cité 1 fois
Message édité par Xixou2 le 23-10-2023 à 19:00:47
n°11290631
matt33000
Posté le 23-10-2023 à 19:50:05  profilanswer
 

Xixou2 a écrit :


need 200 fps perso. Je ne reviendrai jamais sur un 144 Hz.


   
+1 . Enfin dans certains jeux en tout cas. Je ne reviendrais pas en arrière également.
 
Disons que le passage 144 à 240 n'est pas un "game changer" mais un confort supplémentaire qui se perçoit dans certains jeux /situation de jeu (en faisant attention à ne pas etre cpu limited )


Message édité par matt33000 le 23-10-2023 à 19:51:34

---------------
2 ième compte. 1er compte: pseudo mat33000
n°11290647
It_Connexi​on
Posté le 23-10-2023 à 20:40:55  profilanswer
 

cedric39 a écrit :


 
C'est déjà le cas avec l'Odyssey G8 ( que je possède )  
 
Je vous assure que même en bureautique, une fois que vous avez goûté au 240 Hz, vous remarquez la différence entre 120 Hz et 240 Hz (bien que ce ne soit pas aussi marqué que le passage de 60 à 120 Hz) et c'est dur de repasser au 120Hz :o
 
Après en jeu évidemment 120Hz et 240Hz c'est quasiment imperceptible


 
Je suis d'accord
 
J'ai un 24" FHD 165hz et un 27" 1440p 240hz (sans compter la TV OLED 120hz) : je me suis pris une claque monstrueuse en passant de 60hz à 120hz, le 165hz pas trop de différence, le 240hz si, c'est encore un cran au dessus, même sou windows je trouve ça plus smooth :D
 
Par contre 1080p, 1440p ou 4k c'est pas fou (4kbsur TV avec 2m50 de recul). L'Oled ça par contre c'est une claque visuelle de dingue
 


---------------
Galerie Photo Personnelle
n°11290683
@chewie
Posté le 23-10-2023 à 22:58:58  profilanswer
 

Scalpt0 a écrit :

C'est drôle comme on veut toujours et toujours plus.
Il y a 20 ans, on jouait en 1024*768 à 60hz, et on était super heureux
Il y a 10 ans, on jouait en 1920*1080 à 60Hz, et on était super heureux
 
Aujourd'hui, on pleurniche car on a pas du 240hz en 4K.
Les fabricants sont fautifs également à toujours proposer plus, mais on à clairement un problème aussi.
 
Surtout qu'on s'amusait plus il y a 20 ans, on était pas constamment en train de monitorer les perfs.


Y’a 25 ans je rajoutais une seconde voodoo 2 dans mon pc pour faire du sli et jouer à Half-Life 2 en 1024*768 au lieu de 800*600 :o
 
La course aux perfs en plus a toujours été là, le matos évoluait même plus vite que maintenant.
 
C’est la montée en résolution qui s’est emballée ces dernières années. Mais comme déjà dit, on va bientôt stagner de ce côté là.  
Je vois mal l’intérêt d’avoir qqch au dessus de 8k, on arrive aux limites de ce que l’œil humain est capable de voir, sur un écran à plus 30 cm de son nez en tout cas :o
Idem pour la fréquence, plus de 240hz me paraît très futile.
 
Par contre faudra toujours plus de perfs pour suivre l’évolution des moteurs graphiques.

n°11290685
azubal
Posté le 23-10-2023 à 23:09:33  profilanswer
 

La VR mon enfant, la VR.

n°11290687
havoc_28
Posté le 23-10-2023 à 23:23:37  profilanswer
 

@chewie a écrit :


Y’a 25 ans je rajoutais une seconde voodoo 2 dans mon pc pour faire du sli et jouer à Half-Life 2 en 1024*768 au lieu de 800*600 :o


 
Faut peut être mettre à jours tes souvenirs tout ça, Voodoo2 / HL2 c'est pas tout à fait ça :o.  
HL1 sur voodoo 2 oui, le 2 non, c'est pas possible :D.
 
Tout comme y a 25 ans c'était HL1 qui sortait le 2 c'est un peu plus tard  :lol: .
 
Ma première upgrade dans un PC ça été de rajouter une Voodoo 2 pour booster la S3 Virge de série (sur un Pentium I MMX 200 mhz). Donc je me rappelle de la période.

Message cité 3 fois
Message édité par havoc_28 le 23-10-2023 à 23:36:49
n°11290691
booba92i
Posté le 23-10-2023 à 23:53:29  profilanswer
 

azubal a écrit :

La VR mon enfant, la VR.


 
+1000  :D  
 


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  630  631  632  ..  804  805  806  807  808  809

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)