Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2686 connectés 

 


Usage (semi)pro/création de leur RTX 5090 en plus du jeu?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  147  148  149  ..  583  584  585  586  587  588
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11389815
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-01-2025 à 12:46:20  profilanswer
 

Reprise du message précédent :

kenshirooo a écrit :


 
J'ai remplacé ma 55CX lors du blackfriday par un 65 G4. Totale pulsion imprévue, déclenché par le prix d'achat qui m'a semble plus que bon : 1750e....


Et ça change beaucoup ? A part la taille qui change car j’ai fait 55–>65 aussi et la dessus ça change violent :D


---------------
FeedBack
mood
Publicité
Posté le 14-01-2025 à 12:46:20  profilanswer
 

n°11389816
kenshirooo
Posté le 14-01-2025 à 12:47:58  profilanswer
 

B1LouTouF a écrit :


Et ça change beaucoup ? A part la taille qui change car j’ai fait 55–>65 aussi et la dessus ça change violent :D


 
Ce n'est pas phénoménal, comme le passage initial à l'OLED mais la G4 est malgré tout bien plus lumineuse, meilleur rendu des couleurs, meilleure gestion des transitions et du mouvement, plus grande aussi forcément... globalement très satisfait. Mais ce n'était clairement pas un achat indispensable :o


Message édité par kenshirooo le 14-01-2025 à 12:48:22
n°11389817
booba92i
Posté le 14-01-2025 à 12:49:16  profilanswer
 

LibreArbitre a écrit :


Non, il n'y a aucune techno pour l'empêcher mais des technos pour en limiter les impacts. Ce n'est pas pour rien qu'aucune marque ne propose d'extension de garantie au-delà de 3 ans sur ses moniteurs OLED.
 
Les dalles de Gen1 sont risquées, celles de Gen2 (dont la mienne) auront une durée de vie plus longue mais pas aussi durable d'une dalle VA ou IPS, et les dalles de Gen3 (toutes récentes) auront une durée de vie nettement rallongées mais le marquage est inéluctable, en gardant à l'esprit qu'il sera nettement plus perceptible sur un moniteur à 30-60 cm des yeux qu'une TV à 2-3m...


 
Garantie 5 ans!  :o  
 
https://www.lg.com/fr/tv-barres-de- [...] 0wbw1KCT1q


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
n°11389819
charask8
Posté le 14-01-2025 à 12:50:08  profilanswer
 

B1LouTouF a écrit :


C’est ma première Oled :D , après j’ai la cx65 dans le salon , première 65" , ça faisait énorme au début comparé à la 55 mais bon au bout de plusieurs années on s’habitue bien vite quand même , je vois pas mal de nouvelle tv en 144hz et qui serait encore mieux avec le pc dessus quand je fais le pantouflard dans le canapé mais ça refait un gros billet je pense , j’ai pas regardé les prix et si je commence à les regarder ça va finir en pulsion ^^
 


 

B1LouTouF a écrit :


 
J’ai fair que le 34 alienware en 21:9 mais le 32:9 tu parles du Samsung ? Pour écran pc je reste sur le 32 4k240 , je peux plus mettre d’écran large avec mes hp monitoring


Ouais le samsung odyssey g9. Il faut imaginer 2 écrans 27" ultra wide côte à côte.

n°11389820
overhead59
Posté le 14-01-2025 à 12:50:25  profilanswer
 

B1LouTouF a écrit :


Et ça change beaucoup ? A part la taille qui change car j’ai fait 55–>65 aussi et la dessus ça change violent :D


 
passer de 55 à 65" n'a franchement pas beaucoup d'effet, autant je suis passé d'un LCD 40" à un OLED 55" la c'était juste dingue de chez dingue, couleur, contraste... tout est fou par contre 55->65 ben ca se voit presque pas ^^


---------------
Mon blog : https://overhead59.wordpress.com/
n°11389823
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-01-2025 à 12:56:09  profilanswer
 

charask8 a écrit :


 
 
Ouais le samsung odyssey g9. Il faut imaginer 2 écrans 27" ultra wide côte à côte.


 
Je le voulais quand je faisais du simracing celui la :D  

overhead59 a écrit :


 
passer de 55 à 65" n'a franchement pas beaucoup d'effet, autant je suis passé d'un LCD 40" à un OLED 55" la c'était juste dingue de chez dingue, couleur, contraste... tout est fou par contre 55->65 ben ca se voit presque pas ^^


Moi ça avait fait un beau changement niveau taille dans la pièce , à l’écran aussi car à peine eu , j’avais une ligne bleu verticale :D


---------------
FeedBack
n°11389824
aze555666
Posté le 14-01-2025 à 12:57:26  profilanswer
 

(alerte ! il est de retour ! re-pavé !)
 

B1LouTouF a écrit :


je pense qu'il parle de pas mal de personne mais les pigeons ont peut être des besoin supplémentaire :p genre alimenter le 240hz d'un 32" en 4k , un gros besoin de " fake fps " :D


Je provoquais un peu avec cette 3e "catégorie" d'acheteurs 5000 "qui n'en ont pas vraiment besoin" et font passer en rupture sous le nez des autres. J'ai bien vu que ça concerne des motivés du forum :)
J'ai mis tout le monde dans le même panier mais évidemment, un mec qui prend une 5000 pour la mettre dans son propre PC et revendre une 4000, c'est pas aussi pire qu'un scalper ou même un mineur :)
 
Après, la question du besoin et de la consommation (dans le sens consommateur, pas watts) se pose évidemment. Il y a des besoins spécifiques qui justifient l'incrément, mais ce sont sans doute des usages de niche : pour la vaste majorité des gamers, avoir une 4000, c'est être tranquille un moment.
J'ai déclenché malgré moi un débat 240hz, mais on peut en parler. Le 240hz, comme la 4k, ce sont des évolutions que le marketing nous ont vendues, et qu'on a prises telles quelles parce que la majorité d'entre nous avons connu des temps où ces 2 éléments évoluaient régulièrement sans qu'il y ait matière à débat. De 640*480 à 800*600 [...] à 1920*1080 (ou 1200), et les augmentations de diagonale de 15" (premiers moniteurs plats) à 24", il n'y a pas débat. Pour les fps, jusqu'à 60hz (fréquence des écrans pendant des lustres), il n'y a pas débat.
Mais il arrive un moment où on peut se poser et se demander si l'incrément suivant apporte encore quelque chose. Est-on encore dans l'évolution naturelle, ou dans le superflu ? Chacun aura sa réponse en fonction de la qualité de ses yeux, de son usage, et de son ressenti.
Je discutais avec un collègue qui faisait la pub d'AMD (pour les GPU). D'après lui, AMD écrase NVidia pour la moitié du prix (je prends cette affirmation et la justification qui suit avec des pincettes de dimensions galactiques) : selon lui, le problème d'AMD c'était juste les drivers, ils sont en train de revenir, d'égaler les petites choses comme DLSS, et une fois le logiciel à égalité leurs cartes 2x moins chères sont mieux. D'après lui, après être passé de gtx1080ti à rtx4080super, et son pote chez amd (7800xt je crois), il n'a "que" 200 fps et le pote "que" 300 fps sur le même jeu soi-disant pas limité par le cpu (les gars ont des core i5 14400 tous les deux). Apparemment, un drame absolu. Mais quel intérêt à générer autant de fps, lui demandais-je ? Pourquoi ne pas limiter à un framerate plus bas et consommer moins (cette fois en watts) ? La justification : "je vois la différence entre 60 et 120". Ok. Sauf que voir la différence entre 60 et 120, ce que je veux bien croire (de mon côté je me contente de 60 mais je dois admettre ne jamais avoir eu de 120 sous les yeux. Mes dell u2415 que je compte garder ne font que 60), ça ne justifie pas de générer 200 et encore moins de pleurer de ne pas avoir 300. C'est la différence entre 120 et 200 et 300 qu'il faut voir. Et là, figurez vous que j'ai de gros doutes. À moins d'être en 3d (besoin du double).
La 4k, c'est sans doute un meilleur piqué sur les grandes diagonales (30" et plus), mais en dessous il y a de quoi se poser la question : on n'est pas censés jouer le nez collé à l'écran. Et les très grandes diagonales, ce n'est pas pour tout le monde (si jeu classique, assis à un bureau, la profondeur du bureau est souvent limitée, tout comme la largeur du bureau et celle du champ de vision si on veut aussi du dual screen). Et vu que le jeu 4k requiert exponentiellement plus de ressources que le jeu en 1080, 1200 ou 1440p, ça peut valoir le coup de se demander "est-ce que c'est vraiment ce qu'il me faut, ou surtout un beau coup marketing ?" avant de franchir le pas.
 
Bref, pour revenir au message sur lequel j'ai rebondi (parmi le paquet de réactions à ma petite provoc), tu ironises sur un combo 4k et 240hz sur un très grand moniteur.
Parmi les gamers qui pensent passer de 4000 à 5000, combien ont réellement saturé les capacités de leur 4000 pour cause de 4k/240hz/jeu gourmand ?
Parmi ceux-là, combien visent 4k/240hz par principe et combien ont un besoin réel (une vraie différence ressentie, car très grand moniteur et yeux de lynx) ?
Finalement, parmi les gens, en particulier les joueurs, qui veulent se ruer sur les 5000 alors qu'ils ont une 4000 : certains ont le besoin, mais je gage qu'une majorité le fait par principe. Par paradigme "il me faut la dernière" ou par passion, les deux pouvant être ramenés à la notion de pigeon si on provoque un chouïa.
 
Et je ne suis pas étranger à la notion de passion. Gros geek, c'est à la fois par soucis de rester raisonnable par rapport au fait que mon matériel remplissait mon besoin (quoi que bridé sur la fin) et par soucis de consumérisme (= "pour la planète" ), j'ai dû me faire _violence_ pour garder ma config actuelle si longtemps (i7 5820k à sa sortie, épaulé par mon ancienne CG le temps que la GTX970 arrive, je vous laisse calculer). Et c'est cette violence dont je ne dispose plus : oui, comme suggéré par quelqu'un, si je "viens d'une 970, je ne suis plus à 6 mois près" ... Mais je me bride déjà et le geek en moi ne va pas tenir 6 mois de plus en sachant que la carte que je veux acheter est sur le marché.

Message cité 1 fois
Message édité par aze555666 le 14-01-2025 à 12:58:05
n°11389826
charask8
Posté le 14-01-2025 à 13:00:59  profilanswer
 

B1LouTouF a écrit :


 
Je le voulais quand je faisais du simracing celui la :D  


Je reviendrais plus en arrière, en jeux c'est top et pour la productivité, c'est super aussi.

n°11389828
Nomain
Carpe diem
Posté le 14-01-2025 à 13:03:10  profilanswer
 

goodspeed47 a écrit :


 
Merci pour le retour.
Et pas de soucis pour le G-sync ?


Aucun souci de Gsync tant avec le C3 qu'avec le C4.


---------------
Mon feedback : http://forum.hardware.fr/transacti [...] user=70563
n°11389829
overhead59
Posté le 14-01-2025 à 13:04:09  profilanswer
 

je vais le dire avec un peu de honte dans la voix, j'ai un écran 240Hz OLED 4K ben j'ai encore jamais vu la différence entre un jeu à 100Fps et un jeu à 40 FPS :/
Peut être le Gsync qui aide je sais pas mais franchement je vois pas.


---------------
Mon blog : https://overhead59.wordpress.com/
mood
Publicité
Posté le 14-01-2025 à 13:04:09  profilanswer
 

n°11389830
azubal
Posté le 14-01-2025 à 13:05:42  profilanswer
 

Pareil.
Je joue sur un 65" 4k et passé 60fps je vois plus de différence.

n°11389834
It_Connexi​on
Posté le 14-01-2025 à 13:10:28  profilanswer
 

aze555666 a écrit :

(alerte ! il est de retour ! re-pavé !)
 


 

aze555666 a écrit :


Je provoquais un peu avec cette 3e "catégorie" d'acheteurs 5000 "qui n'en ont pas vraiment besoin" et font passer en rupture sous le nez des autres. J'ai bien vu que ça concerne des motivés du forum :)
J'ai mis tout le monde dans le même panier mais évidemment, un mec qui prend une 5000 pour la mettre dans son propre PC et revendre une 4000, c'est pas aussi pire qu'un scalper ou même un mineur :)
 
Après, la question du besoin et de la consommation (dans le sens consommateur, pas watts) se pose évidemment. Il y a des besoins spécifiques qui justifient l'incrément, mais ce sont sans doute des usages de niche : pour la vaste majorité des gamers, avoir une 4000, c'est être tranquille un moment.
J'ai déclenché malgré moi un débat 240hz, mais on peut en parler. Le 240hz, comme la 4k, ce sont des évolutions que le marketing nous ont vendues, et qu'on a prises telles quelles parce que la majorité d'entre nous avons connu des temps où ces 2 éléments évoluaient régulièrement sans qu'il y ait matière à débat. De 640*480 à 800*600 [...] à 1920*1080 (ou 1200), et les augmentations de diagonale de 15" (premiers moniteurs plats) à 24", il n'y a pas débat. Pour les fps, jusqu'à 60hz (fréquence des écrans pendant des lustres), il n'y a pas débat.
Mais il arrive un moment où on peut se poser et se demander si l'incrément suivant apporte encore quelque chose. Est-on encore dans l'évolution naturelle, ou dans le superflu ? Chacun aura sa réponse en fonction de la qualité de ses yeux, de son usage, et de son ressenti.
Je discutais avec un collègue qui faisait la pub d'AMD (pour les GPU). D'après lui, AMD écrase NVidia pour la moitié du prix (je prends cette affirmation et la justification qui suit avec des pincettes de dimensions galactiques) : selon lui, le problème d'AMD c'était juste les drivers, ils sont en train de revenir, d'égaler les petites choses comme DLSS, et une fois le logiciel à égalité leurs cartes 2x moins chères sont mieux. D'après lui, après être passé de gtx1080ti à rtx4080super, et son pote chez amd (7800xt je crois), il n'a "que" 200 fps et le pote "que" 300 fps sur le même jeu soi-disant pas limité par le cpu (les gars ont des core i5 14400 tous les deux). Apparemment, un drame absolu. Mais quel intérêt à générer autant de fps, lui demandais-je ? Pourquoi ne pas limiter à un framerate plus bas et consommer moins (cette fois en watts) ? La justification : "je vois la différence entre 60 et 120". Ok. Sauf que voir la différence entre 60 et 120, ce que je veux bien croire (de mon côté je me contente de 60 mais je dois admettre ne jamais avoir eu de 120 sous les yeux. Mes dell u2415 que je compte garder ne font que 60), ça ne justifie pas de générer 200 et encore moins de pleurer de ne pas avoir 300. C'est la différence entre 120 et 200 et 300 qu'il faut voir. Et là, figurez vous que j'ai de gros doutes. À moins d'être en 3d (besoin du double).
La 4k, c'est sans doute un meilleur piqué sur les grandes diagonales (30" et plus), mais en dessous il y a de quoi se poser la question : on n'est pas censés jouer le nez collé à l'écran. Et les très grandes diagonales, ce n'est pas pour tout le monde (si jeu classique, assis à un bureau, la profondeur du bureau est souvent limitée, tout comme la largeur du bureau et celle du champ de vision si on veut aussi du dual screen). Et vu que le jeu 4k requiert exponentiellement plus de ressources que le jeu en 1080, 1200 ou 1440p, ça peut valoir le coup de se demander "est-ce que c'est vraiment ce qu'il me faut, ou surtout un beau coup marketing ?" avant de franchir le pas.
 
Bref, pour revenir au message sur lequel j'ai rebondi (parmi le paquet de réactions à ma petite provoc), tu ironises sur un combo 4k et 240hz sur un très grand moniteur.
Parmi les gamers qui pensent passer de 4000 à 5000, combien ont réellement saturé les capacités de leur 4000 pour cause de 4k/240hz/jeu gourmand ?
Parmi ceux-là, combien visent 4k/240hz par principe et combien ont un besoin réel (une vraie différence ressentie, car très grand moniteur et yeux de lynx) ?
Finalement, parmi les gens, en particulier les joueurs, qui veulent se ruer sur les 5000 alors qu'ils ont une 4000 : certains ont le besoin, mais je gage qu'une majorité le fait par principe. Par paradigme "il me faut la dernière" ou par passion, les deux pouvant être ramenés à la notion de pigeon si on provoque un chouïa.
 
Et je ne suis pas étranger à la notion de passion. Gros geek, c'est à la fois par soucis de rester raisonnable par rapport au fait que mon matériel remplissait mon besoin (quoi que bridé sur la fin) et par soucis de consumérisme (= "pour la planète" ), j'ai dû me faire _violence_ pour garder ma config actuelle si longtemps (i7 5820k à sa sortie, épaulé par mon ancienne CG le temps que la GTX970 arrive, je vous laisse calculer). Et c'est cette violence dont je ne dispose plus : oui, comme suggéré par quelqu'un, si je "viens d'une 970, je ne suis plus à 6 mois près" ... Mais je me bride déjà et le geek en moi ne va pas tenir 6 mois de plus en sachant que la carte que je veux acheter est sur le marché.


 
Tiens la même config que moi, celle que j'ai gardé 8 ans : 5820K et GTX970. 6 core alors que le mainstream est resté bloqué pas mal de temps au quadcore, le pied

Message cité 1 fois
Message édité par It_Connexion le 14-01-2025 à 13:12:01

---------------
Galerie Photo Personnelle
n°11389842
Mik3_77
Posté le 14-01-2025 à 13:28:05  profilanswer
 

overhead59 a écrit :

je vais le dire avec un peu de honte dans la voix, j'ai un écran 240Hz OLED 4K ben j'ai encore jamais vu la différence entre un jeu à 100Fps et un jeu à 40 FPS :/
Peut être le Gsync qui aide je sais pas mais franchement je vois pas.


 
J'en ai un aussi et je trouve qu'entre le 240hz et la temps de réponse de l'OLED, on gagne quand même vachement en fluidité et en netteté.  
Même à 60fps. Venant d'un VA 144hz ca m'a frappé.


---------------
Galerie FlickR : https://www.flickr.com/photos/190983021@N05/ / https://www.flickr.com/photos/108204505@N05/
n°11389844
overhead59
Posté le 14-01-2025 à 13:29:27  profilanswer
 

je viens d'un 4K 60Hz... je verrais si j'arrive a choper une 5080, j'aurais beaucoup plus de jeux dans les 100-150Fps je pense, chose qui est ultra rare avec ma 3080 ^^


---------------
Mon blog : https://overhead59.wordpress.com/
n°11389852
aze555666
Posté le 14-01-2025 à 13:38:29  profilanswer
 

It_Connexion a écrit :


 
Tiens la même config que moi, celle que j'ai gardé 8 ans : 5820K et GTX970. 6 core alors que le mainstream est resté bloqué pas mal de temps au quadcore, le pied


Comme tu dis !
5820k (et drr4) plutôt que 5700k, un choix que je ne regrette pas tant ces 2 cores en plus ont nourri la longévité.
Je visais 6 ans option 8, finalement poussé le bouchon à 10.
Je vais tenter de renouveler l'exploit en optant pour le 9900x3d (sachant que j'ai des usages multicore) plutôt que 9800x3d, l'avenir dira si j'ai raison.
Et pour ne pas être totalement HS : pour la 5080 plutôt que la 5070ti. Ayant gratté une alim 850W titanium à quasiment moitié prix ce matin, ça règle la question de l'alim et réduit l'écart d'investissement entre 5070ti et 5080. Je garderais la 750w que j'ai déjà en secours (quand ma 660 a claqué, j'étais bien content d'avoir la 560 de mon pc précédent, le temps que la garantie me la remplace - surclassée en 750).
 
Jeudi 30/01, comptez sur moi pour être dans les starting blocks !

n°11389853
lebaru83
Posté le 14-01-2025 à 13:38:42  profilanswer
 

Cette course incessante au fps.
 
Je me pose vraiment la question de l'intérêt de jouer a un jeu tel que cyberpunk ou I.Jones a  + 200fps?
 
Ne me jugez pas, j'ai une 4090, en 3440/1440 75hz et un 55 pouces 120hz, je ne suis pas aigris car je n'aurais la plus grosse, juste intérogatif  

n°11389856
kenshirooo
Posté le 14-01-2025 à 13:42:04  profilanswer
 

Objectivement avec une 4090 t'es déjà largement (sur)armé pour les jeux actuels :o
 
J'aurais tendance à dire la même chose avec ma 4080... le remplacement serait clairement un luxe :o
 
Mais bon...

n°11389857
xpi17
Posté le 14-01-2025 à 13:42:29  profilanswer
 

Je me pose la même question ^^  
Pour les jeux multi ok, mais en solo, ça sert rien non ?
un bon 75hz avec la synchro c'est très bien.


Message édité par xpi17 le 14-01-2025 à 13:43:25
n°11389859
LibreArbit​re
La /root est longue
Posté le 14-01-2025 à 13:45:47  profilanswer
 


Compare donc la durée des garanties entre les moniteurs et les TV ;)


---------------
Hebergement d'images
n°11389860
cyberfred
Posté le 14-01-2025 à 13:46:56  profilanswer
 

kenshirooo a écrit :

Objectivement avec une 4090 t'es déjà largement (sur)armé pour les jeux actuels :o
 
J'aurais tendance à dire la même chose avec ma 4080... le remplacement serait clairement un luxe :o
 
Mais bon...


 
c'est exactement ce que je me dis aussi !  une 4090 est déjà surpuissante pour la quasi totalité des jeux actuels, ok je veux bien qu'il y ait des cas qui soient un peu juste mais avec DLSS/FG et compagnie, je ne me plains pas.
après il faudra voir le 24/01 les arguments que proposent la 5090 pour voir si je craque ou pas (là c'est le geek qui parle évidemment :D )

n°11389864
Miatonydeo​n
chevalier D'eon
Posté le 14-01-2025 à 13:56:34  profilanswer
 

moi si je vise une 5090, c'est aussi que je compte jouer sans dlss !
j'ai un 4k 144hz et impossible de l'exploité avec ma 4070 oc
et ca sur final fantasy 14, alors sur les dernier AAA j'imagine meme pas  :pt1cable:  
 

overhead59 a écrit :

j'aurais beaucoup plus de jeux dans les 100-150Fps je pense, chose qui est ultra rare avec ma 3080 ^^


 :ouch:  
raison de plus de m'orienté vers la 5090  :)  
 
 
 
ps: ma 4070 avec le dlss et la mise a l'echelle 125% automatique de windows 11 sur 4k, c'est presque 200 fps, alors que moins de 60fps en normal ...

n°11389865
xplo
Posté le 14-01-2025 à 13:58:05  profilanswer
 

lebaru83 a écrit :

Cette course incessante au fps.
 
Je me pose vraiment la question de l'intérêt de jouer a un jeu tel que cyberpunk ou I.Jones a  + 200fps?
 
Ne me jugez pas, j'ai une 4090, en 3440/1440 75hz et un 55 pouces 120hz, je ne suis pas aigris car je n'aurais la plus grosse, juste intérogatif  


Hormis l IA avec les 32gb de vram passer d une 4090 a une 5090 a 0 intérêt en 2025. Tous les jeux sont deja maxé.

n°11389868
thepilot64
Posté le 14-01-2025 à 14:01:32  profilanswer
 

+1, le seul truc qui me retient, c'est le fait que ma 4090 soit sous eau :o


Message édité par thepilot64 le 14-01-2025 à 14:02:48
n°11389874
lebaru83
Posté le 14-01-2025 à 14:10:01  profilanswer
 

Miatonydeon a écrit :


 
 
 
ps: ma 4070 avec le dlss et la mise a l'echelle 125% automatique de windows 11 sur 4k, c'est presque 200 fps, alors que moins de 60fps en normal ...


 
Quitte a passé pour une burne, mais intérêt de la mise a l'échelle??

n°11389877
chaced
Posté le 14-01-2025 à 14:12:40  profilanswer
 

lebaru83 a écrit :


 
Quitte a passé pour une burne, mais intérêt de la mise a l'échelle??


 
tu as acheté un écran 4K pour te rendre compte que tu n'y voyais rien en réso native


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°11389879
Miatonydeo​n
chevalier D'eon
Posté le 14-01-2025 à 14:13:17  profilanswer
 

lebaru83 a écrit :


 
Quitte a passé pour une burne, mais intérêt de la mise a l'échelle??


 
aucun interé pour moi, c'est juste pour facilité la lecture sur l'ecran, de base, surtout sur les petit

n°11389881
overhead59
Posté le 14-01-2025 à 14:14:30  profilanswer
 

euh sur mon 27" j'utilisais le zoom windows car trop petit mais par contre sur les jeux ca n'a aucun intéret les interfaces sont très bien sans zoom donc en jeu pure 4K normal


---------------
Mon blog : https://overhead59.wordpress.com/
n°11389902
bncjo
Posté le 14-01-2025 à 15:03:35  profilanswer
 

lebaru83 a écrit :

Cette course incessante au fps.
 
Je me pose vraiment la question de l'intérêt de jouer a un jeu tel que cyberpunk ou I.Jones a  + 200fps?
 
Ne me jugez pas, j'ai une 4090, en 3440/1440 75hz et un 55 pouces 120hz, je ne suis pas aigris car je n'aurais la plus grosse, juste intérogatif  


 
Le délire des fps à 200+ c'est uniquement utile pour les fps rapides, parce que tu diminues le motion blur qui est problématique sur tout ce qui est écran basé sur du sample&hold (lcd/oled). Et ca marche, surtout avec des technos comme ULMB. Mais pour tout le reste des jeux, 120 fps c'est largement plus que suffisant.


---------------
"Think of me like Yoda but instead of being little and green I wear suits and I'm awesome. I'm your bro - I'm Broda!"
n°11389904
havoc_28
Posté le 14-01-2025 à 15:04:42  profilanswer
 

bncjo a écrit :


 
Le délire des fps à 200+ c'est uniquement utile pour les fps rapides, parce que tu diminues le motion blur qui est problématique sur tout ce qui est écran basé sur du sample&hold (lcd/oled). Et ca marche, surtout avec des technos comme ULMB. Mais pour tout le reste des jeux, 120 fps c'est largement plus que suffisant.


 
FPS rapide et Input lag c'est étrange :o. Après faut attendre de voir les tests sur le FG / MFG avec Reflex 2. Je connais pas beaucoup de gens qui branchent le FG pour jouer à des FPS compétitifs (pour ne pas dire que je ne vois jamais ça :o).


Message édité par havoc_28 le 14-01-2025 à 15:11:02
n°11389907
bncjo
Posté le 14-01-2025 à 15:10:59  profilanswer
 

T'as pas besoin de FG avec les jeux compétitifs, t'es déjà à 300+ de base.


---------------
"Think of me like Yoda but instead of being little and green I wear suits and I'm awesome. I'm your bro - I'm Broda!"
n°11389908
havoc_28
Posté le 14-01-2025 à 15:11:32  profilanswer
 

bncjo a écrit :

T'as pas besoin de FG avec les jeux compétitifs, t'es déjà à 300+ de base.


 
C'est quoi le FPS rapide alors à 200 FPS non compétitif ?

n°11389921
jonas
c'est mon identité
Posté le 14-01-2025 à 15:21:19  profilanswer
 

Perso le passage au oled je trouve ça sympa, mais c'est vraiment moins "énorme" comme changement que ce que je pensais. Je suis autant déçu d'avoir perdu le 21:9 et l'écran légèrement courbé que content d'être passé à l'OLED...


---------------
et voilà
n°11389926
kenshirooo
Posté le 14-01-2025 à 15:28:03  profilanswer
 

jonas a écrit :

Perso le passage au oled je trouve ça sympa, mais c'est vraiment moins "énorme" comme changement que ce que je pensais. Je suis autant déçu d'avoir perdu le 21:9 et l'écran légèrement courbé que content d'être passé à l'OLED...


 
Tu sais qu'il y a un mode 21/9 sur les LG :o?
 
La courbure j'étais tellement content de l'avoir dégagée ! (Si tu fais de la photo c'est un pur cauchemar)
 
Pour moi le passage à l'OLED a été le game changer que j'attendais pour mon PC. Cette 42" est le meilleur investissement matos PC que j'ai fait depuis toujours  :)

Message cité 1 fois
Message édité par kenshirooo le 14-01-2025 à 15:29:31
n°11389929
It_Connexi​on
Posté le 14-01-2025 à 15:32:08  profilanswer
 

Pareil, une grosse claque visuelle l'oled
 
Et pareil, la courbure pour la retouche photo c'est juste pas possible  
 


---------------
Galerie Photo Personnelle
n°11389938
overhead59
Posté le 14-01-2025 à 15:39:45  profilanswer
 

autant sur une TV c'était ouf le passage LCD -> OLED autant que le PC, IPS -> OLED c'est pas mal mais moins ouf que sur la TV


---------------
Mon blog : https://overhead59.wordpress.com/
n°11389943
chaced
Posté le 14-01-2025 à 15:41:20  profilanswer
 

overhead59 a écrit :

autant sur une TV c'était ouf le passage LCD -> OLED autant que le PC, IPS -> OLED c'est pas mal mais moins ouf que sur la TV


 
sur TV rien que de passer de LCD a LCD mais 10ans après c'était ouf :D
 


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°11389949
coil whine
Renvoie-là au SAV
Posté le 14-01-2025 à 15:45:39  profilanswer
 

Je passe d’un Oled à une télé normale sans sourciller. Bon j’avoue la télé normale est de très bonne qualité. Mais bon j’arrive à m’accomoder des deux.

n°11389950
Mik3_77
Posté le 14-01-2025 à 15:46:14  profilanswer
 

D'ailleurs question sur le FG :
Est ce que le CPU est impliqué dans le calcul des fausses images et donc limitant quant à l'utilisation du magical FGx4 ou alors il ne calcule que l'image native ?
 
Je demande parcque y'a des jeux qui pompent bien sûr le CPU donc imaginer 150fps sur certains gros jeux relèverai de l'utopie.

Message cité 1 fois
Message édité par Mik3_77 le 14-01-2025 à 15:46:38

---------------
Galerie FlickR : https://www.flickr.com/photos/190983021@N05/ / https://www.flickr.com/photos/108204505@N05/
n°11389953
Fly2thesky
Posté le 14-01-2025 à 15:48:25  profilanswer
 

charask8 a écrit :


Tu veux dire en dehors mon samsung g9 et ma la lg c1?


 
A partir de 500-1000h pour ne pas dire 2000h sur certains jeux ... en ayant joui de la HDR ou pas, ca commence à se voir :o
LG CX  :pt1cable:

n°11389956
havoc_28
Posté le 14-01-2025 à 15:49:30  profilanswer
 

Mik3_77 a écrit :

D'ailleurs question sur le FG :
Est ce que le CPU est impliqué dans le calcul des fausses images et donc limitant quant à l'utilisation du magical FGx4 ou alors il ne calcule que l'image native ?
 
Je demande parcque y'a des jeux qui pompent bien sûr le CPU donc imaginer 150fps sur certains gros jeux relèverai de l'utopie.


 
Non le processeur n'est impliqué que dans l'image native.
 
Exemple bateau ou tout fonctionne parfaitement :
 
CPU A = 80 FPS, en FG = 160 FPS, 240 FPS en 3X  
CPU B = 100 FPS en FG = 200 FPS, 300 FPS en 3X
 
etc
 
A prendre en compte les éventuels artefacts et l'input lag, les tests et les retours utilisateurs trancheront :o.


Message édité par havoc_28 le 14-01-2025 à 15:54:25
n°11389960
jeanrichar​d
#teamdodos
Posté le 14-01-2025 à 15:54:15  profilanswer
 

passer d'une gtx 1050 à une 5090 rien de tel pour voir la différence :D


---------------
Ryzen 7 9800X3D // RTX 5090 MSI TRIO OC // ASUS ROG Strix X870-F gaming // Corsair titanium dominator 32 Go 6400 Mhz // Corsair HX1200 // Samsung 49" OLED - Odyssey S49DG934SU
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  147  148  149  ..  583  584  585  586  587  588

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)