Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1645 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  631  632  633  ..  804  805  806  807  808  809
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11290691
booba92i
Posté le 23-10-2023 à 23:53:29  profilanswer
 

Reprise du message précédent :

azubal a écrit :

La VR mon enfant, la VR.


 
+1000  :D  
 


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
mood
Publicité
Posté le 23-10-2023 à 23:53:29  profilanswer
 

n°11290704
TheCLeaN
Posté le 24-10-2023 à 02:28:02  profilanswer
 

@chewie a écrit :


La course aux perfs en plus a toujours été là, le matos évoluait même plus vite que maintenant.
 
C’est la montée en résolution qui s’est emballée ces dernières années. Mais comme déjà dit, on va bientôt stagner de ce côté là.  
Je vois mal l’intérêt d’avoir qqch au dessus de 8k, on arrive aux limites de ce que l’œil humain est capable de voir, sur un écran à plus 30 cm de son nez en tout cas :o
Idem pour la fréquence, plus de 240hz me paraît très futile.
 
Par contre faudra toujours plus de perfs pour suivre l’évolution des moteurs graphiques.


perso je sent une différence, je suis beaucoup plus focus sur les compteurs qu'avant. quoi que c'est periodique, je pense que c'est surtout quand ta du nouveau matos, que t'apprend a connaitre ses limites  
 
sinon niveau définition, je suis d'accord sur le principe. mais ya un truck, qui d'ailleurs j'ai jamais fouillé, c'est la définition dans les jeux, qui n'est pas vraiment réelle, à mes yeux en tout cas
genre tu prend une bonne vidéo 1080p, elle aura bien plus de piqué, de "définition" qu'un jeux en 1080p; même en 4k d'ailleurs
z'avez une idée du pourquoi?

n°11290705
ricky52
Posté le 24-10-2023 à 02:54:42  profilanswer
 

Valaint67130 a écrit :

En ce moment sur CB2077 TAF + RT + FG en 4K, j'ai mis la 4090 à 360w max.
 
Entre 500w de tdp et 360w je n'ai que 2 fps de différence, soit 83 / 81 sur le bench :D


 
Que 360w alors tout va bien ... Je suis halluciné de voir qu'on puisse être content de ça. Rien contre toi, c'est juste que ça ne choque personne qui me gène.

n°11290706
havoc_28
Posté le 24-10-2023 à 03:01:24  profilanswer
 

ricky52 a écrit :


 
Que 360w alors tout va bien ... Je suis halluciné de voir qu'on puisse être content de ça. Rien contre toi, c'est juste que ça ne choque personne qui me gène.


 
ça fait déjà 1 an que la RTX 4090 est sortie et Ampère c'était pire :D. Ce qui est étrange c'est de venir faire ce constat que maintenant ?  :whistle: .
 
On peut déplorer la tendance, même s'il faut tout de même noter le mieux qu'il y a avec ADA et espérer qu'on reparte pas à la hausse (mais bon la densité thermique finira par devenir un réel problème à un moment ou un autre, déjà le cas pour les processeur d'ailleurs plus ou moins en fonction), mais bon a voir les évolutions de la tech, chiplets, empilements 3D tout ça.

Message cité 2 fois
Message édité par havoc_28 le 24-10-2023 à 03:18:55
n°11290713
ricky52
Posté le 24-10-2023 à 03:34:44  profilanswer
 

havoc_28 a écrit :

 

ça fait déjà 1 an que la RTX 4090 est sortie et Ampère c'était pire :D. Ce qui est étrange c'est de venir faire ce constat que maintenant ?  :whistle: .

 

On peut déplorer la tendance, même s'il faut tout de même noter le mieux qu'il y a avec ADA et espérer qu'on reparte pas à la hausse (mais bon la densité thermique finira par devenir un réel problème à un moment ou un autre, déjà le cas pour les processeur d'ailleurs plus ou moins en fonction), mais bon a voir les évolutions de la tech, chiplets, empilements 3D tout ça.

 

Ai-je déjà fait le moindre constat avant? Pourquoi pas le premier maintenant? A combien MA limite doit elle être fixée? Je ne suis pas un écolo à tout prix, mais la quand même on dépasse MA limite pour un simple loisir ^^

Message cité 1 fois
Message édité par ricky52 le 24-10-2023 à 03:35:26
n°11290714
spark
Luc ?
Posté le 24-10-2023 à 04:51:38  profilanswer
 

ma limite c'est 250W-300W, pour ca que j'ai pris une 7800XT :o


---------------
Un cycle complet sera une série de 100.
n°11290728
LeMakisar
Posté le 24-10-2023 à 08:08:02  profilanswer
 

azubal a écrit :

La VR mon enfant, la VR.

 

Et merde, finalement on va tous finir comme dans ready player one :D

 

Plus sérieusement, la VR ça reste pas un truc de niche ça aussi ?
En tous cas perso au-delà de pas m'intéresser, je supporte pas


---------------
Feedback
n°11290730
LeMakisar
Posté le 24-10-2023 à 08:09:47  profilanswer
 

havoc_28 a écrit :

 

Faut peut être mettre à jours tes souvenirs tout ça, Voodoo2 / HL2 c'est pas tout à fait ça :o.
HL1 sur voodoo 2 oui, le 2 non, c'est pas possible :D.

 

Tout comme y a 25 ans c'était HL1 qui sortait le 2 c'est un peu plus tard :lol: .

 

Ma première upgrade dans un PC ça été de rajouter une Voodoo 2 pour booster la S3 Virge de série (sur un Pentium I MMX 200 mhz). Donc je me rappelle de la période.

 

En tous cas le point que je retiens c'est qu'à l'époque le matos évoluait plus vite. C'était justifié, pas quelques pauvres % qu'on nous vendait bien cher !


---------------
Feedback
n°11290733
Miky 2001
N'y pense même pas !!!
Posté le 24-10-2023 à 08:20:52  profilanswer
 

ricky52 a écrit :


 
Que 360w alors tout va bien ... Je suis halluciné de voir qu'on puisse être content de ça. Rien contre toi, c'est juste que ça ne choque personne qui me gène.


Je suis comme toi !! :sweat:  
 
Et c’est juste pour la carte graphique… quand tu ajoute le reste de la config + l’écran…
 
La dérive est déroutante… tout ça pour jouer…
 
Après je me dis qu’il faut relativiser c’est sûrement moins pire que ceux qui ont pour passion l’automobile par exemple… et une goute d’eau face aux climatisation installée à gogo…
 
 
 

n°11290734
ddlabrague​tte
Posté le 24-10-2023 à 08:26:23  profilanswer
 

havoc_28 a écrit :


 
ça fait déjà 1 an que la RTX 4090 est sortie et Ampère c'était pire :D. Ce qui est étrange c'est de venir faire ce constat que maintenant ?  :whistle: .
 
On peut déplorer la tendance, même s'il faut tout de même noter le mieux qu'il y a avec ADA et espérer qu'on reparte pas à la hausse (mais bon la densité thermique finira par devenir un réel problème à un moment ou un autre, déjà le cas pour les processeur d'ailleurs plus ou moins en fonction), mais bon a voir les évolutions de la tech, chiplets, empilements 3D tout ça.


Tout est relatif  
 
 
Sur l'ensemble de la gamme y'a du mieux mais pas sur la 4090  
Elle consomme plus que la 3090  
https://www.comptoir-hardware.com/a [...] l?start=14
 
Et s'ils sortent une 4090ti avec un AD102 full, elle consommera probablement autant si ce n'est plus  que la 3090 ti  [:michel_cymerde:7]  
 

mood
Publicité
Posté le 24-10-2023 à 08:26:23  profilanswer
 

n°11290737
3615Buck
55 ans de Belgitude...
Posté le 24-10-2023 à 08:47:27  profilanswer
 

Scalpt0 a écrit :

Surtout qu'on s'amusait plus il y a 20 ans, on était pas constamment en train de monitorer les perfs.


 
Toi tu n'as pas optimisé ton config.sys et ton autoexec.bat pour grapiller quelques Ko sous la barre des 640 Ko alors.
Bon, auto Ok boomer, c'était il y a + de 20 ans.  :whistle:


---------------
Mon œuvre ~ Mon drame ~ Vos gueules
n°11290764
azubal
Posté le 24-10-2023 à 10:20:25  profilanswer
 

LeMakisar a écrit :


 
Et merde, finalement on va tous finir comme dans ready player one :D
 
Plus sérieusement, la VR ça reste pas un truc de niche ça aussi ?
En tous cas perso au-delà de pas m'intéresser, je supporte pas


 
Aujourd'hui la qualité d'immersion en VR est toujours pas ouf. Mais nul doute qu'on y viendra. Et ce jour là il faudra des résolutions de grand malade avec un framerate de furieux.
 
Et comme les développeurs de jeux sont des gros faignants qui préfèrent utiliser les DLSS ou FSR pour aller chercher du framerate plutôt que d'optimiser leur jeux (cyberpunk2077 ou alan wake 2, sans déconner ?), les mecs qui font des GPU ont encore de beaux jours devant eux.

n°11290771
Xixou2
Posté le 24-10-2023 à 10:36:22  profilanswer
 

3615Buck a écrit :


 
Toi tu n'as pas optimisé ton config.sys et ton autoexec.bat pour grapiller quelques Ko sous la barre des 640 Ko alors.
Bon, auto Ok boomer, c'était il y a + de 20 ans.  :whistle:


 :lol:  :lol:  :lol: + de 30 ans même.


Message édité par Xixou2 le 24-10-2023 à 10:36:45
n°11290805
lebaru83
Posté le 24-10-2023 à 11:41:59  profilanswer
 

azubal a écrit :


 
Aujourd'hui la qualité d'immersion en VR est toujours pas ouf. Mais nul doute qu'on y viendra. Et ce jour là il faudra des résolutions de grand malade avec un framerate de furieux.
 
Et comme les développeurs de jeux sont des gros faignants qui préfèrent utiliser les DLSS ou FSR pour aller chercher du framerate plutôt que d'optimiser leur jeux (cyberpunk2077 ou alan wake 2, sans déconner ?), les mecs qui font des GPU ont encore de beaux jours devant eux.


 
 
Hum ok la VR n'est pas des plus opti, mais un bon dcs avec un hotas ou jeu de bagnole avec un volant  ( automobilista 2 par exemple) en VR ....impossible de revenir sur flat aprés

n°11290806
havoc_28
Posté le 24-10-2023 à 11:46:40  profilanswer
 

ddlabraguette a écrit :


Tout est relatif  
 
 
Sur l'ensemble de la gamme y'a du mieux mais pas sur la 4090  
Elle consomme plus que la 3090  
https://www.comptoir-hardware.com/a [...] l?start=14
 
Et s'ils sortent une 4090ti avec un AD102 full, elle consommera probablement autant si ce n'est plus  que la 3090 ti  [:michel_cymerde:7]  
 


 
D'un coté c'est sur la RTX 4090 qu'il y a le plus de gain aussi, mais bon en soit oui l'AD102 ne fait pas mieux niveau consommation que le GA102, mais en terme de gamme complète ADA fait mieux qu'Ampère.
 

ricky52 a écrit :


 
Ai-je déjà fait le moindre constat avant? Pourquoi pas le premier maintenant? A combien MA limite doit elle être fixée? Je ne suis pas un écolo à tout prix, mais la quand même on dépasse MA limite pour un simple loisir ^^


 
C'est pas la première fois qu'on a des GPU très gourmands, les R9 295X2 / GTX 790 ça vous dit quelque chose ? les Gros BI GPU de la mort là :o.  
 

LeMakisar a écrit :


 
En tous cas le point que je retiens c'est qu'à l'époque le matos évoluait plus vite. C'était justifié, pas quelques pauvres % qu'on nous vendait bien cher !


 
Oui les API 3D évoluait rapidement tout comme les possibilités du matériel, sans parler des gains en performances qui s'enchainaient.
 

azubal a écrit :

Et comme les développeurs de jeux sont des gros faignants qui préfèrent utiliser les DLSS ou FSR pour aller chercher du framerate plutôt que d'optimiser leur jeux (cyberpunk2077 ou alan wake 2, sans déconner ?), les mecs qui font des GPU ont encore de beaux jours devant eux.


 
CP2077 est parfaitement jouable sans FSR / DLSS hors RT, alors qu' Alan Wake II le DLSS / FSR est recommandé a tous les étages :D.
 
Edit : grillé par Scrabble :o.


Message édité par havoc_28 le 24-10-2023 à 11:54:56
n°11290807
Scrabble
Posté le 24-10-2023 à 11:47:59  profilanswer
 

azubal a écrit :


Et comme les développeurs de jeux sont des gros faignants qui préfèrent utiliser les DLSS ou FSR pour aller chercher du framerate plutôt que d'optimiser leur jeux (cyberpunk2077 ou alan wake 2, sans déconner ?), les mecs qui font des GPU ont encore de beaux jours devant eux.


Alan Wake 2, je veux bien qu'il soit pas suffisamment optimisé, mais Cyberpunk 2077, désolé pour toi, mais c'est un jeu hyper optimisé. Apprends à développer, et tu comprendra ce qu'est l'optimisation

n°11290825
azubal
Posté le 24-10-2023 à 12:19:51  profilanswer
 

Ca fait 20 ans que je code en C/C++ sur systemes embarqué, alors l'optimisation je cécékoi :o
 
Et y'a pas besoin de savoir coder pour se rendre compte que le rapport qualité d'image/framerate est pas ouf sur cyberpunk 2077.

n°11290828
Kenshineuh
Posté le 24-10-2023 à 12:24:01  profilanswer
 

azubal a écrit :

Ca fait 20 ans que je code en C/C++ sur systemes embarqué, alors l'optimisation je cécékoi :o
 
Et y'a pas besoin de savoir coder pour se rendre compte que le rapport qualité d'image/framerate est pas ouf sur cyberpunk 2077.


 
 [:clooney8]  [:etienne000:3]

n°11290830
havoc_28
Posté le 24-10-2023 à 12:25:02  profilanswer
 

azubal a écrit :

Ca fait 20 ans que je code en C/C++ sur systemes embarqué, alors l'optimisation je cécékoi :o
 
Et y'a pas besoin de savoir coder pour se rendre compte que le rapport qualité d'image/framerate est pas ouf sur cyberpunk 2077.


 
Tu y joues en Elevé / Ultra avec une "simple" RX 6600 à 200 € donc est ce que c'est si mal optimisé que ça ? Y a des zones où CP2077 n'a rien d'impressionnant oui, mais Hors RT le jeu n'est pas du tout moche très loin de là et tourne sur une gamme de mathos assez large.
 
La variante Path Tracing est plus "démo technique", mais ça donne une idée des possibilités de la chose.


Message édité par havoc_28 le 24-10-2023 à 12:28:19
n°11290831
azubal
Posté le 24-10-2023 à 12:28:31  profilanswer
 

C'est combien de fps "jouable" pour toi ?

n°11290832
Mellodya
Posté le 24-10-2023 à 12:28:42  profilanswer
 

Tu plaisantes là ?
Trouve nous un jeu actuellement qui a une qualité graphique aussi poussée que Cyberpunk 2077 et qui earrive à fond sur du matos HDG ?

 

Je crois que c'est le seul jeu qui pousse autant les curseurs sur des technos récentes / qualité et qui est en plus se permet de tourner sur du matos

 

Ce jeu c'est du 80 fps constant en 4K DLSS Quality (donc équivalent natif) en TAF / PT /RR (ce que les autres jeux proposent pas) avec une 4090. Et je connais aucun jeu avec une qualité pareille et en open world ... (le seul jeu qui est super opti et très très beau c'est BG3 mais c'est pas comparable par le style de jeu / environnements).

Message cité 1 fois
Message édité par Mellodya le 24-10-2023 à 12:31:49
n°11290833
havoc_28
Posté le 24-10-2023 à 12:32:53  profilanswer
 

azubal a écrit :

C'est combien de fps "jouable" pour toi ?


 
Sans FSR, rien, en ultra avec une RX 6600 t'es à 45/50 FPS en 1080P, on peut toujours passé en élevé / moyen ou faire des combinaisons d'options pour grapiller en FPS et avoir du 60 FPS sans soucis, toujours sans FSR.
Après oui que CP2077 soit assez inégale dans ses zones, que la distance d'affichage des véhicules au loin c'est rigolo, que la qualité des textures est assez disparates et pourraient être meilleur en fonction des endroits oui etc, mais globalement le jeu tourne correctement sur une vaste pléthore de configuration à nouveau.
 
Si tu vois pas la différence par rapport à ce qui est prescrit pour Alan Wake II, je ne sais pas ?
 
https://www.techpowerup.com/img/GKjIj3iTJEYS8GRh.jpg
 
Alan Wake II, pour le minimum avec une fréquence cible de 30 FPS en 1080p, il te prescrive le FSR / DLSS ça fait peur :D. CP2077 ne se limite pas au mode Path Tracing (encore heureux).

Message cité 1 fois
Message édité par havoc_28 le 24-10-2023 à 12:48:11
n°11290850
VltimaRati​o
What is The Darkening ?
Posté le 24-10-2023 à 13:24:10  profilanswer
 

Mellodya a écrit :

Tu plaisantes là ?
Trouve nous un jeu actuellement qui a une qualité graphique aussi poussée que Cyberpunk 2077 et qui earrive à fond sur du matos HDG ?  
 
Je crois que c'est le seul jeu qui pousse autant les curseurs sur des technos récentes / qualité et qui est en plus se permet de tourner sur du matos
 
Ce jeu c'est du 80 fps constant en 4K DLSS Quality (donc équivalent natif) en TAF / PT /RR (ce que les autres jeux proposent pas) avec une 4090. Et je connais aucun jeu avec une qualité pareille et en open world ... (le seul jeu qui est super opti et très très beau c'est BG3 mais c'est pas comparable par le style de jeu / environnements).


 
P'tain le COPIUM nvidia a vraiment intoxiqué les g@merz  [:erg machaon:4]

n°11290857
bitubo
GT Turbo Addict
Posté le 24-10-2023 à 13:48:24  profilanswer
 

havoc_28 a écrit :


 
Sans FSR, rien, en ultra avec une RX 6600 t'es à 45/50 FPS en 1080P, on peut toujours passé en élevé / moyen ou faire des combinaisons d'options pour grapiller en FPS et avoir du 60 FPS sans soucis, toujours sans FSR.
Après oui que CP2077 soit assez inégale dans ses zones, que la distance d'affichage des véhicules au loin c'est rigolo, que la qualité des textures est assez disparates et pourraient être meilleur en fonction des endroits oui etc, mais globalement le jeu tourne correctement sur une vaste pléthore de configuration à nouveau.
 
Si tu vois pas la différence par rapport à ce qui est prescrit pour Alan Wake II, je ne sais pas ?
 
https://www.techpowerup.com/img/GKjIj3iTJEYS8GRh.jpg
 
Alan Wake II, pour le minimum avec une fréquence cible de 30 FPS en 1080p, il te prescrive le FSR / DLSS ça fait peur :D. CP2077 ne se limite pas au mode Path Tracing (encore heureux).


 
c'est surtout qu'il faut une carte qui supporte la version DX12 Ultimate
 
rip ma pauvre 1080ti :o


---------------
Watercooling CPU+GPU, i9 9900KF @4.8Ghz, 32Go Ddr4 3200Mhz Dual, RTX 4070Ti
n°11290858
havoc_28
Posté le 24-10-2023 à 13:49:37  profilanswer
 

bitubo a écrit :


 
c'est surtout qu'il faut une carte qui supporte la version DX12 Ultimate
 
rip ma pauvre 1080ti :o


 
Le Mesh Shading obligatoire c'est douteux oui.

n°11290868
sardhaukar
Posté le 24-10-2023 à 14:22:00  profilanswer
 

Il faudra voir ce que ça propose Alan Wake II. Si c'est du couloir blindé de murs invisibles ce sera un scandale. CP 2077 est gourmand mais c'est un open world et il tourne très bien sur tous types de matos.

n°11290907
Scrabble
Posté le 24-10-2023 à 15:26:56  profilanswer
 

azubal a écrit :

Ca fait 20 ans que je code en C/C++ sur systemes embarqué, alors l'optimisation je cécékoi :o


OK, mais a tu déjà fait de l'OpenGL ou du DirectX en C++ ? Parce que là il s'agit d'optimisation principalement pour la carte graphique

n°11290929
Kenshineuh
Posté le 24-10-2023 à 16:00:32  profilanswer
 

Non mais vous le prenez vraiment au sérieux vu sa première réponse ?  :lol:

 

20 ans de code et parler de mauvaise opti car mauvais "rapport qualité d'image/framerate".  [:implosion du tibia]
Surtout dans un jeu à monde ouvert.


Message édité par Kenshineuh le 24-10-2023 à 16:02:15
n°11290932
Mellodya
Posté le 24-10-2023 à 16:02:52  profilanswer
 

VltimaRatio a écrit :


 
P'tain le COPIUM nvidia a vraiment intoxiqué les g@merz  [:erg machaon:4]


 
Désolé que tu sois choqué mais le DLSS est obligatoire malgré une 4090 quand tu pousses les curseurs sur la majorité des jeux et en 4K le dlss qualité vaut le natif (cela dépend des jeux, y'a eu des tests faits par des pros dont j'ai pas le lien), par contre tu peux faire du 4K natif DLAA sur Baldur's Gate 3 sans DLSS.
 
C'est pas une histoire de COPIUM mais d'utiliser les technologies qu'on t'offre / propose et de voir ce que cela vaut en terme de rendu / qualité, en terme de FPS, en terme de latence (coucou le FG)... c'est comme le Gsync c'est une techno assez révolutionnaire et bien avant le DLSS quoiqu'on en dise.
Et on a le droit d'acheter une 4090 si on en a envie sans avoir des arguments infantilisants, écologistes et j'en passe. C'est fou comme sortir le mot COPIUM est en fait antinomique du respect des gens ... à prêcher un extrémisme, voire de la conspiration on en arrive là.

n°11290941
Scrabble
Posté le 24-10-2023 à 16:21:21  profilanswer
 

Si on n'aime pas le DLSS on peut utiliser le NIS aussi, voire combiner du DLSS ou FSR avec du NIS, ça donne de très bonnes perfs avec CP77 et écran 4K

n°11291029
@chewie
Posté le 24-10-2023 à 19:02:12  profilanswer
 

havoc_28 a écrit :


 
Faut peut être mettre à jours tes souvenirs tout ça, Voodoo2 / HL2 c'est pas tout à fait ça :o.  
HL1 sur voodoo 2 oui, le 2 non, c'est pas possible :D.
 
Tout comme y a 25 ans c'était HL1 qui sortait le 2 c'est un peu plus tard  :lol: .
 
Ma première upgrade dans un PC ça été de rajouter une Voodoo 2 pour booster la S3 Virge de série (sur un Pentium I MMX 200 mhz). Donc je me rappelle de la période.


Grosse coquille évidente, je voulais bien sûr parler de half-life premier du nom ;)

n°11291036
havoc_28
Posté le 24-10-2023 à 19:15:07  profilanswer
 

@chewie a écrit :


Grosse coquille évidente, je voulais bien sûr parler de half-life premier du nom ;)


 
C'est compréhensible, Voodoo 2, t'as envie d'accorder Half-Life avec en rajoutant un 2 à ce dernier :p.

n°11291038
@chewie
Posté le 24-10-2023 à 19:21:00  profilanswer
 

Mellodya a écrit :


 
Désolé que tu sois choqué mais le DLSS est obligatoire malgré une 4090 quand tu pousses les curseurs sur la majorité des jeux et en 4K le dlss qualité vaut le natif (cela dépend des jeux, y'a eu des tests faits par des pros dont j'ai pas le lien), par contre tu peux faire du 4K natif DLAA sur Baldur's Gate 3 sans DLSS.
 
C'est pas une histoire de COPIUM mais d'utiliser les technologies qu'on t'offre / propose et de voir ce que cela vaut en terme de rendu / qualité, en terme de FPS, en terme de latence (coucou le FG)... c'est comme le Gsync c'est une techno assez révolutionnaire et bien avant le DLSS quoiqu'on en dise.
Et on a le droit d'acheter une 4090 si on en a envie sans avoir des arguments infantilisants, écologistes et j'en passe. C'est fou comme sortir le mot COPIUM est en fait antinomique du respect des gens ... à prêcher un extrémisme, voire de la conspiration on en arrive là.


+1  
Je ne comprends toujours pas cette haine du dlss par certains…
C’est la nième fois que je sors les mêmes arguments, mais on joue bien avec des textures compressées, du frustum culling( ne calculer que les objets dans le champs de visions), du lod, des éclairages/ombres précalculées, etc…
 
Mais du dlss, houlà non c’est le mal absolu.
Alors oui du dlss performance en 1080p ça ne va pas faire des miracles côté qualité visuelle.
 
Mais avec des modes moins agressif et surtout sur une résolution plus grande, c’est une des meilleures options de ces 10 dernières années. No red face.

n°11291040
coil whine
Renvoie-là au SAV
Posté le 24-10-2023 à 19:24:09  profilanswer
 

Clairement le dlss quand ça marche c’est excellent.  
 
Forza Motorsport, si tu nous regardes [:budykiller:5]  :o

n°11291047
Miky 2001
N'y pense même pas !!!
Posté le 24-10-2023 à 19:37:46  profilanswer
 

Surtout que le DLSS on peut facilement mettre des mods pour modifier la qualité et avoir accès à des niveaux comme ultra-qualité et même personnaliser la résolution interne…


Message édité par Miky 2001 le 24-10-2023 à 21:48:10
n°11291050
B-NeT
Posté le 24-10-2023 à 19:39:36  profilanswer
 

havoc_28 a écrit :

 

Faut peut être mettre à jours tes souvenirs tout ça, Voodoo2 / HL2 c'est pas tout à fait ça :o.
HL1 sur voodoo 2 oui, le 2 non, c'est pas possible :D.

 

Tout comme y a 25 ans c'était HL1 qui sortait le 2 c'est un peu plus tard  :lol: .

 

Ma première upgrade dans un PC ça été de rajouter une Voodoo 2 pour booster la S3 Virge de série (sur un Pentium I MMX 200 mhz). Donc je me rappelle de la période.

 

:love:  :love:

 

Est-ce que tu avais augmenter le coeff multiplicateur avec les jumpers sur la CM ? :sol:

 

Je l'avais passé de mémoire de 133Mhz à 200Mhz de mémoire

 

Moi je me souviens que c'était une Voodoo 3 que j'avais mis (le coup de vieux que je viens de me prendre  [:panzemeyer] )  

Message cité 1 fois
Message édité par B-NeT le 24-10-2023 à 19:44:08

---------------
!!! Mon Feed-Back !!!
n°11291051
Scalpt0
Posté le 24-10-2023 à 19:42:01  profilanswer
 

Citation :

Désolé que tu sois choqué mais le DLSS est obligatoire malgré une 4090 quand tu pousses les curseurs sur la majorité des jeux et en 4K le dlss qualité vaut le natif (cela dépend des jeux, y'a eu des tests faits par des pros dont j'ai pas le lien), par contre tu peux faire du 4K natif DLAA sur Baldur's Gate 3 sans DLSS.
 
C'est pas une histoire de COPIUM mais d'utiliser les technologies qu'on t'offre / propose et de voir ce que cela vaut en terme de rendu / qualité, en terme de FPS, en terme de latence (coucou le FG)... c'est comme le Gsync c'est une techno assez révolutionnaire et bien avant le DLSS quoiqu'on en dise.
Et on a le droit d'acheter une 4090 si on en a envie sans avoir des arguments infantilisants, écologistes et j'en passe. C'est fou comme sortir le mot COPIUM est en fait antinomique du respect des gens ... à prêcher un extrémisme, voire de la conspiration on en arrive là.


 
Je l'ai pas compris comme çà venant du forumeur (d'ailleurs, je connaissais pas le terme de COPIUM).
 
Je l'ai compris plutôt comme une moquerie sur le fait qu'on soit content d'avoir 80 fps en 4k avec le dlss avec une carte à 2000€.
Aujourd'hui, c'est presque une banalité de dire qu'on a une carte à 1500€ ou plus, et qu'en plus, le jeu à besoin du DLSS pour tourner correctement (car 80fps, c'est pas fou, surtout qu'en ici, les gens veulent du 4k à 144 voire 240hz).
 
Et c'est vrai qu'avoir un PC à 4-5k, on pourrait s'attendre à mieux que ça.

n°11291060
blackkaise​r
Borat pour steam
Posté le 24-10-2023 à 20:24:58  profilanswer
 

salut ici ! je viens d'avoir une 4080 gigabyte .  
 
vous utilisez un coude 90°  pour le branchement ? :hello:

n°11291062
TheCLeaN
Posté le 24-10-2023 à 20:27:52  profilanswer
 

Scalpt0 a écrit :


(d'ailleurs, je connaissais pas le terme de COPIUM).


  [:oscar le connard:2]  
c'est fou comme parfois on me sort des mots jamais entendu comme étant un truck connu par tous. je sais jamais si c'est moi ou juste un truck de niche

n°11291063
TheCLeaN
Posté le 24-10-2023 à 20:30:11  profilanswer
 

blackkaiser a écrit :

salut ici ! je viens d'avoir une 4080 gigabyte .  
 
vous utilisez un coude 90°  pour le branchement ? :hello:


t'est pas obligé, si ta l'espace dans ton boitier. juste courbe ton câble avec précaution, chauffe le au sèche cheveux pour faciliter. la courbure doit être faite pas trop près du connecteur
va voir ya un tas de tutos là dessus

n°11291065
havoc_28
Posté le 24-10-2023 à 20:36:25  profilanswer
 

B-NeT a écrit :


 
 :love:  :love:  
 
Est-ce que tu avais augmenter le coeff multiplicateur avec les jumpers sur la CM ? :sol:  
 
Je l'avais passé de mémoire de 133Mhz à 200Mhz de mémoire  
 
Moi je me souviens que c'était une Voodoo 3 que j'avais mis (le coup de vieux que je viens de me prendre  [:panzemeyer] )  


 
Heu non, c'était une tour HP, le premier PC que j'ai eut de ma vie en cadeau d'anniversaire, et la voodoo 2 ça été acheté à la FNAC une Creatives avec G-Police, Incomming et je sais plus quoi en bundle (un jeu de voiture mais me rappelle pu du titres les deux premiers m'ayants bien plus marqué).
 
Donc ça été la première étape, un truc tout simple, ajouter une carte graphique, l'OC et le montage d'une tour complète ça n'a été que plus tard avec le Socket A et y avait plus de Jumper et on était déjà l'époque du Nforce 2 et de la ABIT NF7-S  dans le bios ou sinon y avait le coups du crayon pour débloquer les coeff sur variantes bloquées (ou un truc du genre).
 
C'est toujours sympas de se remémorer ces étapes là, mais bon retour à ADA :D.


Message édité par havoc_28 le 24-10-2023 à 20:42:18
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  631  632  633  ..  804  805  806  807  808  809

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)