Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2435 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  719  720  721  ..  801  802  803  804  805  806
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11325136
It_Connexi​on
Posté le 23-02-2024 à 17:43:18  profilanswer
 

Reprise du message précédent :

DVN a écrit :

Armoury Crate qui m'en a fait des misères jusqu'à ce que je trouve le coupable.
 
 :fou:


 
Tu as eu quoi comme soucis ?
 
J'ai une Asus et une MSI, par contre je fais toutes les MAJ manuellement


---------------
Galerie Photo Personnelle
mood
Publicité
Posté le 23-02-2024 à 17:43:18  profilanswer
 

n°11325138
Tahitiflo
éponge carré(e)
Posté le 23-02-2024 à 18:00:06  profilanswer
 

It_Connexion a écrit :


 
Oui enfin si tu lis bien je parle pas spécifiquement de NV hein
 
Je comprends que ça puisse froisser certains mais un gpu à 1800 balles c'est aussi fou qu'un smartphone à 1200 balles. Mais comme dit plus haut c'est l'offre et la demande, ça se vend, Nvidia et AMD sont là pour faire du business, pourquoi se priver.
 
Vous pourrez me quoter dans quelques années quand le gaming sur pc sera devenu un luxe :o


Il faut se dire aussi que le gap entre chaque gen' est minime donc on peut garder plus longtemps nos cartes ou elles se revendent plus chères donc au final,ça revient au même.


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°11325139
uNReaLx77
üNReaL
Posté le 23-02-2024 à 18:14:23  profilanswer
 

Tahitiflo a écrit :


Il faut se dire aussi que le gap entre chaque gen' est minime donc on peut garder plus longtemps nos cartes ou elles se revendent plus chères donc au final,ça revient au même.


Heuuu non...3080 4080... Bonne différence quand même. Comme le prix :o

n°11325140
neogts
Posté le 23-02-2024 à 18:17:28  profilanswer
 

aliss a écrit :


 
Tu sais, It_Connexion radote sur de nombreux sujets.  :D  
 
C'est l'âge... :o  


 
En même temps on devient tous vieux ici ... :lol:


---------------
feed
n°11325141
Scrabble
Posté le 23-02-2024 à 18:20:49  profilanswer
 

Space a écrit :

Il est mieux de réguler les ventilos du boitier par rapport à la température du GPU encore plus avec un gros GPU style 4090 c'est ce qui va dégager le plus de chaleur dans le boitier.


On peut aussi utiliser une sonde de temperature branchée sur la carte mere, j'ai jamais essaye, mais ca doit marcher :
https://www.amazon.fr/dp/B00414TOVC

n°11325142
katset
Marcel Poutre
Posté le 23-02-2024 à 18:35:55  profilanswer
 

swissknife18 a écrit :


Sachant qu'à partir du moment où l'app Gigabyte était installée ça se lançait automatiquement en arrière plan, peu importe ce que tu sélectionnes :whistle:

 

C'est (était ?) d'ailleurs pareil avec Asus Armoury Crate, probablement le pire malware que j'ai jamais utilisé, et le truc fonctionnait une fois sur 10 en plus...

 

Pour les SSDs c'est (était ?) RGB Fusion (de Gigabyte) le coupable.

 

Bref je ne passe plus que par des logiciels tiers open source maintenant, aussi bien pour la gestion du RGB que des ventilos (en plus il y a mille fois plus de réglages, et surtout jamais rencontré le moindre problème jusqu'ici).


Salut, pour le rgb tu utilises quoi ? Merci

n°11325154
TheCLeaN
Posté le 23-02-2024 à 19:37:57  profilanswer
 

[:so-saugrenu12:1]

aldayo a écrit :

Et puis surtout, sur certaine boitier, les ventilo sont mis dans le sens de voir les RGB sans voir les pates qui tiennent le moteur (et comme ils tournes tous dans le même sens…)
 
Bref, tu te retrouve avec tous les ventilos en extractions (même ceux du bas) et aucun flux d’air vers l’intérieur du coup :o


n°11325157
It_Connexi​on
Posté le 23-02-2024 à 19:59:12  profilanswer
 

neogts a écrit :


 
En même temps on devient tous vieux ici ... :lol:


 
C'est vrai, je pensais être un vieux sur HFR à 45 ans mais je me rends compte que les gens avec qui je parle ont souvent la quarantaine aussi voir plus :D


---------------
Galerie Photo Personnelle
n°11325185
scrumpz
Posté le 23-02-2024 à 22:47:28  profilanswer
 

DVN a écrit :

nVidia qui met enfin un pied dans le futur.  :o  
 
https://www.nvidia.com/fr-fr/geforc [...] -download/
 

Citation :

C'est aujourd'hui que nous lançons la beta publique de NVIDIA app, une nouvelle application incontournable pour les joueurs et les créateurs qui disposent d'un PC de bureau ou d'un PC portable équipé d'une carte graphique de NVIDIA.  
La beta de NVIDIA app constitue la première étape de notre initiative visant à moderniser et à unifier le Panneau de configuration NVIDIA ainsi que les applications GeForce Experience et RTX Experience.



On en parlait il y a quelques pages.
 
Nvidia lirait du coup ce topic ?  [:gagaches:2]


---------------
-> A vendre matos Hardaware <-
n°11325186
uNReaLx77
üNReaL
Posté le 23-02-2024 à 22:59:36  profilanswer
 

It_Connexion a écrit :


 
C'est vrai, je pensais être un vieux sur HFR à 45 ans mais je me rends compte que les gens avec qui je parle ont souvent la quarantaine aussi voir plus :D


Hfr ce sont presque des quinquagénaire maintenant...

mood
Publicité
Posté le 23-02-2024 à 22:59:36  profilanswer
 

n°11325188
petit-tigr​e
miaou
Posté le 23-02-2024 à 23:42:13  profilanswer
 

Oh j'en connais qui sont bien entrés dans la 50aine  :whistle:

Message cité 1 fois
Message édité par petit-tigre le 23-02-2024 à 23:42:23

---------------
mIaOuUuUuUuUuUu
n°11325190
dedouille
ex dedouille29
Posté le 23-02-2024 à 23:47:04  profilanswer
 

petit-tigre a écrit :

Oh j'en connais qui sont bien entrés dans la 50aine  :whistle:


 
Ouais, y'a plein de petits jeunes sur ce forum. :o  


---------------
mon ancien feedback DEDOUILLE29: https://forum.hardware.fr/transacti [...] ser=525372 (achat/vente) https://forum.hardware.fr/transacti [...] ser=525372 (jeux vidéo)
n°11325191
Gunman24
Posté le 23-02-2024 à 23:47:39  profilanswer
 

scrumpz a écrit :


On en parlait il y a quelques pages.
 
Nvidia lirait du coup ce topic ?  [:gagaches:2]


 
Evidemment, ses meilleurs clients sont sur ce forum.

n°11325203
mlietchnyi​pout
☆ milky way sans édulcorant ☆
Posté le 24-02-2024 à 00:59:51  profilanswer
 

scrumpz a écrit :

On en parlait il y a quelques pages.
 
Nvidia lirait du coup ce topic ?  [:gagaches:2]


'Me suis dit la même chose en lisant la news :lol:


---------------
Achat/Vente : HardwarePhotoPC portables
n°11325243
yorys
Posté le 24-02-2024 à 10:59:33  profilanswer
 

Drdrake a écrit :


 Ok mais sur les précédentes générations, les "haut de gamme" maison etaient non seulement tres chers, mais pas sans contreparties: chauffe énorme et mal supportes (3090/ti), taille démente et encore - chauffe notoire provoquant bruit et plantages... On n'a pas ces problèmes sur la 4090fe, et pas réellement besoin d'aller chercher chez les 3rd parties.
Je continue de penser que EVGA a ete intelligent de se retirer, meme si c'est triste de pas avoir une 4090ftw3 (j'etais super content de la 2080ti ftw3 meme si elle n'etait pas "sans limite" comme peut l'etre une 4090).


 
Ma 4090 FE est opérationnelle depuis hier, et elle passe parfaitement le stress-test avec le câble Corsair :
 
https://www.amazon.de/dp/B0BLXXQ9Z5 [...] ct_details
 
Câble qui m'a un peu surpris par sa "légèreté", mais même au max de puissance à laquelle j'ai pu la pousser le connecteur est juste un peu plus que tiède, donc no souci.
 
Sinon par rapport à la Strix 3080 OC qu'elle remplace que ce soit en jeu, en bureautique ou avec mes outils de dev, elle consomme nettement moins  :ouch: que la 3080 !
Bon je n'ai pas des jeux très gourmands mais sur The Witcher III moddé tout à fond en 4K/60hz je suis quand même à 100w de moins, sur Hogwarth Legacy un peu moins, mais moins aussi, et je ne vous parle même pas de Wow. En fait je dois maintenant être limité par la fréquence en single-thread de mon CPU (Threadripper 3960X)...  
 
On verra sur les applis d'IA et sur Resolve qui sont la principale raison de cet achat.
 
Question bruit, je ne l'entend pas plus que la Strix...
 
Donc en fait c'est tout bon (et, cerise sur le gâteau, je trouve qu'elle fait très "pro"  :love:  ) !

Message cité 1 fois
Message édité par yorys le 24-02-2024 à 11:19:18
n°11325250
Space
Profil: Maux des rateurs
Posté le 24-02-2024 à 11:18:16  profilanswer
 

yorys a écrit :

Sinon par rapport à la Strix 3080 OC qu'elle remplace que ce soit en jeu, en bureautique ou avec mes outils de dev, elle consomme moins  :ouch: que la 3080 !
Bon je n'ai pas des jeux très gourmands mais sur The Witcher tout à fond en 4K/60hz je suis quand même à 100w de moins, sur Hogwarth Legacy un peu moins, mais moins aussi, et je ne vous parle même pas de Wow. En fait je dois maintenant être limité par la fréquence en single-thread de mon CPU (Threadripper 3960X)...

C'est logique une 4090 en 4k 60 hz se tourne les pouces sur pas mal de titre :o


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°11325251
uNReaLx77
üNReaL
Posté le 24-02-2024 à 11:21:03  profilanswer
 

Elle consomme moins parce que tu la limite, enlève lui limite de fps :o

n°11325254
yorys
Posté le 24-02-2024 à 11:29:42  profilanswer
 

uNReaLx77 a écrit :

Elle consomme moins parce que tu la limite, enlève lui limite de fps :o


 
J'ai touché absolument à rien, ni en voltage ni en PL, mais ça me va très bien comme ça.
 
Si le besoin se fait sentir, je sais maintenant que j'ai de la marge.

Message cité 1 fois
Message édité par yorys le 24-02-2024 à 11:30:33
n°11325256
Space
Profil: Maux des rateurs
Posté le 24-02-2024 à 11:51:14  profilanswer
 

:heink: c'est logique si tu joues en 4k 60hz , c'est pas ta 4090 ou ton CPU qui va te limiter :o
C'est donné de la confiture aux cochons que de jouer en 4k 60 hz avec une 4090 :o


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°11325259
yorys
Posté le 24-02-2024 à 12:16:51  profilanswer
 

Space a écrit :

:heink: c'est logique si tu joues en 4k 60hz , c'est pas ta 4090 ou ton CPU qui va te limiter :o
C'est donné de la confiture aux cochons que de jouer en 4k 60 hz avec une 4090 :o


 
S'il n'avait s'agit que de "jouer" je n'aurais probablement pas claqué 1500€ (HT)...  
 
En fait je suis juste surpris de la différence quand même très conséquente, sous Visual Studio par exemple, là où j'étais hier à plus de 80w (mesuré par iCue) avec mes 2 moniteurs 32'' avec la 3080, je suis à moins de 50 avec la 4090FE. Là en tapants ce post, sur Firefox, avec un seul moniteur allumé, Hwinfo me donne 11W, j'étais à 25+ avec la Strix... bon sur le plan énergétique c'est anecdotique, mais ça met, pour moi, en évidence une bien plus grande efficacité de la carte et de sa gestion, ce dont je n'avais pas forcément conscience avant. Je m'attendais au contraire en fait (en 2D)...


Message édité par yorys le 24-02-2024 à 14:04:35
n°11325260
uNReaLx77
üNReaL
Posté le 24-02-2024 à 12:22:55  profilanswer
 

yorys a écrit :


 
J'ai touché absolument à rien, ni en voltage ni en PL, mais ça me va très bien comme ça.
 
Si le besoin se fait sentir, je sais maintenant que j'ai de la marge.


Si tu n'as pas de vsync gsync ou autre qui limite tes FPS alors c'est ton cpu qui limite :o

n°11325262
yorys
Posté le 24-02-2024 à 12:36:47  profilanswer
 

uNReaLx77 a écrit :


Si tu n'as pas de vsync gsync ou autre qui limite tes FPS alors c'est ton cpu qui limite :o


 
Le moniteur avec lequel je joue est G-sync effectivement.

Message cité 1 fois
Message édité par yorys le 24-02-2024 à 12:37:22
n°11325264
uNReaLx77
üNReaL
Posté le 24-02-2024 à 12:44:32  profilanswer
 

yorys a écrit :


 
Le moniteur avec lequel je joue est G-sync effectivement.


Par défaut c'est activé dans les pilotes :jap:

n°11325265
Insanity13​649
Posté le 24-02-2024 à 12:56:11  profilanswer
 

Toute façon suffit de regarder le % d'utilisation GPU quand tu joues.
 
Cappée à 60fps, la carte doit probablement se tourner les pouces à moins de 50% d'usage, normal qu'elle consomme rien. :o

n°11325267
petit-tigr​e
miaou
Posté le 24-02-2024 à 13:37:29  profilanswer
 

Space a écrit :


C'est donné de la confiture aux cochons que de jouer en 4k 60 hz avec une 4090 :o


lol...
 
https://tpucdn.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-performance-analysis/images/performance-rt-3840-2160.png
 
Il y en a quelques uns des comme ça et il y en aura d'autres.


---------------
mIaOuUuUuUuUuUu
n°11325271
Space
Profil: Maux des rateurs
Posté le 24-02-2024 à 13:43:37  profilanswer
 

Il était question de The Witcher 3 ,  Hogwarth Legacy et Wow :o
Phantom Liberty en ultra avec RT est un cas extrème :o
Je réitère mes propos  ,une 4090 en 4k 60 hz se tourne les pouces sur pas mal de titre :o

Message cité 2 fois
Message édité par Space le 24-02-2024 à 13:45:09

---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°11325273
Insanity13​649
Posté le 24-02-2024 à 13:47:51  profilanswer
 

petit-tigre a écrit :


lol...

 

https://tpucdn.com/review/cyberpunk [...] 0-2160.png

 

Il y en a quelques uns des comme ça et il y en aura d'autres.

 

Alors personne joue a CP2077 Path Tracing sans DLSS hein  :O

 

n°11325275
petit-tigr​e
miaou
Posté le 24-02-2024 à 13:56:22  profilanswer
 

Insanity13649 a écrit :

 

Alors personne joue a CP2077 Path Tracing sans DLSS hein  :O

 



Même avec DLSS tu fais pas du 120 fps, loin de là. Si tu veux ça, t'es obligé de passer par le framegen.
J'aurais pu citer Alan Wake 2 aussi et là le DLSS est même forcé.

 

Bref, pour un soi-disant gâchis, faut tout de même activer les artifices utilisés par les cartes inférieures pour pas se retrouver étranglé à 35 fps.
Du coup, je ne vois pas en quoi 60hz est un problème. On est loin de jeux tournant à 400 fps et 50W de conso sur les plus gros titres et clairement, il y en aura d'autres.


Message édité par petit-tigre le 24-02-2024 à 13:57:57

---------------
mIaOuUuUuUuUuUu
n°11325287
Space
Profil: Maux des rateurs
Posté le 24-02-2024 à 14:50:31  profilanswer
 

ha oui il avait pris soin de soin de sélectionner un screen sans DLSS :o

 

Pourquoi tu nous parles de 120 fps , il est question d'un écran 4k 60 hz , jouer à 120 fps sur un écran 60 hz présente aucun intérèt :o


Message édité par Space le 24-02-2024 à 14:50:46

---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°11325296
petit-tigr​e
miaou
Posté le 24-02-2024 à 15:36:29  profilanswer
 

Justement, explique-nous le gâchis si tu dois déjà batailler pour avoir 60 ? :D  
 
Il parlerait de 1080p, je dirais pas mais c'est pas le cas.


---------------
mIaOuUuUuUuUuUu
n°11325308
LeMakisar
Posté le 24-02-2024 à 16:20:08  profilanswer
 

It_Connexion a écrit :

Bon par contre ceux qui s'attendaient à des tarifs plus raisonnables pour les 5xxx :
 
https://www.cowcotland.com/news/903 [...] kwell.html
 
En résumé vous allez raquer :o


 
Ils sont très forts, aucune date annoncée mais ils prévoient déjà la pénurie :D
"On sait qu'on pourra jamais produire les ??????? cartes nécessaires au lancement le ??/??/????"
 
Merci Sony d'avoir démocratisé ce genre de pratique à la con. Et ça marche en plus, c'est beau.


---------------
Feedback
n°11325312
ddlabrague​tte
Posté le 24-02-2024 à 16:39:14  profilanswer
 

Space a écrit :

Il était question de The Witcher 3 ,  Hogwarth Legacy et Wow :o
Phantom Liberty en ultra avec RT est un cas extrème :o
Je réitère mes propos  ,une 4090 en 4k 60 hz se tourne les pouces sur pas mal de titre :o


Avec RT, c'est quasiment aussi gourmand que cp2077  [:skaine:1]

n°11325313
It_Connexi​on
Posté le 24-02-2024 à 16:40:47  profilanswer
 

ddlabraguette a écrit :


Avec RT, c'est quasiment aussi gourmand que cp2077  [:skaine:1]


 
Ha oui ??


---------------
Galerie Photo Personnelle
n°11325318
ddlabrague​tte
Posté le 24-02-2024 à 16:44:17  profilanswer
 

pas autant que cp2077 en path tracing mais plus gourmand que ce dernier en RT psycho :jap:

n°11325322
It_Connexi​on
Posté le 24-02-2024 à 16:55:08  profilanswer
 

Ha oui quand même. Je trouve CP2077 déjà bien gourmand


---------------
Galerie Photo Personnelle
n°11325324
Darkblade6​666
Posté le 24-02-2024 à 17:05:46  profilanswer
 

le plus gourmand que j'ai trouvé alane wake2... en ray tracing horrible.

n°11325330
It_Connexi​on
Posté le 24-02-2024 à 17:21:14  profilanswer
 

Darkblade6666 a écrit :

le plus gourmand que j'ai trouvé alane wake2... en ray tracing horrible.


 
Oui j'ai lu ça sur le net, pas testé


---------------
Galerie Photo Personnelle
n°11325332
tico
Posté le 24-02-2024 à 17:24:29  profilanswer
 

LeMakisar a écrit :


 
Ils sont très forts, aucune date annoncée mais ils prévoient déjà la pénurie :D
"On sait qu'on pourra jamais produire les ??????? cartes nécessaires au lancement le ??/??/????"
 
Merci Sony d'avoir démocratisé ce genre de pratique à la con. Et ça marche en plus, c'est beau.


En fait Nvidia ne fait pas reference aux cartes graphiques mais bien les GPU Blackwell destinés a tout ce qui est intelligence artificielle, comme bien précisé dans l'article.
Ce n'est pas parce qu'il y aura des bases similaires que les 50x0 ne seront pas dispo.
Actuellement, le marché de l'I.A est si dense pour eux qu'ils n'arrivent déjà pas a livrer tout ce qui leur est demandé coté industrie, aussi "vite" que prévu. Mais ils le font. ça ne veut pas dire qu'ils ont du mal à livrer d'autres produits. Ils ont meme des réajustements de marché en cours comme avec exemple du milieux de l'automobile, qui connait des difficultés conjoncturelles + le retournement de situation sur le marché de la conduite autonome.
 
Par contre, les prix seront certainement toujours aussi élevés car le marché des cartes graphiques n'est pas aussi florissant qu'il y a 3/4 ans (j'allais dire "forcement..." ), et comme Nvidia a quand meme pour but de conserver ses revenus dans ce secteur.. bah ça risque pas de s'améliorer niveau prix.


---------------
---------------
n°11325341
yorys
Posté le 24-02-2024 à 18:11:07  profilanswer
 

ddlabraguette a écrit :


Avec RT, c'est quasiment aussi gourmand que cp2077  [:skaine:1]


 
Je confirme que c'est gourmand : en mettant le RT en ultra le jeu tombe à 40 Fps, mais en high je suis à 59-60 ce qui est ok avec mon moniteur.
 
Ceci dit, très honnêtement, je ne vois pas vraiment de différence entre high et ultra  !
[:synthe1000000]


Message édité par yorys le 24-02-2024 à 18:36:26
n°11325350
jln2
Posté le 24-02-2024 à 19:11:18  profilanswer
 

It_Connexion a écrit :

 

C'est vrai, je pensais être un vieux sur HFR à 45 ans mais je me rends compte que les gens avec qui je parle ont souvent la quarantaine aussi voir plus :D

 

Je serais curieux de connaitre la moyenne d'âge sur HFR (en différencient la section discussion des autres).
Perso, 42 ans (et 23 ans sur HFR :ouch: )

 

EDIT: 42 ans et 16Go de Vram :o

Message cité 1 fois
Message édité par jln2 le 24-02-2024 à 19:11:40
n°11325359
uNReaLx77
üNReaL
Posté le 24-02-2024 à 19:46:37  profilanswer
 

jln2 a écrit :


 
Je serais curieux de connaitre la moyenne d'âge sur HFR (en différencient la section discussion des autres).
Perso, 42 ans (et 23 ans sur HFR :ouch: )
 
EDIT: 42 ans et 16Go de Vram :o


Oula

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  719  720  721  ..  801  802  803  804  805  806

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)