Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1981 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  463  464  465  ..  805  806  807  808  809  810
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11223297
Yopfraize
Posté le 19-02-2023 à 12:41:37  profilanswer
 

Reprise du message précédent :

LeMakisar a écrit :

Sinon prends une Strix :o :D

 

La surtaxe de 300 boules pour 15w de conso de - en idle va pour la Suprim  :o

 
Scrabble a écrit :


520W c'est déjà énorme, c'est une sage décision de la part de MSI de poser cette limite, les gains en perfs au dessus sont négligeables

 

Je n'ai pas dit que ça servait à quelque chose, la mienne sera UV à 350. :D
Mais maintenant que tu en parles, pourquoi ont ils bridé ça arbitrairement ?
Même si on est d'accord que ça ne sert à rien en usage normal, ils sont les seuls à avoir pris cette décision.
Aucun impact sur les overclocks "extrême" ?


Message édité par Yopfraize le 19-02-2023 à 12:46:55
mood
Publicité
Posté le 19-02-2023 à 12:41:37  profilanswer
 

n°11223360
spocki
Posté le 19-02-2023 à 16:43:09  profilanswer
 

sur la fiche technique, pour les dimensions de la carte.
par exemple pour la MSI rtx4090  
322*136*66 mm
136mm pour la largeur , c'est hors tout ?  
bus pcie 4 compris ?
merci  

n°11223378
cyberfred
Posté le 19-02-2023 à 17:44:44  profilanswer
 

Yopfraize a écrit :


 
Merci de vos retours :) !
Ouaip je veux bien pour la conso idle, ça me permettrait de savoir si le soucis a été réglé via driver/bios, même si j'en doute car ça en parlait sur les forums msi il y'a à peine deux semaines on dirait.
Ce sera pour jouer sur une TV 120Hz donc 120fps en globalité avec pour certains jeux de rythme des pointes à 200. Je me doute que des 500 fps+ ça couine je ne demande pas autant :crazy:.
Merci encore, ça me rassure un peu :jap:.


 
Je suis pas chez moi là tout de suite , je te donne la conso idle de la mienne demain ;)
par contre je peux me tromper mais je suis presque sûr que ma SuprimX n'est pas à 38W en idle mais en dessous  , je vérifierai ça demain :jap:

Message cité 1 fois
Message édité par cyberfred le 19-02-2023 à 17:46:15
n°11223396
Yopfraize
Posté le 19-02-2023 à 19:15:45  profilanswer
 

cyberfred a écrit :

 

Je suis pas chez moi là tout de suite , je te donne la conso idle de la mienne demain ;)
par contre je peux me tromper mais je suis presque sûr que ma SuprimX n'est pas à 38W en idle mais en dessous  , je vérifierai ça demain :jap:

 

C'est super, merci  [:maximew]

 

@spocki : Oui et en longueur pareil, c'est sans l'équerre.
Edit : Ah non en fait en largeur c'est avec le bus compris si on en croit l'image : https://www.techpowerup.com/review/ [...] nsions.jpg :whistle:

Message cité 1 fois
Message édité par Yopfraize le 19-02-2023 à 19:19:07
n°11223409
spocki
Posté le 19-02-2023 à 20:00:55  profilanswer
 

Yopfraize a écrit :


 
C'est super, merci  [:maximew]  
 

Citation :

@spocki : Oui et en longueur pareil, c'est sans l'équerre.
Edit : Ah non en fait en largeur c'est avec le bus compris si on en croit l'image : https://www.techpowerup.com/review/ [...] nsions.jpg :whistle:




 
 :jap: merci  
 
du coup ça devrait rentrer dans mon boitier  [:wark0]

n°11223452
Mick461
Posté le 19-02-2023 à 22:24:02  profilanswer
 

Je suis à 32 33w en idle avec ma suprim , j ai 2 écrans dessus par contre

n°11223491
ddlabrague​tte
Posté le 20-02-2023 à 06:25:03  profilanswer
 

Calmez vous un peu. Vous êtes tout foufous là  [:pierre_j_paillasson:8]

n°11223529
spocki
Posté le 20-02-2023 à 10:36:58  profilanswer
 

Citation :

ddlabraguette a écrit :

Calmez vous un peu. Vous êtes tout foufous là  [:pierre_j_paillasson:8]




 
ta raison ,vais me calmer surtout faudrait que je change mon alim qui fait que 750watts  :heink:  
 
tout ça pour jouer à pubg en 4k full ultra scale 120% , pas sur que ça change radicalement mon exp de jeu.
je tourne actuellement à 80FPS dans cette résolution avec une 3090.
 

n°11223531
Yopfraize
Posté le 20-02-2023 à 10:38:13  profilanswer
 

Mick461 a écrit :

Je suis à 32 33w en idle avec ma suprim , j ai 2 écrans dessus par contre

 

D'accord merci, ça semble à peu près "correct" :jap:.
Ca parait anodin mais actuellement sur un laptop legion pro (5800h, 3070 et 32gb de ram) on est sur du 15-20W de conso en idle et étant donné que j'utilise mon PC aussi en tant que serveur H24, la différence de chaleur émise au repos est importante.
Passer de de moins 20W à + de 100 tout compris en idle c'est non négligeable surtout en été ;).


Message édité par Yopfraize le 20-02-2023 à 10:39:55
n°11223532
It_Connexi​on
Posté le 20-02-2023 à 10:39:07  profilanswer
 

spocki a écrit :

Citation :



 


 
ta raison ,vais me calmer surtout faudrait que je change mon alim qui fait que 750watts  :heink:  
 
tout ça pour jouer à pubg en 4k full ultra scale 120% , pas sur que ça change radicalement mon exp de jeu.
je tourne actuellement à 80FPS dans cette résolution avec une 3090.
 


 
En tous cas tu te sentiras plus léger... financièrement...  :whistle:


---------------
Galerie Photo Personnelle
mood
Publicité
Posté le 20-02-2023 à 10:39:07  profilanswer
 

n°11223541
Birdy62
Posté le 20-02-2023 à 10:52:25  profilanswer
 


Comme déjà dit, la consommation en idle va grandement dépendre du nombre d'écrans et de la fréquence de rafraîchissement.... Maintenant, et venant moi-même d'une 3090,  la 4090 permet de jouer avec des performances largement plus élevées et avec une consommation bien moindre si tu l'undervoltes, c'est assez bluffant. De plus, le DLSS3 est un vrai game changer sur les titres qui le supportent, sur Cyberpunk c'est quasiment magique.... Maintenant, reste la question du prix bien sûr....

Message cité 1 fois
Message édité par Birdy62 le 20-02-2023 à 10:55:06
n°11223552
trymon
Posté le 20-02-2023 à 11:24:55  profilanswer
 

Birdy62 a écrit :


Comme déjà dit, la consommation en idle va grandement dépendre du nombre d'écrans et de la fréquence de rafraîchissement.... Maintenant, et venant moi-même d'une 3090,  la 4090 permet de jouer avec des performances largement plus élevées et avec une consommation bien moindre si tu l'undervoltes, c'est assez bluffant. De plus, le DLSS3 est un vrai game changer sur les titres qui le supportent, sur Cyberpunk c'est quasiment magique.... Maintenant, reste la question du prix bien sûr....


 
Je ne suis pas convaincu par l'économie de conso énergétique avec l'UV par rapport au fait de limiter le PL. Certes, l'UV a l'avantage de réduire la conso y compris lorsque le jeu n'atteindrait de toute façon pas les 450 W. Mais en undervoltant à 0.975@2820 ma 4090, il m'arrive de constater que ça chauffe aux alentours de 400W, alors qu'en bridant le PL à 80%, ça ne dépassait pas 360-370W environ. Maintenant, on perd un peu moins en perf.

n°11223699
VltimaRati​o
What is The Darkening ?
Posté le 20-02-2023 à 16:26:06  profilanswer
 

Toutes les références de 4070ti à 899€ ont disparu des boutiques du groupe LDLC [:erg machaon:4]

n°11223704
havoc_28
Posté le 20-02-2023 à 16:36:37  profilanswer
 

VltimaRatio a écrit :

Toutes les références de 4070ti à 899€ ont disparu des boutiques du groupe LDLC [:erg machaon:4]


 
Technique habituelle de Nvidia, une première fournée au tarif MSRP et après pour en revoir :o.

n°11223713
joss69
Posté le 20-02-2023 à 16:52:42  profilanswer
 

Pas sûr que NV soit à incriminer pour le coup puisque ce ne sont pas des modèles FE. Ce sont donc les constructeurs qui sont coupables, à privilégier leurs modèles OC LED kikoolol à la con sur lesquels ils margent mieux:o  

n°11223721
havoc_28
Posté le 20-02-2023 à 17:01:00  profilanswer
 

joss69 a écrit :

Pas sûr que NV soit à incriminer pour le coup puisque ce ne sont pas des modèles FE. Ce sont donc les constructeurs qui sont coupables, à privilégier leurs modèles OC LED kikoolol à la con sur lesquels ils margent mieux:o


 
Si si, c'est Nvidia qui donne une fournée à prix réduit aux partenaires juste pour respecter le MSRP puis ensuite juste au compte goute de temps à autre pour dire qu'il y a bien des cartes au MSRP.


Message édité par havoc_28 le 20-02-2023 à 17:01:17
n°11223727
joss69
Posté le 20-02-2023 à 17:05:36  profilanswer
 

d'accord mais ces puces sont les mêmes que celles implantées sur les autres cartes plus chères donc ce sont bien les partenaires qui décident non ? De plus, il me semble que toutes les puces vendues aux partenaires le sont au même prix, il n'y en a pas à prix réduit et d'autres à prix "normal"
Evidemment que si les puces étaient disponibles en quantité il n'y aurait pas de problème par contre

Message cité 1 fois
Message édité par joss69 le 20-02-2023 à 17:10:28
n°11223734
havoc_28
Posté le 20-02-2023 à 17:11:59  profilanswer
 

joss69 a écrit :

d'accord mais ces puces sont les mêmes que celles implantées sur les autres cartes plus chères donc ce sont bien les partenaires qui décident non ?
Evidemment que si les puces étaient disponibles en quantité il n'y aurait pas de problème par contre


 
Nvidia impose aux partenaires de vendre un petit quota de carte au MSRP et ensuite le reste à leurs guises, après Nvidia sur la 4070 Ti est pas trop trop agressif donc tu 4070 Ti "musclée" @ 50/100 € de plus que le MSRP (c'est beaucoup mais pas autant que sur d'autres modèles proportionnellement).

n°11223738
VltimaRati​o
What is The Darkening ?
Posté le 20-02-2023 à 17:20:20  profilanswer
 

Je pense qu'ils veulent surtout faire passer la douille, euh, laisser de la place aux futur 4060/70  :o

n°11223746
bonk1
Elle te plait ma soeur ?
Posté le 20-02-2023 à 17:38:10  profilanswer
 

VltimaRatio a écrit :

Toutes les références de 4070ti à 899€ ont disparu des boutiques du groupe LDLC [:erg machaon:4]


 
Vu que Hogwarts Legacy a déjà démontré qu'il bouffe plus de 12 Go de RAM Vidéo, je doute que ce modèle soit future proof... la 3090 passe devant en haure résolution à cause de ça...
même la 4080 ca se questionne...
 
Il n'y a vraiment que la 4090 qui inspire confiance... ou la RX 7900XT (X) qui d'ailleurs est très bonne sur ce jeu
 


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11223764
VltimaRati​o
What is The Darkening ?
Posté le 20-02-2023 à 18:09:50  profilanswer
 

bonk1 a écrit :


 
Vu que Hogwarts Legacy a déjà démontré qu'il bouffe plus de 12 Go de RAM Vidéo, je doute que ce modèle soit future proof... la 3090 passe devant en haure résolution à cause de ça...
même la 4080 ca se questionne...
 
Il n'y a vraiment que la 4090 qui inspire confiance... ou la RX 7900XT (X) qui d'ailleurs est très bonne sur ce jeu
 


J'attendais perso une baisse des tarifs et la sortie de la 4080ti, mais d'une je pense qu'on aura pas de baisse majeur cette année, et de deux je vois bien nvidia nous baiser en sortant une 4080ti avec un AD103 full et toujours 16GB plutôt qu'un AD102 castré 320-bit et 20GB...
 
Du coup avec la promo du shop HFR la semaine dernière je suis parti sur une 7900XTX, et pour l'instant je suis satisfait.

n°11223783
havoc_28
Posté le 20-02-2023 à 19:27:57  profilanswer
 

bonk1 a écrit :


 
Vu que Hogwarts Legacy a déjà démontré qu'il bouffe plus de 12 Go de RAM Vidéo, je doute que ce modèle soit future proof... la 3090 passe devant en haure résolution à cause de ça...
même la 4080 ca se questionne...


 
Hogwarts legacy a surtout montré son manque d'optimisation, vu ce qu'il affiche on va attendre quelques semaines / patchs pour vraiment statuer :o.  

n°11223883
Dark Schne​iderr
⭐⭐
Posté le 21-02-2023 à 09:12:07  profilanswer
 

Le topic RTX 3000 est plus actif que celui-ci :o

Message cité 1 fois
Message édité par Dark Schneiderr le 21-02-2023 à 09:12:21

---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°11223889
Yopfraize
Posté le 21-02-2023 à 09:27:10  profilanswer
 

Dark Schneiderr a écrit :

Le topic RTX 3000 est plus actif que celui-ci :o

 

C'est le souvenir des pénuries de plusieurs mois et du scalping, ça tisse des liens :o.


Message édité par Yopfraize le 21-02-2023 à 09:27:42
n°11223938
uNReaLx77
üNReaL
Posté le 21-02-2023 à 11:16:54  profilanswer
 

bonk1 a écrit :


 
Vu que Hogwarts Legacy a déjà démontré qu'il bouffe plus de 12 Go de RAM Vidéo, je doute que ce modèle soit future proof... la 3090 passe devant en haure résolution à cause de ça...
même la 4080 ca se questionne...
 
Il n'y a vraiment que la 4090 qui inspire confiance... ou la RX 7900XT (X) qui d'ailleurs est très bonne sur ce jeu
 


Bof, les modèles amd 6800 avec 16go font pas mieux que.les 10go...
https://www.techspot.com/review/262 [...] benchmark/

n°11223954
Yopfraize
Posté le 21-02-2023 à 12:05:28  profilanswer
 

Yop à tous :jap:

 

Je viens de réceptionner la 4090 Suprim achetée sur le shop HFR et je m'interroge : La carte est arrivée sans cellophane autour de la boîte ni scotch ou scellé.
Est-ce normal sur ces cartes :whistle: ?


Message édité par Yopfraize le 21-02-2023 à 12:09:02
n°11223957
Valaint671​30
Cinquième soleil
Posté le 21-02-2023 à 12:24:30  profilanswer
 

Oui pas de scellés sur les MSI
 
Il est sur le sachet antistatic


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11223960
Yopfraize
Posté le 21-02-2023 à 12:30:04  profilanswer
 

Valaint67130 a écrit :

Oui pas de scellés sur les MSI

 

Il est sur le sachet antistatic

 

Aaaaah, autant pour moi  [:tang]

 

Merci ! Forcément à 2000 la carte et sachant que ne peux pas l'utiliser avant 2 à 3 semaines .. je m'interrogeais ;) !


Message édité par Yopfraize le 21-02-2023 à 12:31:09
n°11223974
cyberfred
Posté le 21-02-2023 à 13:30:57  profilanswer
 

@Yopfraize : j'avais dit que je te ferai un retour sur la conso idle de ma SuprimX : 30-31W en idle ( écran 1440p@240hz)
(sry je suis rentré tard hier soir , un peu claqué et j'ai pas allumé le PC jusqu'à ce matin du coup)

Message cité 1 fois
Message édité par cyberfred le 21-02-2023 à 13:31:36
n°11223978
jumbaii
Posté le 21-02-2023 à 13:44:59  profilanswer
 

bonk1 a écrit :


 
Vu que Hogwarts Legacy a déjà démontré qu'il bouffe plus de 12 Go de RAM Vidéo, je doute que ce modèle soit future proof... la 3090 passe devant en haure résolution à cause de ça...
même la 4080 ca se questionne...
 
Il n'y a vraiment que la 4090 qui inspire confiance... ou la RX 7900XT (X) qui d'ailleurs est très bonne sur ce jeu
 


 
Ce jeu est mal optimisé, en 3440x1440 il consomme 12GO sur le GPU et 20-22 sur la config  :heink: et je n'ai pas activé le RT  :D


---------------
GT : jumbaii7
n°11223981
Gunman24
Posté le 21-02-2023 à 13:53:01  profilanswer
 

Vous pronostiquez quel prix pour la 4070 ?

n°11223983
Ill Nino
Love
Posté le 21-02-2023 à 13:57:13  profilanswer
 

N'empêche on entend plus parler de connecteur cramés parce que tout le monde sur la planète a bien clipsé? :o

 

Et il en est quoi du nouveau connecteur qui devrait sortir ?


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°11223987
bonk1
Elle te plait ma soeur ?
Posté le 21-02-2023 à 14:05:14  profilanswer
 

Gunman24 a écrit :

Vous pronostiquez quel prix pour la 4070 ?


 
Celui d'une 3080 qui a les mêmes perfs, vu que Nvidia sur cette nouvelle gen à calé ses tarifs sur une logique "même FPS/$ d'une gen à l'autre"


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11223990
bonk1
Elle te plait ma soeur ?
Posté le 21-02-2023 à 14:11:30  profilanswer
 

havoc_28 a écrit :


 
Hogwarts legacy a surtout montré son manque d'optimisation, vu ce qu'il affiche on va attendre quelques semaines / patchs pour vraiment statuer :o.  


 
Il est mal optimisé, mais il donne la tempérrature sur les vraies capacité des new gen.
 
Et c'est là qu'on voit qu'AMD est pas mal, d'autant que sur ma RTX j'ai stoppé le raytracing tellement je trouvait le rendu dégueulasse / artficiel.
 
https://www.techspot.com/review/262 [...] benchmark/
 
https://static.techspot.com/articles-info/2627/bench/Hogsmeade_Ultra_1440p-color-p.webp

Message cité 3 fois
Message édité par bonk1 le 21-02-2023 à 14:12:13

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11223994
Xantar_Eoz​enn
Posté le 21-02-2023 à 14:21:55  profilanswer
 

bonk1 a écrit :


 
Il est mal optimisé, mais il donne la tempérrature sur les vraies capacité des new gen.
 
Et c'est là qu'on voit qu'AMD est pas mal, d'autant que sur ma RTX j'ai stoppé le raytracing tellement je trouvait le rendu dégueulasse / artficiel.
 
https://www.techspot.com/review/262 [...] benchmark/
 
https://static.techspot.com/article [...] lor-p.webp


 
 
Tu as lu le test ?
 
Le test met en avant un problème avec les drivers NVidia sur ce jeu qui ne charge pas le CPU, limitation à 130fps environ. (Un Ryzen 7700, le gars dit qu'il va retest avec un i9 13900K)
 
Toutes les RTX 3070+ font quasiment les mêmes scores. Il y a que en 4k ou en 4k+RT ou les scores sont "normaux" on va dire.


Message édité par Xantar_Eozenn le 21-02-2023 à 14:27:22
n°11223995
havoc_28
Posté le 21-02-2023 à 14:23:58  profilanswer
 

bonk1 a écrit :


 
Il est mal optimisé, mais il donne la tempérrature sur les vraies capacité des new gen.
 
Et c'est là qu'on voit qu'AMD est pas mal, d'autant que sur ma RTX j'ai stoppé le raytracing tellement je trouvait le rendu dégueulasse / artficiel.
 
https://www.techspot.com/review/262 [...] benchmark/
 
https://static.techspot.com/article [...] lor-p.webp


 
Non, ce qu'il montre coté Geforce c'est le fait d'être limité coté processeur, vu qui a pas d'ordonnanceur matériel, et que Denuvo est très gourmand niveau processeur.
Edit : grillé.
 
Bref à nouveau j'attendrai quelques semaines pour pouvoir tirer quoi que ce soit de ce jeu niveau tendance.

Message cité 1 fois
Message édité par havoc_28 le 21-02-2023 à 14:25:17
n°11223999
bonk1
Elle te plait ma soeur ?
Posté le 21-02-2023 à 14:28:46  profilanswer
 

havoc_28 a écrit :


 
Non, ce qu'il montre coté Geforce c'est le fait d'être limité coté processeur, vu qui a pas d'ordonnanceur matériel, et que Denuvo est très gourmand niveau processeur.


 
+1
 
or c'est le même processeur avec les cartes AMD... qui scalent bien mieux. Donc nvidia serait plus cpu dépendant ? ou produirait un bug spécifique à nvidia sur un cappage de l'utilisation du CPU ???
 
A noter que depuis l'éditeur de Hogwarts à sorti un patch pour corriger le fonctionnement avec nVidia... que j'ai testé.
 
Coté RT c'est mieux (moins horrible, mais bien pire que sans RT) mais mon PC ne jeu que crash ou envoyait des texture bizarres... j'ai du downgrade de version... et me suis rendu compte que c'est général.
 
Ce que l'histoire ne dit pas c'est que comme le marché PS / XBOX est 10 fois plus gros que celui des PC, et que les consoles sont AMD... ben le moteur de Hogwarts est peut être tout simplement mieux optimisé pour AMD.
 
Et vu qu'on va l'avoir de partout ce moteur...

Message cité 2 fois
Message édité par bonk1 le 21-02-2023 à 14:30:47

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11224000
Xantar_Eoz​enn
Posté le 21-02-2023 à 14:33:02  profilanswer
 

bonk1 a écrit :


Ce que l'histoire ne dit pas c'est que comme le marché PS / XBOX est 10 fois plus gros que celui des PC, et que les consoles sont AMD... ben le moteur de Hogwarts est peut être tout simplement mieux optimisé pour AMD.
 
Et vu qu'on va l'avoir de partout ce moteur...


 
 
Le moteur c'est UE4, qui est dispo depuis un moment ... donc cela n'a rien avoir avec lui.

Message cité 1 fois
Message édité par Xantar_Eozenn le 21-02-2023 à 14:36:05
n°11224002
havoc_28
Posté le 21-02-2023 à 14:34:25  profilanswer
 

bonk1 a écrit :


 
+1
 
or c'est le même processeur avec les cartes AMD... qui scalent bien mieux. Donc nvidia serait plus cpu dépendant ? ou produirait un bug spécifique à nvidia sur un cappage de l'utilisation du CPU ???


Techniquement vu qui a pas d'ordonnanceur matériel comme sur les radéons, oui les Nvidia quand le processeur est limitant etc sont plus impactés.
 

bonk1 a écrit :

Ce que l'histoire ne dit pas c'est que comme le marché PS / XBOX est 10 fois plus gros que celui des PC, et que les consoles sont AMD... ben le moteur de Hogwarts est peut être tout simplement mieux optimisé pour AMD.


 
ça fait déjà depuis la PS4 que c'est comme ça et ça a pas spécialement changer le rapport de force entre Nvidia et AMD, sur PC y a 80 % de Geforce :o. Qu'il y ait des jeux un peu plus optimisé pour l'une ou l'autre marque ça a toujours été le cas mais  d'un coté en RT dans ce même jeu les Geforces font mieux :o.  
 

bonk1 a écrit :

Et vu qu'on va l'avoir de partout ce moteur...


 
Non ? C'est juste de l'Unreal 4.x c'est pas le nouveau Unreal 5.0.

n°11224004
bonk1
Elle te plait ma soeur ?
Posté le 21-02-2023 à 14:37:45  profilanswer
 

Xantar_Eozenn a écrit :


 
 
Le moteur c'est UE5, qui est dispo depuis un moment (2018) ... donc cela n'a rien avoir avec lui.


 
L'UE5 a été annoncé en 2020, est utilisé en Dev depuis début 2021 et vraiment sur le marché depuis avril 2022 avec des jeux "commerciaux" il me semble.
 
https://www.presse-citron.net/unrea [...] loppement/


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°11224005
Xantar_Eoz​enn
Posté le 21-02-2023 à 14:40:57  profilanswer
 

bonk1 a écrit :


 
L'UE5 a été annoncé en 2020, est utilisé en Dev depuis début 2021 et vraiment sur le marché depuis avril 2022 avec des jeux "commerciaux" il me semble.
 
https://www.presse-citron.net/unrea [...] loppement/


 
 
Ouais, j'ai corrigé. Mais donc, c'est pas lui le problème. C'est soit le driver Nvidia pas à jour, soit Denuvo, soit le couple des 2.
 
Comme le test l'indique, les RTX (toutes les RTX, pas juste les dernières) ne dépassent pas 130/133fps, donc compliqué de faire des bons chiffres.
 
Et en RT, on retrouve bien le schéma "CP77" avec les RTX largement devant les RX.

Message cité 2 fois
Message édité par Xantar_Eozenn le 21-02-2023 à 14:44:10
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  463  464  465  ..  805  806  807  808  809  810

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)