Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3427 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  396  397  398  ..  801  802  803  804  805  806
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11198768
galtheon
Posté le 14-12-2022 à 13:21:14  profilanswer
 

Reprise du message précédent :

jojos92 a écrit :


 
On parle de Warzone 2 ici. Et il semble que warzone 2 est bien sensible au nombre de coeur.  
 
Et les jeux aujourd'hui qui utilisent + de 4 coeurs c'est quasi tout le temps le cas.  
Regardez un peu les benchmarks :o


 
 
Bon je vais attendre l'arrivée du 13700k alors, ça devrait améliorer les choses je pense :o

mood
Publicité
Posté le 14-12-2022 à 13:21:14  profilanswer
 

n°11198770
bucheron9
I like juice
Posté le 14-12-2022 à 13:23:06  profilanswer
 

jonas a écrit :


 
n'importe quoi.
 
tu achètes pas un hummer si ton garage fait la taille d'une clio...
 
ma 4090 est rentrée très largement dans mon boitier, et aucun problème de cable tordu quand je le ferme.
 
c'est pas aux fabricants de cartes graphiques de s'adapter aux crétins qui espèrent faire tourner un monstre de puissance dans un boitier minuscule...


 
troll on/
 
En même temps on s'adresse aux clients nvidia :o  
 
troll off/


---------------
Listen to the hidden tune
n°11198772
galtheon
Posté le 14-12-2022 à 13:30:25  profilanswer
 

bucheron9 a écrit :


 
troll on/
 
En même temps on s'adresse aux clients nvidia :o  
 
troll off/


 
 
 [:ericshawn:2]

n°11198775
-xan-
Posté le 14-12-2022 à 13:49:34  profilanswer
 

jojos92 a écrit :

Qu'est ce que tu comprends pas dans:
On parle de Warzone 2? :
 
https://en.gamegpu.com/action-/-fps [...] st-gpu-cpu
 
Je te laisse apprécier la différence entre
 
 
I3 10100
I5 10600
i7 10700
Et i9 10900


 
Tu as raison sur ce jeu, 8 Cores font la différence. En regardant précisément, nous pouvons remarquer qu'au delà de 8 Cores, il n'y a pas de gains (11900K Vs 10900K par exemple).

n°11198778
jojos92
Quand on aime on ne compte pas
Posté le 14-12-2022 à 13:50:28  profilanswer
 

Même le 13600F ça devrait le faire à pas trop cher :o


---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
n°11198786
jonas
c'est mon identité
Posté le 14-12-2022 à 14:08:04  profilanswer
 

Tain time spy c'est vraiment n'importe quoi. (en tout cas en 2022 avec une grosse machine)

 

Mon score (total, et graphics) augmente quand je change de CPU, alors que mon score de CPU baisse...   [:jeanlucpicard]


---------------
et voilà
n°11198792
olioops
Si jeune et déjà mabuse.
Posté le 14-12-2022 à 14:12:05  profilanswer
 

Time Spy ne fait que reproduire le comportement 3D de n'importe quel jeu ! tantôt CPU limited, tantôt GPU limited. Avec la puissance des dernières cartes Time Spy extrem est plus indiqué pour comparer un score GPU.


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11198793
francis125​6
Posté le 14-12-2022 à 14:12:26  profilanswer
 

jonas a écrit :

Tain time spy c'est vraiment n'importe quoi. (en tout cas en 2022 avec une grosse machine)  
 
Mon score (total, et graphics) augmente quand je change de CPU, alors que mon score de CPU baisse...   [:jeanlucpicard]


 
Ton cpu ne bottleneck plus ton gpu. Par contre, sur son test dédié, il galère + que l'ancien.

n°11198797
jonas
c'est mon identité
Posté le 14-12-2022 à 14:13:20  profilanswer
 

au moins en time spy extreme, c'est plus logique, à savoir que mon score graphics est quasi exactement identique, là où cpu et le score général ont baissé :jap:


---------------
et voilà
n°11198798
jonas
c'est mon identité
Posté le 14-12-2022 à 14:14:06  profilanswer
 

francis1256 a écrit :


 
Ton cpu ne bottleneck plus ton gpu. Par contre, sur son test dédié, il galère + que l'ancien.


 
oué, indeed :jap:
 
mais du coup time spy extreme n'est pas un très bon indice pour donner un ordre idée de performances DANS LES JEUX. (vu que j'ai des scores largement moins bons avec mon 5800X3D qu'avec mon 3950X)


Message édité par jonas le 14-12-2022 à 14:16:11

---------------
et voilà
mood
Publicité
Posté le 14-12-2022 à 14:14:06  profilanswer
 

n°11198828
eastride
Posté le 14-12-2022 à 15:08:21  profilanswer
 

-xan- a écrit :


 
 
Attention, tu peux avoir 20 Cores de plus, si ton jeu en utilise que 4 cela ne changera strictement rien (et c'est la grande majorité des jeux ... rare sont les jeux profitant de plus de 6 cores et quand c'est le cas c'est pas 25% de perfs en plus) ... lui effectivement je ne sais pas a combien tourne son 8700K, mais 5.0Ghz c'est pas trop difficile surt ce genre de CPU.
 
Dire que l'on est CPU Limited avec 8700K et pas un 10900K ... je veux bien le croire mais la liste des jeux doit se compter sur les doigts d'une main.


alors...
-si, 5ghz sur ce cpu, ce n'est pas chose courante, ça demande des grosses tensions non safe pour une bonne parti de ces cpu pour que ce soit stable (sauf si t'as un golden)
-au delà de 4.7ghz, le gain perf/watts s'écroule
-même à 5ghz, en réso uhd, ça cpu limited bien comme il faut avec une 4090
-certain ont des gains sur 9900k en désactivant l'ht, ce n'est pas le cas sur le 8700k
 
bref, il n'y a rien à faire pour "limiter les dégâts", il faut changer
j'attends les 7xxx x3d pour faire mon choix

n°11198829
supersym
ouh Pinèz
Posté le 14-12-2022 à 15:12:03  profilanswer
 

https://scontent-cdg2-1.xx.fbcdn.net/v/t39.30808-6/320016969_455074883487592_6568985814753496705_n.jpg?_nc_cat=107&ccb=1-7&_nc_sid=5cd70e&_nc_ohc=wni_TH8RcvcAX8enJrf&_nc_ht=scontent-cdg2-1.xx&oh=00_AfDNL3ULwFOeCGItKHlxby3H-hdlhuYpBY-i7odoknP_AQ&oe=639F3F94
 
c'est ça qu'il faut !  :heink:
 
et à nous les 600 W  [:cerveau bidulman]

Message cité 1 fois
Message édité par supersym le 14-12-2022 à 15:13:16

---------------
Mon feed back http://forum.hardware.fr/hfr/Achat [...] 3815_1.htm  http://hwbot.org/submission/2269750_
n°11198832
Nivacrin
Wat ?
Posté le 14-12-2022 à 15:17:51  profilanswer
 

jonas a écrit :


 
n'importe quoi.
 
tu achètes pas un hummer si ton garage fait la taille d'une clio...
 
ma 4090 est rentrée très largement dans mon boitier, et aucun problème de cable tordu quand je le ferme.
 
c'est pas aux fabricants de cartes graphiques de s'adapter aux crétins qui espèrent faire tourner un monstre de puissance dans un boitier minuscule...


 

Xantar_Eozenn a écrit :


 
Et puis là, c'est une MSI, pas une FE de chez NVidia ...


 

ecirbaf a écrit :


Normalement ce genre de carte c'est justement à mettre dans des boitiers énormes.  
Rien que pour la dissipation de la chaleur, c'est plus quali dans un grand boitier que dans un petit.  
Après si tu veux tout faire cramer chez toi, libre à toi.


 
Heu, du calme ?  :sweat: La vache on dirait un troupeau prêt à sauter à la gorge de la moindre brebis qui passe.
 
Évidemment, ceux qui achètent ces cartes doivent faire attention au préalable s'ils ont la place de les rentrer dans leur boitier, ça va de soi.  
 
Il n'empêche, cette tendance à l'embonpoint des cartes graphiques (plus chez NVidia que chez AMD, même si c'est aussi vrai chez les rouges) est réellement problématique, qu'il s'agisse des cartes FE ou des customs. Pour la plupart des gens qui ont des boitiers moyen-tour, ça peut coincer, c'est un fait. L'achat d'une telle carte graphique sous entend souvent le changement du boitier, voire aussi de l'alim (même si ces 4XXX sont plus vertueuses que les 3XXX sur ce point). Niveau recyclage du matos, c'est quand même pas terrible.
 
Après chacun voit midi à sa porte, tout le monde n'a pas le même besoin, c'est certain.  
 


---------------
"Il ne faut pas juger les gens sur leurs fréquentations. Judas, par exemple, avait des amis irréprochables."
n°11198842
-xan-
Posté le 14-12-2022 à 15:27:42  profilanswer
 

eastride a écrit :


alors...
-si, 5ghz sur ce cpu, ce n'est pas chose courante, ça demande des grosses tensions non safe pour une bonne parti de ces cpu pour que ce soit stable (sauf si t'as un golden)
-au delà de 4.7ghz, le gain perf/watts s'écroule
-même à 5ghz, en réso uhd, ça cpu limited bien comme il faut avec une 4090
-certain ont des gains sur 9900k en désactivant l'ht, ce n'est pas le cas sur le 8700k
 
bref, il n'y a rien à faire pour "limiter les dégâts", il faut changer
j'attends les 7xxx x3d pour faire mon choix


 
Ah ben si j'avais su à l'époque, j'ai pu en tester 2, un tenait 5.2Ghz et l'autre 5.0Ghz sur une Maximus XI Extreme et encore c'était en mode OC de la carte mère sans rien toucher de plus.
 
Reste que bon avec un 8700K, même de nos jours tu peux jouer dans de bonnes conditions mais pas en 4K 144Hz.

n°11198861
Turrican08
Gamer
Posté le 14-12-2022 à 16:01:16  profilanswer
 

francis1256 a écrit :


 
Son cpu, doit brider, oui.
Ton pc tourne bien sur le jeu aussi.  
 
Par contre, il y a bien un soucis avec nvidia sur ce jeu.  Peut-être qu'un patch ou de nouveau driver vont permettre une meilleur opti. Mais vu comment warzone devenait lourd avec le temps....


 
Je suis dans ce cas la aussi , j'ai quelques rares plantage en multi et impossible de finir la campagne solo c'est un crash direct , je précise que tout mes autres jeux fonctionne sans soucis .  
 
D’ailleurs une mise a jour est prévu ce jour mais toujours rien chez moi pour le moment .


---------------
Le tennis et le ping-pong, c'est pareil. Sauf qu'au tennis, les joueurs sont debout sur la table.
n°11198873
yashikito
Posté le 14-12-2022 à 16:17:59  profilanswer
 

ecirbaf a écrit :


Normalement ce genre de carte c'est justement à mettre dans des boitiers énormes.  
Rien que pour la dissipation de la chaleur, c'est plus quali dans un grand boitier que dans un petit.  
Après si tu veux tout faire cramer chez toi, libre à toi.


 
Je ne suis pas déçu par la carte, je suis déçu par le boitier, Corsair qui aurait peut être du mieux anticiper avec Nvidia.
J'avais une 308012Gb avant qui montait à 400W dedans alors je suis pas du tout inquiété par une 4080. La taille du boitier n'est pas un gage que ça sera mieux refroidie.
Finalement je vais juste prendre des vis longues et avancer le support de la vitre de 10/15 mm et ça sera bon.
Je trouve ça bcp plus crétin (mon avis) de sortir les billets pour un énorme boitier qui ne m'apportera rien à part ces 5mm qui manquent et m'encombrera. Si les prochaine gen sont autant ou plus longues, j'y réfléchirai.
Bientôt faudra une armoire de serveur pour justifier l'achat de sa carte.


---------------
J'ai vu, je sais qui c'est, mais je dirai rien.
n°11198877
DVN
Posté le 14-12-2022 à 16:20:30  profilanswer
 

J'ose espérer qu'on arrive à une limite à partir des 40XX quand même.
 
 [:moonbloood:2]


---------------
Non, rien...
n°11198879
galtheon
Posté le 14-12-2022 à 16:20:57  profilanswer
 

Je dois dire que, sans être agressif, j'ai du mal à comprendre ceux qui ragent sur la taille de la carte. Je veux dire c'est un monstre de puissance, pas un bas de gamme ou milieu de gamme. Donc effectivement elle rentre pas dans des petits boîtiers mal conçus. Mais rien ne vous empêche de prendre une carte plus petite ou de mettre 150 euros dans un vrai boîtier.
Autant je trouve le prix injustifié, autant la taille et la conso vu la bête ça me choque pas du tout.

n°11198907
neocorsair​e
Posté le 14-12-2022 à 16:49:29  profilanswer
 

supersym a écrit :

https://scontent-cdg2-1.xx.fbcdn.ne [...] e=639F3F94
 
c'est ça qu'il faut !  :heink:
 
et à nous les 600 W  [:cerveau bidulman]


 
 
 :lol:   :lol:  :lol:

n°11198909
lebaru83
Posté le 14-12-2022 à 16:51:35  profilanswer
 

galtheon a écrit :

Je dois dire que, sans être agressif, j'ai du mal à comprendre ceux qui ragent sur la taille de la carte. Je veux dire c'est un monstre de puissance, pas un bas de gamme ou milieu de gamme. Donc effectivement elle rentre pas dans des petits boîtiers mal conçus. Mais rien ne vous empêche de prendre une carte plus petite ou de mettre 150 euros dans un vrai boîtier.
Autant je trouve le prix injustifié, autant la taille et la conso vu la bête ça me choque pas du tout.


 
 
Moi ça me dérange pas, au contraire meme ça fait genre pièce maîtresse de la config (bon meme si j'aurais aimé quelques cm de plus sur la largeur de mon boitier mdr )

n°11198919
brolysan2
Posté le 14-12-2022 à 16:59:48  profilanswer
 

allez, les paris sont ouverts, prochaines cartes vidéos chez Nvidia :
 
4090 Ti FE : 2290€
5090 FE : 2490€
 
pop corn enclenché

n°11198948
-xan-
Posté le 14-12-2022 à 17:31:41  profilanswer
 

brolysan2 a écrit :

allez, les paris sont ouverts, prochaines cartes vidéos chez Nvidia :
 
4090 Ti FE : 2290€
5090 FE : 2490€
 
pop corn enclenché


 
Va savoir ... l'inflation, la pénurie, le cours Euro/Dollar, la vente des RTX 40X0, la différence de performance, la concurrence coté AMD ...
 
C'est vraiment difficile de savoir, il n'existe qu'un levier sur lequel nous avons le pouvoir, si les RTX 40X0 ne se vendent pas, les prix seront revu a la baisse. C'est mal barré avec la RTX4090 mais pas encore perdu coté RTX4080.

n°11199033
kalix7
Posté le 14-12-2022 à 19:39:01  profilanswer
 

galtheon a écrit :


 
Pour moi, le OLED est ce qu'est le SSD au HDD. LA révolution.
Autant il y en a qui savent pas jouer en deçà de 240 hz :o
Autant moi je suis très sensible aux couleurs et au vrai noir. Donc ce sera oled pour ma part au prochain :)


 
Pareil, j'attends que des écran 4K 144 hz oled pour pc sortent
J'ai pris un ips, mais les fuites de lumière  [:johnpuke]

n°11199063
sabrewulfy
Posté le 14-12-2022 à 21:43:41  profilanswer
 

Ouais et ça se voit bien les fuites de lumière sur les écran supérieur à 27 pouces. Et c'est vrai que quand je branche sur la télé Oled c'est le pied !


---------------
https://aquasuite.aquacomputer.de/1 [...] deb838.png
n°11199065
galtheon
Posté le 14-12-2022 à 21:59:52  profilanswer
 

Je répète le Oled c'est le SSD des HDD :o
 
Les noirs qui sont gris lumineux c'est plus possible

n°11199066
calagan57
BF3 : calagan57
Posté le 14-12-2022 à 22:02:27  profilanswer
 

Hello!
 
je viens d'installer ma 4080 ichill frostbite  :love:  
 
petite photo à côté d'une 3080ti avec Wb alphacool  :D  
https://rehost.diberie.com/Picture/Get/r/114083
 
sous le bureau elle reste à 2565Mhz pour ~50W de conso. C'est quels options qu'il faut regarder pour faire baisser la fréquence sous windows?  
 
merci à vous!  :hello:
 
Edit: bon c'était "mode gestion d'alimentation" en normal dans les driver nvidia MAIS il fallait redémarrer pour la prise en compte  :pt1cable:

Message cité 1 fois
Message édité par calagan57 le 14-12-2022 à 22:06:31

---------------
Waterbox
n°11199068
It_Connexi​on
Posté le 14-12-2022 à 22:12:52  profilanswer
 

galtheon a écrit :

Je répète le Oled c'est le SSD des HDD :o
 
Les noirs qui sont gris lumineux c'est plus possible


 
 [:shimay:1]  
 
Quand tu as goûté à l'oled difficile de repasser sur autre chose : les va ça va encore mais les ips avec leur taux de contraste en carton aie aie


---------------
Galerie Photo Personnelle
n°11199074
-xan-
Posté le 14-12-2022 à 22:21:45  profilanswer
 

Oled c'est vraiment mieux que le mini-led ?

n°11199076
goodspeed4​7
Posté le 14-12-2022 à 22:25:07  profilanswer
 

It_Connexion a écrit :


 
 [:shimay:1]  
 
Quand tu as goûté à l'oled difficile de repasser sur autre chose : les va ça va encore mais les ips avec leur taux de contraste en carton aie aie


 
J'ai une dalle VA et les noirs sont profond,en effet.
 
Ça vaut le coup de vraiment passer sur de l'Oled ?

n°11199078
Kroma X am​orK
Angel's demon
Posté le 14-12-2022 à 22:26:50  profilanswer
 

-xan- a écrit :

Oled c'est vraiment mieux que le mini-led ?


1 pixel qui émet sa propre lumière contre plusieurs milliers de pixels qui dépendent d'une zone d'éclairage, y a pas photo. :o

Message cité 1 fois
Message édité par Kroma X amorK le 14-12-2022 à 22:29:36

---------------
Il y a la loi et il y a...le bien.
n°11199080
Valaint671​30
Cinquième soleil
Posté le 14-12-2022 à 22:31:00  profilanswer
 

Ce que je kif le plus sur l'oled c'est l'absence de rémanence
 
Si on me l'avait dis avant que l'Oled supprimait toute impression de bluring sur l'affichage j'en aurais déjà pris un en 2017 :o


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11199082
furax62
Posté le 14-12-2022 à 22:40:27  profilanswer
 

goodspeed47 a écrit :


 
J'ai une dalle VA et les noirs sont profond,en effet.
 
Ça vaut le coup de vraiment passer sur de l'Oled ?


 
 
Je me suis également posé la question ayant un G7  en QLED que je trouve déjà beau.  

n°11199083
n0name
Etat nounou, Etat soeur.
Posté le 14-12-2022 à 22:41:45  profilanswer
 

jonas a écrit :


 
n'importe quoi.
 
tu achètes pas un hummer si ton garage fait la taille d'une clio...
 
ma 4090 est rentrée très largement dans mon boitier, et aucun problème de cable tordu quand je le ferme.
 
c'est pas aux fabricants de cartes graphiques de s'adapter aux crétins qui espèrent faire tourner un monstre de puissance dans un boitier minuscule...


 
 
Sache que mon mITX est bien mieux aérée que toutes les tours kikolol ATX avec 15  ventilos


---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
n°11199084
eastride
Posté le 14-12-2022 à 22:42:11  profilanswer
 

-xan- a écrit :


 
Ah ben si j'avais su à l'époque, j'ai pu en tester 2, un tenait 5.2Ghz et l'autre 5.0Ghz sur une Maximus XI Extreme et encore c'était en mode OC de la carte mère sans rien toucher de plus.
 
Reste que bon avec un 8700K, même de nos jours tu peux jouer dans de bonnes conditions mais pas en 4K 144Hz.


5ghz sans offset avx, c'était souvent trié pour les 8086k
5ghz sur 8700k, la majorité doivent tourner à 1.4v, chose intenable sans delid
 
le 8700k reste un cpu largement encore utilisable aujourd'hui, mais autant ok avec une 1080ti en fhd qhd uhd, autant il pose soucis avec une 4080 et 4090 même en uhd (être à 5.2ghz ne changera rien, j'ai passé le miens de 4.7 à 5ghz et ça ne me fait rien gagner en jeu)
n'ayant pas fait de test avec d'autre gpu, mon avis s'arrête ici

n°11199085
Valaint671​30
Cinquième soleil
Posté le 14-12-2022 à 22:46:48  profilanswer
 

n0name a écrit :


 
 
Sache que mon mITX est bien mieux aérée que toutes les tours kikolol ATX avec 15  ventilos


 
Normal que ça ne chauffe pas tu es sur l'igpu vu que t'as pas put brancher ta 4090 :o


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11199089
furax62
Posté le 14-12-2022 à 22:57:12  profilanswer
 

Concernant le 8700k je veux pas faire peur mais perso une 4080 suffit pour limiter mon 10850K alors oui bien sûr on peut jouer dans de bonnes condition ya aucun soucis et j'insiste la dessus car je sent le tacle arriver :D  mais une upgrade est à envisager sérieusement.  
Perso j'ai fait le choix de switch sur un 13600K dès que je pourrai le monter... Bloquer pour une connerie de kit lga 1700 pour mon aio out of stock :(  
 
 

n°11199091
-xan-
Posté le 14-12-2022 à 23:02:58  profilanswer
 

Kroma X amorK a écrit :


1 pixel qui émet sa propre lumière contre plusieurs milliers de pixels qui dépendent d'une zone d'éclairage, y a pas photo. :o


 
Quid de la durée de vie, c'est un vrai problème en OLED ou pas ? Car je sais pas vous mais personnellement un moniteur je le garde bien 10 ans.

n°11199092
airpg
Posté le 14-12-2022 à 23:10:30  profilanswer
 

Bonsoir à tous,
 
Pour ceux qui le possèdent, avez-vous installé la mise à jour de The Witcher III? Elle apporte le raytracing et le DLSS entre autres.
 
J'ai un peu testé et je suis bien content d'être équipé d'une 4090! Sans le Frame creation activé, ca tournait aux environs de 50fps. Une fois activé 80-100! Par contre un peu de latence (surtout si la synchronisation verticale est activée).
 
Bon ben cela va me motiver pour finir la 2e extension du jeu!

n°11199094
netsky
Prenez le temps d'e-penser
Posté le 14-12-2022 à 23:28:48  profilanswer
 

Pas taper le 60fps sans upscaling et extrapolation d'images intermédiaires sur une carte a 2000€... franchement l'avenir du jeu pc m'inquiète de plus en plus

n°11199095
airpg
Posté le 14-12-2022 à 23:36:53  profilanswer
 

netsky a écrit :

Pas taper le 60fps sans upscaling et extrapolation d'images intermédiaires sur une carte a 2000€... franchement l'avenir du jeu pc m'inquiète de plus en plus


 
C'est un problème vieux comme l'informatique. Un exemple emblématique est crysis, mais il y en a tellement d'autres.
 
Et avec le DLSS3, le jeu tourne très bien et est très beau.

n°11199097
cyberfred
Posté le 14-12-2022 à 23:50:08  profilanswer
 

@airpg : j'ai pas encore eu le temps de tester la maj , quand tu dis 50 fps sans dlss et 80-100 avec c'est en 4k ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  396  397  398  ..  801  802  803  804  805  806

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)