Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1096 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  334  335  336  ..  762  763  764  765  766  767
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11183991
brolysan2
Posté le 14-11-2022 à 21:25:15  profilanswer
 

Reprise du message précédent :

furax62 a écrit :


 
Demande aux utilisateurs de la carte du topic car il me semble qu'il vaut mieux baisser le PL et OC ;)  
 
 


 
 
Si une âme faritable veut bien m'expliquer, même en MP? comment faire, je suis preneur  :jap:

mood
Publicité
Posté le 14-11-2022 à 21:25:15  profilanswer
 

n°11183992
brolysan2
Posté le 14-11-2022 à 21:25:38  profilanswer
 

fabroo a écrit :


 
jujuf1 qui mérite une bière !  [:tombig:4]  
 


 
largement oui, ca serait avec plaisir même.  :jap:  

n°11183994
ze m't
Posté le 14-11-2022 à 21:28:34  profilanswer
 

brolysan2 a écrit :


 
 
 :lol:  :lol:  
blague à part, uniquement lorsque le personne est présent, les bips n'apparaissent que la.
Alors qu'en jouant et/ou benchmark, aucun souci.
Le processeur reste a78°C et le GUP varie entre 57 et 61°C maximum.


 

brolysan2 a écrit :


 
Le GPU ne dépasse pas 63°C.
Mais les bips ne sont QUE lors du chargement (avec le personnage donc)
 
 
http://image.noelshack.com/minis/2 [...] alla-2.png
 
Je ne comprends pas, en testant, en jouant, aucune anomalie.
 
http://image.noelshack.com/minis/2 [...] lhalla.png


 
Il chauffe dur ton x3d! En jeu je dépasse rarement les 65/70 maxi(très rare et ponctuel). Tu le refroidis avec quoi?
 


---------------
 Ma gallerie Flickr
n°11183998
neocorsair​e
Posté le 14-11-2022 à 21:36:34  profilanswer
 

Petite vidéo sympa sur notre 4090.  
 
https://youtu.be/t_QhgsO9FTY

n°11183999
neocorsair​e
Posté le 14-11-2022 à 21:38:27  profilanswer
 

ze m't a écrit :


 
Il chauffe dur ton x3d! En jeu je dépasse rarement les 65/70 maxi(très rare et ponctuel). Tu le refroidis avec quoi?
 


 
Idem, mon 5900X chauffe que dalle, en réglage UHD full option sur tous jeux.  

n°11184007
kalix7
Posté le 14-11-2022 à 21:51:40  profilanswer
 

neocorsaire a écrit :

Petite vidéo sympa sur notre 4090.  
 
https://youtu.be/t_QhgsO9FTY


 
Ils ont acheté une gigabyte en pensant avoir les 600W  [:galaswinda:4]

n°11184008
ze m't
Posté le 14-11-2022 à 21:51:58  profilanswer
 

brolysan2 a écrit :

 

disons que pour le CPU, j'ai jamais "testé" plus que ca, du moment que ca fonctionne, je me contente de ça.
La je viens de réinstaller les pilotes AMD pour le chipset, reboot a faire, mais je vais voir après pour changer la pate thermique, en dernier recours.
Les 2 SSD M2 ont un dissipateurs, ca m'étonnerait quand même, jamais jamais eu le moindre bip avant, sauf passage sur la 4090.

 
kalix7 a écrit :

 


Pareil j'ai un 5800X3D et c'est une vraie chaufferie, +20°C par rapport à un 5600X

 
It_Connexion a écrit :

 

Je confirme, mon 5800x3d peut titiller les 80° sur les jeux gourmands

 

Ps : et bravo juju d'avoir pensé à l'onduleur

 

Si votre CM ne le permets pas, il faut utiliser l'outil Curve Optimizer sous windows. On peut facilement perdre 10°c en utilisation lourde sur le 5800x3d...il est tout de suite plus docile.
C'est un petit soft à installer, et tout bête à utiliser. Il faut juste automatiser son lancement au démarrage de windows ( ça a peut-être été résolu Dupuis Mai, date à laquelle un mec d'un forum US a bidouillé ce soft).
Je suis sur mon tél, pour plus d'infos là dessus, et liens vers le soft, triez mes post sur le topic zen3, vers mai/juin.
 :hello:

Message cité 1 fois
Message édité par ze m't le 14-11-2022 à 21:53:06

---------------
 Ma gallerie Flickr
n°11184013
ze m't
Posté le 14-11-2022 à 22:00:03  profilanswer
 

brolysan2 a écrit :

 


Si une âme faritable veut bien m'expliquer, même en MP? comment faire, je suis preneur  :jap:

 


Ça servira peut être à d'autres, c'est tout con à faire :

 

Si tu ne l'as pas encore fait, tu installes MSI afterburner.
Tu mets le curseur de powerlimit à 75%.
Tu mets un oc de +100 ou +150mhz sur le core via un curseur).
Tu appliques les modifs en validant.

 

Tu lances un jeu, voilà, tu viens de passer de 400/450w de conso à environ 300, pour des perfs très semblables.

 


Après tu peut tester à 70, ou 80%. +0, ou +200mhz...tester les gains éventuels en conso et perf.... si tu as le temps pour ça.
Sinon tu laisses avec les valeurs citées précédemment et tu joues sans te prendre la tête. :)

Message cité 1 fois
Message édité par ze m't le 14-11-2022 à 22:01:25

---------------
 Ma gallerie Flickr
n°11184016
Xixou2
Posté le 14-11-2022 à 22:15:26  profilanswer
 

Valaint67130 a écrit :

Quand j’ai vu le haut de la boite j'ai pensé que tu l'avais récupéré mais sans le gpu dedans :lol:

 

Content pour toi, enfonce bien le 12 pins :o


moi aussi lol

n°11184021
It_Connexi​on
Posté le 14-11-2022 à 22:18:24  profilanswer
 

ze m't a écrit :


 
Si votre CM ne le permets pas, il faut utiliser l'outil Curve Optimizer sous windows. On peut facilement perdre 10°c en utilisation lourde sur le 5800x3d...il est tout de suite plus docile.
C'est un petit soft à installer, et tout bête à utiliser. Il faut juste automatiser son lancement au démarrage de windows ( ça a peut-être été résolu Dupuis Mai, date à laquelle un mec d'un forum US a bidouillé ce soft).
Je suis sur mon tél, pour plus d'infos là dessus, et liens vers le soft, triez mes post sur le topic zen3, vers mai/juin.
 :hello:  


 
Merci à toi je vais regarder ça  :jap:


---------------
Galerie Photo Personnelle
mood
Publicité
Posté le 14-11-2022 à 22:18:24  profilanswer
 

n°11184023
katset
Marcel Poutre
Posté le 14-11-2022 à 22:25:02  profilanswer
 


[:le keeng:7]
 [:zzozo:6]


Message édité par katset le 14-11-2022 à 22:25:54
n°11184026
furax62
Posté le 14-11-2022 à 22:34:28  profilanswer
 

neocorsaire a écrit :

Petite vidéo sympa sur notre 4090.  
 
https://youtu.be/t_QhgsO9FTY


 
Il en fait quant même des caisses sur les pads je trouve  


---------------
7800X3D- 4090 Phantom - X670E Hero - Kleev Cras V 6000c30 - Phanteks NV9- Glacier 420-  AlienWare AW3423DWF
n°11184027
kris59
Posté le 14-11-2022 à 22:38:18  profilanswer
 

max-fx a écrit :


 
LG C2 et 4090 Strix ici, je n'ai jamais vu la couleur du logo Gsync alors que je n'avais aucun soucis avant avec ma 3090 FE :jap:


 
idem lg c2 et 4090 supprim x ,j'ai aperçu le logo une fois et depuis plus rien depuis les nouveaux pilotes pour mw2.
j'ai essayé de réinstaller les  522.25 mais il n'est pas revenu.
j'ai pas l'impression qu'il fonctionne correctement d'ailleurs ,sous mw2 toujours , le bas de l’écran est déformer je n'ai pas trouvé de ou sa venait .
seul solution activer vsync .

n°11184033
brolysan2
Posté le 14-11-2022 à 22:47:06  profilanswer
 

ze m't a écrit :


 
 
Ça servira peut être à d'autres, c'est tout con à faire :
 
Si tu ne l'as pas encore fait, tu installes MSI afterburner.  
Tu mets le curseur de powerlimit à 75%.
Tu mets un oc de +100 ou +150mhz sur le core via un curseur).
Tu appliques les modifs en validant.
 
Tu lances un jeu, voilà, tu viens de passer de 400/450w de conso à environ 300, pour des perfs très semblables.
 
 
Après tu peut tester à 70, ou 80%. +0, ou +200mhz...tester les gains éventuels en conso et perf.... si tu as le temps pour ça.
Sinon tu laisses avec les valeurs citées précédemment et tu joues sans te prendre la tête. :)


 
Je viens de tester tes modifs, et de baisser le vcore de 0,1 sur le 5800X3D, directement dans le bios, on va bien voir.  :jap:  

n°11184034
olioops
Si jeune et déjà mabuse.
Posté le 14-11-2022 à 22:47:52  profilanswer
 

neocorsaire a écrit :

Petite vidéo sympa sur notre 4090.  
 
https://youtu.be/t_QhgsO9FTY


La vache ! le mec est ravagé [:jean risitasse:1]


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11184053
Fly2thesky
Posté le 15-11-2022 à 00:00:06  profilanswer
 

kris59 a écrit :


 
idem lg c2 et 4090 supprim x ,j'ai aperçu le logo une fois et depuis plus rien depuis les nouveaux pilotes pour mw2.
j'ai essayé de réinstaller les  522.25 mais il n'est pas revenu.
j'ai pas l'impression qu'il fonctionne correctement d'ailleurs ,sous mw2 toujours , le bas de l’écran est déformer je n'ai pas trouvé de ou sa venait .
seul solution activer vsync .


 
 
Un logo ou ca ?  
 
LG CX

n°11184058
MSchumache​r
Posté le 15-11-2022 à 00:17:37  profilanswer
 

:hello:  

brolysan2 a écrit :

Sinon, aux connaisseurs, ayant un Eaton 3S 700, dont j'aimais le principe de pouvoir se fixer au mur, prendre la version 850 serait trop juste selon vous? Où une idée d'un onduleur 1000 ou 1200 ayant la possiiblité de se fixer aussi au mur?


Moi j'ai le Eaton 3S 850 pour mon PC et il ne bip pas avec mes profils OC+PL appliqués.  ;)  
 
Par contre il a bipé une seule fois quand j'ai vraiment testé des pleines charges sans PL appliqué.
 
Mais chez moi c'est pas un problème vu que mon profil OC+PL fait que ma RTX 4090 consomme en moyenne que 300W tout en gardant au final les mêmes performances qu'@Stock.  :sol:  
 
Là actuellement je suis avec mon profil "tranquille" @2670Mhz au GPU +1500 sur la RAM pour 0.900v sur ma RTX 4090. (Profil perso enregistré dans MSI Afterburner bien suffisant pour mon jeu actuel et cela me fait gagner encore 8°c au niveau du GPU et une baisse supplémentaire de 60W en moyenne au GPU en plus par rapport à mon profil OC+PL70% !  :love: )
 
C'est vraiment une carte de ouf cette RTX 4090 !  :love:


Message édité par MSchumacher le 15-11-2022 à 00:38:31
n°11184063
Xantar_Eoz​enn
Posté le 15-11-2022 à 00:38:37  profilanswer
 

Fly2thesky a écrit :


Un logo ou ca ?  
 
LG CX


 
Dans le drivers Nvidia, tu peux activer une option quand tu passes en GSync il y a un logo dans un coin de l'écran.

n°11184068
cedric39
Posté le 15-11-2022 à 01:08:58  profilanswer
 

brolysan2 a écrit :


 
 
Si une âme faritable veut bien m'expliquer, même en MP? comment faire, je suis preneur  :jap:


 
Perso', assez similaire avec " Ze m't ", mais je gagne encore quelque W et exactement les même perfs que @Stock, la ou j'ai une légère perte de FPS ( très minime ) avec la méthode de Ze m't  :)  
 
 
 je précise que j'ai une 4090 MSI X Trio donc ça diffère peut être un peu avec une FE je sais pas, faut tester ..  :jap:  
 
Mes réglages dans MSI Afterburner :
 
Power limits @ 90
 
Core clock =   -172  
 
@950 + 221  
 
Memory Clock =+ 1500  
 
https://i.ibb.co/GWrr5JY/Capture-d-cran-2022-11-15-010805.png

Message cité 1 fois
Message édité par cedric39 le 15-11-2022 à 01:09:54

---------------
''5900X // RTX 4090 // 32Go de RAM 4000Mhz // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11184071
Fly2thesky
Posté le 15-11-2022 à 02:34:06  profilanswer
 

Xantar_Eozenn a écrit :


 
Dans le drivers Nvidia, tu peux activer une option quand tu passes en GSync il y a un logo dans un coin de l'écran.


 
 
Okay merci  j'ai trouvé, dans le nvidia panel bien sur
 
Tout en haut dans l'onglet de la fenetre sous le titre NVIDIA PANEL ....  
 
Cliquez donc sur " ECRAN "... :hello:


Message édité par Fly2thesky le 15-11-2022 à 02:34:25
n°11184078
kris59
Posté le 15-11-2022 à 06:08:12  profilanswer
 

Fly2thesky a écrit :


 
 
Un logo ou ca ?  
 
LG CX


 
Quand tu es en mode jeux activé et que tu appuies sur le bouton paramètres de la télécommande, ou il est écrit vrr on j'ai eu le logo gsync enfin sa c'était avant.
Certains disent sur Reddit que gsync est broken avec une 4090 et un lg c2

n°11184088
Profil sup​primé
Posté le 15-11-2022 à 07:17:48  answer
 

Bon, il semble que la 4080 soit en gros 20% au-dessus d'une 3090Ti pour une conso de 280watts.
 
1er "test" de la 4080 de Big Hardware Player
Source : www.clubic.com
À prendre avec des pincettes quand même.
 
Le mieux reste d'attendre les autres tests, et pour le prix, une horreur, très proche des 4090....  [:kzimir]  
 
Une chose est sûr, si elle se pointe à 2K € (ce qui semble être le cas) alors moi je dis :  [:am72]


Message édité par Profil supprimé le 15-11-2022 à 07:26:51
n°11184092
kalix7
Posté le 15-11-2022 à 07:28:45  profilanswer
 

brolysan2 a écrit :


 
Je viens de tester tes modifs, et de baisser le vcore de 0,1 sur le 5800X3D, directement dans le bios, on va bien voir.  :jap:  


 
Normalement tu n'as pas accès au vcore dans le bios. Les 5800x3d sont bloqués de partout

n°11184095
Mick461
Posté le 15-11-2022 à 07:39:11  profilanswer
 

https://www.tomshardware.fr/deux-fa [...] -inegales/
 
Petit article sympa au sujet des connecteur

n°11184099
vegetaleb
Un jour je serai riche!
Posté le 15-11-2022 à 07:56:51  profilanswer
 

kris59 a écrit :


 
idem lg c2 et 4090 supprim x ,j'ai aperçu le logo une fois et depuis plus rien depuis les nouveaux pilotes pour mw2.
j'ai essayé de réinstaller les  522.25 mais il n'est pas revenu.
j'ai pas l'impression qu'il fonctionne correctement d'ailleurs ,sous mw2 toujours , le bas de l’écran est déformer je n'ai pas trouvé de ou sa venait .
seul solution activer vsync .


 
C'est très mal foutu les menus nvidia, moi aussi j'avais des déchirures d'écran malgré l'activation du gsync pour mon Sony A80K, au fait il y a un autre menu un peu plus loin dans les menus nvidia qui permet l'activation du gsync non seulement en mode plein écran mais aussi ''fenêtré sans bordure'' (traduction de borderless windowed)  
 
https://i.imgur.com/YuHURTw.jpeg


---------------
Mon blog pour photographie: https://fujiandstuff.wordpress.com/
n°11184105
Fly2thesky
Posté le 15-11-2022 à 08:34:12  profilanswer
 

vegetaleb a écrit :


 
C'est très mal foutu les menus nvidia, moi aussi j'avais des déchirures d'écran malgré l'activation du gsync pour mon Sony A80K, au fait il y a un autre menu un peu plus loin dans les menus nvidia qui permet l'activation du gsync non seulement en mode plein écran mais aussi ''fenêtré sans bordure'' (traduction de borderless windowed)  
 
https://i.imgur.com/YuHURTw.jpeg


 
 
on est bien d'accord que c'est l'unique menu du G sync depuis des années ?  :??:  :pt1cable:

n°11184111
calagan57
BF3 : calagan57
Posté le 15-11-2022 à 08:49:56  profilanswer
 

max-fx a écrit :


 
LG C2 et 4090 Strix ici, je n'ai jamais vu la couleur du logo Gsync alors que je n'avais aucun soucis avant avec ma 3090 FE :jap:


 
tu as essayé de redémarrer les driver VGA avec CRU restart64.exe? Chez moi obligé de redémarrer le PC ou restart64.exe quand la TV est allumée sinon pas de logo gsync  :jap:


---------------
Waterbox
n°11184131
Ill Nino
Love
Posté le 15-11-2022 à 09:22:16  profilanswer
 

Vous avez lequel vous? :??:
 
https://www.clubic.com/pro/entrepri [...] ateur.html


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°11184136
Xantar_Eoz​enn
Posté le 15-11-2022 à 09:30:06  profilanswer
 

Fly2thesky a écrit :

on est bien d'accord que c'est l'unique menu du G sync depuis des années ?  :??:  :pt1cable:


Tu vas dans "Setup G-Sync" pour l'Activer
Tu vas dans "Manage 3D Settings", tu vérifies dans les dernières lignes des paramètres que G-Sync est activé et tu active la V-Sync ici à cette endroit dans le drivers. (+ V-Sync ingame sur OFF)

Message cité 2 fois
Message édité par Xantar_Eozenn le 15-11-2022 à 10:21:25
n°11184138
brolysan2
Posté le 15-11-2022 à 09:33:44  profilanswer
 

cedric39 a écrit :


 
Perso', assez similaire avec " Ze m't ", mais je gagne encore quelque W et exactement les même perfs que @Stock, la ou j'ai une légère perte de FPS ( très minime ) avec la méthode de Ze m't  :)  
 
 
 je précise que j'ai une 4090 MSI X Trio donc ça diffère peut être un peu avec une FE je sais pas, faut tester ..  :jap:  
 
Mes réglages dans MSI Afterburner :
 
Power limits @ 90
 
Core clock =   -172  
 
@950 + 221  
 
Memory Clock =+ 1500  
 
https://i.ibb.co/GWrr5JY/Capture-d- [...] 010805.png


 
a tester aussi du coup.
Ceux qui ont des configurations stables avec, pensez (si vous pouvez) un screen de vos réglages, pratique aussi. ;)

n°11184145
brolysan2
Posté le 15-11-2022 à 09:53:54  profilanswer
 

kalix7 a écrit :


 
Normalement tu n'as pas accès au vcore dans le bios. Les 5800x3d sont bloqués de partout


 
Tu as raison,  :jap: , j'ai cru que le core VDDP était ça. Du coup, en le baissant de -0,14, j'ai "cru" que ma température générale avait baissé de 5°C.
Drôle quand même.

n°11184149
Profil sup​primé
Posté le 15-11-2022 à 10:03:04  answer
 

Peut-être déjà posté (dsl si c'est le cas) : https://www.tomshardware.fr/deux-fa [...] -inegales/
 

Citation :

Astron écarté pour les connecteurs de la RTX 4070 Ti


 
C'est une bonne nouvelle, je trouve...

n°11184155
olioops
Si jeune et déjà mabuse.
Posté le 15-11-2022 à 10:12:06  profilanswer
 

vegetaleb a écrit :


 
C'est très mal foutu les menus nvidia, moi aussi j'avais des déchirures d'écran malgré l'activation du gsync pour mon Sony A80K, au fait il y a un autre menu un peu plus loin dans les menus nvidia qui permet l'activation du gsync non seulement en mode plein écran mais aussi ''fenêtré sans bordure'' (traduction de borderless windowed)  
 
https://i.imgur.com/YuHURTw.jpeg


Punaise t'as raison, faut aller dans l'onglet G-Sync pour activer le G-Sync :ouch: minimum BAC+12 non !? [:asu5:5] les drivers NVidia caytrauconpliké  [:minusplus]  :D


Message édité par olioops le 15-11-2022 à 10:13:04

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11184159
Valaint671​30
Y'a pas d'heure pour le rock
Posté le 15-11-2022 à 10:15:29  profilanswer
 

C'est trop 2000's style :o
 
Comme le fofo :lol:


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11184164
jujuf1
Je suis un chat
Posté le 15-11-2022 à 10:19:25  profilanswer
 

brolysan2 a écrit :


 
Tu as raison,  :jap: , j'ai cru que le core VDDP était ça. Du coup, en le baissant de -0,14, j'ai "cru" que ma température générale avait baissé de 5°C.
Drôle quand même.


Perso j’ai tenté un -50mV dans le bios sur mon 5800x3D et j ai bien observé une baisse significative de la température.  
Mais je suis revenu en arrière car je n’ai pas eu de gains de perf sur cinebench.  
Certains disent sur Reddit que baisser le vcore sur ce cpu peut être contre productif pour le cache. Je ne sais pas si c’est vrai.


---------------
Du coup du coup …
n°11184170
cedric39
Posté le 15-11-2022 à 10:22:16  profilanswer
 


 
Je viens de vérifié car ça m'intriguais .. j'ai malheureusement le " mauvais " cable  :whistle:  
 
Que je modifierais par la suite de toute façon  :jap:


---------------
''5900X // RTX 4090 // 32Go de RAM 4000Mhz // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11184171
It_Connexi​on
Posté le 15-11-2022 à 10:22:52  profilanswer
 

Valaint67130 a écrit :

C'est trop 2000's style :o
 
Comme le fofo :lol:


 
 [:fredmoul:1]  


---------------
Galerie Photo Personnelle
n°11184173
Ill Nino
Love
Posté le 15-11-2022 à 10:25:16  profilanswer
 

cedric39 a écrit :

 

Je viens de vérifié car ça m'intriguais .. j'ai malheureusement le " mauvais " cable :whistle:

 

Que je modifierais par la suite de toute façon :jap:


Quoi comme carte?


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°11184181
cyberfred
Posté le 15-11-2022 à 10:35:10  profilanswer
 

suis proxy taff , toutes les images n'apparaissent pas sur le site de clubic , elle se voit facilement la différence entre les 2 câbles ?

n°11184182
Valaint671​30
Y'a pas d'heure pour le rock
Posté le 15-11-2022 à 10:35:53  profilanswer
 

cyberfred a écrit :

suis proxy taff , toutes les images n'apparaissent pas sur le site de clubic , elle se voit facilement la différence entre les 2 câbles ?


 
https://zupimages.net/up/22/46/y18m.jpg


Message édité par Valaint67130 le 15-11-2022 à 10:37:11

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11184183
cyberfred
Posté le 15-11-2022 à 10:36:22  profilanswer
 

@Valaint67130 : Merci ;)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  334  335  336  ..  762  763  764  765  766  767

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR