Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2917 connectés 

 


Usage (semi)pro/création de leur RTX 5090 en plus du jeu?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  346  347  348  ..  582  583  584  585  586  587
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11405616
HashKah
It’s dangerous to go alone !
Posté le 14-02-2025 à 00:19:13  profilanswer
 

Reprise du message précédent :

marllt2 a écrit :


Super cv et analyse du gars !
 
1) On se demande pourquoi les 3090 & 3090 ti FE avaient un load-balancing, et nVidia l'a retiré sur les 4090 FE, ce qui a commencé à poser souci, avec le pompon 5090 FE qui augmente la conso de 25% par dessus.
 
2) Et avec les marges d'imperfections de connexion/usure/modèle cheap, il faudrait une marge de 2x en gros. Comme avec le 8 pin normé à 150W (4.5A) mais qui théoriquement pourrait faire passer 300W (9A) en pic. Donc un 12 pin devrait être normé à 375W, pas 600W selon Daggla.
 
Donc évidemment si on combine les deux, et que le contact des pins n'est pas parfait, on peut se retrouver avec plus de 20A en réel...
 
Par contre comment on fait pour connaitre la qualité des connecteurs d'un 12 pin, comme il existe du 7A (507W), 9A (648W) ou 13A (936W) pour les meilleurs ?  :??:


 
Déjà on utilise la pieuvre, ça résout pas le problème côté GPU mais ça le limite côté PSU en répartissant la charge.
 
Y’a pas de solution miracle, il fallait deux connecteurs sur ces 5090, on verra si cette économie coûtera cher à NVIDIA ou pas….

mood
Publicité
Posté le 14-02-2025 à 00:19:13  profilanswer
 

n°11405618
radeon2005
Posté le 14-02-2025 à 00:34:41  profilanswer
 

Le probleme de fond est que jamais une carte graphique ne devrait consommer 600W

n°11405627
uNReaLx77
üNReaL
Posté le 14-02-2025 à 06:41:52  profilanswer
 

radeon2005 a écrit :

Le probleme de fond est que jamais une carte graphique ne devrait consommer 600W


La 5090 devrait être à 800w... juste pour tenir ses fréquence max en continue... donc si....mais avec 2 alim en effet.

n°11405629
spark
Luc ?
Posté le 14-02-2025 à 06:53:53  profilanswer
 

uNReaLx77 a écrit :


La 5090 devrait être à 800w... juste pour tenir ses fréquence max en continue... donc si....mais avec 2 alim en effet.


:lol:


---------------
Un cycle complet sera une série de 100.
n°11405631
TheRealBix
Posté le 14-02-2025 à 07:10:16  profilanswer
 

De nouveaux indices viennent s'ajouter au drama 12VHPWR, celle des contacteurs mal fixés (câble corsair)

 

https://youtu.be/6FJ_KSizDwM

 

TLDW :

 

https://i.vgy.me/tWD9jw.jpg
https://i.vgy.me/ZN57RF.jpg

 

Et le boîtier de lecture de puissance lisse le la distibution du courant, donc aurait pu masquer le problème chez d'autres testeurs qui utilisent ce système.

Message cité 2 fois
Message édité par TheRealBix le 14-02-2025 à 07:13:52
n°11405633
ddlabrague​tte
Posté le 14-02-2025 à 07:12:03  profilanswer
 

wgromit a écrit :


Ben non je pense. Car qui dit câble rigide dit souvent fils avec moins de brins mais avec une plus grosse section. Donc courant max supporté plus élevé.
 
https://forum.hardware.fr/hfr/Hardw [...] #t11405071
 
Personnellement j'aurai plus confiance à un câble plutôt rigide que trop souple.


Peut être mais c'est assez contraignant sachant qu'il est plus que déconseillé de trop les plier  
Les cartes sont larges ( même les 4070  ), du coup ça passe au chausse pied dans pas mal de boitiers  
 
Là je vais passer sur un be quiet pure base, donc ça devrait plus poser problème mais dans mon boiter actuel, c'est pas génial :/

n°11405637
ddlabrague​tte
Posté le 14-02-2025 à 07:32:40  profilanswer
 

TheRealBix a écrit :

De nouveaux indices viennent s'ajouter au drama 12VHPWR, celle des contacteurs mal fixés (câble corsair)
 
https://youtu.be/6FJ_KSizDwM
 
TLDW :
 
https://i.vgy.me/tWD9jw.jpg
https://i.vgy.me/ZN57RF.jpg
 
Et le boîtier de lecture de puissance lisse le la distibution du courant, donc aurait pu masquer le problème chez d'autres testeurs qui utilisent ce système.


Dans le doute j'ai vérifié sur le mien ( c'est exactement le même )  
 
J'ai pas du tout ce genre de problème  :heink:  
 
Aucun cable ne bouge.  Le sien a clairement un gros défaut de sertissage.  Et en effet c'est un truc à vérifier :jap:

n°11405643
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-02-2025 à 08:20:06  profilanswer
 

evers34fr a écrit :

 

:non:

 

Mon ami qui me dit avoir choisi express, qui a payé plus de frais de livraison et qui a reçu ce jeudi m'a menti alors ?

 

J'ai payé 2357,95€ et lui 2367,95€

  



en faite c'est Chronopost aussi mais plus tu paies , plus tu es prioritaire , c'est tout sinon ça reste le même transporteur , tu as 8e et 18 , les 10 balles bonus te font passer prioritaire en général et tu l'as le jour suivant

xplo a écrit :

?? le msrp c'est 2 349
Meme nvidia a change le msrp ?

 

edit : ah ok meme la livraison standart est payante maintenant, bizarre c'etait bien gratuit pour moi (et c'est express vu que recu en <48h)


Et oui c'était gratuit il me semble , ils font pas assez de blé , ils ont rajouté des fdp pour gratter 18 balles par commande

 

edit : sinon sympa la réponse corsair au sujet du cable !

 

nous avons vu la carte atteindre une charge de 575 W, nous avons vu des charges d'alimentation de 6 A à 8 A sur les broches, avec des températures maximales d'environ 64 °C côté GPU et 46 °C côté PSU.

 

Au cours de divers tests, nous avons intentionnellement endommagé un fil, puis deux, puis trois. Même lors du test final où nous n'avons utilisé que 3 fils de 12 V et 3 fils de terre au total, les températures n'ont pas dépassé 70 °C côté alimentation ou 80 °C côté GPU. Ces trois fils fonctionnaient tous à 16-17 A chacun, bien au-dessus de leur spécification de 8,5 A, et aucun d'entre eux n'a fondu ou n'a montré de signes de dommages permanents.

Message cité 1 fois
Message édité par B1LouTouF le 14-02-2025 à 08:26:48

---------------
FeedBack
n°11405655
uNReaLx77
üNReaL
Posté le 14-02-2025 à 08:52:58  profilanswer
 

Je note le 8.5A sur un câble max...  
Combien atteignait le câble sur le test de bauer ?  :D
 
En gros ils savent que ca peut tirer bien plus, mais on reste sur des spec de 8.5A....
 
Normal ca fond au bout d'un moment. Même sur des charge répartis normalement on atteind les 8... ca ne laisse que trop peu de marge


Message édité par uNReaLx77 le 14-02-2025 à 08:55:14
n°11405657
jonas
c'est mon identité
Posté le 14-02-2025 à 08:54:15  profilanswer
 

TheRealBix a écrit :

De nouveaux indices viennent s'ajouter au drama 12VHPWR, celle des contacteurs mal fixés (câble corsair)
 
https://youtu.be/6FJ_KSizDwM
 
TLDW :
 
https://i.vgy.me/tWD9jw.jpg
https://i.vgy.me/ZN57RF.jpg
 
Et le boîtier de lecture de puissance lisse le la distibution du courant, donc aurait pu masquer le problème chez d'autres testeurs qui utilisent ce système.


 
tiens tiens tiens  [:r3g]  [:r3g]  [:r3g]


---------------
et voilà
mood
Publicité
Posté le 14-02-2025 à 08:54:15  profilanswer
 

n°11405660
LaPointe
Roule toujours
Posté le 14-02-2025 à 08:58:48  profilanswer
 

Ce n’est quand même pas normal d’avoir aussi peu de marge au final pour un produit grand public…
 
Si rien ne change, je vais peut-être quand même abandonner l’idée de la 5090 et peut-être envisager de retourner chez AMD en fonction des tests. Ma dernière rouge était une 9700Pro Sapphire achetée à Montgallet lors d’un passage à Paris :D
 
Ils semblent quand même s’être bien planté avec ce connecteur pour ces niveaux de puissance :/


---------------
LaPointe
n°11405665
It_Connexi​on
Posté le 14-02-2025 à 09:12:05  profilanswer
 

radeon2005 a écrit :

Le probleme de fond est que jamais une carte graphique ne devrait consommer 600W


 
C'est évident, d'autant plus aujourd’hui ou est censé faire un minimum attention


---------------
Galerie Photo Personnelle
n°11405669
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-02-2025 à 09:28:05  profilanswer
 

LaPointe a écrit :

Ce n’est quand même pas normal d’avoir aussi peu de marge au final pour un produit grand public…
 
Si rien ne change, je vais peut-être quand même abandonner l’idée de la 5090 et peut-être envisager de retourner chez AMD en fonction des tests. Ma dernière rouge était une 9700Pro Sapphire achetée à Montgallet lors d’un passage à Paris :D
 
Ils semblent quand même s’être bien planté avec ce connecteur pour ces niveaux de puissance :/


si tu visais la 5090 , je doute que tu trouves ton bonheur chez amd , la 9070xt sera surement l'ennemi de la 5070ti donc le gouffre entre la gamme est assez énorme


---------------
FeedBack
n°11405671
xplo
Posté le 14-02-2025 à 09:31:15  profilanswer
 

B1LouTouF a écrit :


en faite c'est Chronopost aussi mais plus tu paies , plus tu es prioritaire , c'est tout sinon ça reste le même transporteur , tu as 8e et 18 , les 10 balles bonus te font passer prioritaire en général et tu l'as le jour suivant  


 

B1LouTouF a écrit :


Et oui c'était gratuit il me semble , ils font pas assez de blé , ils ont rajouté des fdp pour gratter 18 balles par commande  
 
edit : sinon sympa la réponse corsair au sujet du cable !  
 
nous avons vu la carte atteindre une charge de 575 W, nous avons vu des charges d'alimentation de 6 A à 8 A sur les broches, avec des températures maximales d'environ 64 °C côté GPU et 46 °C côté PSU.
 
Au cours de divers tests, nous avons intentionnellement endommagé un fil, puis deux, puis trois. Même lors du test final où nous n'avons utilisé que 3 fils de 12 V et 3 fils de terre au total, les températures n'ont pas dépassé 70 °C côté alimentation ou 80 °C côté GPU. Ces trois fils fonctionnaient tous à 16-17 A chacun, bien au-dessus de leur spécification de 8,5 A, et aucun d'entre eux n'a fondu ou n'a montré de signes de dommages permanents.


cool la norme est deja prete pour 1000W+ des 60xx :o

n°11405672
LaPointe
Roule toujours
Posté le 14-02-2025 à 09:31:51  profilanswer
 

B1LouTouF a écrit :


si tu visais la 5090 , je doute que tu trouves ton bonheur chez amd , la 9070xt sera surement l'ennemi de la 5070ti donc le gouffre entre la gamme est assez énorme


Je sais… :/
Mais je vais avoir du mal à mettre autant dans une carte dans laquelle je n’ai pas confiance. Et pour autant, il faut que je change ma 1080Ti si je veux pour rejouer correctement avec mon écran 4K.
J’espérai voir une version 32Go (quelques idées d’usage IA), mais elle a été démentie hier finalement :(


---------------
LaPointe
n°11405675
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-02-2025 à 09:45:35  profilanswer
 

LaPointe a écrit :


Je sais… :/
Mais je vais avoir du mal à mettre autant dans une carte dans laquelle je n’ai pas confiance. Et pour autant, il faut que je change ma 1080Ti si je veux pour rejouer correctement avec mon écran 4K.
J’espérai voir une version 32Go (quelques idées d’usage IA), mais elle a été démentie hier finalement :(


ha tu as une 1080ti la ! une 5090 en upgrade c'est passé d'une clio a une Lamborghini :D Tu vas devoir surement changer d'alimentation aussi et si tu as encore une 1080ti , je pense que ton cpu sera aussi a changer sinon la cg sera clairement pas exploiter

Message cité 1 fois
Message édité par B1LouTouF le 14-02-2025 à 09:46:15

---------------
FeedBack
n°11405681
enhanced²
Posté le 14-02-2025 à 10:01:01  profilanswer
 

2k euros la suprim liquid de MSI (5080) sur le nvidia store, go go go les gens  :D

n°11405683
brolysan2
Posté le 14-02-2025 à 10:01:42  profilanswer
 

j'ai vu mais bon....quitte a claquer 2000 balles, autant essayer de chopper une 5090 :D

n°11405684
It_Connexi​on
Posté le 14-02-2025 à 10:04:12  profilanswer
 

enhanced² a écrit :

2k euros la suprim liquid de MSI (5080) sur le nvidia store, go go go les gens  :D


 
 :lol:


---------------
Galerie Photo Personnelle
n°11405686
LaPointe
Roule toujours
Posté le 14-02-2025 à 10:09:52  profilanswer
 

B1LouTouF a écrit :


ha tu as une 1080ti la ! une 5090 en upgrade c'est passé d'une clio a une Lamborghini :D Tu vas devoir surement changer d'alimentation aussi et si tu as encore une 1080ti , je pense que ton cpu sera aussi a changer sinon la cg sera clairement pas exploiter


C’est prévu pour l’alim, et le CPU (passage à un 5700X3D). Et le boiter aussi avec un AIO.
 
Bref à voir comment tout ça évolue. Mais je ne vois pas ce que nVidia ou les tiers puissent faire…


---------------
LaPointe
n°11405691
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-02-2025 à 10:15:13  profilanswer
 

LaPointe a écrit :


C’est prévu pour l’alim, et le CPU (passage à un 5700X3D). Et le boiter aussi avec un AIO.
 
Bref à voir comment tout ça évolue. Mais je ne vois pas ce que nVidia ou les tiers puissent faire…


même avec le 5700x3D tu seras juste au final , vise un gpu moins haut car franchement venant d'une 1080ti , avec une 4080 tu prendrais déjà une giga énorme claque !


---------------
FeedBack
n°11405693
It_Connexi​on
Posté le 14-02-2025 à 10:16:19  profilanswer
 

B1LouTouF a écrit :


même avec le 5700x3D tu seras juste au final , vise un gpu moins haut car franchement venant d'une 1080ti , avec une 4080 tu prendrais déjà une giga énorme claque !


 
+1
 
Il y a 2 ans je suis passé d'une GTX970 à une 6950XT, ce gap de dingue


---------------
Galerie Photo Personnelle
n°11405694
wgromit
Fan d'Elite Dangerous
Posté le 14-02-2025 à 10:20:36  profilanswer
 

ddlabraguette a écrit :


Peut être mais c'est assez contraignant sachant qu'il est plus que déconseillé de trop les plier  
Les cartes sont larges ( même les 4070  ), du coup ça passe au chausse pied dans pas mal de boitiers  
 
Là je vais passer sur un be quiet pure base, donc ça devrait plus poser problème mais dans mon boiter actuel, c'est pas génial :/


Je suis d'accord avec toi que c'est plus cool d'avoir un câble souple, mais NVIDIA a eu l'excellente idée d'utiliser ce connecteur "foireux" et on subit donc.
 
Oser remplacer 3 bons vieux connecteurs PCI Express 8 pins par un seul connecteur plus petit et en plus avec une puissance de 600 w, soit 150w de plus que 3 PCI Express....
 
Sertir des fils en section 16AWG sur un si petit connecteur...
 
Les broches mâles du connecteur doivent avoir une section (à confirmer) plus petite que le câble lui-même...
 
Et jongler avec les limites admissibles sans marge de sécurité, ne permettant plus de limiter une erreur de branchement de l'utilisateur, le tout pour un produit grand public, donc pas installé par un technicien pro ayant une habilitation électrique...
 
Ca commence à faire beaucoup, non?
 
Et en cas de cramage de la carte , câble, alimentation voire du pc complet ça va être chaud pour être indemnisé car je sens qu'on va se retrouver avec une excuse "c'est la faute de l'utilisateur".
 
Excuse non acceptable selon moi.
 
La, on a clairement un souci de design.
 
Cette 5090 n'aurait jamais du être commercialisée.
 
Il y a même une chose qui m'a frappée sur YT lors du démontage de la carte. Les constructeurs ont ajouté un pad thermique au niveau du connecteur... Y avait cela sur la 4090?
 
Et visiblement elle peut, certes très ponctuellement, dépasser la puissance max admissible. J'ai l'impression que c'est le retour des pics qu'on avait avec les 3090. Avec un risque que l'alimentation se mette en sécurité via sa détection OCP.
 
Ajouter juste un second connecteur aurait amélioré significativement la marge de sécurité.
 
D'ailleurs j'avais fait le pari (que j'ai perdu) que cette 5090 aurait 2 connecteurs du moins sur les versions customs. D'où l'achat de l'alimentation Seasonic Noctua 1600w pour avoir 2 câbles GPU ou plein de connecteurs PCI EXPRESS 8 pins.
 
Asus MSI Gigabyte, sortez une version avec 2 connecteurs ou PCI Express 8 pins, svp. Surtout vu la taille de vos pavés, il y a de la place. Ou alors vous n'avez pas le droit de le faire? (exigence NVIDIA)

n°11405696
LaPointe
Roule toujours
Posté le 14-02-2025 à 10:21:48  profilanswer
 

B1LouTouF a écrit :


même avec le 5700x3D tu seras juste au final , vise un gpu moins haut car franchement venant d'une 1080ti , avec une 4080 tu prendrais déjà une giga énorme claque !


En 4k, le CPU est quand même peu limitant.
Et je n’achète que du neuf, donc la 4080, ça va être compliqué :o
 
Je prendrai sûrement la gen CPU AMD suivante par la suite.


---------------
LaPointe
n°11405698
Hansaplast
Hello.
Posté le 14-02-2025 à 10:30:31  profilanswer
 

Bonjour à tous,  
Je sais pas trop ou poser la question alors la voici ici  :o  
 
J'ai un PC avec un Ryzen 8700G. J'ai acheté ce CPU suite à la revente de ma 4090 et mon X3D il y à quelques mois, pour avoir un CPU bureautique sans racheter de GPU.
 
A ce jour je ne joue plus trop (donc le 8700G est parfait), mais j'avoie que j'ai bien envie de reprendre un GPU pour Civ 7 en particulier et un peu de FPS qui vide la tête le soir.
 
Une 50x0 sur ce CPU c'est mal ? Je dois envisager de changer de CPU aussi ?
 
Je suis en 4K.
 

n°11405703
SirGallaha​d
Girouette Pro
Posté le 14-02-2025 à 10:51:12  profilanswer
 

Cela se passera très bien. Pas besoin de changer de CPU


Message édité par SirGallahad le 14-02-2025 à 10:51:34

---------------
Oui. Non. Peut être...
n°11405704
ibuprophet
Posté le 14-02-2025 à 10:51:40  profilanswer
 

Ça marchera, juste que ton CPU va bottleneck les jeux les plus gourmands plus rapidement qu'un 9800X3D. Tout dépend des jeux auxquels tu joues.

n°11405707
LaPointe
Roule toujours
Posté le 14-02-2025 à 10:58:34  profilanswer
 

ibuprophet a écrit :

Ça marchera, juste que ton CPU va bottleneck les jeux les plus gourmands plus rapidement qu'un 9800X3D. Tout dépend des jeux auxquels tu joues.


En 4k, pas franchement, cf https://www.techpowerup.com/review/ [...] 3d/27.html


---------------
LaPointe
n°11405712
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-02-2025 à 11:05:48  profilanswer
 

ha oui tu veux changer d'écran aussi car je doute que tu joues en 4k avec une 1080ti , en effet en 4k le cpu est moins important que le gpu mais il en faut quand même un bon , après tout dépends du refresh de ton écran aussi


---------------
FeedBack
n°11405716
HashKah
It’s dangerous to go alone !
Posté le 14-02-2025 à 11:08:59  profilanswer
 

LaPointe a écrit :


C’est prévu pour l’alim, et le CPU (passage à un 5700X3D). Et le boiter aussi avec un AIO.
 
Bref à voir comment tout ça évolue. Mais je ne vois pas ce que nVidia ou les tiers puissent faire…


 
Tu joues en 4K ? en 1440p ?
 
Un 5700X3D va brider ta 5090, le bottlneck va se faire sentir rapidement, si c'est vraiment le CPU que tu veux, à ta place je partirais sur une 48080 Super ou une 5080 (voire 5070ti).
 
Tu viserais un 7800X3D, un Intel récent ou un 9800X3D je te dirais banco, mais pour avoir eu un combo 5950X + 4090, puis 14900k + 4090, j'ai vu la différence, même en 4K, j'ai gagné entre 10-15 fps sur Cyberpunk en 4K Pathtracing, et là tu craches pas sur un tel gain.
 
Ca dépendra aussi des jeux sur lesquels tu joues, certains seront plus vite limités que d'autres, mais clairement le choix d'un 5700X3D c'est pas très future proof, la sagesse serait plutôt de basculer une partie du budget GPU pour un beau 9800X3D, prendre une des CG citées plus haut (ou même une 4090 d'occasion si tu en trouves une), et ensuite tu pourras voir venir avec la génération RTX6000 si vraiment tu veux tout éclater.
 
Et puis bon c'est pas comme si les 5090 coulaient à flots et que les drivers étaient au point  :o
 


 
Le tableau est synthétique, il ne refletera pas les écarts sur certains jeux qui peuvent être assez importants.
 
Sur un jeu comme Baldur's Gate 3 part exemple, le 9800X3D met un trou à un 14900k même en 4K.
 
Donc quand on fait une moyenne, effectivement l'écart n'est pas incroyable, mais si ça touche les jeux auxquels tu joues, il peut y avoir des écarts très significatifs.
 
Après c'est un choix  [:michel_cymerde:7]  
 

Message cité 3 fois
Message édité par HashKah le 14-02-2025 à 11:11:52
n°11405720
Gregooz
Posté le 14-02-2025 à 11:26:25  profilanswer
 

HashKah a écrit :


 
Tu joues en 4K ? en 1440p ?
 
Un 5700X3D va brider ta 5090, le bottlneck va se faire sentir rapidement, si c'est vraiment le CPU que tu veux, à ta place je partirais sur une 48080 Super ou une 5080 (voire 5070ti).
 
Tu viserais un 7800X3D, un Intel récent ou un 9800X3D je te dirais banco, mais pour avoir eu un combo 5950X + 4090, puis 14900k + 4090, j'ai vu la différence, même en 4K, j'ai gagné entre 10-15 fps sur Cyberpunk en 4K Pathtracing, et là tu craches pas sur un tel gain.
 
Ca dépendra aussi des jeux sur lesquels tu joues, certains seront plus vite limités que d'autres, mais clairement le choix d'un 5700X3D c'est pas très future proof, la sagesse serait plutôt de basculer une partie du budget GPU pour un beau 9800X3D, prendre une des CG citées plus haut (ou même une 4090 d'occasion si tu en trouves une), et ensuite tu pourras voir venir avec la génération RTX6000 si vraiment tu veux tout éclater.
 
Et puis bon c'est pas comme si les 5090 coulaient à flots et que les drivers étaient au point  :o
 


 

HashKah a écrit :


 
Le tableau est synthétique, il ne refletera pas les écarts sur certains jeux qui peuvent être assez importants.
 
Sur un jeu comme Baldur's Gate 3 part exemple, le 9800X3D met un trou à un 14900k même en 4K.
 
Donc quand on fait une moyenne, effectivement l'écart n'est pas incroyable, mais si ça touche les jeux auxquels tu joues, il peut y avoir des écarts très significatifs.
 
Après c'est un choix  [:michel_cymerde:7]  
 


T'avais pas le DLSS d'activé à tout hasard sur CP2077 ?  
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/cyberpunk-2077-rt-3840-2160.png
Sur ce graphe, même si c'est pas du PT mais simple RT, on a pas autant d'écart :??:

n°11405721
overclockp​ro
Posté le 14-02-2025 à 11:26:27  profilanswer
 

Vidéo très intéressante, surtout à partir de 20 min 20 :  
 
https://youtu.be/6FJ_KSizDwM?si=jhfCFk2r6JNLlwSe
 
Le problème de fonte du connecteur et des câbles est dû à la répartition inégale du courant dans les 6 câbles du connecteur comme l'a montré la vidéo de derBauer (22 A sur un fil et 150 °C sur le connecteur de l'alimentation). Le PMD2 utilisé par Jayz2cents dans cette vidéo permet de niveler les différences de courant et pourrait être la solution contre ce problème de fonte.

n°11405722
jonas
c'est mon identité
Posté le 14-02-2025 à 11:28:32  profilanswer
 

HashKah a écrit :


 
Tu joues en 4K ? en 1440p ?
 
Un 5700X3D va brider ta 5090, le bottlneck va se faire sentir rapidement, si c'est vraiment le CPU que tu veux, à ta place je partirais sur une 48080 Super ou une 5080 (voire 5070ti).
 
Tu viserais un 7800X3D, un Intel récent ou un 9800X3D je te dirais banco, mais pour avoir eu un combo 5950X + 4090, puis 14900k + 4090, j'ai vu la différence, même en 4K, j'ai gagné entre 10-15 fps sur Cyberpunk en 4K Pathtracing, et là tu craches pas sur un tel gain.
 
Ca dépendra aussi des jeux sur lesquels tu joues, certains seront plus vite limités que d'autres, mais clairement le choix d'un 5700X3D c'est pas très future proof, la sagesse serait plutôt de basculer une partie du budget GPU pour un beau 9800X3D, prendre une des CG citées plus haut (ou même une 4090 d'occasion si tu en trouves une), et ensuite tu pourras voir venir avec la génération RTX6000 si vraiment tu veux tout éclater.
 
Et puis bon c'est pas comme si les 5090 coulaient à flots et que les drivers étaient au point  :o
 


 

HashKah a écrit :


 
Le tableau est synthétique, il ne refletera pas les écarts sur certains jeux qui peuvent être assez importants.
 
Sur un jeu comme Baldur's Gate 3 part exemple, le 9800X3D met un trou à un 14900k même en 4K.
 
Donc quand on fait une moyenne, effectivement l'écart n'est pas incroyable, mais si ça touche les jeux auxquels tu joues, il peut y avoir des écarts très significatifs.
 
Après c'est un choix  [:michel_cymerde:7]  
 


 
franchement, jusqu'à présent et jouant en 4K, j'ai pas l'impression que ma 4090 soit vraiment bridée par mon 5800X3D  [:cosmoschtroumpf]  


---------------
et voilà
n°11405725
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 14-02-2025 à 11:33:04  profilanswer
 

ça dépends des jeux aussi , moi j'ai fait 12900k au 7950x3D a part voir mes températures de cpu plus haute , j'ai rien de bien mieux ^^  mais le 12900k était déjà un très bon cpu ! Si j'avais su , j'aurais pas upgrade , j'aurais gagné 1000e


---------------
FeedBack
n°11405727
HashKah
It’s dangerous to go alone !
Posté le 14-02-2025 à 11:35:29  profilanswer
 

Gregooz a écrit :


T'avais pas le DLSS d'activé à tout hasard sur CP2077 ?  


 
Evidemment, et le Frame Gen aussi, j'avais envie d'avoir plus de 30 fps en jeu quand même :o  
 
J'aurais dû préciser que le 5800X3D serait un facteur limitant avec l'utilisation du DLSS et du Multi Frame Gen effectivement.
 
Après moi ce que j'en dis, c'est de la pure expérience personnelle, j'ai vu des gains très sensibles dans mes jeux en upgradant, et oui ce sont tous des jeux très gourmands qui demandaient du DLSS pour tourner à un minimum syndical de 60 fps.
 
 

n°11405729
jonas
c'est mon identité
Posté le 14-02-2025 à 11:37:04  profilanswer
 

HashKah a écrit :


 
Evidemment, et le Frame Gen aussi, j'avais envie d'avoir plus de 30 fps en jeu quand même :o  
 
J'aurais dû préciser que le 5800X3D serait un facteur limitant avec l'utilisation du DLSS et du Multi Frame Gen effectivement.
 
Après moi ce que j'en dis, c'est de la pure expérience personnelle, j'ai vu des gains très sensibles dans mes jeux en upgradant, et oui ce sont tous des jeux très gourmands qui demandaient du DLSS pour tourner à un minimum syndical de 60 fps.
 
 


 
toi tu avais un 5950X. a priori, en jeu il est inférieur au 5800X3D.
 
et dis de quels jeux tu parles, parce que je doute encore un peu :o (pour CP j'y crois pas, ces chiffres sont pas logiques)

Message cité 1 fois
Message édité par jonas le 14-02-2025 à 11:37:48

---------------
et voilà
n°11405734
jonas
c'est mon identité
Posté le 14-02-2025 à 11:43:36  profilanswer
 

bon, maintenant j'ai un doute :o
 
si je suis limité par mon 5800X3D, alors je vais me faire une nouvelle config sur le champ, et pour la 5090 on verra plus tard :o


---------------
et voilà
n°11405736
Gregooz
Posté le 14-02-2025 à 11:48:29  profilanswer
 

HashKah a écrit :


 
Evidemment, et le Frame Gen aussi, j'avais envie d'avoir plus de 30 fps en jeu quand même :o  
 
J'aurais dû préciser que le 5800X3D serait un facteur limitant avec l'utilisation du DLSS et du Multi Frame Gen effectivement.
 
Après moi ce que j'en dis, c'est de la pure expérience personnelle, j'ai vu des gains très sensibles dans mes jeux en upgradant, et oui ce sont tous des jeux très gourmands qui demandaient du DLSS pour tourner à un minimum syndical de 60 fps.
 
 


Donc t'es pas en 4K [:michel_cymerde:7]

n°11405737
HashKah
It’s dangerous to go alone !
Posté le 14-02-2025 à 11:52:33  profilanswer
 

jonas a écrit :


 
toi tu avais un 5950X. a priori, en jeu il est inférieur au 5800X3D.
 
et dis de quels jeux tu parles, parce que je doute encore un peu :o (pour CP j'y crois pas, ces chiffres sont pas logiques)


 
Oui en effet, un 5950X est inférieur en jeu à un 5800X3D.
 
Après les jeux en question ce sont principalement les gros jeux intégrant moultes effets en RT ou PT nécessitant l'emploi du DLSS + Frame Gen.
 
Mon exemple le plus frappant est Cyberpunk parce que c'était le jeu sur lequel je passais l'essentiel de mon temps, et après tu peux me croire ou ne pas me croire mais les +10-15 fps étaient bien là, tu te doutes bien que c'est un des premiers trucs que j'ai monitoré quand j'ai upgrade.
J'avais même pris de courtes vidéo à partir de mon téléphone pour faire la comparaison avant/après, sur une scène identique, et j'avais également eu un gain significatif sur les 1% low.
 
Je n'ai pas d'actions chez Intel ou chez AMD, encore moins chez LDLC, si tu penses que garder ton 5800X3D ça le fait ben tant mieux.
Mon opinion personnelle c'est que ça n'est pas un choix future proof, surtout accompagné d'une 5090, et moi-même je regrette mon 14900K parce que ça n'était pas un choix future proof avec une plateforme en fin de vie, un gouffre en conso et en TDP et si j'avais su j'aurais attendu quelques mois un 9800X3D.
 
Je me dis juste que si j'étais à ta place, je ne ferais plus la même connerie, je prendrais un CPU armé pour les 4-5 prochaines années easy, une plateforme avec un peu plus d'avenir, quitte à passer d'une 5090 à une 5080 (ou une 4090 d'occasion).
 
My 2 cents  [:hpl-nyarlathotep]
 

Gregooz a écrit :


Donc t'es pas en 4K [:michel_cymerde:7]


 
 [:somberlain6:5]  
 
Pourquoi ? Tu joues à Cyberpunk + PT en 4k native sur une 4090 toi ?  
 
Evidemment que quand je parle de 4k pour ce jeu je parle d'utilisation avec du DLSS en parallèle, jouer à 30 fps grand max ce serait un peu con non ?  
 
Ca vaut pour quasiment tous les jeux gourmands utilisant du PT ou un gros RT, tu vas vraiment jouer à Alan Wake II, ou aux prochains gros jeux en natif et en PT sans y foutre du DLSS ?  
 
Oui c'est peut être un abus de langage de dire "4k", mais ça me paraissait un peu évident, je ne vais pas préciser "1440p upscalé en 4k via l'outil DLSS réglé sur qualité + Frame Generation", parce que je suppute, peut être à tort, qu'on veut tous avoir plus de 60 fps en jouant à nos jeux quand on fout une 4090/5090 dans nos boitiers....
 

Message cité 1 fois
Message édité par HashKah le 14-02-2025 à 11:58:03
n°11405744
Gregooz
Posté le 14-02-2025 à 12:03:08  profilanswer
 

HashKah a écrit :


 
 [:somberlain6:5]  
 
Pourquoi ? Tu joues à Cyberpunk + PT en 4k native sur une 4090 toi ?  
 
Evidemment que quand je parle de 4k pour ce jeu je parle d'utilisation avec du DLSS en parallèle, jouer à 30 fps grand max ce serait un peu con non ?  
 
Ca vaut pour quasiment tous les jeux gourmands utilisant du PT ou un gros RT, tu vas vraiment jouer à Alan Wake II, ou aux prochains gros jeux en natif et en PT sans y foutre du DLSS ?  
 
Oui c'est peut être un abus de langage de dire "4k", mais ça me paraissait un peu évident, je ne vais pas préciser "1440p upscalé en 4k via l'outil DLSS réglé sur qualité + Frame Generation", parce que je suppute, peut être à tort, qu'on veut tous avoir plus de 60 fps en jouant à nos jeux quand on fout une 4090/5090 dans nos boitiers....
 


J'ai peut-être mal compris, je croyais que le sujet c'était la limitation de la 4090/5090 en 4K avec un CPU type 5700X3D/5800X3D mais j'ai surement loupé un truc, auquel cas mes excuses :jap:

n°11405756
Messij
Posté le 14-02-2025 à 12:16:49  profilanswer
 

jonas a écrit :

bon, maintenant j'ai un doute :o

 

si je suis limité par mon 5800X3D, alors je vais me faire une nouvelle config sur le champ, et pour la 5090 on verra plus tard :o

 

En moyenne en 4k, 3000€ dans une 5090 auront plus d'impact que 1000€ pour upgrade de CPU, en valeur absolue ET en rapport performance/prix.


---------------
WOW chien beaucoup
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  346  347  348  ..  582  583  584  585  586  587

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)