Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3070 connectés 

 


Usage (semi)pro/création de leur RTX 5090 en plus du jeu?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  94  95  96  ..  583  584  585  586  587  588
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11384484
coil whine
Renvoie-là au SAV
Posté le 03-01-2025 à 14:43:34  profilanswer
 

Reprise du message précédent :
On notera qu’il y a la pub d’afterburner. Je croyais que c’était plus ou moins à l’abandon…

mood
Publicité
Posté le 03-01-2025 à 14:43:34  profilanswer
 

n°11384486
Furorento
Posté le 03-01-2025 à 14:45:40  profilanswer
 

Citation :

La 5060M serait 32,5 % de mieux qu'une RTX 4060M
 
Mieux, avec un tel score, la RTX 5060M serait encore environ 10 % au-dessus de la RTX 4070M


 
Ca c'est bon si ca se confirme  :miam:  
 
https://www.clubic.com/actualite-54 [...] -4060.html


Message édité par Furorento le 03-01-2025 à 14:46:08
n°11384491
Neji Hyuga
Modérateur
:grut:
Posté le 03-01-2025 à 14:51:43  profilanswer
 

havoc_28 a écrit :

TPU dit de la merde là, ou sinon faut qu'ils donnent la consommation des puces GDDR7 à 28 et 30.


 
Micron annonce une dépense énergétique de 4.5pJ/bit dans la fiche produit de ses puces de GDDR7.
 
A partir de là c'est difficile d'imaginer huit puces à 30gbps qui consommeraient largement plus que seize à 28gbps.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11384492
SirGallaha​d
Girouette Pro
Posté le 03-01-2025 à 14:53:28  profilanswer
 

[:pezzi]


---------------
Oui. Non. Peut être...
n°11384496
Xixou2
Posté le 03-01-2025 à 15:07:37  profilanswer
 

ravenloft a écrit :


Non car les 25W sont pour la gddr7  

Citation :

However, TDP (thermal design power) is a more specific value attributed to the GPU die or the specific SKU in question. According to the latest leaks, 575 Watts are dedicated to the GB202-300-A1 GPU die in the GeForce RTX 5090, while 25 Watts are for GDDR7 memory and other components on the PCB.
 
For the RTX 5080, the GB203-400-A1 chip is supposedly drawing 360 Watts of power alone, while 40 Watts are set aside for GDDR7 memory and other components in the PC. The lower-end RTX 5080 uses more power than the RTX 5090 because its GDDR7 memory modules reportedly run at 30 Gbps, while the RTX 5090 uses GDDR7 memory modules with 28 Gbps speeds.



 
ok à fond à fond alors.

n°11384511
jinxjab
Protection engendre sacrifice
Posté le 03-01-2025 à 16:05:04  profilanswer
 

Rumeur design des FE :
https://videocardz.com/newz/new-gef [...] -led-strip
 
 
 
https://cdn.videocardz.com/1/2025/01/NVIDIA-RTX-50-FOUNDERS-HERO-1200x624.jpg
 
 
voila voila ....


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°11384519
ravenloft
Meilleur jeu du 20ème siècle
Posté le 03-01-2025 à 16:37:54  profilanswer
 

havoc_28 a écrit :


 
Une puce GDDR en général ça tourne aux alentours de 2w par génération (un peu plus un peu moins).  
 
Mais si avec 16 puces et les autres composant on est à 25w, aller on va simplifier en disant que les autres composants = 0w. ça veut dire que chaque puces de GDDR7 c'est 1.5625w.
Donc faudrait qu'entre la GDDR7 28 GB/s et 30 GB/s la consommation soit au minimum triplée ? :o. J'ai jamais vu ça niveau DDR / GDDR.


C'est pas parce que tu as jamais vu ça que ça ne peut pas existé. On ne sait jamais s'ils ont poussé à fond ou pas pour atteidnre ces 30 gb/s.
C'est comme sur les cpus à la fin pour grapiller parfois 50 mhz, tu rajoutes 50 W et la courbe devient exponentielle.
C'est ce que souligne techpowerup mais c'est juste une hypothèse pour expliquer la différence de watt.


---------------
Ravenloft
n°11384521
havoc_28
Posté le 03-01-2025 à 16:42:39  profilanswer
 

ravenloft a écrit :


C'est pas parce que tu as jamais vu ça que ça ne peut pas existé. On ne sait jamais s'ils ont poussé à fond ou pas pour atteidnre ces 30 gb/s.
C'est comme sur les cpus à la fin pour grapiller parfois 50 mhz, tu rajoutes 50 W et la courbe devient exponentielle.
C'est ce que souligne techpowerup mais c'est juste une hypothèse pour expliquer la différence de watt.


 
Hypothèse peu convaincante, et quel intérêt pour Nvidia ? C'est à peine 7 % de bande passante supplémentaire ... sauf qu'un processeur on part de bien plus haut niveau watts, et comme j'ai démontré plus haut, faudrait TRIPLER la consommation de la puce, quand tu rajoutes 50w à un processeur en général tu pars pas de 25w ...
Bref jusqu'à preuve du contraire, pour moi les explications ne TPU ne tiennent pas la route.

Message cité 1 fois
Message édité par havoc_28 le 03-01-2025 à 16:46:09
n°11384522
coil whine
Renvoie-là au SAV
Posté le 03-01-2025 à 16:48:49  profilanswer
 


Si c’est vrai ils ont repris le design, enfin le positionnement, du connecteur de la 3080 FE and co. Bonne nouvelle.

n°11384524
ravenloft
Meilleur jeu du 20ème siècle
Posté le 03-01-2025 à 16:50:49  profilanswer
 

havoc_28 a écrit :


 
Hypothèse peu convaincante, et quel intérêt pour Nvidia ? C'est à peine 7 % de bande passante supplémentaire ... sauf qu'un processeur on part de bien plus haut niveau watts, et comme j'ai démontré plus haut, faudrait TRIPLER la consommation de la puce, quand tu rajoutes 50w à un processeur en général tu pars pas de 25w ...
Bref jusqu'à preuve du contraire, pour moi les explications ne TPU ne tiennent pas la route.


On verra bien de toute façon.


---------------
Ravenloft
mood
Publicité
Posté le 03-01-2025 à 16:50:49  profilanswer
 

n°11384541
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 03-01-2025 à 18:40:56  profilanswer
 

Si le dlss 4 est dispo , c’est que nvidia a bien changé mdr


---------------
FeedBack
n°11384542
havoc_28
Posté le 03-01-2025 à 18:46:14  profilanswer
 

B1LouTouF a écrit :

Si le dlss 4 est dispo , c’est que nvidia a bien changé mdr


 
On ne sait pas c'est quoi le DLSS 4, le Ray Reconstruction à nouveau (DLSS 3.5), il fonctionne sur Turing.  
Que l'absence de FG soit débattable sur Turing / Ampère à cause d'unités optical flaw pas assez performante oui (une solution alternative aurait été possible, même si un peu plus sujette à artefacts, Nvidia a tranché au final).  
Mais pour le DLSS 4, faut attendre de savoir en quoi ça consiste et les pré requis. Que ce soit uniquement disponible sur Blackwell c'est possible si y a un pré requis matériel uniquement disponible sur celui ci, sinon ça pourrait être éventuellement accessibles aux générations antérieurs en fonction, RTX 4000 ADA voir, Ampère / Turing si y a ce qui faut niveau matériel.


Message édité par havoc_28 le 03-01-2025 à 18:50:33
n°11384546
ravenloft
Meilleur jeu du 20ème siècle
Posté le 03-01-2025 à 18:58:19  profilanswer
 

B1LouTouF a écrit :

Si le dlss 4 est dispo , c’est que nvidia a bien changé mdr


C'est pas parce qu'nvidia a fait une fois un dlss réservé qu'à la dernière archi qu'il va le faire à chaque fois.


---------------
Ravenloft
n°11384547
Rayaki
Posté le 03-01-2025 à 19:05:29  profilanswer
 

Et rien ne dit non plus qu'une partie du DLSS4 ne soit pas disponible aux générations pré-Blackwell :)
Actuellement, sans de réelles infos sur ce que comportera le DLSS4, on reste purement aux conjectures.


Message édité par Rayaki le 03-01-2025 à 19:05:46

---------------
Clan Torysss.
n°11384553
cedric39
Posté le 03-01-2025 à 19:38:07  profilanswer
 

N'empêche, tout à l'heure je jouais à Indiana Jones sur ma 4090...
 
Et ça me confirme une fois de plus que c'est aberrant que les 5070/5080 n'aient que 16 Go de VRAM ! Je trouve ça complètement fou...
 
J'atteins 21 Go dans Indiana Jones en 4K (DLSS Qualité + Frame Generation).
 
https://img3.super-h.fr/images/2025/01/03/Capture-decran-2025-01-03-193145.jpg
 
Je n'avais jamais vraiment fait attention à la consommation de VRAM dans les autres jeux, mais là, j'ai regardé, et franchement, c'est dingue qu'on propose encore 16 Go de VRAM pour des cartes haut de gamme en 2025...
 
Après peut être que le jeu prend beaucoup car il à de la marge mais n'en as pas réelement besoin ..


---------------
''9800X3D // RTX 4090 // 32Go de RAM 6000Mhz CL30 // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11384554
Xantar_Eoz​enn
Posté le 03-01-2025 à 19:39:09  profilanswer
 

Pour la consommation de la RTX 5090, ne pas oublier que le port 16x de la carte mère peut filer 75w jusqu'à.

n°11384555
Xantar_Eoz​enn
Posté le 03-01-2025 à 19:41:00  profilanswer
 

cedric39 a écrit :

N'empêche, tout à l'heure je jouais à Indiana Jones sur ma 4090...
 
Et ça me confirme une fois de plus que c'est aberrant que les 5070/5080 n'aient que 16 Go de VRAM ! Je trouve ça complètement fou...
 
J'atteins 21 Go dans Indiana Jones en 4K (DLSS Qualité + Frame Generation).
 
https://img3.super-h.fr/images/2025/01/03/Capture-decran-2025-01-03-193145.jpg
 
Je n'avais jamais vraiment fait attention à la consommation de VRAM dans les autres jeux, mais là, j'ai regardé, et franchement, c'est dingue qu'on propose encore 16 Go de VRAM pour des cartes haut de gamme en 2025...
 
Après peut être que le jeu prend beaucoup car il à de la marge mais n'en as pas réelement besoin ..


 
 
Tu règles le texture pool size du moteur du jeu à combien ?

n°11384556
cedric39
Posté le 03-01-2025 à 19:49:52  profilanswer
 

Je suis au max partout, donc en suprême pour le texture pool size  ;)  
 
Après, il n’y a sans doute quasiment aucune différence entre low, medium, high et suprême pour le texture pool size. :heink: Je mets tout au max car je le peux, évidemment ..
 
Mais quand même, fin je sais pas… ça la fout mal d’acheter une carte à 1500 € pour devoir, dès le début, faire des concessions dans certains jeux. Impact minime visuel ou pas, je trouve ça quand même pas dingue :sweat:


---------------
''9800X3D // RTX 4090 // 32Go de RAM 6000Mhz CL30 // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11384557
Furorento
Posté le 03-01-2025 à 19:51:09  profilanswer
 

Plus tu donneras de memoire plus les devs feront aucun effort et la différence sera minime  
 
Indy est pas spécialement un beau jeu

n°11384558
ddlabrague​tte
Posté le 03-01-2025 à 19:51:44  profilanswer
 
n°11384559
cedric39
Posté le 03-01-2025 à 19:56:47  profilanswer
 

Furorento a écrit :

Plus tu donneras de memoire plus les devs feront aucun effort et la différence sera minime  
 
Indy est pas spécialement un beau jeu


 
Je suis d'accord, sauf qu'ils ne feront pas d'effort quand même, dans tous les cas… car la 5090 pourra faire tourner leur mauvaise optimisation .. ils diront : "Bah, achetez la 5090 pour le Ultra .. "
 
Sauf que de base, les 4090/5090, selon Nvidia, ne sont pas des cartes destinées aux gamers, donc ce n’est pas logique de devoir faire des concessions avec le haut de gamme en cartes graphiques censées être faites pour les joueurs. :sweat:
 
"Indy n’est pas spécialement un beau jeu" ? Whaou, je te trouve dur. Je ne dis pas que c'est Cyberpunk, mais franchement, il est parfois vraiment, vraiment beau.
 
Enfin moi j'y joue en 4K HDR sur ma TV LG G2 est c'est vraiment chouette  :love:

Message cité 1 fois
Message édité par cedric39 le 03-01-2025 à 19:57:51

---------------
''9800X3D // RTX 4090 // 32Go de RAM 6000Mhz CL30 // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11384560
havoc_28
Posté le 03-01-2025 à 20:00:34  profilanswer
 


 
https://www.youtube.com/watch?v=-1qju6V1jLM
 
Pour les gens qui n'auraient pas jouer à GTA San Andreas :o.

n°11384562
ravenloft
Meilleur jeu du 20ème siècle
Posté le 03-01-2025 à 20:15:51  profilanswer
 

cedric39 a écrit :

N'empêche, tout à l'heure je jouais à Indiana Jones sur ma 4090...
 
Et ça me confirme une fois de plus que c'est aberrant que les 5070/5080 n'aient que 16 Go de VRAM ! Je trouve ça complètement fou...
 
J'atteins 21 Go dans Indiana Jones en 4K (DLSS Qualité + Frame Generation).
 
https://img3.super-h.fr/images/2025 [...] 193145.jpg
 
Je n'avais jamais vraiment fait attention à la consommation de VRAM dans les autres jeux, mais là, j'ai regardé, et franchement, c'est dingue qu'on propose encore 16 Go de VRAM pour des cartes haut de gamme en 2025...
 
Après peut être que le jeu prend beaucoup car il à de la marge mais n'en as pas réelement besoin ..


A voir si le jeu ne réserve pas ta ram juste parce qu'elle est disponible alors qu'il en utilise en fait moins en pratique. du coup, là le logiciel t'indique 21go d'occupation alors que peut être c'est 21go d'alloué mais seulement 15 ou 16 d'utilisé. A voir.


---------------
Ravenloft
n°11384563
xplo
Posté le 03-01-2025 à 20:19:02  profilanswer
 

yep j ai lu plusieurs fois que l indicateur vram utilise est completement faux (surtout sous windows)

n°11384569
overhead59
Posté le 03-01-2025 à 21:15:13  profilanswer
 

https://www.cowcotland.com/news/943 [...] ormes.html
 
Vous pensez qu’avec une alim de marque en 750w ça suffira pour une 5080 ? J ai une 3080 à date avec un lecteur b, deux ssd et un i5 10700k
 
Merci ! Trop hâte de voir les tests en tout cas ! Pas les prix par contre ^^


---------------
Mon blog : https://overhead59.wordpress.com/
n°11384570
ravenloft
Meilleur jeu du 20ème siècle
Posté le 03-01-2025 à 21:17:19  profilanswer
 

overhead59 a écrit :

https://www.cowcotland.com/news/943 [...] ormes.html

 

Vous pensez qu’avec une alim de marque en 750w ça suffira pour une 5080 ? J ai une 3080 à date avec un lecteur b, deux ssd et un i5 10700k

 

Merci ! Trop hâte de voir les tests en tout cas ! Pas les prix par contre ^^


normalement oui mais faut voir la puissance de ta config hors carte graphique (si tu as un 14900k, c'est pas pareil que si tu as un 7800x3d par exemple)  et tu rajoutes la puissance max de la 5080 qu'elle délivrera lorsque les tests sortiront. Tu sauras si elle est suffisante ou pas.


Message édité par ravenloft le 03-01-2025 à 21:17:45

---------------
Ravenloft
n°11384571
havoc_28
Posté le 03-01-2025 à 21:18:59  profilanswer
 

i7 10700K :o ou i5 10600K.


Message édité par havoc_28 le 03-01-2025 à 21:19:20
n°11384574
Furorento
Posté le 03-01-2025 à 21:24:04  profilanswer
 

cedric39 a écrit :


 
Je suis d'accord, sauf qu'ils ne feront pas d'effort quand même, dans tous les cas… car la 5090 pourra faire tourner leur mauvaise optimisation .. ils diront : "Bah, achetez la 5090 pour le Ultra .. "
 
Sauf que de base, les 4090/5090, selon Nvidia, ne sont pas des cartes destinées aux gamers, donc ce n’est pas logique de devoir faire des concessions avec le haut de gamme en cartes graphiques censées être faites pour les joueurs. :sweat:
 
"Indy n’est pas spécialement un beau jeu" ? Whaou, je te trouve dur. Je ne dis pas que c'est Cyberpunk, mais franchement, il est parfois vraiment, vraiment beau.
 
Enfin moi j'y joue en 4K HDR sur ma TV LG G2 est c'est vraiment chouette  :love:


 
Je trouve la physique pas folle (on monte sur la table et rien ne  bouge xd) et la tete d'indy pas vraiment impressionnante. Quand on tape un allié il reagit pas etc
 
Ca m'impressionne pas vraiment.
Ca restera pas dans les annales pour prouesse graphique  :D  
 

n°11384575
overhead59
Posté le 03-01-2025 à 21:25:44  profilanswer
 

Mdr c est pire, j ai un 10400F je sais pas ce que j ai fait pour me planter à ce point désolé ah ah


---------------
Mon blog : https://overhead59.wordpress.com/
n°11384576
havoc_28
Posté le 03-01-2025 à 21:28:00  profilanswer
 

overhead59 a écrit :

Mdr c est pire, j ai un 10400F je sais pas ce que j ai fait pour me planter à ce point désolé ah ah


 
Et bien ça consomme encore moins, donc pas de soucis niveau consommation, après ça sera peut être un peu trop léger (niveau puissance CPU) en fonction des jeux / définition.


Message édité par havoc_28 le 03-01-2025 à 21:28:19
n°11384577
overhead59
Posté le 03-01-2025 à 21:29:01  profilanswer
 

Ok bonne nouvelle, je joue en 4K ^^


---------------
Mon blog : https://overhead59.wordpress.com/
n°11384578
cedric39
Posté le 03-01-2025 à 21:39:31  profilanswer
 

Furorento a écrit :


 
Je trouve la physique pas folle (on monte sur la table et rien ne  bouge xd) et la tete d'indy pas vraiment impressionnante. Quand on tape un allié il reagit pas etc
 
Ca m'impressionne pas vraiment.
Ca restera pas dans les annales pour prouesse graphique  :D  
 


 
Ah sur ça oui je suis entièrement d'accord !  
 
On traverse les PNJ, les impacts de balle dans les objets qui disparaisse au bout de 10sec, c'est sur que la physique c'est pas le meilleur truc du jeu  :D  
 
Mais moi je parlais uniquement du visuel, et franchement je trouve ça beau ( hormis certaines texture vraiment pas folle digne de la PS3 )  :ange:  


---------------
''9800X3D // RTX 4090 // 32Go de RAM 6000Mhz CL30 // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11384579
Neji Hyuga
Modérateur
:grut:
Posté le 03-01-2025 à 21:42:33  profilanswer
 

Un peu comme RE8, quoi : des textures à tomber par terre et la physique d'un FPS de 1996 [:michel_cymerde:7]


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11384583
ravenloft
Meilleur jeu du 20ème siècle
Posté le 03-01-2025 à 22:26:57  profilanswer
 

Neji Hyuga a écrit :

Un peu comme RE8, quoi : des textures à tomber par terre et la physique d'un FPS de 1996 [:michel_cymerde:7]


et l'intérêt d'un jeu ubi  :o  :o  :o


---------------
Ravenloft
n°11384588
Furorento
Posté le 03-01-2025 à 22:41:21  profilanswer
 

En tout cas je ressens pas les 2000€ demandés par nvidia sur ce jeu  :o  
 
Je voudrais un jeu mieux fait quitte à ce qu'il tourne qu'e n 1080p sur une 4090   :D

n°11384591
Sylean
Posté le 03-01-2025 à 22:49:59  profilanswer
 

Un petit point des nums avec des tarifs et des dates de sortie :
 
https://www.lesnumeriques.com/carte [...] 30143.html

Message cité 1 fois
Message édité par Sylean le 03-01-2025 à 22:50:08
n°11384592
cedric39
Posté le 03-01-2025 à 22:50:31  profilanswer
 

Furorento a écrit :

En tout cas je ressens pas les 2000€ demandés par nvidia sur ce jeu  :o  
 
Je voudrais un jeu mieux fait quitte à ce qu'il tourne qu'e n 1080p sur une 4090   :D


 
Joue à Alan Wake 2 si tu veux une claque  :love:


---------------
''9800X3D // RTX 4090 // 32Go de RAM 6000Mhz CL30 // NVME : Samsung 980 PRO 1To //be quiet! Silent Base 802 // AIO NZXT X62 // Samsung Odyssey Néo G8
n°11384597
ravenloft
Meilleur jeu du 20ème siècle
Posté le 03-01-2025 à 23:19:21  profilanswer
 

Sylean a écrit :

Un petit point des nums avec des tarifs et des dates de sortie :
 
https://www.lesnumeriques.com/carte [...] 30143.html


ils ont mis les prix au hasard car à part les rumeurs sur les 5080 et 5090, on a en eu aucune sur les autres cartes  :D


---------------
Ravenloft
n°11384598
korette1
Posté le 03-01-2025 à 23:30:34  profilanswer
 

ravenloft a écrit :


ils ont mis les prix au hasard car à part les rumeurs sur les 5080 et 5090, on a en eu aucune sur les autres cartes  :D


En tout cas moi j'ai provisionné la somme sans compter la revente de ma 4090 pour une 5090 en espérant qu'on ira pas bien plus haut que 2500€ pour des customs hors strix...

n°11384600
charask8
Posté le 03-01-2025 à 23:32:34  profilanswer
 

cedric39 a écrit :

 

Joue à Alan Wake 2 si tu veux une claque :love:


J'attends l'arrivée sur steam ( :o ) et la promo qui ira avec, mais au casque et en 32:9 ça doit être incroyable :love:

 

Je l'ai déjà fait sur PS5, mais un sur pc tout à fond ça doit être top :love:

n°11384613
Comet
Posté le 04-01-2025 à 07:33:32  profilanswer
 

Quel est l’intérêt pour nvidia de sortir une 5090 plus tard que la 5080?
Une histoire de stock?


---------------
*** ***
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  94  95  96  ..  583  584  585  586  587  588

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)