Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1090 connectés 

 


Vous jouez à quelle résolution/fréquence?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  46  47  48  ..  57  58  59  60  61  62
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11361378
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 13:25:20  profilanswer
 

Reprise du message précédent :

ze m't a écrit :


 
La GTX 280 https://www.hardware.fr/articles/72 [...] x-200.html mais je crois bien que c'est la seule a avoir eu un bus 512 bits chez NV


Je confirme pour en avoir eu une.


---------------
Ravenloft
mood
Publicité
Posté le 27-09-2024 à 13:25:20  profilanswer
 

n°11361380
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 13:26:24  profilanswer
 

jinxjab a écrit :

Du coup, vous trouvez plausible de bus 512 ?!
 
Ca fait combien de temps que ça n'était pas arriver chez NV?
 
 
(pas faute d'avoir chercher ... je suis remonté à la Titan XP et nada)


S'ils veulent une grosse bande passante, oui ça a un intérêt.
 
A voir comment chauffe la gddr 7 mais peut être qu'un bus 512 avec une gddr 7 moins rapide est mieux qu'un bus 384 avec une gddr 7 plus rapide.


---------------
Ravenloft
n°11361383
havoc_28
Posté le 27-09-2024 à 13:33:28  profilanswer
 

ravenloft a écrit :

A voir comment chauffe la gddr 7 mais peut être qu'un bus 512 avec une gddr 7 moins rapide est mieux qu'un bus 384 avec une gddr 7 plus rapide.


 
Y a pas de peut être ... c'est sur à 100 %. Les premières puces de GDDR7 sont annoncées à 26/28 Gb/s par pin avec 32 Gb/s et plus pour plus tard.  
 
Même si tu prenais de la GDDR7 que tu l'abaissais à 24 Gb/s vs de la GDDR7 plus rapide à 28 Gb/s, le bus 512 bits serait toujours plus rapide.
 
512 Bits et GDDR7 @ 24 Gb/s pin : 64*24 = 1536 Gb/s
384 Bits et GDDR7 @ 28 Gb/s pin : 48*28 = 1344 Gb/s
384 Bits et GDDR7 @ 32 Gb/s pin : 48*32 = 1536 Gb/s
 
Bref faudrait de la GDDR7 @ 32 Gb/s avec un bus 384 bits pour égaler un bus 512 bits et de la GDDR7/6 @ 24 Gb/s.

Message cité 1 fois
Message édité par havoc_28 le 27-09-2024 à 13:41:20
n°11361387
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 13:40:18  profilanswer
 

havoc_28 a écrit :


 
Y a pas de peut être ... c'est sur à 100 %. Les premières puces de GDDR7 sont annoncées à 26/28 Gb/s par pin avec 32 Gb/s et plus pour plus tard.  
 
Même si tu prenais de la GDDR7 que tu l'abaissais à 24 Gb/s vs de la GDDR7 plus rapide à 28 Gb/s, le bus 512 bits serait toujours plus rapide.
 
512 Bits et GDDR7 @ 24 Gb/s pin : 64*24 = 1536 Gb/s
384 Bits et GDDR7 @ 28 Gb/s pin : 48*28 = 1344 Gb/s


T'as pas compris mon message  :lol:  
 
Je parlais en terme de chauffe, pas de débit :)


---------------
Ravenloft
n°11361391
havoc_28
Posté le 27-09-2024 à 13:51:39  profilanswer
 

ravenloft a écrit :


T'as pas compris mon message  :lol:  
 
Je parlais en terme de chauffe, pas de débit :)


 
Mais si la GDDR7 @ 28 Gb/s chaufferait un peu trop, suffirait juste de réduire à 26 Gb/s ça fait juste 7 % de bande passante en moins, rien de dramatique.

n°11361392
aliss
Rhyme the Rhyme Well
Posté le 27-09-2024 à 13:54:24  profilanswer
 

On a l'exemple de quelques gpu's à bus 512 chez le concurrent (R600, Hawaii...)
 
C'était plutôt des fours... :o  :D

n°11361393
havoc_28
Posté le 27-09-2024 à 13:54:54  profilanswer
 

aliss a écrit :

On a l'exemple de quelques gpu's à bus 512 chez le concurrent (R600, Hawaii...)
 
C'était plutôt des fours... :o  :D


 
Hawaii > GK110. Performance quasiment au même niveau niveau jeux à la sortie et meilleur tenue dans le temps, puce plus compacte, consommation pas beaucoup plus élevée, performance plus élevée en DP64, si y avait pas CUDA pour l'aspect pro et le ventirad de référence :o ...

Message cité 3 fois
Message édité par havoc_28 le 27-09-2024 à 13:58:26
n°11361394
aliss
Rhyme the Rhyme Well
Posté le 27-09-2024 à 13:58:01  profilanswer
 

havoc_28 a écrit :


 
Hawaii > GK110.


 
Je restais sur le thème des watts à dissiper.  ;)  

n°11361396
havoc_28
Posté le 27-09-2024 à 13:59:04  profilanswer
 

aliss a écrit :


 
Je restais sur le thème des watts à dissiper.  ;)  


 
y a pas besoin d'un si gros bus pour faire des fours, Fermi c'est 384 bits et ça fait déjà une bonne fournaise :D.

n°11361398
aliss
Rhyme the Rhyme Well
Posté le 27-09-2024 à 14:05:50  profilanswer
 

havoc_28 a écrit :


 
y a pas besoin d'un si gros bus pour faire des fours, Fermi c'est 384 bits et ça fait déjà une bonne fournaise :D.


 
Evidemment mais c'est tout de même un trait de particularité commun des quelques gpu's utilisant un tel bus côté ATI/AMD.
 



Message édité par aliss le 27-09-2024 à 14:08:49
mood
Publicité
Posté le 27-09-2024 à 14:05:50  profilanswer
 

n°11361400
Scrabble
Posté le 27-09-2024 à 14:09:19  profilanswer
 

La RTX 5090 ca sera un GPU pour les pros, pour faire de la modélisation 3D ou de l'I.A.
La bande passante memoire est tres importante pour l'IA
Le haut de gamme gaming ca sera la RTX 5080

n°11361403
aliss
Rhyme the Rhyme Well
Posté le 27-09-2024 à 14:13:56  profilanswer
 

Scrabble a écrit :

La RTX 5090 ca sera un GPU pour les pros, pour faire de la modélisation 3D ou de l'I.A.
La bande passante memoire est tres importante pour l'IA
Le haut de gamme gaming ca sera la RTX 5080


 
Il faudrait de sacrées améliorations architecturales ou une fréquence de fonctionnement très élevée pour qu'elle se détache de la 4090 si les specs devaient être confirmées...

Message cité 1 fois
Message édité par aliss le 27-09-2024 à 14:14:07
n°11361409
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 14:36:41  profilanswer
 

havoc_28 a écrit :


 
Mais si la GDDR7 @ 28 Gb/s chaufferait un peu trop, suffirait juste de réduire à 26 Gb/s ça fait juste 7 % de bande passante en moins, rien de dramatique.


On ne sait pas si c'est pas exponentiel à un moment car on ne connait pas la gddr 7 en pratique.
C'est comme les cpus quand tu pousses sur les derniers mhz, la conso explose et augmente de façon presque exponentielle. C'est peut être le cas à l'heure actuelle avec de la gddr 7 aussi cadence vs la hausse du bus.
A voir.
 
Ce n'est qu'une hypothèse de ma part et elle est surement fausse mais comme on n'a aucune réponse, on ne peut émettre que des hypothèses de toute façon.
 
La seule chose que je trouve dommage mais ça l'était pour ada, c'est que le chip Gx202 n'aura surement qu'une seule carte l'utilisant alors qu'il y avait moyen d'agrandir la gamme et d'étager mieux les perfs. Peut être moins rentable pour nvidia mais pour les joueurs, je pense que ça serait mieux.


---------------
Ravenloft
n°11361410
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 14:38:27  profilanswer
 

Scrabble a écrit :

La RTX 5090 ca sera un GPU pour les pros, pour faire de la modélisation 3D ou de l'I.A.
La bande passante memoire est tres importante pour l'IA
Le haut de gamme gaming ca sera la RTX 5080


Cela fait déjà plusieurs générations que la x90 est surtout pour les joueurs, pas que pour les pros et ce depuis la fin des Titan qui elle visait pas que les joueurs..
 
D'ailleurs il  y a des rumeurs d'une titan pour cette génération.


---------------
Ravenloft
n°11361415
jinxjab
Protection engendre sacrifice
Posté le 27-09-2024 à 14:49:39  profilanswer
 

sky685 a écrit :

Aah ouais 400 watt la 5080 ?  
Ils vont pas nous faire le coup de la conso surdimensionnée pour permettre d'avoir plus de perf entre les deux gen


 
 
Je ne sais pas à quel point il faut ignorer ou prendre en compte l'effet joule ?
 
Parce que beaucoup oublient ou ne savent pas que plus la finesse de gravure est avancée et dense, plus le problème de la dissipation thermique est un défit.
=> Plus un circuit est petit et dense, plus il est difficile de le refroidir.
 


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°11361422
Neji Hyuga
Modérateur
:grut:
Posté le 27-09-2024 à 15:17:31  profilanswer
 

aliss a écrit :


 
Il faudrait de sacrées améliorations architecturales ou une fréquence de fonctionnement très élevée pour qu'elle se détache de la 4090 si les specs devaient être confirmées...


 
Si l'on a que 4 SM d'écart entre AD103 et GB203, le second a intérêt à clocker vraiment haut pour creuser l'écart avec le premier.  
 
Il n'y a pas trop de doute quand à l'optimisation des RT cores et (surtout) des tensor cores, mais côté raster je ne pense pas qu'ils aient réinventé la roue, sans gain de fréquence conséquent (ce qui serait cohérent avec les rumeurs de TPD revu encore à la hausse), l'écart avec la puce sortante risque d'être bien contenu en rendu classique.  
 
Et je reste encore étonné du gouffre immense qu'il y a avec le GB202 qui est littéralement un double GB203, mais bon, faudra voir la grille tarifaire.  


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11361425
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 27-09-2024 à 15:24:36  profilanswer
 

Puis une 5090 a 600w qui repart a priori en dual slot , ça fait peur :lol: , a voir combien elle consommera vraiment en jeu etc..


---------------
FeedBack
n°11361426
ddlabrague​tte
Posté le 27-09-2024 à 15:25:25  profilanswer
 

aliss a écrit :


 
Je restais sur le thème des watts à dissiper.  ;)  


Dans sa première version, hawaii ne consommait pas beaucoup plus que le GK110
https://www.hardware.fr/medias/photos_news/00/43/IMG0043310.png
Il chauffait plus c'est vrai mais c'était principalement du au ventirad inadapté dans sa version FE  
Le die était aussi un peu plus petit que celui du GK110. Chose qui n'arrangeait rien
 
Edit: je voulais poster la vidéo meme avec le réacteur mais tu m'as devancé :o

Message cité 1 fois
Message édité par ddlabraguette le 27-09-2024 à 15:31:54
n°11361427
Neji Hyuga
Modérateur
:grut:
Posté le 27-09-2024 à 15:32:44  profilanswer
 

havoc_28 a écrit :


 
Hawaii > GK110. Performance quasiment au même niveau niveau jeux à la sortie et meilleur tenue dans le temps, puce plus compacte, consommation pas beaucoup plus élevée, performance plus élevée en DP64, si y avait pas CUDA pour l'aspect pro et le ventirad de référence :o ...


 
Merci de m'aider à réhabiliter Hawaii [:cetrio:1]


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11361429
aliss
Rhyme the Rhyme Well
Posté le 27-09-2024 à 15:37:15  profilanswer
 

ddlabraguette a écrit :


Dans sa première version, hawaii ne consommait pas beaucoup plus que le GK110
https://www.hardware.fr/medias/phot [...] 043310.png
Il chauffait plus c'est vrai mais c'était principalement du au ventirad inadapté dans sa version FE  
Le die était aussi un peu plus petit que celui du GK110. Chose qui n'arrangeait rien
 
Edit: je voulais poster la vidéo meme avec le réacteur mais tu m'as devancé :o


 
Même côté customs Hawaii a été compliqué à dissiper.
 
Il n'y a guère que Sapphire avec sa Tri-X (à la taille hors norme pour l'époque) qui y est arrivé sans trop de casse.
 
Chez Asus, MSI et cie c'était un rapport 80° et plus pour 40dba en charge.

n°11361437
ddlabrague​tte
Posté le 27-09-2024 à 15:52:45  profilanswer
 

aliss a écrit :


 
Même côté customs Hawaii a été compliqué à dissiper.
 
Il n'y a guère que Sapphire avec sa Tri-X (à la taille hors norme pour l'époque) qui y est arrivé sans trop de casse.
 
Chez Asus, MSI et cie c'était un rapport 80° et plus pour 40dba en charge.


C'est vrai mais amd avait mis la grosse pression sur ses partenaires pour proposer des prix très agressifs  
 
Pour rappel, le prix conseillé pour une 290 ( non X ) était de 360 € contre 480 pour une 780 .   500 pour la 290x contre 650 pour la 780 ti  
Ça n'a pas vraiment incité les fabricants à faire des efforts sur leurs cartes
Et c'est vrai que Sapphire était un peu la bonne surprise sur cette génération  
Après des cartes pitcain et tahiti à la qualité pour le moins douteuse, ils se sont bien rattrapés :jap:


Message édité par ddlabraguette le 27-09-2024 à 15:56:51
n°11361438
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 15:54:47  profilanswer
 

havoc_28 a écrit :

 

Hawaii > GK110. Performance quasiment au même niveau niveau jeux à la sortie et meilleur tenue dans le temps, puce plus compacte, consommation pas beaucoup plus élevée, performance plus élevée en DP64, si y avait pas CUDA pour l'aspect pro et le ventirad de référence :o ...


Avec plus de 6 mois de retard faut-il le rappeler  :D

 

Ceci n'a pas aidé amd.


Message édité par ravenloft le 27-09-2024 à 15:55:04

---------------
Ravenloft
n°11361477
havoc_28
Posté le 27-09-2024 à 17:24:43  profilanswer
 

ravenloft a écrit :


On ne sait pas si c'est pas exponentiel à un moment car on ne connait pas la gddr 7 en pratique.
C'est comme les cpus quand tu pousses sur les derniers mhz, la conso explose et augmente de façon presque exponentielle. C'est peut être le cas à l'heure actuelle avec de la gddr 7 aussi cadence vs la hausse du bus.
A voir.
 
Ce n'est qu'une hypothèse de ma part et elle est surement fausse mais comme on n'a aucune réponse, on ne peut émettre que des hypothèses de toute façon.
 
La seule chose que je trouve dommage mais ça l'était pour ada, c'est que le chip Gx202 n'aura surement qu'une seule carte l'utilisant alors qu'il y avait moyen d'agrandir la gamme et d'étager mieux les perfs. Peut être moins rentable pour nvidia mais pour les joueurs, je pense que ça serait mieux.


 
La GDDR7 est prévue pour monter assez rapidement à 32 Gb/s puis à 36 Gb/s par pin plus tard voir plus. Donc si ça surchauffe dés les 26/28 Gb/s comment on arrivera aux 32 Gb/s et pire encore les 36 Gb/s que prévoient les constructeurs ? Cette première fournée sera surement limitée à 26/28 Gb/s mais compte tenu des prévisions des constructeurs on peut penser que ses premiers 26/28 Gb/s ne seront pas un soucis niveau consommation / dissipation thermique.

n°11361484
jinxjab
Protection engendre sacrifice
Posté le 27-09-2024 à 18:08:10  profilanswer
 

jinxjab a écrit :


 
 
Je ne sais pas à quel point il faut ignorer ou prendre en compte l'effet joule ?
 
Parce que beaucoup oublient ou ne savent pas que plus la finesse de gravure est avancée et dense, plus le problème de la dissipation thermique est un défit.
=> Plus un circuit est petit et dense, plus il est difficile de le refroidir.
 


En réponse à mon questionnement.
 
[url] https://v-assets.cdnsw.com/fs/Root/ [...] ion_SC.pdf[/url]


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°11361490
bucheron9
Guided by angels
Posté le 27-09-2024 à 18:20:34  profilanswer
 

jinxjab a écrit :

J'adore le bashing NVidia de certains...
Un vrai régal de stupidités et de résonnements fallacieux.
 
 

Spoiler :

Par contre faut pas toucher à AMD !!! Et surtout pas faire remarquer qu'ils ont des pratiques de merdes en commun. Sinon ils mordent.



 
On peut apprécier la qualité des produits nvidia et aussi trouver matière à critiquer sur certaines de leurs politiques ( tarifaires, tendance à du "tout propriétaire", nerf de modèles en cours de commercialisation... ), sans pour autant faire du bashing nvidia primaire. L'inverse est tout aussi critiquable ( fanboyisme vert basique )
 

aliss a écrit :


 
Je te parle des écarts entre même architectures qui ne cessent d'augmenter entre la xx90 et la xx80, c'est pourtant assez flagrant.
 
RTX 3080 : 8704 / 320
RTX 3090 : 10496 / 384
 
RTX 4080 : 9728 / 256
RTX 4090 :16384 / 384
 
RTX 5080 : 10752 / 256
RTX 5090 : 21760 / 512
 
Et on peut également ajouter la vram, on passe d'un rapport 24 vs 16 à 32 vs 16...


 
Ca laisse un boulevard pour une 5080 super et / ou 5080ti. Vu qu'AMD a officiellement annoncé qu'il n'y aurait pas de modèle concurrent sur le HDG ( je continue de rêver à une sortie surprise d'un gros gpu RDNA4 ), nvidia aurait tort de ne pas en profiter pour segmenter et faire plein de brouzoufs sur la durée de vie de cette gen.
 
En tout cas je suis pessimiste sur les prix des 5090 et 5080, malheureusement ca risque de piquer...
 
Même si je risque de craquer sur une 5080 si je commence à me sentir à l'étroit en 4k sur les prochains gros jeux ^^
 


---------------
You shouldn't be doing that
n°11361497
Xixou2
Posté le 27-09-2024 à 18:50:33  profilanswer
 

PCB 14 layers, elle va être MEGA chère.

n°11361498
havoc_28
Posté le 27-09-2024 à 18:57:07  profilanswer
 

Xixou2 a écrit :

PCB 14 layers, elle va être MEGA chère.


 
La plus part des RTX 4090 sont déjà dans les 12/15 couches :o.

n°11361527
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 21:06:35  profilanswer
 

havoc_28 a écrit :


 
La GDDR7 est prévue pour monter assez rapidement à 32 Gb/s puis à 36 Gb/s par pin plus tard voir plus. Donc si ça surchauffe dés les 26/28 Gb/s comment on arrivera aux 32 Gb/s et pire encore les 36 Gb/s que prévoient les constructeurs ? Cette première fournée sera surement limitée à 26/28 Gb/s mais compte tenu des prévisions des constructeurs on peut penser que ses premiers 26/28 Gb/s ne seront pas un soucis niveau consommation / dissipation thermique.


C'est prévu pour monter mais pas tout de suite donc ce sera avec des améliorations techniques.
 
Peut être qu'en l'état actuel il y a des soucis qui font que ça fait trop chauffer, soucis qui ont été corrigés ou seront corrigés trop tard pour que la 5090 en profite.
Ce n'est qu'une supposition mais comme on n'en sait rien on verra.


---------------
Ravenloft
n°11361529
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-09-2024 à 21:08:17  profilanswer
 


bucheron9 a écrit :


 
Ca laisse un boulevard pour une 5080 super et / ou 5080ti. Vu qu'AMD a officiellement annoncé qu'il n'y aurait pas de modèle concurrent sur le HDG ( je continue de rêver à une sortie surprise d'un gros gpu RDNA4 ), nvidia aurait tort de ne pas en profiter pour segmenter et faire plein de brouzoufs sur la durée de vie de cette gen.
 
En tout cas je suis pessimiste sur les prix des 5090 et 5080, malheureusement ca risque de piquer...
 
Même si je risque de craquer sur une 5080 si je commence à me sentir à l'étroit en 4k sur les prochains gros jeux ^^
 


Ils pouvaient le faire avec une 4080ti mais ils ne l'ont pas fait alors qu'amd avait rien à offrir dans cet espace. Donc, ça peut être pareil avec ça.


---------------
Ravenloft
n°11361534
havoc_28
Posté le 27-09-2024 à 21:30:36  profilanswer
 

ravenloft a écrit :


C'est prévu pour monter mais pas tout de suite donc ce sera avec des améliorations techniques.
 
Peut être qu'en l'état actuel il y a des soucis qui font que ça fait trop chauffer, soucis qui ont été corrigés ou seront corrigés trop tard pour que la 5090 en profite.
Ce n'est qu'une supposition mais comme on n'en sait rien on verra.


 
https://www.micron.com/products/mem [...] nsity=16Gb
 
28 Gb/s et 32 Gb/s en phase d'échantillonnage chez Micron.  
 
Bref la GDDR7 commencera sa carrière dans les 26/28 Gb/s par pins, mais pas moins et y a qu'à voir les annonces de Micron, Samsung, Hynix à ce sujet.

n°11361562
$k-flown
Posté le 28-09-2024 à 06:56:29  profilanswer
 

Les rumeurs qui reviennent sur un seul connecteur finalement, du coup quid du partage de la charge ?
 
J'espère qu'ils sont bien sûr de ce choix pour les early acheteurs, sinon ça va chauffer.

n°11361572
ravenloft
Meilleur jeu du 20ème siècle
Posté le 28-09-2024 à 08:47:10  profilanswer
 

Tu penses que le fait d'avoir 2 connecteurs exigeant d'acheter des alims de 1300 W et + (pour l'heure seules ce type d'alim a 2 connecteurs) c'était mieux pour les acheteurs ? Des acheteurs qui avaient pour surement une partie non négligeable déjà acheter une nouvelle alim récemment ?
 :lol:  
 
 
La geforce 5090 aura droit à nouveau connecteur atx3.1 ce qui résoudra les soucis.


---------------
Ravenloft
n°11361584
olioops
Si jeune et déjà mabuse.
Posté le 28-09-2024 à 09:54:13  profilanswer
 

je n'ai pas l'impression qu'il faudra changer d'alim pour ceux qui en ont prit une bonne dès le départ ces dernières années ! perso j'ai une alim qui a 7 ans et qui a suffisament de PCI-E pour que ma future RTX5090 puisse y être connectée en toute sécurité...

 

https://www.amazon.fr/gp/product/B0 [...] UTF8&psc=1
( 176€ TTC à l'époque).

 

à la limite je veux bien envisager qu'elle soit limite pour des pics de puissance instantanée intégrés dans les nouvelles normes ATX, mais j'en doute ....à voir.

Message cité 1 fois
Message édité par olioops le 28-09-2024 à 11:47:56

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°11361587
ravenloft
Meilleur jeu du 20ème siècle
Posté le 28-09-2024 à 10:18:25  profilanswer
 

olioops a écrit :

je n'ai pas l'impression qu'il faudra changer d'alim pour ceux qui en ont prit une bonne dès le départ ces dernières années ! perso j'ai une alim qui a 7 ans et qui a suffisament de connecteur PCI-E pour que ma future RTX5090 puisse y être connecté en toute sécurité...
 
https://www.amazon.fr/gp/product/B0 [...] UTF8&psc=1
 
à la limite je veux bien envisager qu'elle soit limite pour des pics de puissance instantanée intégrés dans les nouvelles normes ATX, mais j'en doute ....à voir.


Les kits atx 3 sont justement prévu pour ces pics de puissance. Sur les alims avant atx 3, il n'y avait pas ça donc oui c'est à tester.
Après les adaptateurs sur les connecteurs, je ne sais pas ce que ça vaut non plus.


---------------
Ravenloft
n°11361591
azubal
Posté le 28-09-2024 à 10:38:11  profilanswer
 

Youhouuu.
La 5090 aura 32Go de VRAM  :love:

 

Source: https://www.jeuxvideo.com/news/1928 [...] oueurs.htm

n°11361593
Regla88
Posté le 28-09-2024 à 10:43:17  profilanswer
 

azubal a écrit :

Youhouuu.
La 5090 aura 32Go de VRAM  :love:  
 
Source: https://www.jeuxvideo.com/news/1928 [...] oueurs.htm


 
32 Go en GDDR7, c'est top, mais ça ne sera pas gratuit, donc ça risque de rendre cette carte encore plus select, je crais un prix de 2500$
 
Et pour la 5080, ça serait encore du 16 Go, du 24 aurait pas fait de mal.
 

n°11361612
supersym
ouh Pinèz
Posté le 28-09-2024 à 12:06:05  profilanswer
 

coté alim j'ai pas peur, par contre déjà que ma 4090 climatise la pièce...


---------------
Mon feed back http://forum.hardware.fr/hfr/Achat [...] 3815_1.htm  http://hwbot.org/submission/2269750_
n°11361621
azubal
Posté le 28-09-2024 à 12:27:21  profilanswer
 

Plus besoin d'allumer le chauffage en hiver  :D

n°11361627
Eliquis
Notez kon dit à quatre pattes
Posté le 28-09-2024 à 12:39:20  profilanswer
 

azubal a écrit :

Youhouuu.
La 5090 aura 32Go de VRAM  :love:  
 
Source: https://www.jeuxvideo.com/news/1928 [...] oueurs.htm


Sur SW Outlaws avant les patchs dédiés, je montais à + de 23go de VRam utilisée  :D donc [:kunks] aussi !


Message édité par Eliquis le 28-09-2024 à 12:40:32
n°11361628
supersym
ouh Pinèz
Posté le 28-09-2024 à 12:40:13  profilanswer
 

azubal a écrit :

Plus besoin d'allumer le chauffage en hiver  :D


 
le radiateur est coupé  :o  


---------------
Mon feed back http://forum.hardware.fr/hfr/Achat [...] 3815_1.htm  http://hwbot.org/submission/2269750_
n°11361647
havoc_28
Posté le 28-09-2024 à 14:00:20  profilanswer
 

https://videocardz.com/newz/nvidia- [...] r7-modules
 
Une 5080 avec 16 Go puis 24 Go une fois que les puces de 3 GB seraient disponible sur le marché ...
 
ça serait mieux que Nvidia révise son plan en utilisant un GB202 castré avec un bus 384 bits et un peu plus d'unités pour sa 5080, et la 5080 16 Go renommé en 5070 Ti, ha mais c'est pas ce qui c'était passé avec ADA (à peu près ? :D).  
 

$k-flown a écrit :

Les rumeurs qui reviennent sur un seul connecteur finalement, du coup quid du partage de la charge ?
 
J'espère qu'ils sont bien sûr de ce choix pour les early acheteurs, sinon ça va chauffer.


 
Les gens qui ont des alimentations ATX 3.x sont déjà prête, et les autres et bien ils utilisent un adaptateur avec 3/4 connecteur 8 pins (la pieuvre) et pas de soucis de charges.
Après faudra toujours voir comment se comporte le nouveau connecteur avec la 5090.


Message édité par havoc_28 le 28-09-2024 à 14:10:08
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  46  47  48  ..  57  58  59  60  61  62

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR