Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1324 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11327799
PSX86
ZeroAndOne
Posté le 05-03-2024 à 10:47:25  profilanswer
 

Reprise du message précédent :
Alors 25% de SM en plus et des fréquences augmentés ... ça reste réaliste. 192 vs 144.


Message édité par PSX86 le 05-03-2024 à 10:50:53
mood
Publicité
Posté le 05-03-2024 à 10:47:25  profilanswer
 

n°11327835
Snev
Posté le 05-03-2024 à 13:01:42  profilanswer
 

Et pour ce qui est de specs qui reviennent régulièrement, tjs à l'état de rumeur à ce que je sache :
 
https://i.ibb.co/1d7FRWS/Screenshot-2024-03-05-130120.png


Message édité par Snev le 05-03-2024 à 13:06:51

---------------
Pour bloquer les posts d'un membre HFR : 1 - Installer l'extension https://www.tampermonkey.net || 2 - Sur https://forum.hardware.fr/forum2.ph [...] ost=116015 trouver "[MOD] [HFR] Bloque liste mod_r21 (version 4.2.3)".
n°11327892
PSX86
ZeroAndOne
Posté le 05-03-2024 à 14:56:57  profilanswer
 

A noté que je me suis trompé ce nombre de SM qui est par puce et non par flagship Nvidia ... AD 102 144 SM, mais 128 SM sur la 4090. Et donc le GB202 192 SM ne veux pas dire que la 5090 aura 192 SM.

n°11328063
jumbaii
Posté le 06-03-2024 à 13:40:15  profilanswer
 

Si ce qui est bouledecristalisé au dessus est vrai et si nvidia a accès au 3nm, la conso ne devrait pas être très différente de celle de la 4090


---------------
GT : jumbaii7
n°11328066
havoc_28
Posté le 06-03-2024 à 14:02:53  profilanswer
 

Roovy a écrit :

C'est l'arrivée des puces de 4 Go de GDDR7 qui permettra à terme une augmentation généralisée de la taille de la VRAM , plutôt que de compter sur un élargissement du bus ou bien sur le mode clamshell pour pouvoir caser plus de puces de 2 Go.
Reste à savoir quand ça viendra ; ce n'est pas prévu pour les débuts de la GDDR7 ?
 


 
Avec la ratification des specs de la GDDR7 on y voit un peu plus clair :  
 
https://www.3dcenter.org/news/jedec [...] eicherchip
https://videocardz.com/press-releas [...] y-standard
 
Bon au final on aura bien des puces de 4 Go, mais c'est clairement pas pour tout de suite, mais des puces de 3 Go ça semble pas spécialement très éloigné (on peut rater les infos :o).


Message édité par havoc_28 le 06-03-2024 à 14:07:39
n°11328178
PSX86
ZeroAndOne
Posté le 06-03-2024 à 23:26:07  profilanswer
 

Bien !! :)

n°11328181
Mesobuthus
Posté le 07-03-2024 à 00:20:54  profilanswer
 

Pourquoi ne parle ton pas également de GDDR7X?
Ce suffixe était pourtant utilisé pour désigner une mémoire boostée sur les modèles 80 et 90 et anciennement sur les versions ti.  
Je ne comprends pas pourquoi Nvidia ferait l'impasse pour les 5090 et 5080.
 
Ou alors un truc m'échappe.

n°11328187
havoc_28
Posté le 07-03-2024 à 02:03:57  profilanswer
 

Mesobuthus a écrit :

Pourquoi ne parle ton pas également de GDDR7X?
Ce suffixe était pourtant utilisé pour désigner une mémoire boostée sur les modèles 80 et 90 et anciennement sur les versions ti.  
Je ne comprends pas pourquoi Nvidia ferait l'impasse pour les 5090 et 5080.
 
Ou alors un truc m'échappe.


 
La GDDR7X n'existe tout simplement pas pour l'instant, que ce soit la GDDR5X / GDDR6X ce furent des solutions intérimaires (développer par Micron en partenariat avec Nvidia sans le JEDEC mais tout de même ratifié par le JEDEC pour la 5X en tout cas), attendant l'introduction respectivement de la GDDR6 et 7( les X ne sont pas juste de la mémoire boostée, mais de nouvelles normes en soit).
 
Quand la GDDR5X est sortie, la GDDR5 ne dépassait pas les 8 Gb/s (y a eut 9 Gb/s par la suite), la X faisait du 10 Gb/s voir 12. De même pour la GDDR6X, la non X à l'époque plafonnait à 16 Gb/s vs 19/21 Gb/s pour la X, la non X est désormais à 20 Gb/s voir 24 Gb/s par pin chez samsung mais toujours en phase d'échantillonnage).
 
Bref la GDDR7 vient juste pointer le bout de son nez avec des débits nettement supérieurs on parle de jusqu'à 32 Gb/s avec surement un début à 24/26/28 Gb/s.
 
Donc la GDDR7X c'est pour plus tard si elle sort un jour.
 
Pascal a introduit la GDDR5X sur une partie de la gamme, mais Turing par exemple n'utilise que de la GDDR6, il a fallut attendre ampère pour la Variante X.

Message cité 1 fois
Message édité par havoc_28 le 07-03-2024 à 14:26:28
n°11328191
Scrabble
Posté le 07-03-2024 à 07:28:13  profilanswer
 

Mesobuthus a écrit :

Pourquoi ne parle ton pas également de GDDR7X?
Ce suffixe était pourtant utilisé pour désigner une mémoire boostée sur les modèles 80 et 90 et anciennement sur les versions ti.  
Je ne comprends pas pourquoi Nvidia ferait l'impasse pour les 5090 et 5080.
 
Ou alors un truc m'échappe.


C'est pas parce qu'il n'y a pas de "X" a la fin que c'est du bas de gamme, la GDDR7 est déjà ultra performante

n°11328258
Mesobuthus
Posté le 07-03-2024 à 12:00:07  profilanswer
 

havoc_28 a écrit :


 
La GDDR7X n'existe tout simplement pas pour l'instant, que ce soit la GDDR5X / GDDR6X ce furent des solutions intérimaires (développer par Micron en partenariat avec Nvidia sans le JEDEC mais tout de même ratifié par le JEDEC pour la 5X en tout cas), attendant l'introduction respectivement de la GDDR6 et 7( les X ne pas juste de la mémoire boostée, mais de nouvelles normes en soit).
 
Quand la GDDR5X est sortie, la GDDR5 ne dépassait pas les 8 Gb/s (y a eut 9 Gb/s par la suite), la X faisait du 10 Gb/s voir 12. De même pour la GDDR6X, la non X à l'époque plafonnait à 16 Gb/s vs 19/21 Gb/s pour la X, la non X est désormais à 20 Gb/s voir 24 Gb/s par pin chez samsung mais toujours en phase d'échantillonnage).
 
Bref la GDDR7 vient juste pointer le bout de son nez avec des débits nettement supérieurs on parle de jusqu'à 32 Gb/s avec surement un début à 24/26/28 Gb/s.
 
Donc la GDDR7X c'est pour plus tard si elle sort un jour.
 
Pascal a introduit la GDDR5X sur une partie de la gamme, mais Turing par exemple n'utilise que de la GDDR6, il a fallut attendre ampère pour la Variante X.


 
Merci, c'est très clair comme explication et intéressant.
Certes il y a une bonne petite différence entre les versions X et non X , ça n'a jamais été négligeable en terme de perfs c'est bien plus véloce, pour autant nous auront une sacrée différence avec cette nouvelle GDDR7, même non X ça va vraiment être un gros changement.  
J'ai hâte de voir ça!
 

Scrabble a écrit :


C'est pas parce qu'il n'y a pas de "X" a la fin que c'est du bas de gamme, la GDDR7 est déjà ultra performante


 
Je n'ai jamais dit ça !  :o  
Surtout que ces suffixes sont destinés à la base au haut du panier...


Message édité par Mesobuthus le 07-03-2024 à 12:05:18
mood
Publicité
Posté le 07-03-2024 à 12:00:07  profilanswer
 

n°11328297
cyberfred
Posté le 07-03-2024 à 14:25:35  profilanswer
 

effectivement , maintenant comme le dit Havoc_28 :  GDDR7x pour plus tard si elle sort
en l'état actuel des choses , rien ne dit qu'il y aura de la GDDR7x  !
on pourrait très bien rester  plusieurs années avec des  CGs NVidia ou AMD en GDDR7 sans forcément passer par la case GDDR7x.

n°11328320
aliss
Rhyme the Rhyme Well
Posté le 07-03-2024 à 16:22:42  profilanswer
 

NVidia utilisera des modules de 2 Gb pour ses prochaines cartes selon kopite7kimi, habituellement bien informé.
 
https://videocardz.com/newz/first-g [...] n-roadmaps

n°11328334
havoc_28
Posté le 07-03-2024 à 17:26:28  profilanswer
 

aliss a écrit :

NVidia utilisera des modules de 2 Gb pour ses prochaines cartes selon kopite7kimi, habituellement bien informé.
 
https://videocardz.com/newz/first-g [...] n-roadmaps


 
Samsung avait annoncé des puces de 2 GO pour l'introduction de la GDDR7, les puces 3 GO viendraient donc un peu plus tard, peut être pour un éventuel refresh de la gamme Blackwell à voir quand ces puces seront disponibles, à voir quand elles seront réellement disponible ces puces.

n°11328863
aliss
Rhyme the Rhyme Well
Posté le 11-03-2024 à 10:39:41  profilanswer
 

kopite7kimi est très loquace en ce moment.

 

Le GB202 dans sa version complete utiliserait un bus 512 bit, ce qui donnerait un flagship embarquant logiquement 32gb de vram.

 

Il mentionne l'utilisation de GDDR7 28Gbps.

 

Le GB203 quant à lui serait un "demi" GB202. Ce qui suggèrerait une gamme x80 à nouveau basée sur le big chip.

 

https://twitter.com/kopite7kimi

Message cité 1 fois
Message édité par aliss le 11-03-2024 à 10:48:37
n°11328866
jinxjab
Protection engendre sacrifice
Posté le 11-03-2024 à 10:51:26  profilanswer
 

aliss a écrit :

kopite7kimi est très loquace en ce moment.
 
Le GB202 dans sa version complete utiliserait un bus 512 bit, ce qui donnerait un flagship embarquant logiquement 32gb de vram.
 
Il mentionne l'utilisation de GDDR7 28Gbps.
 
Le GB203 quant à lui serait un "demi" GB202. Ce qui suggèrerait une gamme x80 à nouveau basée sur le big chip.
 
https://twitter.com/kopite7kimi


 
 
Heu si le message en question est celui-ci :
https://twitter.com/kopite7kimi/sta [...] de-vram%2F
Alors je pense que l'anglais doit être retravaillé !  :o  
 
" Although I still have fantasies about 512 bit, the memory interface configuration of GB20x is not much different from that of AD10x. "
 
=> https://www.tomshardware.fr/geforce [...] t-de-vram/
En français pour plus de compréhension   :D  ;)  
 
 
 


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.”
n°11328871
aliss
Rhyme the Rhyme Well
Posté le 11-03-2024 à 11:06:09  profilanswer
 

jinxjab a écrit :


 
 
Heu si le message en question est celui-ci :
https://twitter.com/kopite7kimi/sta [...] de-vram%2F
Alors je pense que l'anglais doit être retravaillé !  :o  
 
" Although I still have fantasies about 512 bit, the memory interface configuration of GB20x is not much different from that of AD10x. "
 
=> https://www.tomshardware.fr/geforce [...] t-de-vram/
En français pour plus de compréhension   :D  ;)  
 
 
 


 
https://i.postimg.cc/HLtRCpbw/GB202-512-bit.jpg
 
https://x.com/kopite7kimi/status/17 [...] 59137?s=20
 
https://i.postimg.cc/rwTCS5tJ/GB202-512-bit-2.jpg
 
https://twitter.com/CalamityyYT/sta [...] 8839846319
 
 
 
 

n°11328873
jinxjab
Protection engendre sacrifice
Posté le 11-03-2024 à 11:29:45  profilanswer
 


 
 
Mokay.
 
Meaculpa !
En même temps les mecs qui disent tout et son contraire suivant le moment de la journée ou de la semaine c'est assez amusant.
 
Personnellement, il m'est difficile d'adhérer à cette rumeur.
1/ NVidia n'utilise plus le bus 512bits sur le "mainstream" depuis longtemps;
2/ Il faudrait que NVidia soit bousculé sur le HdG "mainstream" pour pousser les specs, et ATI AMD ne semble pas en prendre le chemin sur la génération à venir;
 
(à moins d'avoir loupé un épisode, pour ma part)
 
 
 
 


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.”
n°11328874
aliss
Rhyme the Rhyme Well
Posté le 11-03-2024 à 11:38:23  profilanswer
 

On pourrait penser que le 9 mars il est parti à la pêche aux infos car il insistait sur une telle largeur de bus depuis juillet 2023.
 
Je suis également étonné, il me semble que le dernier gpu 512bit desktop c'était AMD avec Hawaii en 2013.
 
Bref c'est pour cette raison que j'ai utilisé le conditionnel, on verra bien.

n°11328879
Rayaki
Posté le 11-03-2024 à 11:56:42  profilanswer
 

le bus 512bit, c'est un peu un fantasme qu'on sort à chaque leak de GPU nvidia... on l'a eu pour la 4090 et aussi la 3090...


---------------
Clan Torysss.
n°11328884
ddlabrague​tte
Posté le 11-03-2024 à 12:22:16  profilanswer
 

aliss a écrit :

On pourrait penser que le 9 mars il est parti à la pêche aux infos car il insistait sur une telle largeur de bus depuis juillet 2023.
 
Je suis également étonné, il me semble que le dernier gpu 512bit desktop c'était AMD avec Hawaii en 2013.
 
Bref c'est pour cette raison que j'ai utilisé le conditionnel, on verra bien.


 
Il n'y a que 3 gpu à ma connaissance  
Le R600, Hawaii chez les rouges  
Et le GT200 chez les verts  
 
Et en général, c'était pour compenser les limitations bp de la norme GDDR en vigueur à ce moment là  
 
Et à chaque nouvelle norme, on avait le droit à un retour en arrière car les gains offerts par l'évolution de cette dernière permettaient d'économiser des transistors pour une bp équivalente  
A l'aube de l'arrivée de la GDDR7, le passage vers un bus 512 bits serait donc assez surprenant  [:tammuz]
 
J'aimerai  que ces transistors soient plutôt alloués à rajouter plus de RT cores par clusters  [:skaine:1]

Message cité 1 fois
Message édité par ddlabraguette le 11-03-2024 à 14:21:02
n°11328893
havoc_28
Posté le 11-03-2024 à 13:56:12  profilanswer
 

L'actuelle 4090 c'est 48*21 = 1008 GB/s de BP. En passant à de la GDDR7 @ 28, 48*28 = 1344 GB/s.
Avec un bus 512 bits 64*28 = 1792 GB/s.
 
Admettons que le bus 512 bits soit "réel", donc le GB202 le gain de performance doit être énorme pour avoir besoin d'autant de BP, ou alors le GB202 servira également pour les data center / ferme d'apprentissage machine etc ou le besoin de BP est encore plus important que dans une utilisation jeu, même si Nvidia a déjà des puces bien plus optimisées pour cela ? Genre la famille Hooper avec HBM et compagnie. Mais c'est vrai que Hooper c'est nettement plus chère :o.
 
Après ce genre de rapporteurs de fuites finis toujours par se faire "avoir" à un moment ou un autre.

Message cité 1 fois
Message édité par havoc_28 le 11-03-2024 à 13:58:35
n°11328894
aliss
Rhyme the Rhyme Well
Posté le 11-03-2024 à 14:03:20  profilanswer
 

ddlabraguette a écrit :


 
Il n'y a que 3 gpu à ma connaissance  
Le R600, Hawaii chez les rouges  
Et le GT200 chez les verts  
 
Et en général, c'était pour compenser les limitations bp de la norme GDDR en vigueur à ce moment là  
 
Et à chaque nouvelle norme, on avait le droit à un retour en arrière car les gains offerts par l'évolution de cette dernière permettaient d'économiser des transistors pour une bp équivalente  
A l'aube de l'arrivée de la GDDR7, le passage vers un bus 512 bits serait donc assez surprenant  [:tammuz]
 
J'aimerai plutôt que ces transistors soient plutôt alloués à rajouter plus de RT cores par clusters  [:skaine:1]


 
AMD s'est entêté puisque après Hawaii il y eu Fiji et Vega 10/20 avant de revenir sur quelque chose de plus conventionnel avec RDNA.

n°11328898
ddlabrague​tte
Posté le 11-03-2024 à 14:19:35  profilanswer
 

C'est un cas particulier  [:pierre_j_paillasson:8]

n°11328900
aliss
Rhyme the Rhyme Well
Posté le 11-03-2024 à 14:23:35  profilanswer
 

havoc_28 a écrit :

L'actuelle 4090 c'est 48*21 = 1008 GB/s de BP. En passant à de la GDDR7 @ 28, 48*28 = 1344 GB/s.
Avec un bus 512 bits 64*28 = 1792 GB/s.
 
Admettons que le bus 512 bits soit "réel", donc le GB202 le gain de performance doit être énorme pour avoir besoin d'autant de BP, ou alors le GB202 servira également pour les data center / ferme d'apprentissage machine etc ou le besoin de BP est encore plus important que dans une utilisation jeu, même si Nvidia a déjà des puces bien plus optimisées pour cela ? Genre la famille Hooper avec HBM et compagnie. Mais c'est vrai que Hooper c'est nettement plus chère :o.
 
Après ce genre de rapporteurs de fuites finis toujours par se faire "avoir" à un moment ou un autre.


 
 
La BP n'a guère évolué entre le GA102 et l'AD102 mais ce fût en partie compensé par l'énorme augmentation du cache L2.
 
Quid sur un nouveau big chip bénéficiant déjà de cette option ?

n°11328908
havoc_28
Posté le 11-03-2024 à 15:05:39  profilanswer
 

aliss a écrit :


 
 
La BP n'a guère évolué entre le GA102 et l'AD102 mais ce fût en partie compensé par l'énorme augmentation du cache L2.
 
Quid sur un nouveau big chip bénéficiant déjà de cette option ?


 
La GDDR7 apporte 33 % de BP en plus déjà non ? Si on compare la 4090 et l'hypothétique 5090 @ 384 Bits et GDDR7 @ 28. Gb/s pin.

Message cité 1 fois
Message édité par havoc_28 le 11-03-2024 à 15:08:08
n°11328911
aliss
Rhyme the Rhyme Well
Posté le 11-03-2024 à 15:18:03  profilanswer
 

havoc_28 a écrit :


 
La GDDR7 apporte 33 % de BP en plus déjà non ? Si on compare la 4090 et l'hypothétique 5090 @ 384 Bits et GDDR7 @ 28. Gb/s pin.


 
Oui, quant à savoir si c'est suffisant... :??:  
 
A titre de comparaison, le bond en BP était de 85% entre N21 et N31.  :D  

n°11328913
Neji Hyuga
Modérateur
:grut:
Posté le 11-03-2024 à 15:20:32  profilanswer
 

La GDDR7 répond à la problématique, ouais.  
 
Le gain est suffisant pour ne pas avoir à se faire suer avec un bus gigantesque, ni sacrifier encore un peu de place sur la puce avec une augmentation du cache L2 (même si ce point là n'est pas impossible non plus).  
 
Si le leak s'avère, le GB202 équipera un produit plus exclusif encore que ne l'est la 4090.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11328915
havoc_28
Posté le 11-03-2024 à 15:26:30  profilanswer
 

aliss a écrit :


 
Oui, quant à savoir si c'est suffisant... :??:  
 
A titre de comparaison, le bond en BP était de 85% entre N21 et N31.  :D  


 
Et le gain de perf était très loin des 85 % :o. De toute façon pour l'instant c'est trop tôt pour savoir, mais comme le dit Neji Hyuga, une telle configuration c'est pour le retour des Titans ?  :pt1cable:

Message cité 2 fois
Message édité par havoc_28 le 11-03-2024 à 15:27:51
n°11328919
aliss
Rhyme the Rhyme Well
Posté le 11-03-2024 à 15:36:13  profilanswer
 

havoc_28 a écrit :


 
Et le gain de perf était très loin des 85 % :o. De toute façon pour l'instant c'est trop tôt pour savoir, mais comme le dit Neji Hyuga, une telle configuration c'est pour le retour des Titans ?  :pt1cable:


 
L'idée c'est plutôt d'éviter une limitation liée à une bp trop faiblarde.

n°11328922
havoc_28
Posté le 11-03-2024 à 15:43:44  profilanswer
 

aliss a écrit :

L'idée c'est plutôt d'éviter une limitation liée à une bp trop faiblarde.


 
Entre N21 sauce 6950 XT et N31 de la 7900 XTX, coté GDDR6 on était passé de 18 Gb/s par pin à 20 Gb/s par pin, ce qui ne fait "que" 11 % de gain coté bande passante offerte par les puces mémoires, donc oui fallait obligatoirement augmenter la largeur du bus, mais pour le futur B202 à moins que ce soit un énorme monstre à tous les niveaux, est ce que 33 % de gain en BP coté mémoire, plus une "petite" augmentation à nouveau du L2 comme suggéré plus haut par Neji Hyuga en passant a 96 à 128 mo (par exemple) ne suffirait pas au final ?


Message édité par havoc_28 le 11-03-2024 à 15:44:32
n°11328980
aster
Chaotic Neutral
Posté le 11-03-2024 à 20:41:51  profilanswer
 

Drap'
La GDDR7 sur bus512 ça me hype bien :d

n°11328983
Neji Hyuga
Modérateur
:grut:
Posté le 11-03-2024 à 20:56:21  profilanswer
 

havoc_28 a écrit :


 
Et le gain de perf était très loin des 85 % :o. De toute façon pour l'instant c'est trop tôt pour savoir, mais comme le dit Neji Hyuga, une telle configuration c'est pour le retour des Titans ?  :pt1cable:


 
Alors techniquement la 4090 est déjà une Titan (et la 3090 avant elle), ils n'utilisent plus cette dénomination pour des raisons de marque déposée qui empêcherait les partenaires de concevoir des customs (c'est du moins ce que la firme m'a expliqué). Ils ont donc ressorti la gamme X90 qui était utilisée pour les bi GPU et parlent en même temps de "carte de classe Titan".


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11328986
cyberfred
Posté le 11-03-2024 à 21:10:53  profilanswer
 

aster a écrit :

Drap'
La GDDR7 sur bus512 ça me hype bien :d


 
rumeurs pour l'instant , faut pas s'enflammer trop vite , on est encore assez loin de la sortie des cartes ;)
(déjà à voir si ca sort bien cette année , car pour le moment rien de sûr , certaines rumeurs tablent sur début 2025 , d'autres fin d'année , bref pour le moment rien de sûr même si je suis hypé aussi :D )


Message édité par cyberfred le 11-03-2024 à 22:31:56
n°11329008
aliss
Rhyme the Rhyme Well
Posté le 12-03-2024 à 08:19:04  profilanswer
 

Neji Hyuga a écrit :


 
Alors techniquement la 4090 est déjà une Titan (et la 3090 avant elle), ils n'utilisent plus cette dénomination pour des raisons de marque déposée qui empêcherait les partenaires de concevoir des customs (c'est du moins ce que la firme m'a expliqué). Ils ont donc ressorti la gamme X90 qui était utilisée pour les bi GPU et parlent en même temps de "carte de classe Titan".


 
Je partage ton avis mais il y a néanmoins une différence notable entre les 2 gpu's.
 
Là ou le GA102 était décliné en 4 versions desktop et le ticket d'entrée à 700$, il n'y a qu'une version de l'AD102 à 1600$.
 
"L'effet Titan" se ressent bien plus sur ce dernier.

n°11329011
Neji Hyuga
Modérateur
:grut:
Posté le 12-03-2024 à 09:18:41  profilanswer
 

Tout a fait.
 
Sur la génération Ada, le bigchip est exclusif à la "Titan", ce n'était encore jamais arrivé.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11329045
ravenloft
Meilleur jeu du 20ème siècle
Posté le 12-03-2024 à 12:33:08  profilanswer
 

jinxjab a écrit :

 


Mokay.

 

Meaculpa !
En même temps les mecs qui disent tout et son contraire suivant le moment de la journée ou de la semaine c'est assez amusant.

 

Personnellement, il m'est difficile d'adhérer à cette rumeur.
1/ NVidia n'utilise plus le bus 512bits sur le "mainstream" depuis longtemps;
2/ Il faudrait que NVidia soit bousculé sur le HdG "mainstream" pour pousser les specs, et ATI AMD ne semble pas en prendre le chemin sur la génération à venir;

 

(à moins d'avoir loupé un épisode, pour ma part)

  




kopite7kimi contrairement à moore law is dead s'est avéré être fiable par le passé concernant les leaks sur les geforce.
Cela ne veut pas dire qu'il a forcément raison mais il s'est avéré être fiable bien souvent.

Message cité 1 fois
Message édité par ravenloft le 12-03-2024 à 12:34:40

---------------
Ravenloft
n°11329057
jinxjab
Protection engendre sacrifice
Posté le 12-03-2024 à 14:26:19  profilanswer
 

ravenloft a écrit :


kopite7kimi contrairement à moore law is dead s'est avéré être fiable par le passé concernant les leaks sur les geforce.  
Cela ne veut pas dire qu'il a forcément raison mais il s'est avéré être fiable bien souvent.


 
Mouais ... et un autre point de vu serait d'évoquer la parabole de la pendule (l'horloge) cassée.  :o  
 
A chacun sa vision de la divination  :whistle:  
 


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.”
n°11329082
jinxjab
Protection engendre sacrifice
Posté le 12-03-2024 à 17:50:02  profilanswer
 

https://videocardz.com/newz/nvidia- [...] ims-leaker
 
Rumeur du jour ...
 
=> "GB203 is 256-bit and GB205 is 192-bit."
=> No 384-bit
=> GB203 with 96 SM => 5080

Message cité 1 fois
Message édité par jinxjab le 12-03-2024 à 17:50:16

---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.”
n°11329097
Xixou2
Posté le 12-03-2024 à 18:53:22  profilanswer
 

jinxjab a écrit :

https://videocardz.com/newz/nvidia- [...] ims-leaker
 
Rumeur du jour ...
 
=> "GB203 is 256-bit and GB205 is 192-bit."
=> No 384-bit
=> GB203 with 96 SM => 5080


 
De la merde donc  :sarcastic:

n°11329106
Scrabble
Posté le 12-03-2024 à 20:01:49  profilanswer
 

De toute façons, les seuls cinq paramètres qui comptent sont :
- Les performances en rastérisation
- Les performances en ray tracing
- La quantité de VRAM
- L'efficacité énergétique
- Le prix
Tout le reste, c'est ce qu'il y a sous le capot, ça ne concerne pas le gamer

n°11329108
VltimaRati​o
Posté le 12-03-2024 à 20:10:20  profilanswer
 

Drapal

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR