Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1072 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11299612
coil whine
Posté le 21-11-2023 à 20:17:02  profilanswer
 

Reprise du message précédent :
Et de vendre des ventus.  [:moundir]

mood
Publicité
Posté le 21-11-2023 à 20:17:02  profilanswer
 

n°11299635
Snev
Posté le 21-11-2023 à 20:57:59  profilanswer
 

Scrabble a écrit :

Blackwell devrait utiliser un plus gros cache mémoire encore que Lovelace, or le cache mémoire, c'est l'optimisation de la dernière chance, vu la quantité de transistors que ça bouffe, tout cela se répercutera sur la facture


on reste sur la même finesse de gravure ? tout va dépendre de ça


---------------
Pour bloquer les posts d'un membre HFR : 1 - Installer l'extension https://www.tampermonkey.net || 2 - Sur https://forum.hardware.fr/forum2.ph [...] ost=116015 trouver "[MOD] [HFR] Bloque liste mod_r21 (version 4.2.3)".
n°11299744
Neji Hyuga
Modérateur
:grut:
Posté le 22-11-2023 à 10:36:27  profilanswer
 

ddlabraguette a écrit :


C'est vrai pour le hdg. La 4090 consomme plus que la 3090 ( non TI )  
Pas pour le mdg ou ils ont plutôt visé un compromis 30 % de perf en plus pour 20 % de watt en moins ( à la louche :o )  
( 3070ti vs 4070ti )  
 
Mais 40% plus cher :o


 
Ouais, on a commencé à avoir une augmentation assez significative du TDP sur le mdg/edg avec Turing, faute à la finesse de gravure qui n'avait pas réellement bougé.
 
On s'est retrouvé avec 250W max pour le TU104 (215W sur la 2080 standard) et 175W pour le TU106, avant on tournait plutôt autour des ~170W et 120W pour ces gammes de puces (avec une exception sur Kepler, où les TDP avaient été poussés un petit peu plus haut, sûrement pour permettre au GK104 de squatter calmement les gammes X70/X80).
 
Par contre le flagship était vissé à ~250W depuis Tesla 2 (bon, fallait pas passer Fermi sous Furmark :o), c'est avec Ampere que l'on a officiellement chez les verts des cartes mono GPU grand public qui passent la barre des 300W.
 
La conso des cartes Ada est relativement similaires à celles de la génération précédente : 285W pour l'AD104 full contre 290W pour le GA104 poussé à fond, 180W pour l'AD106 contre 170W pour le GA106 et 115W pour l'AD107 et le GA107.
 
L'AD103 n'a pas d'équivalent direct mais on se retrouve à 320W pour une puce de 379mm², avec une RTX 4080 dont le niveau de conso a été poussé au niveau du GA102 castré de la 3080.
 
En bref, depuis Turing et le problème de stagnation de la gravure auquel ils ont dû faire face à l'époque, ils ont décidé de repousser les limites qui étaient à peu près établies depuis près d'une décennie pour mieux marquer la différence de perf entre générations.
 
Si l'on revient sur des consos plus raisonnables, c'est que le remaniement de l'archi et le prochain node sont suffisamment efficients pour avoir un gap générationnel énorme.


Message édité par Neji Hyuga le 22-11-2023 à 10:57:12

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11299884
ddlabrague​tte
Posté le 22-11-2023 à 16:42:28  profilanswer
 

y'a une petite différence quand même c'est que sur ampère, les cartes atteignaient voir dépassait en pratique leurs tdp officiels  
Sur ADL C'est plutôt l'inverse  
 
Je viens de vérifier sur les tests de cdh  
 
on est sur du 300w pour la 3070 ti FE  ( donc un poil plus surement sur les custom ) contre 265w pour une 4070ti ( forcément custom puisque pas de FE :o )  
Les 3070 ti custom pouvait taper 310 voir 320w donc mes chiffres à la bolée sont pas si farfelus que ça  [:transparency]

Message cité 1 fois
Message édité par ddlabraguette le 22-11-2023 à 17:00:00
n°11299885
coil whine
Posté le 22-11-2023 à 16:47:15  profilanswer
 

ddlabraguette a écrit :

y'a une petite différence quand même c'est que sur ampère, les cartes atteignaient voir dépassait en pratique leurs tdp officiels
Sur ADL C'est plutôt l'inverse

 

Je viens de vérifier sur les tests de cdh

 

on est sur du 300w pour la 3070 FE  ( donc un poil plus surement sur les custom ) contre 265w pour une 4070ti ( forcément custom puisque pas de FE :o )
Les 3070 ti custom pouvait taper 310 voir 320w donc mes chiffres à la bolée sont pas si farfelus que ça  [:transparency]

 




J’ai regardé le test du comptoir du hardware et ça dit cela sur la 3070 FE :

 

Consommation en jeu

 

La RTX 3070 FE absorbe entre 226 et 227 W dans les deux jeux testés. C'est notablement plus que la 2070 disposant d'un GPU de gamme inférieure (xx106), mais finalement du même ordre que la version SUPER basculant sur TU104. C'est également largement moins que sa grande soeur, ou même que la 2080 Ti FE.  Nous n'affichons ici que les 2 jeux que nous avions l'habitude d'utiliser précédemment lors de nos mesures, mais nous relevons à présent les consommations des séquences de test dans tous les jeux via PCAT.

 

https://www.comptoir-hardware.com/a [...] ml?start=7


Message édité par coil whine le 22-11-2023 à 16:48:15
n°11299886
ddlabrague​tte
Posté le 22-11-2023 à 16:55:47  profilanswer
 
n°11299887
coil whine
Posté le 22-11-2023 à 16:56:39  profilanswer
 


Relis toi dans ce cas. Tu as marqué 3070 FE @ 300 watts.


Message édité par coil whine le 22-11-2023 à 16:57:49
n°11299888
ddlabrague​tte
Posté le 22-11-2023 à 16:59:46  profilanswer
 

En effet c'est une coquille  
 
Mais vu qu'on parlait de xx104 full, tu aurais pu le deviner  [:so-saugrenu24:2]


Message édité par ddlabraguette le 22-11-2023 à 17:00:28
n°11299889
coil whine
Posté le 22-11-2023 à 17:01:33  profilanswer
 

Ce que je comprends pas c’est que tu dis que les cartes dépassaient leur tdp officiel…je pige pas. Ma 3080 FE fait 320 watts comme attendu…
Après on est sur du custom donc c’est différent. je comprends pas le point.


Message édité par coil whine le 22-11-2023 à 17:02:10
n°11299899
ddlabrague​tte
Posté le 22-11-2023 à 17:22:44  profilanswer
 

Relis la conversation et tout deviendra limpide  [:so-saugrenu16]  
Déjà, on parlais du mdg uniquement  
 
neji comparait la 4070 ti et la 3070ti en et leurs tdp de 285 vs 290w  
C'est vrai que sur le papier, la différence parait pas énorme  
Sauf qu'en pratique la 4070ti n'atteint quasiment jamais ces valeurs alors que la 3070ti les dépassent assez largement selon le modèle  
 
J'ai pas vérifié mais je suppose qu'entre le GA106 et le AD106 full on doit se retrouver dans une situation similaire  
Comme il le dit, nvidia, pénalisé par le process de Samsung, s'est un peu retrouvé dans la même situation qu'AMD avec GCN, à savoir, gratter des pouillème de perfs au détriment de la conso
Ce qui les a amené à tricher un peu sur les valeurs officielles dans certaines gammes  
 
 
Faut suivre un peu  [:so-saugrenu24:2]


Message édité par ddlabraguette le 22-11-2023 à 17:26:13
mood
Publicité
Posté le 22-11-2023 à 17:22:44  profilanswer
 

n°11299903
coil whine
Posté le 22-11-2023 à 17:32:09  profilanswer
 

Tout dépend comment tu mesures tes consos et ce que tu mesures surtout….tu surinterpretes des tableaux de chiffres, c’est tout. Tech power up précise bien que le power limit est à 290.  
A noter que le power limit peut être franchi malgré tout….c’est pas ultra précis. Mais de toute façon on ne sait pas ce qu’ils mesurent exactement pour tes chiffres.  
Édit. : enfin si c’est le TGP et à mon avis c’est pas comparable au tdp mais je dois vérifier.
 
Moi je me fie à ce que m’indique Hw monitor (je ne sais plus l’intitulé de la ligne exact mais en gros c’est la conso qui se cale sur le tdp).


Message édité par coil whine le 22-11-2023 à 17:35:01
n°11299906
ddlabrague​tte
Posté le 22-11-2023 à 17:39:58  profilanswer
 

C'est comme le nord et le sud, selon comment on se tourne, ça change tout  [:lefab:5]  
 
C'est bien pour cette raison que j'ai pris CDH
Leur protocole de mesure ( expliqué dans chaque test ) est le même depuis 2015  
 
Alors oui, les chiffres bruts, on s'en fout si tu veux. Mais d'après ce protocole, on a entre 30 et 40w d'écart entre une 3070 ti et une 4070ti. Et non 5w comme le suggère les tgp officiels  
 
Je vais pas m'acharner à changer de tournure pour que tu comprennes un truc que tu semble ne pas " vouloir " comprendre  :sweat:

Message cité 1 fois
Message édité par ddlabraguette le 22-11-2023 à 17:40:46
n°11299909
coil whine
Posté le 22-11-2023 à 17:48:06  profilanswer
 

C’est pas moi qui confond TGP et TDP. Le reste, tu m’emmènes sur un sujet où je ne suis pas allé. Donc osef.


Message édité par coil whine le 22-11-2023 à 17:48:12
n°11299915
Neji Hyuga
Modérateur
:grut:
Posté le 22-11-2023 à 18:03:04  profilanswer
 

ddlabraguette a écrit :

Alors oui, les chiffres bruts, on s'en fout si tu veux. Mais d'après ce protocole, on a entre 30 et 40w d'écart entre une 3070 ti et une 4070ti. Et non 5w comme le suggère les tgp officiels


 
TPU nous trouve 284W pour une TUF et 275W pour une Gaming X.
 
La Gainward Phantom (modèle sans aucune fioriture ni OC de série) que j'ai eu entre les mains tournait aux alentours des 270W, ça semble raccord.
 
Concernant la 3070 Ti, ils mesurent 298W dans les mêmes conditions pour la Founder's, on est à 28W (on va dire 30W, on est pas à ça près) de différence en faveur d'Ada.
 
Dans la pratique c'est toujours ça de pris, mais on reste encore assez loin de la conso habituelle des GPU de classe 104 avant Turing.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11299918
ddlabrague​tte
Posté le 22-11-2023 à 18:16:33  profilanswer
 

https://www.comptoir-hardware.com/a [...] l?start=12
 
Voir tableau en bas  
 
C'est un peu aléatoire mais on tombe sur 282w sur la Eagle dans control  
contre 273 sur la strix  
La qualité de la puce, le température ( et le courants de fuites ) doivent jouer  
C'est vrai que sur ma Eagle, la tension par défaut est assez élevée comparé à d'autres modèles  
Mais oui globalement, on est plus autour des 265/270w sur les bonnes custom contre 310w sur les 3070ti custom  
 
C'est toujours ça de pris mais en effet on est très loin des 180w de la 1080 :D
 
Ceci étant, beaucoup de reviewer se sont plaint du faible écart entre ampère et ADL ( hormis la 4090 ) mais ils oublient très souvent ce gain de conso  
Pourtant ça rentre quand même dans l'équation. A moins d'une refonte profonde de l'archi comme sur Maxwell, on peut difficilement avoir le beurre et l'argent du beurre   [:michel_cymerde:7]


Message édité par ddlabraguette le 22-11-2023 à 18:21:34
n°11299957
ravenloft
Meilleur jeu du 20ème siècle
Posté le 22-11-2023 à 19:37:59  profilanswer
 

Neji Hyuga a écrit :


 
Bah ça dépend de sa surface. Il y a des simulateurs qui permettent d'estimer ce que l'on peut tirer d'un wafer en fonction de la taille de la puce si on veut avoir une première idée.
 
On se rend vite compte qu'un GPU mdg comme l'AD104 revient maintenant bien plus cher à graver qu'un gros monstre comme le TU102, même si ce dernier ne sortait que par ~75 unités/galette.
 
Le TMSC 5N, c'est un bon X2 en terme de prix par rapport au 8nm Samsung, qui était déjà deux fois plus onéreux que le 16/12nm TSMC (difficile d'avoir les chiffres exacts négociés entre NV et les fondeurs, mais on trouve les prix "public", le facteur X2 m'ayant été confirmé par Nvidia).


Merci.
Cela serait bien surtout de savoir quelles marges nvidia fait par gpu mais j'ose penser qu'elles restent hautes malgré la hausse des prix des wafers.
Le dernier bilan financier sorti aujourd'hui ou hier confirme qu'nvidia a fait des bénéfices sur sa branche gaming pas très loin de l'époque du cryptomining tout ça sans le cryptomining, ce qui est énorme.
https://hardwareand.co/images/thumb [...] 2_fhd.webp
Si les marges avaient fondues, à moins d'en vendre des paquebots en plus, ça ne serait pas possible.
 


---------------
Ravenloft
n°11300089
Neji Hyuga
Modérateur
:grut:
Posté le 23-11-2023 à 09:07:04  profilanswer
 

Alors my bad, les marges ont fondue l'année dernière mais explosé cette année : ce trimestre on est à 74% de marge brute, 20 points de mieux qu'il y a un an. Oui, c'est costaud.
 
Dans la branche gaming, leurs revenus ont fait +81% par rapport à l'année précédente (comme on le voit dans l'image que tu as posté).
 
Ada se vend visiblement bien malgré les tarifs.
 
@dd : ce qui a surtout été reproché par la presse c'est la stagnation du rapport perf/prix.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11300223
Dark Schne​iderr
⭐⭐
Posté le 23-11-2023 à 17:21:15  profilanswer
 

C'est ce qu'il me semblait aussi  :jap:


Message édité par Dark Schneiderr le 23-11-2023 à 17:21:35

---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°11300244
ravenloft
Meilleur jeu du 20ème siècle
Posté le 23-11-2023 à 19:03:06  profilanswer
 

Neji Hyuga a écrit :

Alors my bad, les marges ont fondue l'année dernière mais explosé cette année : ce trimestre on est à 74% de marge brute, 20 points de mieux qu'il y a un an. Oui, c'est costaud.
.


Si les marges sont hautes, ça veut dire que les gpus vendus sont vendus bien plus chère que leur cout de revient, non?


---------------
Ravenloft
n°11300256
Neji Hyuga
Modérateur
:grut:
Posté le 23-11-2023 à 19:31:12  profilanswer
 

Après c'est la marge globale de la boîte, pas forcément celle de la gamme GeForce.  
 
Ils ont vendu des pelles et des brouettes de GPU aux datacenters spécialisés dans l'IA, les marges ne sont probablement pas les mêmes que celles de la branche gaming.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11302386
jumbaii
Posté le 30-11-2023 à 10:14:28  profilanswer
 

Ceci peut en partie expliquer les marges brutes
 
https://overclocking.com/nvidia-a-v [...] trimestre/


---------------
GT : jumbaii7
n°11310268
LeMakisar
Posté le 01-01-2024 à 18:42:22  profilanswer
 

Drapal :o


---------------
Feedback
n°11310396
Profil sup​primé
Posté le 02-01-2024 à 13:58:26  answer
 

Actuellement en 4080 rtx..... :jap:  5080 RTX des quelle sort pour moi  :jap:  :D


Message édité par Profil supprimé le 02-01-2024 à 14:00:44
n°11310437
jumbaii
Posté le 02-01-2024 à 16:42:45  profilanswer
 

A voir ce qu'apportera la nouvelle génération.  
 
Pas impossible que la 5080 soit au dessus d'une 4090 vu les rumeurs sur les spécifications de la 5090. Je doute qu'ils laissent un gouffre de 10k cuda entre la 5090 et la 5080 (ce qui correspondrait à la 4090). On aura peut être une 5070 proche de la 4090 avec cette fois un vrai gap générationnel sur le milieu de gamme :o


Message édité par jumbaii le 02-01-2024 à 16:43:09

---------------
GT : jumbaii7
n°11312030
Snev
Posté le 08-01-2024 à 12:57:04  profilanswer
 

Les mauvaises langues qui parlent des hausses de prix chez nvidia années après années, bah voilà, nvidia baisse le prix de ses nouvelles cartes :o
 
4080 SUPER à $999 :love:
 
Je veux y croire pour les 5000 series, une 5090 sous les 2000 balles :sol:


---------------
Pour bloquer les posts d'un membre HFR : 1 - Installer l'extension https://www.tampermonkey.net || 2 - Sur https://forum.hardware.fr/forum2.ph [...] ost=116015 trouver "[MOD] [HFR] Bloque liste mod_r21 (version 4.2.3)".
n°11312038
Neji Hyuga
Modérateur
:grut:
Posté le 08-01-2024 à 13:53:12  profilanswer
 

Oui, mais il n'y a toujours pas de baisse pour l'AD102, qui restera donc l'exclusivité d'une carte de "classe Titan" sur cette génération. Et malheureusement un refresh et un ajustement tarifaire sur la génération en cours ne permet pas de prédire grand chose sur le MSRP de celle à venir.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11312079
Mesobuthus
Posté le 08-01-2024 à 16:56:09  profilanswer
 

Snev a écrit :

Les mauvaises langues qui parlent des hausses de prix chez nvidia années après années, bah voilà, nvidia baisse le prix de ses nouvelles cartes :o
 
4080 SUPER à $999 :love:
 
Je veux y croire pour les 5000 series, une 5090 sous les 2000 balles :sol:


 
Une chose importante, ils parlent des USA, donc en gros tu rajoutes la conversion $/€ + toutes les taxes en France et on arrivera bien à 1200 euros minium...voir 1500 comme à la sortie des x80.
Mais si c'est vraiment le cas chez nous aussi et que les prix restent dans cet ordre et qu'ils font de gros efforts, genre 1000 € ( je n'y crois guère, il faut pas rêver), alors les 4080 de base partiront comme des petits pains.
Les anciennes 4080 pourraient descendre à moins de 1000€.
En plus la différence de perf entre une 80 super et non super n'est pas flagrante, ce serait presque l'affaire du siècle pour ces anciennes cartes!
 
Je doute fortement que le haut de gamme des 5000 soit "peu cher", enfin moins de 2000/voir 2000 ça reste cher.  
On va nous vendre des nouvelles tech...+ Dlss 4, ia etc et il y aura du monde pour acheter.
Le PDG de NVIDIA est très fort pour embrouiller son petit monde, il a de la bouteille maintenant. Surtout qu'en face il n'y aura apparemment plus de concurrence pour le haut de gamme...  
Fin du game   :fou:

Message cité 1 fois
Message édité par Mesobuthus le 08-01-2024 à 18:37:37
n°11312086
havoc_28
Posté le 08-01-2024 à 17:10:36  profilanswer
 

Snev a écrit :

Les mauvaises langues qui parlent des hausses de prix chez nvidia années après années, bah voilà, nvidia baisse le prix de ses nouvelles cartes :o
 
4080 SUPER à $999 :love:
 
Je veux y croire pour les 5000 series, une 5090 sous les 2000 balles :sol:


 
 [:heeks:5]

n°11312107
uNReaLx77
üNReaL
Posté le 08-01-2024 à 17:54:30  profilanswer
 

Les gars content des cartes a 2000 euro... Ou va-t-on....

n°11312109
Winpoks
Posté le 08-01-2024 à 17:57:24  profilanswer
 

uNReaLx77 a écrit :

Les gars content des cartes a 2000 euro... Ou va-t-on....


 
 :D

n°11312123
uNReaLx77
üNReaL
Posté le 08-01-2024 à 18:25:48  profilanswer
 

Et pour la 4080 super c'est 100 euro de moins que les 1300 1500 actuel.donc bon... Les 3080 c'était 749euro.
Wahou super les super :o

Message cité 3 fois
Message édité par uNReaLx77 le 08-01-2024 à 18:26:44
n°11312141
Snev
Posté le 08-01-2024 à 18:53:16  profilanswer
 

uNReaLx77 a écrit :

Et pour la 4080 super c'est 100 euro de moins que les 1300 1500 actuel.donc bon... Les 3080 c'était 749euro.
Wahou super les super :o


P'tain j'avais totalement zappé ça. Le truc c'est que les 3080 pour les toper à ce prix il fallait une armée de bots à son compte sur ldlc.fr, l'époque des scalpers. Mais oui c'est vrai, c'était 750 balles :(


---------------
Pour bloquer les posts d'un membre HFR : 1 - Installer l'extension https://www.tampermonkey.net || 2 - Sur https://forum.hardware.fr/forum2.ph [...] ost=116015 trouver "[MOD] [HFR] Bloque liste mod_r21 (version 4.2.3)".
n°11312154
Mesobuthus
Posté le 08-01-2024 à 19:08:58  profilanswer
 

uNReaLx77 a écrit :

Et pour la 4080 super c'est 100 euro de moins que les 1300 1500 actuel.donc bon... Les 3080 c'était 749euro.
Wahou super les super :o


 
Ils ne lâcheront rien sur les prix, en effet c'est super.
Bref c'est juste comme un autocollant qu'on ajoute sur la carte tellement ces refreshs n'ont pas de sens.
Même la 4070 reste avec ses 12 go de Vram.
 
Puisqu'on parle des futures 5000,  quitte à y mettre le prix, on est en droit d'attendre un minimum et d'avoir des exigences...autrement ce n'est même pas la peine.
 
Il y a pas mal de choses à revoir comme;
Le manque de Vram.
L'emplacement des connecteurs en plein milieu de la carte, surtout lorsque ces derniers sont susceptibles de cramer.
La chauffe non maîtrisée de certains modèles qui viennent méchamment titiller les processeurs.
La grosseur de certains modèles qui prennent carrément plusieurs slots.
L'arrogance du PDG.  
 
Il y a énormément de choses à revoir pour la prochaine gamme.

Message cité 2 fois
Message édité par Mesobuthus le 08-01-2024 à 19:12:04
n°11312184
ddlabrague​tte
Posté le 08-01-2024 à 20:11:43  profilanswer
 

Mesobuthus a écrit :


 
 
Même la 4070 reste avec ses 12 go de Vram.
 


Tu t'attendais à une 4070 avec 24 go ?   [:tammuz]

n°11312185
Scrabble
Posté le 08-01-2024 à 20:19:31  profilanswer
 

Mesobuthus a écrit :


Il y a pas mal de choses à revoir comme;
Le manque de Vram.


Le problème, c'est que des CG avec 8Go de VRAM a 350 euros continuent a se vendre :
https://www.ldlc.com/informatique/p [...] 84/?sort=4
Donc Nvidia continue de les commercialiser [:ortensio]

n°11312200
ravenloft
Meilleur jeu du 20ème siècle
Posté le 08-01-2024 à 21:33:41  profilanswer
 

Mesobuthus a écrit :


 
Une chose importante, ils parlent des USA, donc en gros tu rajoutes la conversion $/€ + toutes les taxes en France et on arrivera bien à 1200 euros minium...voir 1500 comme à la sortie des x80.
Mais si c'est vraiment le cas chez nous aussi et que les prix restent dans cet ordre et qu'ils font de gros efforts, genre 1000 € ( je n'y crois guère, il faut pas rêver), alors les 4080 de base partiront comme des petits pains.


Sur les écrans 1$ + taxes = 1€ donc on peut espérer que sur les cartes graphiques ça soit pareil à force car là c'est clair qu'on se fait avoir.


---------------
Ravenloft
n°11312201
katset
Marcel Poutre
Posté le 08-01-2024 à 21:46:58  profilanswer
 

uNReaLx77 a écrit :

Et pour la 4080 super c'est 100 euro de moins que les 1300 1500 actuel.donc bon... Les 3080 c'était 749euro.
Wahou super les super :o


719€  [:aloyd]

n°11312202
Mesobuthus
Posté le 08-01-2024 à 21:54:16  profilanswer
 

ddlabraguette a écrit :


Tu t'attendais à une 4070 avec 24 go ?   [:tammuz]


 
Vu le prix  les 12 go ne sont pas justifiés sauf si tu joues sur un écran 1080  :o , 24 go n'abuses pas je n'ai jamais dit ça, il n'y a pas l'utilité sur ce genre de carte.  
La 70 c'est pour du 1440p et dans quelques temps elle sera à la peine sur les gros titres...et c'est déjà le cas si tu veux tout pousser à fond tu es obligé de faire des concessions car la VRAM limitera...ça ne devrait pas vu où la carte se place.
 
Pour le prix 16 go ça aurait été une superbe carte.
Après il y en a qui aiment bien payer pour rien et dépenser leur fric n'importe comment.


Message édité par Mesobuthus le 08-01-2024 à 21:58:52
n°11312207
Tahitiflo
éponge carré(e)
Posté le 08-01-2024 à 21:59:51  profilanswer
 

Ya une histoire de bus pour la quantité de RAM.


---------------
y-a-t-il encore des pigeons pour voter pour des escrocs?    #TeamJacquesMarteau
n°11312209
Neji Hyuga
Modérateur
:grut:
Posté le 08-01-2024 à 22:10:11  profilanswer
 

On ne peut pas coller 16GB de VRAM sur un bus 192 bits à moins d'employer une configuration mémoire asymétrique, ce qui implique qu'une partie de cette dernière se traîne les miches.
 
Donc oui, c'est bien 12GB ou 24GB sur l'AD104 et nous sommes bien d'accord qu'une quantité pareille ne serait que peu utile sur une puce de cette classe.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11312217
Mesobuthus
Posté le 08-01-2024 à 23:18:44  profilanswer
 

Neji Hyuga a écrit :

On ne peut pas coller 16GB de VRAM sur un bus 192 bits à moins d'employer une configuration mémoire asymétrique, ce qui implique qu'une partie de cette dernière se traîne les miches.
 
Donc oui, c'est bien 12GB ou 24GB sur l'AD104 et nous sommes bien d'accord qu'une quantité pareille ne serait que peu utile sur une puce de cette classe.


 
Oui je suis d'accord avec toi, mais peut-être aurait-il fallu tabler direct sur un 256 bits, quoi qu'apparemment  le cache permettait de se passer d'un bus plus gros car assez important... Je me trompe peut être.
 
Toujours est-il que ce n'est pas avec cette série qu'NVIDIA marquera l'histoire .
Les jeux nouvelle génération arrivent et ils n'ont pas été en mesure de faire ce dont ils étaient capables il y a quelques années en proposant de l'excellent matériel et qui dure dans le temps...et on en avait pour notre argent!
 
Là il n'y a que la 4090 qui sort du lot...contrairement où à l'époque nous avions plusieurs cartes adaptées pour chaque segment.
Normal qu'on soit regardant vu les prix pratiqués aujourd'hui.
 

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR