Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4741 connectés 

 


Pensez-vous que les RTX 5090 à + de 4000 euro se vendent?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  58  59  60  ..  595  596  597  598  599  600
Auteur Sujet :

Topic Blackwell - Nvidia Geforce RTX 5000

n°11365087
maximus68
Posté le 16-10-2024 à 15:28:29  profilanswer
 

Reprise du message précédent :
l'important n'est pas de savoir si l elle est aussi puissante qu'une 4090, mais ca conso et son prix


---------------
http://steamcommunity.com/profiles/76561197968805227
mood
Publicité
Posté le 16-10-2024 à 15:28:29  profilanswer
 

n°11365088
havoc_28
Posté le 16-10-2024 à 15:29:42  profilanswer
 

Miky 2001 a écrit :


Justement :
 
bon on spécule sur des rumeurs, donc pincettes obligent, mais si on ne prend en compte que la variation des unités de shaders (donc sans parler des optimisation du RT et de la bande passante mémoire):
 
3080 Vs 4080 = +1000 units shaders = 50% de perfs en plus
 
4080 Vs 5080 = +1000 units shaders (rumeurs) = 50% de perfs en plus potentiels.
 
Or la 4090 est 20% au dessus en 4K de la 4080...
 
Donc attendont les vrais infos ! ;)


 
 
Entre une 3080 et une 4080 il y a eut une  forte augmentation de la fréquence, vu qu'on passait du 8 nm Samsung (une variante de leurs 10nm) à du TSMC 5nm (une variante légèrement personnalisé pour nvidia). C'est en grande partie le gain en fréquence qui a entrainé la hausse de performance.  
Or là on reste sur une variante du 5nm, donc même s'il y a bien une augmentation de la fréquence vu qu'on passe sur une variante améliorée du 5nm (4NP ou N4X on ne sait toujours pas), le gain en fréquence ne sera jamais aussi prononcé qu'avec le passage du 8 nm Samsung au 5 nm TSMC.
 
Après en 4K dans les divers panels de tests je vois plus la 4090 à 25 % plus perf que 20 % mais en fonction des protocoles de tests :D.


Message édité par havoc_28 le 16-10-2024 à 15:30:53
n°11365090
Miky 2001
N'y pense même pas !!!
Posté le 16-10-2024 à 15:36:55  profilanswer
 

D’accord avec toi Havoc :jap:  
 
Mais une progression des perfs de plus de 20% sur une génération c’est assez réguliers sur le niveau de perfs xx80
 
Donc 30% de la 4080 vers la 5080 ça ne semble pas deconnant

n°11365092
ravenloft
Meilleur jeu du 20ème siècle
Posté le 16-10-2024 à 16:03:17  profilanswer
 

k-nar a écrit :

En termes de perf 5080=4090? Ou trop tôt pour le dire?


rumeur 5080 = 4090 + 10%
sinon trop tôt pour le dire


---------------
Ravenloft
n°11365097
ddlabrague​tte
Posté le 16-10-2024 à 16:24:49  profilanswer
 

De toute façon le puissance brute en rasterization, j'ai pas l'impression que ce soit là où on attends  
Dans les différentes gammes, chaque carte est déjà largement pourvue dans la résolution visée  

n°11365100
ravenloft
Meilleur jeu du 20ème siècle
Posté le 16-10-2024 à 16:37:16  profilanswer
 

ddlabraguette a écrit :

De toute façon le puissance brute en rasterization, j'ai pas l'impression que ce soit là où on attends  
Dans les différentes gammes, chaque carte est déjà largement pourvue dans la résolution visée  


En 4k raster même la 4090 peut avoir ses limites. Elle est tout sauf ultra large surtout si tu te mets à pousser l'ue 5 dans ses retranchements.


---------------
Ravenloft
n°11365102
Amonchakai
Posté le 16-10-2024 à 16:42:25  profilanswer
 


Nivacrin a écrit :


 
Allez, la réponse est dans ton propre message  [:michaeldell]


Je dis bien rumeur et pas leaks par ce que c’est merdiqe et tout se dit et son contraire  :o

n°11365107
aliss
Rhyme the Rhyme Well
Posté le 16-10-2024 à 17:13:00  profilanswer
 

ddlabraguette a écrit :

De toute façon le puissance brute en rasterization, j'ai pas l'impression que ce soit là où on attends
Dans les différentes gammes, chaque carte est déjà largement pourvue dans la résolution visée

 

C'est vrai, c'est plutôt au niveau du RT que l'on peut espérer plus.

 

Se posera alors la question de la vram embarquée des 5080 et 5070 qui sur le papier pourrait être le talon d'Achille de ces cartes (si les specs données par Kopite7kimi devaient être confirmées).

Message cité 1 fois
Message édité par aliss le 16-10-2024 à 17:13:35
n°11365116
Neji Hyuga
Modérateur
:grut:
Posté le 16-10-2024 à 17:33:09  profilanswer
 

Ray tracing et inférence. Surtout inférence, d'ailleurs (ce qui rend la problématique de la mémoire plus importante encore de mon point de vue).


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11365124
havoc_28
Posté le 16-10-2024 à 18:05:13  profilanswer
 

Miky 2001 a écrit :

D’accord avec toi Havoc :jap:  
 
Mais une progression des perfs de plus de 20% sur une génération c’est assez réguliers sur le niveau de perfs xx80
 
Donc 30% de la 4080 vers la 5080 ça ne semble pas deconnant


 
Sauf qu'on reste rarement sur une même finesse de gravure.
Après on a a déjà vu des gains notables en restant sur un même process où le gros du gain provient de l'architecture, même si en général, c'est un cumule de gain en fréquence, bande passante (l'augmentation du cache ça compte aussi), architecture etc
 
Pour la 5080, dans tous les cas y aura le gain permis par la GDDR7, même si on a pas de la GDDR7 @ 32 Gb/s par pin comme le disent certaines rumeurs, à minima on sera à 28 Gb/s par pin ce qui est déjà un gain conséquent à ce niveau vs les 4080(S) actuelles. Donc un petit gain en fréquence, un petit gain coté architecture, la bande passante mémoire, en rastérisation pure oui y a de quoi avoir 15/20 % sans trop de soucis voir un peu plus, 30 % c'est pas si évident que ça, possible mais je parierai pas non plus là dessus.  
 
Même si comme ce qui est dit sur le topique, en général c'est plus coté RT / apprentissage machine qui verront le plus de gains (enfin peut être :o).
 

Neji Hyuga a écrit :

Ray tracing et inférence. Surtout inférence, d'ailleurs (ce qui rend la problématique de la mémoire plus importante encore de mon point de vue).


 
ça devrait être réglé avec le refresh et la généralisation des puces de GDDR7 @ 3 GO.  
 
Avec une gamme à 12/18/24/ 36 / 48 etc.

Message cité 1 fois
Message édité par havoc_28 le 16-10-2024 à 18:09:50
mood
Publicité
Posté le 16-10-2024 à 18:05:13  profilanswer
 

n°11365132
Neji Hyuga
Modérateur
:grut:
Posté le 16-10-2024 à 18:19:22  profilanswer
 

havoc_28 a écrit :

ça devrait être réglé avec le refresh et la généralisation des puces de GDDR7 @ 3 GO.  
 
Avec une gamme à 12/18/24/ 36 / 48 etc.


 
Ce serait bien que ça sorte directement comme ça, d'ailleurs (enfin, 32GB c'est déjà suffisant dans un premier temps pour le flagship).
 
Une 5080 24GB ce serait une bonne carte à tout faire sans avoir à claquer un SMIC et demi dans une carte graphique.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11365138
havoc_28
Posté le 16-10-2024 à 18:28:30  profilanswer
 

Neji Hyuga a écrit :


 
Ce serait bien que ça sorte directement comme ça, d'ailleurs (enfin, 32GB c'est déjà suffisant dans un premier temps pour le flagship).
 
Une 5080 24GB ce serait une bonne carte à tout faire sans avoir à claquer un SMIC et demi dans une carte graphique.


 
Faudrait décaler d'encore 9 mois / 1 an la sortie ou quelque chose dans ce genre là, après pour un refresh de la gamme ça fait une excuse pour ressortir le tous avec plus de "VRAM" et quelques ajustements supplémentaires.
Et pour l'instant y a un jeu d'annoncé qui utilisera l'apprentissage machine pour UN personnage non joueur pour générer des dialogues, les instances là et ensuite ? Déjà voir ce que ça donne dans ce jeu et comment réagiront les joueurs.  

n°11365141
Neji Hyuga
Modérateur
:grut:
Posté le 16-10-2024 à 18:33:33  profilanswer
 

Oui bien sûr, mais Nvidia a des plans pour démocratiser l'IA générative chez les particuliers, que ce soit en jeu ou en applicatif, ce serait dommage de trainer un potentiel boulet. Bon après, ils savent sûrement ce qu'ils font.
 
A ce propos, PhysX est en train de passer de fonctions algorithmiques classiques à des appels à des modèles neuronaux (pas tellement pour le jeu du coup, mais pour leur écosystème Omniverse et la plateforme robotique ISAAC).


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11365143
havoc_28
Posté le 16-10-2024 à 18:35:14  profilanswer
 

Neji Hyuga a écrit :

Oui bien sûr, mais Nvidia a des plans pour démocratiser l'IA générative chez les particuliers, que ce soit en jeu ou en applicatif, ce serait dommage de trainer un potentiel boulet. Bon après, ils savent sûrement ce qu'ils font.


 
Quand on aura une 5060 avec 12 go de VRAM à 200 €, on pourra commencer à voir une démocratisation chez les particuliers peut être.
 

Neji Hyuga a écrit :

A ce propos, PhysX est en train de passer de fonctions algorithmiques classiques à des appels à des modèles neuronaux (pas tellement pour le jeu du coup, mais pour leur écosystème Omniverse et la plateforme robotique ISAAC).


 
Coté jeux, on a suffisamment sous le capot coté CPU pour ne plus trop avoir besoin de Physix via GPU, mais c'est toujours intéressant oui.


Message édité par havoc_28 le 16-10-2024 à 18:36:56
n°11365144
Neji Hyuga
Modérateur
:grut:
Posté le 16-10-2024 à 18:38:32  profilanswer
 

200 balles c'est plus qu'optimiste mais oui, ce sera évidemment démocratisé quand ce sera à portée de portefeuille (c'est comme pour tout, en fait).


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11365145
havoc_28
Posté le 16-10-2024 à 18:40:05  profilanswer
 

Neji Hyuga a écrit :

200 balles c'est plus qu'optimiste mais oui, ce sera évidemment démocratisé quand ce sera à portée de portefeuille (c'est comme pour tout, en fait).


 
Elle sera à 300$ (ou plus), mais à 200$ là oui je pourrais voir une démocratisation relativement rapide de la chose.
Et c'est la même chose déjà pour le RT déjà.
 
Mais j'ai espoir qu'avec les puces à 3 Go l'entrée de gamme passe définitivement à 12 Go de VRAM et que ce soit le minimum, tout comme la 5060 ait droit à un gain de performance plus marqué que ces dernières années, de même qu'AMD avec RDNA 4 arrive à progresser de manière notable coté RT et apporte un FSR amélioré ...
Edit : et pour finir avec les veux pieux : Battle Mage concurrentiel.

Message cité 1 fois
Message édité par havoc_28 le 16-10-2024 à 18:45:05
n°11365146
ddlabrague​tte
Posté le 16-10-2024 à 18:44:55  profilanswer
 

aliss a écrit :


 
C'est vrai, c'est plutôt au niveau du RT que l'on peut espérer plus.
 
Se posera alors la question de la vram embarquée des 5080 et 5070 qui sur le papier pourrait être le talon d'Achille de ces cartes (si les specs données par Kopite7kimi devaient être confirmées).


Pour la VRAM, faut voir  
 
L'unreal engine 5 est plutôt étonnant sur ce point  
On le constate encore avec Silent hill 2.  Ok, c'est pas un open world mais comme d'autres avant lui, il démontre que ce moteur sait être sobre VRAM

Message cité 2 fois
Message édité par ddlabraguette le 16-10-2024 à 18:46:24
n°11365147
havoc_28
Posté le 16-10-2024 à 18:45:51  profilanswer
 

ddlabraguette a écrit :


Pour la VRAM, faut voir  
 
L'unreal engine 5 est plutôt étonnant sur ce point  
On le constate encore avec Silent hill 2.  Ok, c'est pas un open world mais comme d'autres avant lui, il démontre que ce moteur sait être sobre VRAM


 
Oui bon si on regarde les Black Myth Wukong, Silent Hill 2, on pourrait résumer sa en simplifiant beaucoup à la qualité des textures, que ce soit l'un ou l'autre aucun ne brille à ce niveau, clairement.

Message cité 1 fois
Message édité par havoc_28 le 16-10-2024 à 18:46:23
n°11365149
ddlabrague​tte
Posté le 16-10-2024 à 18:56:14  profilanswer
 

havoc_28 a écrit :


 
Oui bon si on regarde les Black Myth Wukong, Silent Hill 2, on pourrait résumer sa en simplifiant beaucoup à la qualité des textures, que ce soit l'un ou l'autre aucun ne brille à ce niveau, clairement.


C'est pas le seul aspect dans l'équation. Il y a aussi le LOD  
Tu prends l'exemple du patch HDreworked de TW3, la conso de la VRAM augmentait peu malgré une nette amélioration de la définition des textures.  
Actuellement, il y a pas mal d'algos d'optimisation de LOD qui se déploient progressivement. Sans oublier le Mesh Shading  
Ces technos vont justement dans ce sens  

n°11365151
havoc_28
Posté le 16-10-2024 à 19:07:51  profilanswer
 

ddlabraguette a écrit :


C'est pas le seul aspect dans l'équation. Il y a aussi le LOD  
Tu prends l'exemple du patch HDreworked de TW3, la conso de la VRAM augmentait peu malgré une nette amélioration de la définition des textures.  
Actuellement, il y a pas mal d'algos d'optimisation de LOD qui se déploient progressivement. Sans oublier le Mesh Shading  
Ces technos vont justement dans ce sens  


 
On ne peut pas augmenter à chaque génération la quantité de VRAM oui, après le Mesh Shading suppose du matériel adapté, mais bon coté Nvidia depuis les RTX et RDNA 2 coté AMD.
Et justement vu qu'on a toute ses techs qui permettent d'alléger un peu la consommation en VRAM (DX 12 / Vulkan ont quelques mérites tout de même), on pourrait enfin commencer à améliorer la qualité des textures qui font du surplace depuis des années (y a les mods tout ça mais ...).

n°11365153
jln2
Posté le 16-10-2024 à 19:10:41  profilanswer
 

dams86 a écrit :


 
Vous vous faites mal volontairement, être dans l'IT et fonctionnaire.... Bon c'est HS mais quand même.


 
On peut aussi être fonctionnaire, mais sans être dans l'info et poster sur HFR :o

n°11365154
jln2
Posté le 16-10-2024 à 19:16:12  profilanswer
 

standalone a écrit :

 

Des prestataires payés 500e la journée, et qui eux pourront se payer une 5080.

 


 

C'est clairement ça.
Ca se gave, mais à un point ....
Un poste informatique déployé = 50% de son prix en déploiement ...

 

"on peut mettre un SSD à 25 balles et 4Go de ram en plus pour prolonger la durée de vie de l'UC de Magalie ?"
"Ah bah non mon bon Mr, vaut mieux une UC neuve, ça tombe bien, on a une promo en ce moment chez Dell, ça vous reviendra à seulement 1200€ tout compris" (une UC SFF avec un i3, 8Go et 250go).

 

Après, on parle de vouloir couper les vivres aux collectivités qui coutent trop cher :o  :lol:


Message édité par jln2 le 16-10-2024 à 19:18:00
n°11365160
Scrabble
Posté le 16-10-2024 à 19:30:50  profilanswer
 

havoc_28 a écrit :


Mais j'ai espoir qu'avec les puces à 3 Go l'entrée de gamme passe définitivement à 12 Go de VRAM et que ce soit le minimum


Disons que si GTA 6 pouvait forcer les gamers a oublier les CG avec 8Go, ca serait bien
Mais c'est pas gagne
Sur gamegpu.com, je regarde la consommation VRAM des derniers jeux testes, et presque tous restent dans la limite des 8Go
Du coup les gamers continuent a dire que 8Go c'est suffisant, du coup nVIDIA continue a en vendre, du coup la proportion de CG avec 8Go sur Steam ne baisse pas, du coup les éditeurs de jeux n'osent pas aller au delà.  
C'est sans fin cette histoire [:ssempt]  

n°11365162
ravenloft
Meilleur jeu du 20ème siècle
Posté le 16-10-2024 à 19:36:19  profilanswer
 

Scrabble a écrit :


Disons que si GTA 6 pouvait forcer les gamers a oublier les CG avec 8Go, ca serait bien
 


D'ici à ce que gta 6 arrive sur Pc, on aura les rtx 6000 donc pour la mémoire on aura le temps d'y penser


---------------
Ravenloft
n°11365166
aliss
Rhyme the Rhyme Well
Posté le 16-10-2024 à 19:47:27  profilanswer
 

ddlabraguette a écrit :


Pour la VRAM, faut voir  
 
L'unreal engine 5 est plutôt étonnant sur ce point  
On le constate encore avec Silent hill 2.  Ok, c'est pas un open world mais comme d'autres avant lui, il démontre que ce moteur sait être sobre VRAM


 
En contrepartie il y a des titres ou l'activation du RT, du FG ou pire encore du PT fait exploser la consommation.
 
Sur CP2077, Starwars Outlaws ou encore Alan Wake 2 c'est assez flagrant.
 
Alors claquer 1k€ ou plus dans une carte qui pourrait être limitée à cause de ses 16go embarqués me fait guère envie.

n°11365169
Scrabble
Posté le 16-10-2024 à 19:55:01  profilanswer
 

aliss a écrit :


 
En contrepartie il y a des titres ou l'activation du RT, du FG ou pire encore du PT fait exploser la consommation.
 
Sur CP2077, Starwars Outlaws ou encore Alan Wake 2 c'est assez flagrant.
 
Alors claquer 1k€ ou plus dans une carte qui pourrait être limitée à cause de ses 16go embarqués me fait guère envie.


Faut pas exagérer, pour du gaming, 16Go de VRAM c'est suffisant encore pour pas mal d'années
Le FG, c'est dispensable

n°11365170
bucheron9
I like juice
Posté le 16-10-2024 à 20:03:20  profilanswer
 

ravenloft a écrit :


Je suis professeur depuis 16 ans. Ils ont revalorisé les profs débutants il y a 2 ans mais pas les autres. Du coup, maintenant j'ai gagné le mois dernier 130€ de plus qu'un prof débutant pour un métier bac +5 niveau ingénieur (j'ai aussi un diplôme d'ingénieur et de docteur  donc je sais ce que valent les niveau d'études :D ). :(  
 
Entre le point d'indice gelé 10 ans sur 15 en 15 ans, une hausse de 4 à 5 % cumulé pour le salaire sur le reste du temps, le pouvoir d'achat ne fait que baisser chez nous. on en gagne un peu à chaque passage d'echelon ( + 100€) et on en perd pendant les 3-4 ans restant.
 
Mes parents quand ils ont commencé prof, ils gagnaient 3 fois le smic. Quand j'ai débuté c'était 1.2 fois le smic environ. Avant la revalorisation des profs, un prof avait droit aux aides comme la prime pour emplois ce qui montrait bien à quel point le métier est mal payé. Maintenant, un prof débutant gagne plus mais pendant 15 ans, il va stagner.
 
Dire que certains font grève quand ils ont que 10 % d'augmentation (voir chez total et pas loin chez la sncf)  en se plaignant :cry:


 
'foiré d'gauchiste :o
 
:D


---------------
Listen to the hidden tune
n°11365171
aliss
Rhyme the Rhyme Well
Posté le 16-10-2024 à 20:05:21  profilanswer
 

Scrabble a écrit :


Faut pas exagérer, pour du gaming, 16Go de VRAM c'est suffisant encore pour pas mal d'années
Le FG, c'est dispensable


 
Ca va dépendre des moteurs et de la manière d'appréhender la chose de la part des devs mais on trouve déjà des titres à la consommation en vram gargantuesque.
 
Alors avec la mise en avant de techniques de surcroît gourmandes...

n°11365174
ddlabrague​tte
Posté le 16-10-2024 à 20:27:27  profilanswer
 

aliss a écrit :


 
En contrepartie il y a des titres ou l'activation du RT, du FG ou pire encore du PT fait exploser la consommation.
 
Sur CP2077, Starwars Outlaws ou encore Alan Wake 2 c'est assez flagrant.
 
Alors claquer 1k€ ou plus dans une carte qui pourrait être limitée à cause de ses 16go embarqués me fait guère envie.


Les xx80 c'est plus un ticket d'entre pour la 4k mais qui implique forcément des concessions  
A l'inverse, pour du 1440p sans concessions ou presque, 16go, ça devrait suffire un bon moment encore  
 
La gamme nvidia je la vois ainsi  
 
xx90 -> 4k  ( avec le moins de concessions possible )    Ultra haut de gamme  
xx80 -> 4k avec concessions sur les gros AAA              haut de gamme  
           1440p sans concessions  
xx70 -> 1440p avec concessions                                Milieu de gamme  
           1080p sans concessions  
xx60 -> 1080p avec concessions                                Entrée de gamme  
 
En tenant compte de ça, la quantité de VRAM est plutôt cohérente  
 
Après on peut toujours débattre du prix exorbitant. 400 € pour de l'entrée de gamme déjà obsolète à sa sortie, on marche sur le tête  
mais malheureusement le marché est ce qu'il est  
 
A moins qu'AMD rebatte les cartes sur le mdg avec des RX8000, il y a peu de chances que ça s'arrange  :sweat:

n°11365176
Rayaki
Posté le 16-10-2024 à 20:43:23  profilanswer
 

Xixou2 a écrit :

Majorité QHD.
Personne en 360 Hz ou plus.
Certains en 8k, intéressant.
C'est bien supporté en jeu le 8k?


 
8K ca va dependre du moteur et des titres
Wow max je ne peine pas à avoir 60fps (en dehors des worldboss mais là c'est plutot le serveur qui a du mal à envoyer les infos) mais ca ne tiendrait pas un 144fps TAF par exemple.
Après pour les titres plus récents, on peux jouer entre le 8K DLSS Ultraperformance, le performance (qui est plutot pas mal) et le Quality (mais Quality + FrameGen, les 24Go actuels ont du mal).
 
Pour certains, soit on descend les paramètres, soit on bascule en 4K (ce n'est pas sale :o)


---------------
Clan Torysss.
n°11365177
havoc_28
Posté le 16-10-2024 à 20:49:19  profilanswer
 

Scrabble a écrit :


Disons que si GTA 6 pouvait forcer les gamers a oublier les CG avec 8Go, ca serait bien
Mais c'est pas gagne
Sur gamegpu.com, je regarde la consommation VRAM des derniers jeux testes, et presque tous restent dans la limite des 8Go
Du coup les gamers continuent a dire que 8Go c'est suffisant, du coup nVIDIA continue a en vendre, du coup la proportion de CG avec 8Go sur Steam ne baisse pas, du coup les éditeurs de jeux n'osent pas aller au delà.  
C'est sans fin cette histoire [:ssempt]  


 
Si les fabricants de cartes graphiques pouvaient proposer des cartes avec plus de VRAM a des tarifs plus doux c'est surtout ça la solution. ça finira par arriver avec l'augmentation de la densité des puces VRAM, mais c'est pas uniquement la faute des joueurs.

Message cité 1 fois
Message édité par havoc_28 le 16-10-2024 à 21:03:25
n°11365185
Xixou2
Posté le 16-10-2024 à 21:17:23  profilanswer
 

On entend plus trop du truc DX12 pour streamer les datas direct du SSD vers la carte gfx sans passer par le CPU.
C'est tombé à l'eau?

n°11365186
It_Connexi​on
Posté le 16-10-2024 à 21:27:24  profilanswer
 

C'était spécifique à NV ?


---------------
Galerie Photo Personnelle
n°11365191
jln2
Posté le 16-10-2024 à 21:57:53  profilanswer
 

Scrabble a écrit :


Disons que si GTA 6 pouvait forcer les gamers a oublier les CG avec 8Go, ca serait bien
Mais c'est pas gagne
Sur gamegpu.com, je regarde la consommation VRAM des derniers jeux testes, et presque tous restent dans la limite des 8Go
Du coup les gamers continuent a dire que 8Go c'est suffisant, du coup nVIDIA continue a en vendre, du coup la proportion de CG avec 8Go sur Steam ne baisse pas, du coup les éditeurs de jeux n'osent pas aller au delà.  
C'est sans fin cette histoire [:ssempt]  


 
Bof, même les GPU actuels avec 12 ou 16Go auront je pense du mal à faire tourner GTA6 sans devoir trancher dans les options graphiques.

n°11365193
havoc_28
Posté le 16-10-2024 à 22:06:58  profilanswer
 

Xixou2 a écrit :

On entend plus trop du truc DX12 pour streamer les datas direct du SSD vers la carte gfx sans passer par le CPU.
C'est tombé à l'eau?


 
Le Direct Storage ? Un truc survendu.  
 

It_Connexion a écrit :

C'était spécifique à NV ?


 
Quand il dit GFX c'est pour carte graphique pas les RTX :o.  

n°11365195
It_Connexi​on
Posté le 16-10-2024 à 22:08:59  profilanswer
 

havoc_28 a écrit :


 
Le Direct Storage ? Un truc survendu.  
 


 

havoc_28 a écrit :


 
Quand il dit GFX c'est pour carte graphique pas les RTX :o.  


 
Ha GFX pour moi c'était GeForce donc NV :o


---------------
Galerie Photo Personnelle
n°11365197
cyberfred
Posté le 16-10-2024 à 22:12:01  profilanswer
 

havoc_28 a écrit :


 
Le Direct Storage ? Un truc survendu.  
 


 
ca n'a pas déjà été utilisé sur quelques jeux  ?
Forspoken si je ne me trompe pas avec des temps de chargements super rapides il me semble (bon par contre le jeu est très bof, je ne crois pas l'avoir terminé celui là :D )

Message cité 1 fois
Message édité par cyberfred le 16-10-2024 à 22:12:27
n°11365199
havoc_28
Posté le 16-10-2024 à 22:21:34  profilanswer
 

cyberfred a écrit :


 
ca n'a pas déjà été utilisé sur quelques jeux  ?
Forspoken si je ne me trompe pas avec des temps de chargements super rapides il me semble (bon par contre le jeu est très bof, je ne crois pas l'avoir terminé celui là :D )


 
Que ce soit Rachet & Clank ou Forgoten, un simple SSD SATA suffit la plus part du temps, le NVME magique bon à la limite PCI-E 3.0 ça permet de rendre l'expérience parfaite, mais 4.0 ou plus rien :o , et la plus part des temps de chargement sont camouflés lors des simili cinématiques / dialogues.


Message édité par havoc_28 le 16-10-2024 à 22:22:18
n°11365200
guig2000
Posté le 16-10-2024 à 22:32:32  profilanswer
 

Pour que ça marche bien il faudrait un cpu intégré au chip-set de la carte mère (ou à la carte graphique), qui lirait les données depuis le SSD (éventuellement en interprétant lui-même le système de fichiers), qui traduirait le système de compression de la texture sur le SSD en un système de compression compréhensible par la carte graphique. Cela aurait pour effet de soulager le CPU de beaucoup d'opérations d'entrées sorties, de bande passante pci-e, de bande-passante mémoire et des opérations de décompressions elle-même. Du côté GPU, cela diviserai d'au moins par deux l'utilisation de la bande passante pci-e utilisé par les textures, par rapport à des textures non-compressées; sauf que si ça se trouve, même sans direct storage, les jeux envoient déjà des textures compressées par le CPU à la carte graphique.


Message édité par guig2000 le 16-10-2024 à 22:35:30

---------------
Guig Esprit du Sage
n°11365202
aster
Chaotic Neutral
Posté le 16-10-2024 à 23:33:50  profilanswer
 

Xixou2 a écrit :

On entend plus trop du truc DX12 pour streamer les datas direct du SSD vers la carte gfx sans passer par le CPU.
C'est tombé à l'eau?


La liste des jeux supportés
https://steamdb.info/tech/SDK/DirectStorage/

n°11365203
booba92i
Posté le 16-10-2024 à 23:44:33  profilanswer
 

C'est compliqué d'avoir 90fps avec la 4090 en VR  [:akhnotpierrot]  , impossible de tout mettre à fond, je flirte avec les 30 millions de pixels, donc pas loin de la 8K  [:lebagnadore:10]


---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  58  59  60  ..  595  596  597  598  599  600

Aller à :
Ajouter une réponse
 

Sujets relatifs
Adaptateur Nvidia 12VHPWR avec RTX 4080 MSI TRIO et Corsair 500D SEIntel Arc A770 ou nVidia RTX 3060 ?
Conseil d'achat CG Nvidia en 2023Quel NAS choisir pour une utilisation plex sur nvidia shield
Nvidia shield et vpnNvidia 4090 aide
...Je vend ma carte graphique NVIDIA Titan RTX 24756 Mo
Positions perçages des sockets nvidiaHelp sur achat GPU AMD/NVIDIA avec ancienne config
Plus de sujets relatifs à : Topic Blackwell - Nvidia Geforce RTX 5000


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)