Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2992 connectés 

 


Je possède la:




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  114  115  116  ..  285  286  287  288  289  290
Auteur Sujet :

[Topic Unique] RDNA3 - AMD RX7x00 - 5nm

n°11208223
fabrs2_ben​chmark
Posté le 08-01-2023 à 19:53:45  profilanswer
 

Reprise du message précédent :

Niarfman a écrit :


Rectification sur mon précédent post en ce qui concerne la VR. Je n'ai pas approfondi plus que ça, mais j'ai testé à nouveau aujourd'hui en mettant tout par défaut côté AMD Adrenalin sur le jeu Dirt 2.0, j'ai pu jouer dans d'excellentes conditions pendant 2 à 3 heures sans aucun souci. Et avec tout à fond, c'est vraiment immersif !!!
 
Je ne sais pas si c'était le RSR ou autre profil forcé côté Adrenalin qui posait souci, il faudra que je creuse. J'étais à 2 doigts de penser à revendre ma 7900 XTX si la VR n'était pas fonctionnelle. Me voilà rassuré :D


 
sur dirt 2 même une AMD vega56 le fait tourner avec certaines concessions.
en vr une rtx 4080 est plus efficaces, dommage que AMD n'améliore pas la performance surtout que la ps5 qui supporte le psvr2 avec un fsr3 vr ça serait super.  
https://sf.ezoiccdn.com/ezoimgfmt/b [...] webp/ngcb1  
https://babeltechreviews.com/hellho [...] ames-vr/5/

mood
Publicité
Posté le 08-01-2023 à 19:53:45  profilanswer
 

n°11208226
hellion666
Posté le 08-01-2023 à 19:59:06  profilanswer
 

Clairement, en comparant la 6900xt a la 7900xtx, on voit que l' ancienne génération tourne mieux dans la plupart des cas.  
Donc soit la 7900xrx est ... Moins perf. Soit y a un soucis de drivers dans ces cas précis

n°11208234
Niarfman
Posté le 08-01-2023 à 20:17:13  profilanswer
 

hellion666 a écrit :

Clairement, en comparant la 6900xt a la 7900xtx, on voit que l' ancienne génération tourne mieux dans la plupart des cas.  
Donc soit la 7900xrx est ... Moins perf. Soit y a un soucis de drivers dans ces cas précis


Fort à parier que les drivers peuvent être optimisés. En tous cas c'est jouable. Le casque Oculus Quest 2 étant, de toutes façons, limité à 90FPS si on veut une résolution potable (120FPS en sacrifiant l'image ...).
 
En tous cas merci pour le tableau comparatif, Fabrs2, ça me rassure du coup :)

n°11208316
Xixou2
Posté le 08-01-2023 à 23:47:28  profilanswer
 

Niarfman a écrit :


Rectification sur mon précédent post en ce qui concerne la VR. Je n'ai pas approfondi plus que ça, mais j'ai testé à nouveau aujourd'hui en mettant tout par défaut côté AMD Adrenalin sur le jeu Dirt 2.0, j'ai pu jouer dans d'excellentes conditions pendant 2 à 3 heures sans aucun souci. Et avec tout à fond, c'est vraiment immersif !!!

 

Je ne sais pas si c'était le RSR ou autre profil forcé côté Adrenalin qui posait souci, il faudra que je creuse. J'étais à 2 doigts de penser à revendre ma 7900 XTX si la VR n'était pas fonctionnelle. Me voilà rassuré :D


top

n°11208323
Randalf
Posté le 09-01-2023 à 02:06:16  profilanswer
 

dreamskiller a écrit :

Coucou les amis.
 
Pire saison pour prendre un GPU, mais n'en n'ayant plus c'est un peu une obligation.
 
Je peux pas taper dans l'occaz, la machine est aussi ma machine de travail (donc achat pro), et en neuf c'est la 7900XTX qui semble avoir le meilleur rapport perf/prix pour la 4K.
 
Comme j'ai pas acheté de GPU depuis 10 ans, et vu les soucis actuels, y a un espoir d'en choper une en MVRP ou pas d'après vous ? Je fais une croix sur cette idée si je veux changer en janvier ?


 
A 29,9cm tu dois avoir uniquement les design de ref qui passent dans ton boîtier (ITX j'imagine?). Au prix de la CG, il faudrait peut être envisager le changement de boitier non ? Un NR200p se trouve pour moins de 70€ actuellement, et dans un format plus grand tu dois facilement trouver des bonnes affaires

n°11208324
Randalf
Posté le 09-01-2023 à 02:06:18  profilanswer
 

dreamskiller a écrit :

Coucou les amis.
 
Pire saison pour prendre un GPU, mais n'en n'ayant plus c'est un peu une obligation.
 
Je peux pas taper dans l'occaz, la machine est aussi ma machine de travail (donc achat pro), et en neuf c'est la 7900XTX qui semble avoir le meilleur rapport perf/prix pour la 4K.
 
Comme j'ai pas acheté de GPU depuis 10 ans, et vu les soucis actuels, y a un espoir d'en choper une en MVRP ou pas d'après vous ? Je fais une croix sur cette idée si je veux changer en janvier ?


 
A 29,9cm tu dois avoir uniquement les design de ref qui passent dans ton boîtier (ITX j'imagine?). Au prix de la CG, il faudrait peut être envisager le changement de boitier non ? Un NR200p se trouve pour moins de 70€ actuellement, et dans un format plus grand tu dois facilement trouver des bonnes affaires

n°11208353
dreamskill​er
Posté le 09-01-2023 à 08:30:06  profilanswer
 

Randalf a écrit :


 
A 29,9cm tu dois avoir uniquement les design de ref qui passent dans ton boîtier (ITX j'imagine?). Au prix de la CG, il faudrait peut être envisager le changement de boitier non ? Un NR200p se trouve pour moins de 70€ actuellement, et dans un format plus grand tu dois facilement trouver des bonnes affaires


 
Je pense que c'est pas le bon message :D

n°11208358
aliss
Rhyme the Rhyme Well
Posté le 09-01-2023 à 09:04:22  profilanswer
 

Xixou2 a écrit :


 
Non, c'est le ventirad qui est excellent.


 
Après avoir passé le weekend a tester et jouer j'en arrive à la même conclusion.
 
Ce ventirad (4090 recyclé) est disproportionné pour cette carte, tant en taille qu'en capacité de dissipation (conçu pour 600w alors que la XT est bridée à 375w max par AMD malgré la présence de 3 connecteurs 8 pin's).
 
C'est la première fois depuis des années que je ne vais pas passer une carte sous WC.

n°11208359
Neji Hyuga
:grut:
Posté le 09-01-2023 à 09:05:40  profilanswer
 
n°11208418
Niarfman
Posté le 09-01-2023 à 10:56:04  profilanswer
 

aliss a écrit :


 
Après avoir passé le weekend a tester et jouer j'en arrive à la même conclusion.
 
Ce ventirad (4090 recyclé) est disproportionné pour cette carte, tant en taille qu'en capacité de dissipation (conçu pour 600w alors que la XT est bridée à 375w max par AMD malgré la présence de 3 connecteurs 8 pin's).
 
C'est la première fois depuis des années que je ne vais pas passer une carte sous WC.


Ce qui m'épate sur cette génération c'est le décalage entre la puissance consommée en Watt et la chaleur dégagée.
 
Ma RTX3080 consommait moins de Watts mais chauffait davantage que ma 7900XTX. Est-ce que c'est lié à la finesse de gravure qui demanderait plus de Watt mais chaufferait moins ... ? Vous avez une idée ? :|

mood
Publicité
Posté le 09-01-2023 à 10:56:04  profilanswer
 

n°11208419
[Toine]
A la demande générale...
Posté le 09-01-2023 à 10:56:59  profilanswer
 

Niarfman a écrit :


Ce qui m'épate sur cette génération c'est le décalage entre la puissance consommée en Watt et la chaleur dégagée.

 

Ma RTX3080 consommait moins de Watts mais chauffait davantage que ma 7900XTX. Est-ce que c'est lié à la finesse de gravure qui demanderait plus de Watt mais chaufferait moins ... ? Vous avez une idée ? :|


Y a pas d'écart entre puissance consommée et chaleur dégagée.
C'est la température qui grimpe car les surfaces d'échange ont beaucoup diminué à cause de la finesse de gravure.

Message cité 1 fois
Message édité par [Toine] le 09-01-2023 à 10:57:19

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11208431
minux
On Linux ...
Posté le 09-01-2023 à 11:09:58  profilanswer
 

Le bon plan de jour : https://www.amazon.fr/ASUS-Graphiqu [...] B0BQCC78ZK
 
:o
 
Edit pour les proxytaffé :
 
https://i.imgur.com/nhqSnTQl.png


Message édité par minux le 09-01-2023 à 11:10:44

---------------
Root des Google Pixel | Mes linux : 2002: Mandrake -> 2005: Ubuntu -> 2010: Arch | Mes smartphones
n°11208433
aliss
Rhyme the Rhyme Well
Posté le 09-01-2023 à 11:10:24  profilanswer
 

Niarfman a écrit :


Ce qui m'épate sur cette génération c'est le décalage entre la puissance consommée en Watt et la chaleur dégagée.
 
Ma RTX3080 consommait moins de Watts mais chauffait davantage que ma 7900XTX. Est-ce que c'est lié à la finesse de gravure qui demanderait plus de Watt mais chaufferait moins ... ? Vous avez une idée ? :|


 
Il y a le choix en terme d'hypothèses,
 
- process
- conséquence du design en chiplet
- chip buggé (ne tournant pas à la fréquence / tension voulue)
- ...
 
 

n°11208435
It_Connexi​on
Posté le 09-01-2023 à 11:14:34  profilanswer
 

Finalement MSi va être de la partie :  
 
https://www.cowcotland.com/news/847 [...] 0-xtx.html


---------------
Galerie Photo Personnelle
n°11208443
Niarfman
Posté le 09-01-2023 à 11:26:13  profilanswer
 

[Toine] a écrit :


Y a pas d'écart entre puissance consommée et chaleur dégagée.
C'est la température qui grimpe car les surfaces d'échange ont beaucoup diminué à cause de la finesse de gravure.


Ça m'intrigue ce que tu me dis. Dans mon cas c'est la taille du dissipateur de ma 7900XTX qui, étant plus large que celui de ma RTX3080, induirait une température plus faible ?
 
A l'époque j'avais 77°C GPU / 97°C Hotspot avec la RTX3080, Une MSI Ventus 3x OC d'usine, pour 318 Watts consommés (j'avais pris des screens à cause d'instabilité de ma carte à l'époque) :
https://zupimages.net/up/23/02/iims.png
 
Avec la 7900XTX je n'ai jamais dépassé 85°C en Hotspot alors qu'elle pompe 420 watts. La taille de la XFX 7900 XTX est, certes, plus grande, mais de "seulement" 5cm (15% de plus) mais la puissance consommée est de 30% en plus ...
 
Je prends en compte la surface réelle de dissipation de la chaleur, à savoir le radiateur. Pour moi, quelque soit la taille de la puce en elle-même, la surface d'échange étant alors celle du radiateur de la carte. Enfin, je me plante peut-être quelque part mais ça me semble rationnel comme raisonnement ^^"

Message cité 1 fois
Message édité par Niarfman le 09-01-2023 à 11:28:53
n°11208454
Niarfman
Posté le 09-01-2023 à 11:34:30  profilanswer
 

aliss a écrit :


 
Il y a le choix en terme d'hypothèses,
 
- process
- conséquence du design en chiplet
- chip buggé (ne tournant pas à la fréquence / tension voulue)
- ...


Il me semble que c'est la même pour les 4080 qui consomment plus mais chauffent moins que les 3080, de ce que j'ai compris.
 
Je n'ai pas fait de tests particuliers pour corroborer ça, mais j'ai l'impression que ça se confirme de manière générale.
 
Bref, juste une interrogation comme ça en passant. Quelque part tant mieux si ça devait, en effet, chauffer moins. Je me disais que c'est peut-être plus l'efficacité du processus de gravure qui serait en cause. Moins de déperdition de chaleur avec un process mieux maîtrisé ? Mais un certain Lavoisier disait que rien ne se perd tout se transforme ... alors ça m'intrigue :p

n°11208483
[Toine]
A la demande générale...
Posté le 09-01-2023 à 13:04:56  profilanswer
 

Niarfman a écrit :


Ça m'intrigue ce que tu me dis. Dans mon cas c'est la taille du dissipateur de ma 7900XTX qui, étant plus large que celui de ma RTX3080, induirait une température plus faible ?

 

A l'époque j'avais 77°C GPU / 97°C Hotspot avec la RTX3080, Une MSI Ventus 3x OC d'usine, pour 318 Watts consommés (j'avais pris des screens à cause d'instabilité de ma carte à l'époque) :
https://zupimages.net/up/23/02/iims.png

 

Avec la 7900XTX je n'ai jamais dépassé 85°C en Hotspot alors qu'elle pompe 420 watts. La taille de la XFX 7900 XTX est, certes, plus grande, mais de "seulement" 5cm (15% de plus) mais la puissance consommée est de 30% en plus ...

 

Je prends en compte la surface réelle de dissipation de la chaleur, à savoir le radiateur. Pour moi, quelque soit la taille de la puce en elle-même, la surface d'échange étant alors celle du radiateur de la carte. Enfin, je me plante peut-être quelque part mais ça me semble rationnel comme raisonnement ^^"


Non on parle de la surface de dissipation de la puce/puissance dégagée, pas du radiateur.

 

Plus la puce est petite et plus elle a de puissance à dégager, plus la puce est chaude.

Message cité 1 fois
Message édité par [Toine] le 09-01-2023 à 13:05:55

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11208496
genom
urinam non decolor unda
Posté le 09-01-2023 à 13:20:34  profilanswer
 

Niarfman a écrit :


Il me semble que c'est la même pour les 4080 qui consomment plus mais chauffent moins que les 3080, de ce que j'ai compris.


 
Ca dépend des modèles, ma 3080 FTW3 stock consommait 350-400w là ou ma Phantom 4080 consomme 270-330w suivant les jeux, elle chauffe moins, est mon bruyante et est plus perf d'environ 60-65%, la 4080 malgré son prix (acheté 1200eur) est topissime en QHD :D  

n°11208501
[Toine]
A la demande générale...
Posté le 09-01-2023 à 13:25:44  profilanswer
 

genom a écrit :


 
Ca dépend des modèles, ma 3080 FTW3 stock consommait 350-400w là ou ma Phantom 4080 consomme 270-330w suivant les jeux, elle chauffe moins, est mon bruyante et est plus perf d'environ 60-65%, la 4080 malgré son prix (acheté 1200eur) est topissime en QHD :D  


Y a juste cette connerie de RAM à 16GO, c'est dommage quand même :D


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11208503
ddlabrague​tte
Posté le 09-01-2023 à 13:30:38  profilanswer
 

Comment ça ?  C'est pas bien 16 gigots ?  [:delarue3]

n°11208505
[Toine]
A la demande générale...
Posté le 09-01-2023 à 13:32:49  profilanswer
 

ddlabraguette a écrit :

Comment ça ?  C'est pas bien 16 gigots ?  [:delarue3]


Vu la puissance de calcul du merdier oui c'est trop bas. En gros la carte va être limitée en perfs dans certains cas pour cause de mémoire saturée, alors que la puce serait capable de faire le rendu dans de bonnes conditions.

Message cité 1 fois
Message édité par [Toine] le 09-01-2023 à 13:33:41

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11208506
ddlabrague​tte
Posté le 09-01-2023 à 13:34:02  profilanswer
 

Je pense pas  [:michel_cymerde:7]
 
 
24 go c'est overkill pour la 4090 mais 12 aurait été bien trop juste à terme  
 
16 go est en parfait adéquation avec la puissance de la 4080
 
Cette dernière n'est pas taillée pour du 4k full toc à long terme  
Et pour du 1440p à toc, c'est pas demain la veille que tu satures une telle quantité de Vram  
 


Message édité par ddlabraguette le 09-01-2023 à 13:40:14
n°11208507
genom
urinam non decolor unda
Posté le 09-01-2023 à 13:34:21  profilanswer
 

[Toine] a écrit :


Y a juste cette connerie de RAM à 16GO, c'est dommage quand même :D


Pas le choix sur un bus 256bit, après tu passes de 10/12 à 16gb. Dans l'immédiat passer à une 4090 en QHD avec les proc dispo ce jour qui ne suivent pas, le surcoût (environ 500eur) pour au final être cpu bound où limité par les moteurs de jeux, à voir avec les nouveaux titres sur UE5. C'est bizarre à dire mais la 4090 est trop puissante et est plus taillé pour la 4K.

Message cité 1 fois
Message édité par genom le 09-01-2023 à 13:41:42
n°11208508
havoc_28
Posté le 09-01-2023 à 13:35:19  profilanswer
 

[Toine] a écrit :


Vu la puissance de calcul du merdier oui c'est trop bas. En gros la carte va être limitée en perfs dans certains cas pour cause de mémoire saturée, alors que la puce serait capable de faire le rendu dans de bonnes conditions.


 
Non mais c'est un bus mémoire 256 bits, C'est 16 go ou devoir ce casser la tête avec 16 puces de GDDR6X.
Nvidia leurs buts c'est que tu rachètes une carte à chaque génération ou au pire une génération sur deux.
 
Edit : grillé par l'ami genom :D.


Message édité par havoc_28 le 09-01-2023 à 13:42:05
n°11208509
Niarfman
Posté le 09-01-2023 à 13:35:47  profilanswer
 

[Toine] a écrit :


Non on parle de la surface de dissipation de la puce/puissance dégagée, pas du radiateur.
 
Plus la puce est petite et plus elle a de puissance à dégager, plus la puce est chaude.


Justement là où je ne pige pas, avec ce que tu dis, les puces récentes genre 4080 / 7900 devraient chauffer davantage que les anciennes du coup. C'est plutôt l'inverse qui est constaté.

n°11208510
[Toine]
A la demande générale...
Posté le 09-01-2023 à 13:37:01  profilanswer
 

genom a écrit :


Pas le choix sur un bus 256bit, après tu passes de 10/12 à 16gb. Dans l'immédiat passer à une 4090 en QHD avec les proc dispo ce jour qui ne suivent pas, le surcoût (environ 500eur) pour au final être cpu bound où limiter par les moteurs de jeux, à voir avec les nouveaux titres sur UE5. C'est bizarre à dire mais la 4090 est trop puissante et est plus taillé pour la 4K.


Oui en fait c'est le souci, la largeur du bus va faire des steps de quantité de mémoire qui vont pas forcément être adaptés.
Mais quelqu'un remontait que la 4080 avait des problèmes de gros ralentissements dans certaines conditions où la 3090 continuait à assurer, certes avec un FPS nominal plus faible, mais beaucoup plus régulier.


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11208511
havoc_28
Posté le 09-01-2023 à 13:37:42  profilanswer
 

Niarfman a écrit :


Justement là où je ne pige pas, avec ce que tu dis, les puces récentes genre 4080 / 7900 devraient chauffer davantage que les anciennes du coup. C'est plutôt l'inverse qui est constaté.


 
D'un coté pour la génération Ampère, chez Nvidia les cartes à 3.5 / 4 slots c'étaient pas spécialement la norme ... Avec ADA les cartes sont bien plus imposantes, si on avait le même genre de radiateurs sur des cartes Ampère tu aurais des températures similaires voir encore plus basses vu que les puces étaient plus larges en moyenne.
 
Si on compare la 6900 XT de REF et la 7900XTX de REF, malgré le rad un peu plus gros pour la 7900XTX et bien celle ci au final se retrouve avec un rad plus bruyant ... (pour maintenir des températures à peu près similaires). Bref non c'est pas que les puces soient plus simple à refroidir, c'est que la dimension des systèmes de refroidissement est de façon générale nettement plus imposante que sur la génération précédente.


Message édité par havoc_28 le 09-01-2023 à 13:41:38
n°11208512
ddlabrague​tte
Posté le 09-01-2023 à 13:41:32  profilanswer
 

[Toine] a écrit :


Oui en fait c'est le souci, la largeur du bus va faire des steps de quantité de mémoire qui vont pas forcément être adaptés.
Mais quelqu'un remontait que la 4080 avait des problèmes de gros ralentissements dans certaines conditions où la 3090 continuait à assurer, certes avec un FPS nominal plus faible, mais beaucoup plus régulier.


C'est plus la bande passante qui risque de poser problème en 4k full toc

n°11208514
[Toine]
A la demande générale...
Posté le 09-01-2023 à 13:43:43  profilanswer
 

Niarfman a écrit :


Justement là où je ne pige pas, avec ce que tu dis, les puces récentes genre 4080 / 7900 devraient chauffer davantage que les anciennes du coup. C'est plutôt l'inverse qui est constaté.


La surface du GA102 et du GP102 est quasi la même . La température plus basse est dûes à des radiateurs monstrueux.

 

Côté AMD, l'architecture n'a plus rien à voir donc faut voir, mais dans les 2 cas, les dissipateurs ont doublé de volumes, donc bien sûr que ça influe.

 

C'est juste qu'à dissipateur égal, plus le rapport puissance/surface est élevé, plus la température du chip est élevée.

Message cité 2 fois
Message édité par [Toine] le 09-01-2023 à 13:44:27

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11208522
aliss
Rhyme the Rhyme Well
Posté le 09-01-2023 à 13:58:38  profilanswer
 

[Toine] a écrit :


La surface du GA102 et du GP102 est quasi la même . La température plus basse est dûes à des radiateurs monstrueux.
 
Côté AMD, l'architecture n'a plus rien à voir donc faut voir, mais dans les 2 cas, les dissipateurs ont doublé de volumes, donc bien sûr que ça influe.
 
C'est juste qu'à dissipateur égal, plus le rapport puissance/surface est élevé, plus la température du chip est élevée.


 
Oui, par contre nVidia autorise des bios performances tirant parti du 12VHPWR.
 
AMD pour sa part a bloqué les tables de puissance des XT et XTX, y compris sur les cartes des partenaires.
 
C'est donc pour le moment impossible de modifier le PL au delà de -10 ou +15%  via MPT.

n°11208524
genom
urinam non decolor unda
Posté le 09-01-2023 à 14:04:19  profilanswer
 

[Toine] a écrit :


Oui en fait c'est le souci, la largeur du bus va faire des steps de quantité de mémoire qui vont pas forcément être adaptés.
Mais quelqu'un remontait que la 4080 avait des problèmes de gros ralentissements dans certaines conditions où la 3090 continuait à assurer, certes avec un FPS nominal plus faible, mais beaucoup plus régulier.


 
Au hasard Skyrim modé avec textures 8K, hyper mal codé... But can it run Crysis3?  :lol:  Avec une config dernier cri et matos correctement dimensionnés, sur les derniers titres parus, je n'ai pas noté la moindre saturation de mémoires, de stuttering ou de drop/dip important d'fps, je ne me baserais pas sur ça franchement, 16gb en QHD pour l'instant c'est suffisant.

Message cité 1 fois
Message édité par genom le 09-01-2023 à 14:18:58
n°11208549
Niarfman
Posté le 09-01-2023 à 15:01:35  profilanswer
 

[Toine] a écrit :


La surface du GA102 et du GP102 est quasi la même . La température plus basse est dûes à des radiateurs monstrueux.
 
Côté AMD, l'architecture n'a plus rien à voir donc faut voir, mais dans les 2 cas, les dissipateurs ont doublé de volumes, donc bien sûr que ça influe.
 
C'est juste qu'à dissipateur égal, plus le rapport puissance/surface est élevé, plus la température du chip est élevée.


Merci ça me paraît beaucoup plus clair et logique maintenant :)

n°11208554
Neji Hyuga
:grut:
Posté le 09-01-2023 à 15:13:32  profilanswer
 

Les voilà :  
 
https://rehost.diberie.com/Picture/Get/t/127691
 
Il n'y a plus qu'à :o


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11208555
wazany
Posté le 09-01-2023 à 15:14:03  profilanswer
 

les laisser dans ce sens :o


---------------
L'annuaire des serveurs Discord Hardware.fr Aidez nous à le compléter ! | Mes ventes
n°11208557
genom
urinam non decolor unda
Posté le 09-01-2023 à 15:22:29  profilanswer
 


 
amuse toi bien et si tu as le temps de faire quelques lignes sur l'approche d'AMD pour éliminer les situations de CPU overhead et gestion des API draw calls avec sa tech multi draw indirect accelerators (MDIA) dans les commandes processor dans le Geometry et Pixel pipeline en complément du Dual Issues, personne n'ent parlent... Pourtant si implémenté correctement (mais pas forcément) par les devs au niveau des AGS (SDK), ok souvent opti dans les jeux sponso en général avec support, ça fait son effet ;)
 
http://image.noelshack.com/fichiers/2023/02/1/1673275620-arch1.jpg
https://www.techpowerup.com/review/amd-radeon-rx-7900-xt/images/arch12.jpg
 

Citation :


AMD has also made several improvements to the geometry- and pixel-pipes, with the introduction of the new multi-draw indirect accelerator (MDIA), which reduces CPU API and driver-level overheads by gathering and parsing of multi-draw command data


Message édité par genom le 09-01-2023 à 19:13:09
n°11208558
[Toine]
A la demande générale...
Posté le 09-01-2023 à 15:24:36  profilanswer
 

genom a écrit :

 

Au hasard Skyrim modé avec textures 8K, hyper mal codé... But can it run Crysis3?  :lol:  Avec une config dernier cri et matos correctement dimensionnés, sur les derniers titres parus, je n'ai pas noté la moindre saturation de mémoires, de stuttering ou de drop/dip important d'fps, je ne me baserais pas sur ça franchement, 16gb en QHD pour l'instant c'est suffisant.


Possible, je pense que ça ne touche effectivement que peu de titres, ce qui est chiant/pas de bol c'est quand ça tombe sur celui dont tu es fan :D

Message cité 2 fois
Message édité par [Toine] le 09-01-2023 à 15:24:52

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°11208564
genom
urinam non decolor unda
Posté le 09-01-2023 à 15:37:18  profilanswer
 

[Toine] a écrit :


Possible, je pense que ça ne touche effectivement que peu de titres, ce qui est chiant/pas de bol c'est quand ça tombe sur celui dont tu es fan :D


 [:hotshot 2 le retour] solution: tu te mets un doigt dans le uk et l'autre dans la bouche et tu souffle, il parait que ça aide diminuer les idées de m.....  :whistle:  

n°11208583
aliss
Rhyme the Rhyme Well
Posté le 09-01-2023 à 15:59:31  profilanswer
 

16go c'est même plus que suffisant en UHD.
 
De mémoire il n'y a eu qu'un seul jeu ayant mis à mal les 10go d'une 3080, c'était FC6 en UHD avec son pack de textures "HD".

n°11208586
Gregooz
Posté le 09-01-2023 à 16:04:29  profilanswer
 

aliss a écrit :

16go c'est même plus que suffisant en UHD.
 
De mémoire il n'y a eu qu'un seul jeu ayant mis à mal les 10go d'une 3080, c'était FC6 en UHD avec son pack de textures "HD".


C'est ce que j'avais en tête mais à en croire certains forumeurs (il me semble sur le topic ADA), ils sont plus nombreux que ça :o

n°11208588
ddlabrague​tte
Posté le 09-01-2023 à 16:06:17  profilanswer
 

[Toine] a écrit :


Possible, je pense que ça ne touche effectivement que peu de titres, ce qui est chiant/pas de bol c'est quand ça tombe sur celui dont tu es fan :D


Ça touche aucun titres  
Faut pas confondre l'allocation mem ( plus tu en a et plus le jeu va en utiliser ) et la saturation mémoire  
 
Quand la mémoire est vraiment saturée et que le gpu doit aller taper ailleurs ( ram, SSD ) les perfs s'écroulent littéralement  
 
C'est pas ce qu'on constate en pratique dans les test  
 
Il reste le cas du RT à fond sans DLSS  ( cas mis en évidence dans le protocol de CDH ou l'on voit qu'en full HD, 8go se suffi plus sur quelques titres )  
Sauf qu'en pratique c'est inexploitable même en full hd à part pour la 4090 et encore   donc OSEF  
Aucun gpu n'est capable de faire tourner ces titres dans ces conditions avec un framerate décent dans une résolution supérieure  
 
En pratique, 10/12go suffit encore aujourd'hui en 4k.  Plus pour longtemps surement. Mais avec 16, t'es largement armé jusqu'à que le gpu deviennent obsolète
 
du coup je trouve au contraire que sur la gamme ADL, la quantité de mémoire est cohérente pour les 3 modèles de cartes et les résolutions à laquelle elles se destinent :jap:
En tout cas pour l'instant.  A voir maintenant avec les cartes à venir pour les gammes inférieures


Message édité par ddlabraguette le 09-01-2023 à 16:26:39
n°11208598
aliss
Rhyme the Rhyme Well
Posté le 09-01-2023 à 16:22:16  profilanswer
 

Gregooz a écrit :


C'est ce que j'avais en tête mais à en croire certains forumeurs (il me semble sur le topic ADA), ils sont plus nombreux que ça :o


 
Il est possible que certains mods amateurs puissent mettre à mal autant de vram mais dans ce cas précis il est difficile de blâmer NV ou AMD sur la quantité embarquée.
 
Comme le soulève ddlabraguette, une partie de ces forumeurs ne se focalisent-elle pas à tort sur l'allocation mémoire ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  114  115  116  ..  285  286  287  288  289  290

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic unique] AMD Zen 4Ma "Station Gamer" 100% "AMD"
MSI Tomahawk B550 + AMD 5950 = led cpu alluméeUpgrade 1700x vers un 5600X
upgrade AMDLe bug scandaleux de la série 6000 d'AMD avec les jeux cpu heavy
Mise à niveau config AMD vieillissanteupgrade depuis un AMD Athlon 64 X2 6000+ 3 GHz
Plus de sujets relatifs à : [Topic Unique] RDNA3 - AMD RX7x00 - 5nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)