Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2000 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9
Auteur Sujet :

Topic RDNA 4 - AMD RX8000

n°11336112
It_Connexi​on
Posté le 19-04-2024 à 08:38:51  profilanswer
 

Reprise du message précédent :

$k-flown a écrit :

J'avais des doutes avant d'essayer par moi même, mais maintenant que je l'ai vu de mes yeux.
 
Est-ce que le path tracing améliore les jeux ?
 
Oui certains effets rendent bien, mais ça n'a pas révolutionné mon expérience de jeu et non ça vaut pas encore la perte de 50% des FPS.   :jap:


 
Oui c'est comme le Rt, ça apporte un plus dans certains jeux mais je n'ai pas eu l'effet Waou attendu. Pour moi les 2 jeux qui en profitent le mieux (les jeux que j'ai testé bien sur) c'est CP2077 et Control


---------------
Galerie Photo Personnelle
mood
Publicité
Posté le 19-04-2024 à 08:38:51  profilanswer
 

n°11336122
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-04-2024 à 09:44:00  profilanswer
 

$k-flown a écrit :

J'avais des doutes avant d'essayer par moi même, mais maintenant que je l'ai vu de mes yeux.

 

Est-ce que le path tracing améliore les jeux ?

 

Oui certains effets rendent bien, mais ça n'a pas révolutionné mon expérience de jeu et non ça vaut pas encore la perte de 50% des FPS.   :jap:


Cela améliore graphiquement les jeux. Ce n'est pas révolutionnaire dans le sens où la rasterisation avait fait pas mal de progrès donc on n'a pas le même effet que si le path tracing avait été disponible dès le début des cartes 3d. Si tu es attentif aux ombres, à la gestion tout ce qui touche de près ou de loin à la lumière, l'amélioration est souvent très visible car ça corrige les défauts de la rasterisation qui n'est qu'une approximation avec des défauts du comportement de la lumière contrairement au path tracing qui simule la même physique que la lumière réelle.

 

Est-ce que ça vaut le coup vu la baisse des performances? C'est comme quand tu te demandes si mettre les détails au max vaut le coup vu la baisse de perf par rapport aux détails en moyen ou bas ou quand tu te demandes, est-ce qu'il est utile de passer en 4K par rapport au 1080p vu la baisse de perf. C'est une réponse subjective qui dépendra des attentes de chacun donc on ne peut pas répondre à ta place à cette question car seul toi peut juger.

 

Ce qui est bien est qu'on a la possibilité de profiter du ray tracing dès aujourd'hui pour ceux qui veulent et ne pas attendre encore 10-15 ans pour que les cartes graphiques puissent le gérer sans perte de performance.


Message édité par ravenloft le 19-04-2024 à 09:47:45

---------------
Ravenloft
n°11336125
Neji Hyuga
Modérateur
:grut:
Posté le 19-04-2024 à 09:55:07  profilanswer
 

C'est toujours pareil, ça dépend de l'implémentation et de la DA des titres sur lesquels la techno est utilisée.
 
Si Control, CP2077 et AW2 sont déjà très beaux en raster, avec le RT (complet pour les deux derniers) ça devient carrément d'autres jeux, surtout AW2 où l'ambiance et les jeux de lumières sont au cœur du gameplay.
 
L'apport du RT est aussi à voir du côté du développement où il n'y aura plus forcément besoin de se casser la tronche sur les lightmaps ou des shaders très complexes pour simuler des effets générés naturellement par le rendu ray tracé.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336127
aliss
Rhyme the Rhyme Well
Posté le 19-04-2024 à 10:02:36  profilanswer
 

On peut espérer également qu'à mesure que les architectures vont évoluer, la pénalité en l'activant va diminuer.

n°11336129
ravenloft
Meilleur jeu du 20ème siècle
Posté le 19-04-2024 à 10:09:39  profilanswer
 

C'est pas espérer, ça va arriver comme toutes les options graphiques. Qui se souvient du fsaa, des couleurs 32bits, des soft shadows ou du bump mapping ? C'était pareil. Cela plombait les perfs comme pas une à leur sortie et des années après, c'était beaucoup moins gourmands voire indolore totalement.


---------------
Ravenloft
n°11336130
Neji Hyuga
Modérateur
:grut:
Posté le 19-04-2024 à 10:14:16  profilanswer
 

aliss a écrit :

On peut espérer également qu'à mesure que les architectures vont évoluer, la pénalité en l'activant va diminuer.


 
Oui bien sûr, de toute façon le message est clair, l'acteur principal du marché concentre ses efforts là dessus depuis trois générations, ça n'ira qu'en s'améliorant (probablement au détriment des perfs en rendu traditionnel).
 
AMD avait manifestement une vision différente de la chose et doit maintenant y aller en marche forcée.

Message cité 1 fois
Message édité par Neji Hyuga le 19-04-2024 à 10:14:41

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336131
aliss
Rhyme the Rhyme Well
Posté le 19-04-2024 à 10:17:58  profilanswer
 

J'entends pas "espérer" le fait que pour le moment, la perte de performance en activant le RT est similaire quelle que soit l'architecture.

 

Sur Cyberpunk par exemple tu perdras entre 40 et 50% de perf que ça soit avec du Turing, de l'Ampère ou du Lovelace.

 

Côté AMD 70% avec du RDNA2 ou RDNA3.

Message cité 1 fois
Message édité par aliss le 19-04-2024 à 10:22:17
n°11336135
aliss
Rhyme the Rhyme Well
Posté le 19-04-2024 à 10:31:44  profilanswer
 

Neji Hyuga a écrit :


 
Oui bien sûr, de toute façon le message est clair, l'acteur principal du marché concentre ses efforts là dessus depuis trois générations, ça n'ira qu'en s'améliorant (probablement au détriment des perfs en rendu traditionnel).
 
AMD avait manifestement une vision différente de la chose et doit maintenant y aller en marche forcée.


 
Il faudra également que bouge côté consoles.
 
Devoir se baser sur du RDNA 2 custom se situant entre une 6700 et une 6800 ne doit pas être particulièrement incitatif pour les devs.

n°11336136
Neji Hyuga
Modérateur
:grut:
Posté le 19-04-2024 à 10:33:47  profilanswer
 

aliss a écrit :

J'entends pas "espérer" le fait que pour le moment, la perte de performance en activant le RT est similaire quelle que soit l'architecture.
 
Sur Cyberpunk par exemple tu perdras entre 40 et 50% de perf que ça soit avec du Turing, de l'Ampère ou du Lovelace.
 
Côté AMD 70% avec du RDNA2 ou RDNA3.


 
Oui je comprends, grossièrement cela veut dire que la partie rastérisation (perfs FP32 + rasterizer) scale à peu près autant que l'augmentation de perf des RT cores.
 
Mais sur les tests que j'avais pu faire, il y avait quand du mieux et un impact un peu plus contenu sur Ampere puis Ada par rapport à Turing (il faudrait que je retrouve ça).
 
A l'avenir les unités spécialisées en accélération du RT et de l'inférence devraient prendre de plus en plus de place sur les puces, ça se fera à priori au détriment du reste parce qu'au tarif de la galette sur les nodes les plus avancés il faudra bien trancher quelque part. Là, on aura probablement un écart plus réduit entre les deux méthodes de rendu.
 

aliss a écrit :

Il faudra également que bouge côté consoles.
 
Devoir se baser sur du RDNA 2 custom se situant entre une 6700 et une 6800 ne doit pas être particulièrement incitatif pour les devs.


 
C'est certain, mais on voit déjà des exceptions comme AW2 qui en plus de mettre à genoux les GPU Ada les plus véloce PT activé, dispose aussi de sa version "light" pour consoles. Bon, Remedy c'est un peu un cas à part.
 
Un refresh devrait arriver d'ici la fin de l'année (c'était à prévoir qu'il aurait été impossible de faire tirer l'équivalent d'un Navi22 jusqu'à la fin de vie de ces machines), mais ce sera encore un SoC AMD, donc avec les tares que l'on connaît côté RT.

Message cité 1 fois
Message édité par Neji Hyuga le 19-04-2024 à 10:43:44

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336137
aliss
Rhyme the Rhyme Well
Posté le 19-04-2024 à 10:40:00  profilanswer
 

Neji Hyuga a écrit :


 
Oui je comprends, grossièrement cela veut dire que la partie rastérisation (perfs FP32 + rasterizer) scale à peu près autant que l'augmentation de perf des RT cores.
 
Mais sur les tests que j'avais pu faire, il y avait quand du mieux et un impact un peu plus contenu sur Ampere puis Ada par rapport à Turing (il faudrait que je retrouve ça).
 
A l'avenir les unités spécialisées en accélération du RT et de l'inférence devraient prendre de plus en plus de place sur les puces, ça se fera à priori au détriment du reste parce qu'au tarif de la galette sur les nodes les plus avancés il faudra bien trancher quelque part. Là, on aura probablement un écart plus réduit entre les deux méthodes de rendu.


 
Ca m'intéresserait si tu les retrouves.  :jap:  
 
Je reprends essentiellement les chiffres donnés par W1zzard dans ses tests.
 
Côté rastérisation, je trouve que les gpu's actuels font assez bien le taf pour que ça stagne au profit de plus de transistors dédiés au ray tracing.

mood
Publicité
Posté le 19-04-2024 à 10:40:00  profilanswer
 

n°11336142
Neji Hyuga
Modérateur
:grut:
Posté le 19-04-2024 à 10:51:51  profilanswer
 

C'est dans mes tableaux pour CPCHW, je sais que ça n'a pas été utilisé à la maquette, 'faut que je fouille (au pire ce serait intéressant de refaire les tests, tiens) :D
 
Je te rejoins pour les perfs en raster, on en est à un niveau assez satisfaisant pour commencer à allouer du budget transistors ailleurs. Alors bon, il y aura toujours les critiques de ceux qui veulent jouer en 8K natif, en VR très haute définition ou activer du MSAA sur du rendu UHD, mais ça reste une minorité.
 
D'ailleurs plus que les RT cores, je pense que ce sont surtout les unités dédiées aux calculs matriciels en faible précision qui vont gratter de la place sur le silicium. L'objectif à terme pour NV est de pouvoir permettre à ses clients d'accélérer l'inférence de gros modèles génératifs en local sans avoir à reposer sur des services clouds. De l'IA on commence à en avoir dans pas mal d'applis, l'usage sur un GPU n'est plus limité à l'amélioration du framerate dans un JV.
 
Et c'est un domaine sur lequel AMD doit encore plus rattraper son retard.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336152
francis125​6
Posté le 19-04-2024 à 11:16:48  profilanswer
 

Neji Hyuga a écrit :

Manque de bol, j'ai épuisé mon quota de patience pour la journée.  
 
Je pense qu'après toutes ces années à déféquer sur tous les topics sur lesquels il passe, il est plus que temps que l'animal aille voir ailleurs.  
 
Allez, bon vent le lapin.


 
Merci.

n°11336174
havoc_28
Posté le 19-04-2024 à 13:42:54  profilanswer
 

Neji Hyuga a écrit :

D'ailleurs plus que les RT cores, je pense que ce sont surtout les unités dédiées aux calculs matriciels en faible précision qui vont gratter de la place sur le silicium. L'objectif à terme pour NV est de pouvoir permettre à ses clients d'accélérer l'inférence de gros modèles génératifs en local sans avoir à reposer sur des services clouds. De l'IA on commence à en avoir dans pas mal d'applis, l'usage sur un GPU n'est plus limité à l'amélioration du framerate dans un JV.


 
Hum, l'apprentissage machine y vraiment tant d'application qui en bénéficie réellement actuellement ? Pour la mise en page d'un texte, tableur tout ça ? Faciliter le travail quand on doit traiter une grosse base de données, générer des images (genre sur Intel ARC y avait de quoi faire, c'était rigolo mais voila :D) et pour de de la musique par exemple on a suffisamment de puissance chez soit avec un simple GPU ? (j'ai rien en ce moment :o), car sinon là tout de suite dans la vie de tous les jours sur PC ça me semble pas si évident que ça par rapport à tous le battage médiatique qui en est fait.
 
Comme avec les NPU, beaucoup de promesse, mais jusqu'à présent j'ai plus l'impression d'un "overpromised, underdelivered " et qu'il faudra attendre quelques années pour que ça soit globalement plus palpable les apports de l'IA.


Message édité par havoc_28 le 19-04-2024 à 13:49:27
n°11336176
Neji Hyuga
Modérateur
:grut:
Posté le 19-04-2024 à 13:51:02  profilanswer
 

Microsoft Copilot et par extension le prochain Windows qui sera architecturé autour de l'IA. Il y a aussi la suite Adobe qui commence à intégrer de l'IA pour ne citer que ça. Dans le monde smartphone il y a des chiées d'app câblées à des IA génératives, ça arrive petit à petit sur desktop.
 
Dans l'immédiat je suis d'accord que ça ne crève pas les yeux mais je pense que ça va aller vite, on peut vraiment gagner énormément de temps en utilisant correctement les possibilités offertes par l'IA.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336206
Gilbert Go​sseyn
Dr Liara T'Soni
Posté le 19-04-2024 à 17:31:22  profilanswer
 

Neji Hyuga a écrit :

Manque de bol, j'ai épuisé mon quota de patience pour la journée.

 

Je pense qu'après toutes ces années à déféquer sur tous les topics sur lesquels il passe, il est plus que temps que l'animal aille voir ailleurs.

 

Allez, bon vent le lapin.


Amendement Cracotte ou ... ?

 

Par contre, aujourd'hui, le fait est que nos CG ne sont clairement pas assez puissantes pour profiter du RT et du Path Tracing. La rasterisation a encore de beaux jours devant elle. Je n'ai pas envie de voir mes FPS chuter de moitié.


Message édité par Gilbert Gosseyn le 19-04-2024 à 17:35:54

---------------
Tant que la couleur de la peau sera plus importante que celle des yeux, nous ne connaitrons pas la paix. ● L'écriture, c'est la mémoire du futur. ● Mods FO4
n°11336209
Neji Hyuga
Modérateur
:grut:
Posté le 19-04-2024 à 18:00:40  profilanswer
 

Est-ce qu'on peut passer à autre chose ?


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336755
It_Connexi​on
Posté le 23-04-2024 à 15:06:55  profilanswer
 

Du coup c'est quasi acté qu'il n'y aura pas véritablement de carte HDG en 8xxx ?


---------------
Galerie Photo Personnelle
n°11336757
aliss
Rhyme the Rhyme Well
Posté le 23-04-2024 à 15:16:43  profilanswer
 

Pour le moment, seuls les N48 et N44 apparaissent dans certains processus de validation.
 
Mais tant qu'il n'y aura pas de communication officielle de la part d'AMD, le doute subsistera.

n°11336759
It_Connexi​on
Posté le 23-04-2024 à 15:20:08  profilanswer
 

aliss a écrit :

Pour le moment, seuls les N48 et N44 apparaissent dans certains processus de validation.
 
Mais tant qu'il n'y aura pas de communication officielle de la part d'AMD, le doute subsistera.


 
 :jap:


---------------
Galerie Photo Personnelle
n°11336825
ravenloft
Meilleur jeu du 20ème siècle
Posté le 23-04-2024 à 20:22:27  profilanswer
 

It_Connexion a écrit :

Du coup c'est quasi acté qu'il n'y aura pas véritablement de carte HDG en 8xxx ?


Pas acté mais toutes les infos/rumeurs de différents leaks tendent vers ça. C'est donc probable voire très probable sauf si amd a tout bien caché et mène en bateau tout son monde. On ne sait jamais.


---------------
Ravenloft
n°11337778
aliss
Rhyme the Rhyme Well
Posté le 29-04-2024 à 09:07:27  profilanswer
 

Quelques infos sur le forum d'Anand sur le "big chip" qui serait annulé.
 
https://forums.anandtech.com/thread [...] e-92#posts
 
Sur le papier, c'était un projet ambitieux avec 9SE et plus de 200CU.

n°11337875
havoc_28
Posté le 29-04-2024 à 19:45:18  profilanswer
 

aliss a écrit :

Quelques infos sur le forum d'Anand sur le "big chip" qui serait annulé.
 
https://forums.anandtech.com/thread [...] e-92#posts
 
Sur le papier, c'était un projet ambitieux avec 9SE et plus de 200CU.


 
Par exemple 3 GCD, et chaque GCD avec Genre 36WGP / 72 CU avec 3SE par GCD ? :o. Si on était sur un truc à Chiplet.
Mais oui très ambitieux si c'était bien le cas, déjà faudrait démontrer la viabilité d'un système avec simplement deux GCD (fonctionnant comme une seule puce si on arrive à gommer les problématiques de latences).Alors 3 GCD (si c'est bien ça) ...

Message cité 1 fois
Message édité par havoc_28 le 29-04-2024 à 20:02:15
n°11337894
BloodyCarn​age
Posté le 29-04-2024 à 21:21:41  profilanswer
 

Avant même d'envisager un problème technique insurmontable, il y a la question de la viabilité commerciale. C'est difficile vendre du GPU haut de gamme quand 90% des gros studios sont dans la poche du concurrent et que les tech AMD ne sont pas implémentées.
Alors si c'est pour sortir des cartes très cher à produire et qu'il faudra brader pour les vendre, c'est sans doute plus rentable de viser les GPU abordables. Puis, question parts de marché, ce n'est pas avec des cartes à 1500 boules que ça grimpe.


---------------
Nothing's so bad it can't get worse
n°11337898
havoc_28
Posté le 29-04-2024 à 21:28:20  profilanswer
 

BloodyCarnage a écrit :

Avant même d'envisager un problème technique insurmontable, il y a la question de la viabilité commerciale. C'est difficile vendre du GPU haut de gamme quand 90% des gros studios sont dans la poche du concurrent et que les tech AMD ne sont pas implémentées.
Alors si c'est pour sortir des cartes très cher à produire et qu'il faudra brader pour les vendre, c'est sans doute plus rentable de viser les GPU abordables. Puis, question parts de marché, ce n'est pas avec des cartes à 1500 boules que ça grimpe.


 
Le vaisseau amiral c'est toujours un bon boost niveau marketing pour le reste de la gamme. Pas primordial mais ça peut aider un peu, tout comme faut voir qu'il y a d'autre débouché pour un Tel GPU que le jeu, les variantes pro etc. Donc pour moi c'est plus une question technique que commerciale.

n°11337914
BloodyCarn​age
Posté le 29-04-2024 à 22:27:24  profilanswer
 

La présence d'AMD est anecdotique sur le marché du GPU pro. Difficile de faire changer les habitudes quand le support des softs pro est tellement meilleur chez nvidia. Le temps des ingé est mieux utilisé sur CDNA, là où AMD gagne de l'argent.
 
Pour moi, il faut qu'un flagship "fasse rêver" pour qu'il ait un effet sur le reste de la gamme. Est-ce que le supposé N41 était capable de rivaliser avec le gros blackwell? Si c'est pour rejouer le match 7900xtx vs rtx4090, ça n'est pas la peine.


---------------
Nothing's so bad it can't get worse
n°11337918
aliss
Rhyme the Rhyme Well
Posté le 29-04-2024 à 22:38:47  profilanswer
 

havoc_28 a écrit :


 
Par exemple 3 GCD, et chaque GCD avec Genre 36WGP / 72 CU avec 3SE par GCD ? :o. Si on était sur un truc à Chiplet.
Mais oui très ambitieux si c'était bien le cas, déjà faudrait démontrer la viabilité d'un système avec simplement deux GCD (fonctionnant comme une seule puce si on arrive à gommer les problématiques de latences).Alors 3 GCD (si c'est bien ça) ...


 
Plus encore selon All The Watts!! (pour ce que ça vaut  :o)
 
48WGP/96CU par GCD...
 
Mais même en tenant compte du gain en densité du N4P, je n'ose imaginer la taille du truc (et ce qu'il aurait fallu pour le refroidir... :D).

n°11337920
aliss
Rhyme the Rhyme Well
Posté le 29-04-2024 à 22:47:21  profilanswer
 

BloodyCarnage a écrit :

La présence d'AMD est anecdotique sur le marché du GPU pro. Difficile de faire changer les habitudes quand le support des softs pro est tellement meilleur chez nvidia. Le temps des ingé est mieux utilisé sur CDNA, là où AMD gagne de l'argent.
 
Pour moi, il faut qu'un flagship "fasse rêver" pour qu'il ait un effet sur le reste de la gamme. Est-ce que le supposé N41 était capable de rivaliser avec le gros blackwell? Si c'est pour rejouer le match 7900xtx vs rtx4090, ça n'est pas la peine.


 
En puissance brute peut-être mais aujourd'hui ça ne suffit plus.
 
Et je doute que NV se tourne les pouces concernant l'amélioration des fonctionnalités actuelles ou pour proposer de nouvelles choses.

n°11337921
It_Connexi​on
Posté le 29-04-2024 à 22:53:15  profilanswer
 

DLSS 5.0 exclusif aux RTX 5xxx  [:b0wh]


Message édité par It_Connexion le 29-04-2024 à 22:53:33

---------------
Galerie Photo Personnelle
n°11337928
havoc_28
Posté le 29-04-2024 à 23:13:55  profilanswer
 

BloodyCarnage a écrit :

La présence d'AMD est anecdotique sur le marché du GPU pro. Difficile de faire changer les habitudes quand le support des softs pro est tellement meilleur chez nvidia. Le temps des ingé est mieux utilisé sur CDNA, là où AMD gagne de l'argent.
 
Pour moi, il faut qu'un flagship "fasse rêver" pour qu'il ait un effet sur le reste de la gamme. Est-ce que le supposé N41 était capable de rivaliser avec le gros blackwell? Si c'est pour rejouer le match 7900xtx vs rtx4090, ça n'est pas la peine.


 
Il faut bien qu'il tente des choses, d'une façon ou d'une autre, après les parts de marchés d'AMD même si plus ou moins moribonde ce maintienne à peu près, tout comme dire que les radéons sont une branche qui ne rapportent pas d'argent contrairement aux branches Pro comme CDNA ? C'est clairement pas la branche la plus profitable, mais avec les APU consoles ou même les puces dans les consoles portables actuelles (steam Deck et compagnie), je suis pas convaincu non plus que la RTG perd de l'argent avec sa branche Radeon.
 
Après vu la gueule de la puce, c'était pas un petit truc de prévu, je sais pas si ça aurait été au niveau du B102 mais s'intercaler au moins entre le B102/103 vu les specs ça m'aurait clairement pas étonné.
Si les performances ne correspondaient pas aux attentes d'AMD (à cause de multiple chiplets et les soucis de latences que ça engendre entre GCD), c'est une chose, mais y avait clairement une volonté de se battre sur le haut de gamme B102 compris, plus que doubler le nombre d'unités vs N31, les rumeurs d'améliorations notables coté RT, un FSR qui finalement serait accélérer via apprentissage machine, y avait de quoi faire si ça avait fonctionné comme le prévoyait AMD, mais apparemment ça pas été le cas.
 
Si cet échec pourra servir de leçon et avoir quelque chose de concret pour RDNA 5 (ou quelque soit le nom), tant mieux.
 
Après N31 vu la taille du DIE et les MCDs, c'est pas spécialement problématique en terme de coût , et AMD peut le mettre en face de l'AD103 sans trop de problème, RDNA 3 de façon générale est pas spécialement réussie, c'est valable pour toute la gamme, mais au moins ça tient à peu près la route excepté vs l'AD102 qui est intouchable.
Je préfère qu'AMD et Intel tente des choses et que ça foire ... que rien du tout, oui  Nvidia pour l'instant sont "intouchables" mais on sait jamais ce qui peut se produire.
 
Si RDNA 4 introduit un FSR accéléré via apprentissage machine, offre un bond non négligeable dans les perfs en RT (par rapport au nombre de RT Core embarqué), que c'est dans la zone des 500/600$ et à peu près compétitif vs Nvidia, et bien moi ça m'intéresserais alors RDNA 4, mais à voir ce que proposera Nvidia dans cette zone tarifaire, ou même BattleMage coté Intel.  
 

aliss a écrit :


 
Plus encore selon All The Watts!! (pour ce que ça vaut  :o)
 
48WGP/96CU par GCD...
 
Mais même en tenant compte du gain en densité du N4P, je n'ose imaginer la taille du truc (et ce qu'il aurait fallu pour le refroidir... :D).


 
288 CU au total alors :o. Oui non ça commence à devenir gargantuesque là, on est toujours sur une branche du 5 nm  :pt1cable: . Déjà que 216 CU c'était pas un petit truc si ça c'était concrétisé mais encore plus gros ?  [:cerveau perchut2]
J'aurais pensé qu'ils auraient commencer par juste 2 GCD de 40WGP/ 80CU voir 48 WGP / 96 CU, rester à 6 MCD et bénéficier de la bande passante mémoire de la GDDR7 ... Mais c'était clairement plus oui.


Message édité par havoc_28 le 29-04-2024 à 23:31:14
n°11337948
aliss
Rhyme the Rhyme Well
Posté le 30-04-2024 à 08:04:47  profilanswer
 

Ca me laisse assez perplexe en tout cas.
 
Qu'il aient tenté de sortir un monstre pourquoi pas.
 
Mais qu'il n'y ait eu aucun chip intermédiaire de prévu entre ça et le N48 ?

n°11337983
havoc_28
Posté le 30-04-2024 à 11:28:46  profilanswer
 

aliss a écrit :

Ca me laisse assez perplexe en tout cas.
 
Qu'il aient tenté de sortir un monstre pourquoi pas.
 
Mais qu'il n'y ait eu aucun chip intermédiaire de prévu entre ça et le N48 ?


 
Dans le cas genre d'un GCD de 36WGP/72 CU et que même avec juste 2 GCD ça donne pas le résultat escompté, utiliser un seul GCD basé sur cette configuration est peut être pas spécialement intéressant vs N48 qui obtiendrait des perfs similaire (monolithique donc quelques petits avantages intrinsèque ? ). Si c'était 48 WGP / 96CU ça serait déjà plus compliqué à expliquer. On aurait eut 3 GCD, 2 GCD, 1 GCD, et N48/44 en bas de tableau. Mais si on compte aussi avec les rebuts de ces GCD ça fait beaucoup ? :o

n°11338119
aliss
Rhyme the Rhyme Well
Posté le 01-05-2024 à 09:14:01  profilanswer
 

havoc_28 a écrit :


 
Dans le cas genre d'un GCD de 36WGP/72 CU et que même avec juste 2 GCD ça donne pas le résultat escompté, utiliser un seul GCD basé sur cette configuration est peut être pas spécialement intéressant vs N48 qui obtiendrait des perfs similaire (monolithique donc quelques petits avantages intrinsèque ? ). Si c'était 48 WGP / 96CU ça serait déjà plus compliqué à expliquer. On aurait eut 3 GCD, 2 GCD, 1 GCD, et N48/44 en bas de tableau. Mais si on compte aussi avec les rebuts de ces GCD ça fait beaucoup ? :o


 
J'en viens à me demander si AMD ne trolle pas à nouveau les "fuiteurs".
 

n°11338166
havoc_28
Posté le 01-05-2024 à 13:40:11  profilanswer
 

aliss a écrit :


 
J'en viens à me demander si AMD ne trolle pas à nouveau les "fuiteurs".
 


 
C'est toujours possible, histoire d'identifier certaines fuites et les colmater sans donner pour autant de réelles informations. Aller peut être au computex AMD aura l'idée d'en dire un peu plus pour sa gamme Radeon.

n°11338314
It_Connexi​on
Posté le 02-05-2024 à 10:31:59  profilanswer
 
n°11338317
aliss
Rhyme the Rhyme Well
Posté le 02-05-2024 à 10:39:57  profilanswer
 

On verra bien, on a eu droit aux mêmes rumeurs / promesses concernant RDNA 3 et ça ne s'est pas concrétisé.

n°11338325
It_Connexi​on
Posté le 02-05-2024 à 11:25:04  profilanswer
 

Après sincèrement je ne trouve pas le RT si catastrophique que ça sur la 6800 et la 6950Xt, à en croire certains si tu n'as pas de Nvidia tu ne peux pas utiliser le RT
 
Certes j'utilise le FSR (uniquement pour ce jeux) mais je suis en RT psycho en 1080p sur la 6800 et en 1440p sur la 6950XT, ça passe très bien


---------------
Galerie Photo Personnelle
n°11338335
aliss
Rhyme the Rhyme Well
Posté le 02-05-2024 à 11:59:55  profilanswer
 

La perte sèche en framerate avec une radeon est bien trop importante (sur les titres ou l'apport visuel est marquant) pour que je daigne l'activer.

n°11338350
R95
Posté le 02-05-2024 à 13:31:12  profilanswer
 

It_Connexion a écrit :

Après sincèrement je ne trouve pas le RT si catastrophique que ça sur la 6800 et la 6950Xt, à en croire certains si tu n'as pas de Nvidia tu ne peux pas utiliser le RT
 
Certes j'utilise le FSR (uniquement pour ce jeux) mais je suis en RT psycho en 1080p sur la 6800 et en 1440p sur la 6950XT, ça passe très bien


 
Combien de FPS ? Le  vrai problème c'est la qualité du FSR 2.

n°11338355
ravenloft
Meilleur jeu du 20ème siècle
Posté le 02-05-2024 à 13:59:56  profilanswer
 
n°11338369
It_Connexi​on
Posté le 02-05-2024 à 14:53:01  profilanswer
 

aliss a écrit :

La perte sèche en framerate avec une radeon est bien trop importante (sur les titres ou l'apport visuel est marquant) pour que je daigne l'activer.


 
Je l'ai activé uniquement sur CP2077 et Control, testé sur d'autres jeux, je ne trouve pas ça dingue comparé à la puissance que ça demande oui  :jap:


---------------
Galerie Photo Personnelle
n°11338371
aliss
Rhyme the Rhyme Well
Posté le 02-05-2024 à 15:04:06  profilanswer
 

Ah mais je parle bien de Cyberpunk.

 

L'apport ne vaut pas les 70% de perte de framerate occasionnés sur RDNA2/3.


Message édité par aliss le 02-05-2024 à 15:04:19
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : Topic RDNA 4 - AMD RX8000


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR