Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1417 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10
Auteur Sujet :

Topic RDNA 4 - AMD RX8000

n°11335637
PSX86
ZeroAndOne
Posté le 16-04-2024 à 15:20:55  profilanswer
 

Reprise du message précédent :

aliss a écrit :


 
Je mise plutôt sur des problèmes insolubles avec leur chiplet design sur RDNA 4.
 
Ils n'ont eu cesse de mettre en avant cet argument pour N31/32 en déclarant même que c'était le futur du gpu et ils ne proposeraient après coup que du monolithique ?
 
Ca n'a pas de sens.


 
Ha d'accord je voyais la piste Polaris mais ton hypothèse parais plus probante.

mood
Publicité
Posté le 16-04-2024 à 15:20:55  profilanswer
 

n°11335638
ravenloft
Meilleur jeu du 20ème siècle
Posté le 16-04-2024 à 15:25:19  profilanswer
 

PSX86 a écrit :


En ce qui concerne la stratégie d'AMD je vois plutôt ça comme un challenge pour eux d'optimiser quelque chose de plus petit.


Moi je vois plutôt qu'AMd est occupé sur RDNA 5 qui devrait être intégré dans les consoles next-gen d'après les rumeurs et a donc mis moins de temps et d'argent sur RDNA 4. Cela expliquerait bien pourquoi rdna 4 n'a que du moyen et bas de gamme car ça coute surement bien moins en r&d et en budget que de sortir une puce haut de gamme et consacrer tous ses efforts sur rdna 5 qui équiperont les prochaines xbox et ps6 afin que les puces soient au top.


---------------
Ravenloft
n°11335640
PSX86
ZeroAndOne
Posté le 16-04-2024 à 15:39:31  profilanswer
 

Euh on attend les XBOX et PS6 next Gen pas avant 2028 au plus tôt ? C'est pas environ 7 ans pour une console ?

n°11335649
havoc_28
Posté le 16-04-2024 à 16:03:02  profilanswer
 

PSX86 a écrit :


 
Source ? J'ai une autre source : https://www.cowcotland.com/news/723 [...] -whql.html
 
"Performances améliorées grâce à l'accélération matérielle de l'ordonnancement GPU"


 
Depuis quelques années déjà les pilotes Nvidia sont nettement plus lourd coté processeur surtout en DX12 / Vulkan, en DX11 c'était bien souvent le contraire jusqu'à ce qu'AMD refonde ses pilotes DX11 et les publient courant 2022.  
Depuis GCN AMD dispose d'un multi engine pour l'async compute etc, on a du attendre Turing pour avoir quelque chose de comparable.  
 
Donc ça me semble étrange que ce soit juste une histoire de pilote,  pour moi y a quelque chose qui manque coté architecture Nvidia qui cause ce besoin de cycle supplémentaire coté pilotes / processeur.  
 
J'extrapole surement un peu trop cette histoire de "Driver Over Head" avec l'ordonnanceur matériel, mais ça me fait penser au traitement de l'async compute à l'époque de Pascal :o. Et Depuis Turing ça a pas évolué cette histoire de pilotes plus lourd coté processeur.
https://www.hardware.fr/articles/94 [...] mieux.html
 

PSX86 a écrit :

Euh on attend les XBOX et PS6 next Gen pas avant 2028 au plus tôt ? C'est pas environ 7 ans pour une console ?


 
C'est 7 ans,  la PS5 et Xboite Série X/S étant sortie fin 2020 leurs remplaçante c'est pour fin 2027 dans 3 ans et demi environ.

Message cité 1 fois
Message édité par havoc_28 le 16-04-2024 à 16:16:31
n°11335686
MacIntoc
tu lis une phrase formidable.
Posté le 16-04-2024 à 19:35:16  profilanswer
 

PSX86 a écrit :

Euh on attend les XBOX et PS6 next Gen pas avant 2028 au plus tôt ? C'est pas environ 7 ans pour une console ?


Si, mais faut rajouter ~2 ans pour concevoir/fabriquer la console. Donc RDNA 5 pour 2025, c'est pas déconnant non plus.


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°11335726
aliss
Rhyme the Rhyme Well
Posté le 17-04-2024 à 09:43:10  profilanswer
 

Ah mais de toute manière si AMD se contente effectivement de N48 et N44, RDNA 4 devrait être une architecture de transition.

 

Le hic serait d'avoir NV seul au monde avec 2 à 3 gpu's de la gamme "Blackwell" sur une durée indéterminée.

Message cité 1 fois
Message édité par aliss le 17-04-2024 à 09:44:47
n°11335763
havoc_28
Posté le 17-04-2024 à 14:00:20  profilanswer
 

aliss a écrit :

Ah mais de toute manière si AMD se contente effectivement de N48 et N44, RDNA 4 devrait être une architecture de transition.
 
Le hic serait d'avoir NV seul au monde avec 2 à 3 gpu's de la gamme "Blackwell" sur une durée indéterminée.


 
Les chiplets c'est surement le futur, mais pour l'instant y a peut être encore un peu trop de latences / manque de débits pour connecter par exemples deux "GCD" pour une solution orienter jeux vidéos. Mais on peut espérer que pour RDNA 5 les interposer soient prêts / optimiser pour de telles solution.  
Mais même si c'est une architecture de "transition", AMD peut tout de même tenter d'améliorer certains points, sur RDNA 3 ils se sont concentrer sur la mise en place d'une architecture chiplets, MCD / GCD, ça pas été super concluant, mais ça fait toujours une expérience acquise, avec RDNA 4 et une solution plus traditionnelle en monolithique, gommer certains défauts jusqu'à présent de RDNA ça serait déjà bien.
 
Mais après tout N44/48 c'est peut être pour enfumer son monde, y aura peut être un gros RDNA 4 un peu plus tard :o (Big Navi syndrome :D en espérant que ce soit pas un Vega bis si tel était le cas).

n°11335765
ravenloft
Meilleur jeu du 20ème siècle
Posté le 17-04-2024 à 14:05:43  profilanswer
 

Je pense à une chose: est-ce que pour une puce bas et milieu de gamme, le chiplet était-il utile ? Peut être que non et c'est pour ça que la puce est monolithique car ça coute peut être moins chère et est plus facile à produire quand c'est une puce moins haut de gamme. Peut être que le rdna 4 haut de gamme annulé était sur chiplet par contre.

aliss a écrit :


Le hic serait d'avoir NV seul au monde avec 2 à 3 gpu's de la gamme "Blackwell" sur une durée indéterminée.


Avec navi 1 et certains versions de vega, c'est un peu déjà ce qu'on a eu par le passé, non?. AMd a souvent sortit ses puces avec du retard et parfois de l'ordre de l'année ou ne pouvant pas concurrencer le haut de gamme d'nvidia, rarement l'inverse.

Message cité 2 fois
Message édité par ravenloft le 17-04-2024 à 14:07:50

---------------
Ravenloft
n°11335767
havoc_28
Posté le 17-04-2024 à 14:14:11  profilanswer
 

ravenloft a écrit :

Je pense à une chose: est-ce que pour une puce bas et milieu de gamme, le chiplet était-il utile ? Peut être que non et c'est pour ça que la puce est monolithique car ça coute peut être moins chère et est plus facile à produire quand c'est une puce moins haut de gamme. Peut être que le rdna 4 haut de gamme annulé était sur chiplet par contre.


 
RDNA 3 pour la 7600 ils se sont contenté d'un design monolithique classique, tout en restant sur du 6nm. Mais RDNA 3 c'est déjà à peine 3 puces, N31 un GCD + 6 MCD, N32 un GCD + 4 MCD, les MCD entre N31 et 32 sont identiques, et on peut penser que oui pour une puce entrée de gamme avec juste un bus 128 bits c'est pas rentable d'utiliser une architecture à chiplet vu qu'en monolithique on a une puce suffisamment compacte déjà.  
En comparaison ADA c'est 5 puces, AD102/103/104/106/107. (Y a une tendance ? :o).

n°11335776
aliss
Rhyme the Rhyme Well
Posté le 17-04-2024 à 14:33:42  profilanswer
 

ravenloft a écrit :


Avec navi 1 et certains versions de vega, c'est un peu déjà ce qu'on a eu par le passé, non?. AMd a souvent sortit ses puces avec du retard et parfois de l'ordre de l'année ou ne pouvant pas concurrencer le haut de gamme d'nvidia, rarement l'inverse.


 
Récemment ça s'est produit oui.
 
Avec RDNA ou encore Polaris mais ça tenait plus d'un manque de moyens financiers qu'autre chose or le contexte est aujourd'hui différent.
 
Alors à moins qu'ils jouent l'intox comme le suggère havoc_28, je persiste à penser qu'ils ont eu des soucis techniques si ils ne sont en mesure de proposer que 2 chip monolithiques de taille réduite.

mood
Publicité
Posté le 17-04-2024 à 14:33:42  profilanswer
 

n°11335867
Roovy
Posté le 17-04-2024 à 23:07:28  profilanswer
 

Le problème se situerait à quel niveau ?   Vouloir associer plusieurs GCD et les faire communiquer entre eux pour qu'ils se comportent parfaitement comme un unique GPU ?
 

n°11335883
aliss
Rhyme the Rhyme Well
Posté le 18-04-2024 à 08:06:44  profilanswer
 

Peut-être tout simplement ceux constatés avec N31 qui n'ont pu être corrigés ?

n°11335887
aliss
Rhyme the Rhyme Well
Posté le 18-04-2024 à 08:45:27  profilanswer
 

Tiens, pour la première fois depuis sa sortie, la 7800XT a été délogée de sa première place chez MF.
 
https://i.postimg.cc/SRCV0qCb/dual-mdg.jpg
 
https://x.com/TechEpiphanyYT/status/1780582270446842006
 
Par ailleurs, les ventes de cartes se cassent la gueule alors qu'on est pourtant loin des prochaines sorties.
 

n°11335897
ravenloft
Meilleur jeu du 20ème siècle
Posté le 18-04-2024 à 09:57:18  profilanswer
 

aliss a écrit :

 

Récemment ça s'est produit oui.

 



Une puce amd gpu non en retard par rapport à nvidia et capable de rivaliser sur toute la gamme complète, ça fait de très longues années que ça ne s'est pas produit.
La dernière puce amd gpu en avance sur nvidia, ça fait peut être 10 ans voire plus que ça ne s'est plus produit.

aliss a écrit :


Alors à moins qu'ils jouent l'intox comme le suggère havoc_28, je persiste à penser qu'ils ont eu des soucis techniques si ils ne sont en mesure de proposer que 2 chip monolithiques de taille réduite.


Possible mais perso je pense plus au fait qu'ils se concentrent sur les puces pour MS et Sony avant tout et comme rdna 4 ne sera pas utilisé dans les consoles, c'est pour ça qu'ils ont réduit la voilure car AMD, c'est pas nvidia, ils ont pas autant d'argent que ça pour mettre en R&D d'autant plus qu'ils ont la partie cpu à assurer avec moins de moyens qu'nvidia. Les 2 raisons peuvent aussi avoir été présentes. On a des soucis et comme c'est pas une puce stratégique pour nous, on l'a abandonné sans faire d'efforts pour corriger les problèmes.

Message cité 1 fois
Message édité par ravenloft le 18-04-2024 à 10:03:54

---------------
Ravenloft
n°11335921
aliss
Rhyme the Rhyme Well
Posté le 18-04-2024 à 11:17:03  profilanswer
 

ravenloft a écrit :


Une puce amd gpu non en retard par rapport à nvidia et capable de rivaliser sur toute la gamme complète, ça fait de très longues années que ça ne s'est pas produit.
La dernière puce amd gpu en avance sur nvidia, ça fait peut être 10 ans voire plus que ça ne s'est plus produit.


 
En terme de puissance brute il n'y a pas besoin de remonter bien loin, RDNA 2 était compétitif vs Ampère sur l'ensemble de la gamme.  
 
Enfin je ne parle pas d'être en avance mais de proposer une gamme complète allant de l'entrée de gamme à un flagship.

n°11335934
ravenloft
Meilleur jeu du 20ème siècle
Posté le 18-04-2024 à 11:37:17  profilanswer
 

aliss a écrit :


 
En terme de puissance brute il n'y a pas besoin de remonter bien loin, RDNA 2 était compétitif vs Ampère sur l'ensemble de la gamme.  
 


Compétitif si on ne compte pas le ray tracing ni le dlss. 2-3 mois de retard en + à rajouter.
 
Cela commence à faire.
 

Citation :

Enfin je ne parle pas d'être en avance mais de proposer une gamme complète allant de l'entrée de gamme à un flagship.


C'est différent de ce dont je parlais au départ et de mon message que tu as cités.
 
Une gamme complète AMD en a fait très souvent, c'est pas trop ça le problème. Le gros problème pour AMd c'est de la sortir à l'heure ce qu'ils n'ont que rarement fait et d'être compétitif sur tous les plans et pas juste sur un ou 2 comme le prix et les perfs en rasterisation. Même intel avec sa toute première puce a réussi à faire mieux sur le plan du ray tracing ce qui montre qu'amd a surtout négligé certains aspects de ses puces. Cela ne suffit plus et les parts de marchés qui n'évoluent pas voire régressent le démontre. S'il n'y avait pas les consoles et les apus, la branche gpu serait moribonde pour AMD contrairement à la branche cpu alors que c'était le contraire il y a 10 ans.  
AMd a besoin de se trouver son ryzen like pour ses gpus et pouvoir être compétitif sur tous les plans avec ses rivaux tout en ne négligeant pas les innovations et être à la traine (freesync, ray tracing, fsr que des technos pris le train en marche de longs mois voire années après alors qu'ils auraient du être prescripteurs ou en tout cas arriver en même temps).


---------------
Ravenloft
n°11335937
aliss
Rhyme the Rhyme Well
Posté le 18-04-2024 à 11:48:00  profilanswer
 

C'est préjudiciable pour le RT mais déjà moins pour le reste.
 
Et même concernant le RT, pour avoir eu une 2080Ti "day one", je n'en ai presque pas profité.

n°11335947
lapin
Posté le 18-04-2024 à 12:35:41  profilanswer
 

Si ça se trouve nVIDIA à fait exprès de sortir le RT trop tôt dans le but de forcer AMD à sortir un RT core trop tôt dans le but de gâche des Transistors dans les GPU AMD.
 
En gros si nVIDIA fait un truc ne les suivez pas, ils veulent vous piéger.

n°11335956
Scrabble
Posté le 18-04-2024 à 13:22:39  profilanswer
 

aliss a écrit :

C'est préjudiciable pour le RT mais déjà moins pour le reste.
 
Et même concernant le RT, pour avoir eu une 2080Ti "day one", je n'en ai presque pas profité.


Clairement la série RTX 20X0 c'était le défrichage du RT, au début le RT c'était surtout un argument marketing pour Nvidia
Aujourd'hui, avec le path tracing, on en voit vraiment les bénéfices dans les jeux

n°11335960
lapin
Posté le 18-04-2024 à 13:54:53  profilanswer
 

Scrabble a écrit :


Clairement la série RTX 20X0 c'était le défrichage du RT, au début le RT c'était surtout un argument marketing pour Nvidia
Aujourd'hui, avec le path tracing, on en voit vraiment les bénéfices dans les jeux


 
 
Et c'est au prix de combien d'images par seconde en UHD natif sans DLSS et sans FSR et XeSS et compagnie pour les Geforce RTX-4070Ti et Geforce RTX-4080Ti !!!!??

n°11335962
aliss
Rhyme the Rhyme Well
Posté le 18-04-2024 à 14:00:15  profilanswer
 

Du PT sans sparadrap ?

 

C'est douloureux (sur Cyberpunk).

 

https://i.postimg.cc/WzcwfLxq/PT-Cyberpunk.jpg

 

https://www.computerbase.de/2023-04 [...] aufloesung

Message cité 1 fois
Message édité par aliss le 18-04-2024 à 14:00:34
n°11335964
lapin
Posté le 18-04-2024 à 14:06:53  profilanswer
 


 
 
Donc le Path Ray Tracing est encore plus pire que le Ray Tracing.
Ça démontre bien de l'inutilité de Ray Tracing du RT core et des RTX vu que ce qui a été vendu fait tout RAMER et avec des artéfacts.
 
En fait les constructeurs de GPU auraient du attendre 2025 pour sortir des Unité Hardware faisant Nativement du Path Ray Tracing en Hardware, plutôt que ce foutu Ray Tracing inutilisé et inutilisable.
 
En tout cas c'est très bien joué de la part de nVIDIA et de ses ingénieurs d'avoir Sortir le Ray Tracing tout pourrit en sachant pertinemment que ni AMD ni Intel ne seraient prêt à temps.
 

n°11335972
havoc_28
Posté le 18-04-2024 à 14:56:58  profilanswer
 

Scrabble a écrit :


Clairement la série RTX 20X0 c'était le défrichage du RT, au début le RT c'était surtout un argument marketing pour Nvidia
Aujourd'hui, avec le path tracing, on en voit vraiment les bénéfices dans les jeux


 
ça reste une option, c'est sympathique, mais passé quelques heures l'effet "wow" il a tendance à se dissiper, c'est un plus mais rien non plus qui change le jeu en soit, on pourrait même dire que c'est plus un ambianceur qu'autre chose en forçant le trait. Faudra attendre la prochaine génération de console pour commencer enfin peut être à voir un apport réellement significatif, je dis pas qu'il y aura pas un jeu ça et là qui se démarque un peu mais le RT actuel même à la sauce PT c'est pas encore réellement le palier suivant niveau graphisme, une demi marche si on veut.

n°11335976
aliss
Rhyme the Rhyme Well
Posté le 18-04-2024 à 15:01:28  profilanswer
 

Le PT n'est pas inutilisable avec une 40xx à condition de passer par la case de l'upscaling et du frame gen.
 
Quand au RT, de plus en plus de titres l'intègrent avec plus ou moins de réussite.
 
La lancement est laborieux mais on s'y attendait.

n°11335978
It_Connexi​on
Posté le 18-04-2024 à 15:09:42  profilanswer
 

Le RT n'en n'est qu'à ses début dans le JV, quand il sera vraiment exploité même les 4090 à 2000 balles ne pourront pas faire tourner les jeux AMHA


---------------
Galerie Photo Personnelle
n°11335991
guig2000
Posté le 18-04-2024 à 15:58:28  profilanswer
 

havoc_28 a écrit :


 
Depuis quelques années déjà les pilotes Nvidia sont nettement plus lourd coté processeur surtout en DX12 / Vulkan, en DX11 c'était bien souvent le contraire jusqu'à ce qu'AMD refonde ses pilotes DX11 et les publient courant 2022.  
Depuis GCN AMD dispose d'un multi engine pour l'async compute etc, on a du attendre Turing pour avoir quelque chose de comparable.  
 
Donc ça me semble étrange que ce soit juste une histoire de pilote,  pour moi y a quelque chose qui manque coté architecture Nvidia qui cause ce besoin de cycle supplémentaire coté pilotes / processeur.  
 
J'extrapole surement un peu trop cette histoire de "Driver Over Head" avec l'ordonnanceur matériel, mais ça me fait penser au traitement de l'async compute à l'époque de Pascal :o. Et Depuis Turing ça a pas évolué cette histoire de pilotes plus lourd coté processeur.
https://www.hardware.fr/articles/94 [...] mieux.html
 


 

havoc_28 a écrit :


 
C'est 7 ans,  la PS5 et Xboite Série X/S étant sortie fin 2020 leurs remplaçante c'est pour fin 2027 dans 3 ans et demi environ.


 
C'est hardware unboxed qui expliquait ça que la faible charge CPU des pilotes AMD sur les jeux Dx12 et Vulkan était probablement dû à la présence d'un ordonnanceur matériel chez AMD et pas chez Nvidia.
C'est vrai, plus anciennement, c'était le contraire, les pilotes AMD étaient connus pour avoir une empreinte CPU plus forte que les nvidia.
Maintenant la source c'est une plaquette marketing de nvidia, et dans lequel, ils ne parlent pas d’ordonnanceur matériel mais d'accélération matérielle de l'ordonnancement. A mon avis cette accélération, n'est pas un vrai ordonnanceur complet, un peut comme la différence entre les cartes raid SATA/SAS matérielles Vs le raid "accéléré" intégré au bios / uefi des cartes mères.
D'ailleurs c'était peut être un peut couillus de leur part d'écrire qu'ils étaient les premier au monde à proposer cette accélération sur des GPU grand public.
 
La question que j'ai, c'est que ce phénomène a été démontré avec les GPU RX6000 Vs RTX 3000, mais qu'en est il des RTX 4000?


Message édité par guig2000 le 18-04-2024 à 16:00:59

---------------
Guig Esprit du Sage
n°11335993
Neji Hyuga
Modérateur
:grut:
Posté le 18-04-2024 à 16:00:27  profilanswer
 

lapin a écrit :

Donc le Path Ray Tracing est encore plus pire que le Ray Tracing.
Ça démontre bien de l'inutilité de Ray Tracing du RT core et des RTX vu que ce qui a été vendu fait tout RAMER et avec des artéfacts.
 
En fait les constructeurs de GPU auraient du attendre 2025 pour sortir des Unité Hardware faisant Nativement du Path Ray Tracing en Hardware, plutôt que ce foutu Ray Tracing inutilisé et inutilisable.
 
En tout cas c'est très bien joué de la part de nVIDIA et de ses ingénieurs d'avoir Sortir le Ray Tracing tout pourrit en sachant pertinemment que ni AMD ni Intel ne seraient prêt à temps.


 
Ce que l'on appelle vulgairement Path Tracing c'est du ray tracing appliqué globalement à toute la scène, ce terme est plus fait pour marquer les esprits que pour designer une autre techno.
 
Et si les constructeurs avaient attendus 2025 au lieu de 2018, on aurait sept ans de retard supplémentaires sur son implémentation dans les jeux.
 
On peut ne pas forcément partager la vision de Nvidia sur le sujet, mais la philosophie derrière la volonté de pousser ce mode de rendu dans le JV, de même que celle de recourir à l'IA pour palier à l'énorme manque de puissance des puces pour driver du RT en temps réel n'est pas compliquée à comprendre.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336000
lapin
Posté le 18-04-2024 à 16:32:55  profilanswer
 

Neji Hyuga a écrit :


 
Ce que l'on appelle vulgairement Path Tracing c'est du ray tracing appliqué globalement à toute la scène, ce terme est plus fait pour marquer les esprits que pour designer une autre techno.
 
Et si les constructeurs avaient attendus 2025 au lieu de 2018, on aurait sept ans de retard supplémentaires sur son implémentation dans les jeux.
 
On peut ne pas forcément partager la vision de Nvidia sur le sujet, mais la philosophie derrière la volonté de pousser ce mode de rendu dans le JV, de même que celle de recourir à l'IA pour palier à l'énorme manque de puissance des puces pour driver du RT en temps réel n'est pas compliquée à comprendre.


 
 
Comment un Jeu vidéo peut-il implémenter du Ray Tracing sans que Ni GPU ni CPU n'eut de fonctions hardwares spécialisés à cette effet, en tout cas pas sans afficher une trame toutes les 25 minutes!!??
 
Le Ray Tracing est une méthode de lancé de Rayons fait à la petite semaine patché par des Tensors Cores car sinon ça ne fonctionne pas ou en tout cas pas bien avec pas mal d'artefacts sans Tensors cores, le Path Tracing est une méthode plus astucieux que le Ray Tracing mais encore bien plus lourde en termes de hardware que le Ray Tracing.
Il m'avait semblé que dans le Path Ray Tracing y a une méthode qui évite de calculer les Rayons qui sont derrière un objet et son derrière.
 
Si demain un constructeur ou plus vend des GPU non pas avec des RTX ou des RT cores mais avec des Path-RTX et Path-RT-core, au final c'est moi qui aurai eut raison le Ray Tracing Hardware vendus tant par nVIDIA que par AMD était une belle Escroquerie et un colossal gâchis de Transistors.
Je pense que les prochain GPU ne seront pas que RT-cores en Hardwares mais aussi et surtout Path-RT-cores en Hardware et sans compte les Unités de AI.


Message édité par lapin le 18-04-2024 à 16:33:29
n°11336018
Neji Hyuga
Modérateur
:grut:
Posté le 18-04-2024 à 17:35:48  profilanswer
 

Bon, j'ai naïvement pensé qu'il était possible de t'expliquer simplement quelque chose sur un sujet dont tu ne comprends pas grand chose et qu'avec un peu de chance il aurait été possible de te retrouver ailleurs qu'à vingt kilomètres de la plaque. Bien mal m'en a pris, on ne m'y reprendra plus.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336020
ravenloft
Meilleur jeu du 20ème siècle
Posté le 18-04-2024 à 17:39:06  profilanswer
 

lapin a écrit :

Si ça se trouve nVIDIA à fait exprès de sortir le RT trop tôt dans le but de forcer AMD à sortir un RT core trop tôt dans le but de gâche des Transistors dans les GPU AMD.

 

En gros si nVIDIA fait un truc ne les suivez pas, ils veulent vous piéger.


La théorie du complot :D

 
lapin a écrit :

 


Et c'est au prix de combien d'images par seconde en UHD natif sans DLSS et sans FSR et XeSS et compagnie pour les Geforce RTX-4070Ti et Geforce RTX-4080Ti !!!!??


Tu préférais que le path tracing n'arrive que dans 10 ans ? Rien ne t'empêche de jouer sans ray tracing.

 

Tu as quoi contre les technos d'upscaling? Tu crois que le TAA c'est le top ? Le natif, c'est bien mais ça suffit pas. Les évolutions de perfs sont insuffisantes pour faire des progrès sans les technos d'upscaling et cela est du à plusieurs paramètres : la complexité de plus en plus grande des puces, leur consommation de plus en plus élevée, l'évolution de plus en plus faible niveau progrès de la finesse de gravure et l'optimisation des jeux de moins en moins présent du fait de budget qui explosent dans les jeux.

 


lapin a écrit :

 


Donc le Path Ray Tracing est encore plus pire que le Ray Tracing.
Ça démontre bien de l'inutilité de Ray Tracing du RT core et des RTX vu que ce qui a été vendu fait tout RAMER et avec des artéfacts.

 

En fait les constructeurs de GPU auraient du attendre 2025 pour sortir des Unité Hardware faisant Nativement du Path Ray Tracing en Hardware, plutôt que ce foutu Ray Tracing inutilisé et inutilisable.

 

En tout cas c'est très bien joué de la part de nVIDIA et de ses ingénieurs d'avoir Sortir le Ray Tracing tout pourrit en sachant pertinemment que ni AMD ni Intel ne seraient prêt à temps.

 



Pire en quoi?
Le path tracing c'est le full ray tracing et c'est tout sauf inutile.

 

Tu parles d'artefacts mais quels artefacts ?

 
lapin a écrit :

 

En tout cas c'est très bien joué de la part de nVIDIA et de ses ingénieurs d'avoir Sortir le Ray Tracing tout pourrit en sachant pertinemment que ni AMD ni Intel ne seraient prêt à temps.

 



Si nvidia avait attendu AMD pour que la VRR arrive dans les jeux, on ne l'aurait peut être même pas encore vu que quand nvidia a introduit gsync, AMD n'y voyait aucune utilité pour les jeux, seulement pour les économies d'énergie sur dalles d'ordi portable (voir les articles d'hardware.fr). Pourtant, ils se sont précipité chez vesa lorsqu'nvidia a annoncé gsync voyant tout ce que ça pouvait apporter.

 

A un moment c'est bien qu'un acteur fasse bouger les lignes.

 
lapin a écrit :

 


Comment un Jeu vidéo peut-il implémenter du Ray Tracing sans que Ni GPU ni CPU n'eut de fonctions hardwares spécialisés à cette effet, en tout cas pas sans afficher une trame toutes les 25 minutes!!??

 

Le Ray Tracing est une méthode de lancé de Rayons fait à la petite semaine patché par des Tensors Cores car sinon ça ne fonctionne pas ou en tout cas pas bien avec pas mal d'artefacts sans Tensors cores, le Path Tracing est une méthode plus astucieux que le Ray Tracing mais encore bien plus lourde en termes de hardware que le Ray Tracing.
Il m'avait semblé que dans le Path Ray Tracing y a une méthode qui évite de calculer les Rayons qui sont derrière un objet et son derrière.

 

Si demain un constructeur ou plus vend des GPU non pas avec des RTX ou des RT cores mais avec des Path-RTX et Path-RT-core, au final c'est moi qui aurai eut raison le Ray Tracing Hardware vendus tant par nVIDIA que par AMD était une belle Escroquerie et un colossal gâchis de Transistors.
Je pense que les prochain GPU ne seront pas que RT-cores en Hardwares mais aussi et surtout Path-RT-cores en Hardware et sans compte les Unités de AI.


Tu sais ce que c'est un rt cores ? Visiblement pas.

 

Un rt core c'est juste une unité de calcul mathématiques spécialisées pour le type de calcul nécessaire au ray tracing. C'est du hardware dédié qui fait les calculs plus vite qu'avec le hardware standard des gpus. Tes path rt core, ça n'existera pas vu qu'ils existent déjà et ce sont les rt cores. Les rt cores vont juste devenir plus performant au fur et à mesure des générations pour faire les calculs de plus en plus vite et donc permettre qu'un jeu utilisant massivement le ray tracing comme les jeux en path tracing puissent gagner en framerate.

 

C'est comme les tensor cores qui sont des unités de calculs dédiées spécialisées pour le type de calcul requis par les calculs nécessaires pour l'IA.

Message cité 1 fois
Message édité par ravenloft le 18-04-2024 à 17:48:23

---------------
Ravenloft
n°11336023
ravenloft
Meilleur jeu du 20ème siècle
Posté le 18-04-2024 à 17:50:20  profilanswer
 

Neji Hyuga a écrit :

Bon, j'ai naïvement pensé qu'il était possible de t'expliquer simplement quelque chose sur un sujet dont tu ne comprends pas grand chose et qu'avec un peu de chance il aurait été possible de te retrouver ailleurs qu'à vingt kilomètres de la plaque. Bien mal m'en a pris, on ne m'y reprendra plus.


Limite en tant que lapin je pense qu'il essaie de nous prendre pour des lapins de 6 semaines  :D


---------------
Ravenloft
n°11336029
lapin
Posté le 18-04-2024 à 18:13:38  profilanswer
 

ravenloft a écrit :


La théorie du complot :D  
 


 
Non juste du réalisme face à deux Constructeurs qui ont décidé de nous prendre pour des bons gros Pigeons, avec des fonctions Ray Tracing et pire Path Raytracing en pratique inutilisable sans patche que ce soit via Tensors Cores ou via des UPSCALER qui vous font croire que vous êtes à en UHD alors qu'en faite pas du tout.
d'autres par les UPSCALER ne sont qu'un artifice qui n'a que pour objectif que de masqué l'incompétence crasse et patente des studios de développement, parce que le Board du Conseil d'administration à la fois du studio de développement et de l'éditeur exige que le jeu vidéos sorte pour le Pré-Cambrien voir pour l'Hadéen soit pour avant-avant-hier, voir la sortie calamiteuse de ne serait-ce que Cyber-Punk 2077.
Soit, vous êtes aveugles faces au manigances Nauséabondes tant des studios de développement de plus en plus incompétents et nuls et des éditeurs ainsi que des Constructeurs de GPU, soit vous avez parties lier avec l'un ou l'autre ou les trois acteurs.
On dirait que vous ne remarquez rien du tout.
 

ravenloft a écrit :


Tu préférais que le path tracing n'arrive que dans 10 ans ? Rien ne t'empêche de jouer sans ray tracing.
 
Tu as quoi contre les technos d'upscaling? Tu crois que le TAA c'est le top ? Le natif, c'est bien mais ça suffit pas. Les évolutions de perfs sont insuffisantes pour faire des progrès sans les technos d'upscaling et cela est du à plusieurs paramètres : la complexité de plus en plus grande des puces, leur consommation de plus en plus élevée, l'évolution de plus en plus faible niveau progrès de la finesse de gravure et l'optimisation des jeux de moins en moins présent du fait de budget qui explosent dans les jeux.
 
 


 
Oui si c'est Inutilisable autant ne pas l'implémenter car inutile et ça consomme des ressources qui auraient pu soit diminuer la taille du GPU soit faire carrément tout autres choses mais bien plus utile, donc des économies d'argent et de cout de développement.
Et si ça ce trouve laisser plus de temps aux équipes charger du Raytracing pour développer un truc mieux branlé et mieux implémenter en termes de hardwares et de logiciels et l'algorithmes hardwares.
 

ravenloft a écrit :


Pire en quoi?
Le path tracing c'est le full ray tracing et c'est tout sauf inutile.
 
Tu parles d'artefacts mais quels artefacts ?
 


 
l'IA n'arrête pas de corriger en temps réel les erreurs de lancé de Rayons, alors bon faut Zoomer pour le voir, mais y a régulièrement des erreurs en Ray Tracing.
 

ravenloft a écrit :


Si nvidia avait attendu AMD pour que la VRR arrive dans les jeux, on ne l'aurait peut être même pas encore vu que quand nvidia a introduit gsync, AMD n'y voyait aucune utilité pour les jeux, seulement pour les économies d'énergie sur dalles d'ordi portable (voir les articles d'hardware.fr). Pourtant, ils se sont précipité chez vesa lorsqu'nvidia a annoncé gsync voyant tout ce que ça pouvait apporter.
 
A un moment c'est bien qu'un acteur fasse bouger les lignes.
 


 
Ça n'a rien à voir avec le problème de la très très trop mauvaise implémentation Hardware du Ray Tracing dans les GPU.
 
 

ravenloft a écrit :


Tu sais ce que c'est un rt cores ? Visiblement pas.
 
Un rt core c'est juste une unité de calcul mathématiques spécialisées pour le type de calcul nécessaire au ray tracing. C'est du hardware dédié qui fait les calculs plus vite qu'avec le hardware standard des gpus. Tes path rt core, ça n'existera pas vu qu'ils existent déjà et ce sont les rt cores. Les rt cores vont juste devenir plus performant au fur et à mesure des générations pour faire les calculs de plus en plus vite et donc permettre qu'un jeu utilisant massivement le ray tracing comme les jeux en path tracing puissent gagner en framerate.
 
C'est comme les tensor cores qui sont des unités de calculs dédiées spécialisées pour le type de calcul requis par les calculs nécessaires pour l'IA.


 
Genre, tu m'apprends un truc sur les RTX et RT Cores, n'importe quoi!!!!
 
Tu peu appeller les futures prochains RT Cores comme tu le veux, si ceux-ci implémentent en hardware un Algorithme qui s'approche de près ou de loin à du Path Tracing alors ce seront des Path-Raytracing cores que vous le vouliez ou non.
 
 
Vous ressemblez à des Grenouilles qu'on a mis dans un bain à température ambiante et qu'on fait imperceptiblement monter en température.
 
Vous devriez vous réveiller.
 
Arrêté de croire que vous m'apprenez des choses, vous êtes dans la vallée de la certitudes que ce soit à mon sujet ou au sujet du hardware et des manigances de AMD et de nVIDIA et pire des Studio de Développement.
 
Voir certains Reviewers sur les artefacts en Raytracing: https://www.youtube.com/watch?v=XLOs9a48SDg
 
suffit de chercher sur Youtube: https://www.youtube.com/results?sea [...] thout+DLSS

Message cité 1 fois
Message édité par lapin le 18-04-2024 à 18:18:46
n°11336042
Tahitiflo
éponge carré(e)
Posté le 18-04-2024 à 18:37:21  profilanswer
 

Ivres,ils veulent expliquer un truc à Lapin.  :sarcastic:


---------------
y-a-t-il encore des pigeons pour voter pour des escrocs?    #TeamJacquesMarteau
n°11336043
Dark Schne​iderr
⭐⭐
Posté le 18-04-2024 à 18:48:02  profilanswer
 
n°11336049
Scrabble
Posté le 18-04-2024 à 19:10:39  profilanswer
 

lapin a écrit :


 
 
Et c'est au prix de combien d'images par seconde en UHD natif sans DLSS et sans FSR et XeSS et compagnie pour les Geforce RTX-4070Ti et Geforce RTX-4080Ti !!!!??


J'ai laissé tomber l'UHD, je joue en 1600x900 pour l'instant quand j'active le path tracing
Même a cette définition, ca reste sympa (Le DLSS FSR XeSS j'aime pas du tout)
Faudra attendre les RTX 5080 et 5090 pour en profiter en haute définition

n°11336053
Neji Hyuga
Modérateur
:grut:
Posté le 18-04-2024 à 19:18:05  profilanswer
 

Manque de bol, j'ai épuisé mon quota de patience pour la journée.  
 
Je pense qu'après toutes ces années à déféquer sur tous les topics sur lesquels il passe, il est plus que temps que l'animal aille voir ailleurs.  
 
Allez, bon vent le lapin.

Message cité 3 fois
Message édité par Neji Hyuga le 18-04-2024 à 19:31:22

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11336085
It_Connexi​on
Posté le 18-04-2024 à 22:06:58  profilanswer
 

Neji Hyuga a écrit :

Manque de bol, j'ai épuisé mon quota de patience pour la journée.  
 
Je pense qu'après toutes ces années à déféquer sur tous les topics sur lesquels il passe, il est plus que temps que l'animal aille voir ailleurs.  
 
Allez, bon vent le lapin.


 
 [:skylvind:8]


---------------
Galerie Photo Personnelle
n°11336090
ravenloft
Meilleur jeu du 20ème siècle
Posté le 18-04-2024 à 23:26:40  profilanswer
 

lapin a écrit :

 

Non juste du réalisme face à deux Constructeurs qui ont décidé de nous prendre pour des bons gros Pigeons, avec des fonctions Ray Tracing et pire Path Raytracing en pratique inutilisable sans patche que ce soit via Tensors Cores ou via des UPSCALER qui vous font croire que vous êtes à en UHD alors qu'en faite pas du tout.
d'autres par les UPSCALER ne sont qu'un artifice qui n'a que pour objectif que de masqué l'incompétence crasse et patente des studios de développement, parce que le Board du Conseil d'administration à la fois du studio de développement et de l'éditeur exige que le jeu vidéos sorte pour le Pré-Cambrien voir pour l'Hadéen soit pour avant-avant-hier, voir la sortie calamiteuse de ne serait-ce que Cyber-Punk 2077.
Soit, vous êtes aveugles faces au manigances Nauséabondes tant des studios de développement de plus en plus incompétents et nuls et des éditeurs ainsi que des Constructeurs de GPU, soit vous avez parties lier avec l'un ou l'autre ou les trois acteurs.
On dirait que vous ne remarquez rien du tout.


La théorie du complot le retour :D

 

Je t'invite si tu me lis mais comme tu es banni, peut être que tu ne le feras pas, à regarder les vidéos de digital fundry car tu re présentes typiquement le mec qui a des préjugés erronés sur l'upscaling et le ray tracing. Eux pourront t'apprendre des choses et te montrer en quoi tu as tort si bien sur tu es ouvert à apprendre et sait reconnaitre tes torts.

 
lapin a écrit :

 

Oui si c'est Inutilisable autant ne pas l'implémenter car inutile et ça consomme des ressources qui auraient pu soit diminuer la taille du GPU soit faire carrément tout autres choses mais bien plus utile, donc des économies d'argent et de cout de développement.
Et si ça ce trouve laisser plus de temps aux équipes charger du Raytracing pour développer un truc mieux branlé et mieux implémenter en termes de hardwares et de logiciels et l'algorithmes hardwares.


Ce n'est pas inutilisable avec le dlss.

 

C'est toi qui estime que le ray tracing est inutile, moi ça fait depuis les années 90 que je l'attendais donc je suis content que ça soit là. Contrairement à ce que tu penses, c'est bien branlé voire même beaucoup mieux que ce qu'on pouvait espérer. Nvidia parlait en 2018 de 2030 pour des jeux en full ray tracing moderne et on a eu ça quasi dès 2023 même si les jeux en path tracing comme cyberpunk ne sont pas encore du ray tracing totalement à 100% d'après Alex B de DF.

 
lapin a écrit :


l'IA n'arrête pas de corriger en temps réel les erreurs de lancé de Rayons, alors bon faut Zoomer pour le voir, mais y a régulièrement des erreurs en Ray Tracing.


Je ne sais pas de quoi tu parles mais si c'est la précision, forcément les jeux utilisent un voire 2 rayons par lancer alors que si on voulait être ultra précis, il en faudrait des dizaines voire des milliers voire une infinité. Mais les erreurs restent peu visibles et le résultat très bons. En rasterisation, il y a aussi beaucoup d'erreurs notamment sur les ombres.

 
lapin a écrit :

 

Ça n'a rien à voir avec le problème de la très très trop mauvaise implémentation Hardware du Ray Tracing dans les GPU.


Là je crois que tu te trompes totalement. L'implémentation est très bonne.

 
lapin a écrit :

 

Genre, tu m'apprends un truc sur les RTX et RT Cores, n'importe quoi!!!!

 

Tu peu appeller les futures prochains RT Cores comme tu le veux, si ceux-ci implémentent en hardware un Algorithme qui s'approche de près ou de loin à du Path Tracing alors ce seront des Path-Raytracing cores que vous le vouliez ou non.

 


Vous ressemblez à des Grenouilles qu'on a mis dans un bain à température ambiante et qu'on fait imperceptiblement monter en température.

 

Vous devriez vous réveiller.

 

Arrêté de croire que vous m'apprenez des choses, vous êtes dans la vallée de la certitudes que ce soit à mon sujet ou au sujet du hardware et des manigances de AMD et de nVIDIA et pire des Studio de Développement.

 

Voir certains Reviewers sur les artefacts en Raytracing: https://www.youtube.com/watch?v=XLOs9a48SDg

 

suffit de chercher sur Youtube: https://www.youtube.com/results?sea [...] thout+DLSS


Je crois que surtout tu ne sais pas du tout de quoi tu parles..

 

Si on t'écoutait, on n'aurait pas eu des cartes 3d sur Pc avant ben jamais vu que même en 2024, les graphismes ont pleins d'erreurs encore et on est très loin de l'irl niveau fidélité graphique. Du coup, on serait toujours avec juste nos cpus. Je doute que tu serais d'accord et pourtant c'est le même raisonnement que celui que tu as mais appliqué à la 3d en général.


Message édité par ravenloft le 18-04-2024 à 23:28:50

---------------
Ravenloft
n°11336104
TotalRecal​l
Modérateur
Posté le 19-04-2024 à 07:15:44  profilanswer
 

[:lynk]  
J'ai raté la sortie du lapin, mais cette fois ci c'était la bonne  [:so-saugrenu18:5]


---------------
Topic .Net - C# @ Prog
n°11336111
$k-flown
Posté le 19-04-2024 à 08:20:50  profilanswer
 

J'avais des doutes avant d'essayer par moi même, mais maintenant que je l'ai vu de mes yeux.
 
Est-ce que le path tracing améliore les jeux ?
 
Oui certains effets rendent bien, mais ça n'a pas révolutionné mon expérience de jeu et non ça vaut pas encore la perte de 50% des FPS.   :jap:

n°11336112
It_Connexi​on
Posté le 19-04-2024 à 08:38:51  profilanswer
 

$k-flown a écrit :

J'avais des doutes avant d'essayer par moi même, mais maintenant que je l'ai vu de mes yeux.
 
Est-ce que le path tracing améliore les jeux ?
 
Oui certains effets rendent bien, mais ça n'a pas révolutionné mon expérience de jeu et non ça vaut pas encore la perte de 50% des FPS.   :jap:


 
Oui c'est comme le Rt, ça apporte un plus dans certains jeux mais je n'ai pas eu l'effet Waou attendu. Pour moi les 2 jeux qui en profitent le mieux (les jeux que j'ai testé bien sur) c'est CP2077 et Control


---------------
Galerie Photo Personnelle
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : Topic RDNA 4 - AMD RX8000


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR