Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3016 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  14  15  16  ..  1872  1873  1874  1875  1876  1877
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10700106
grolande
No problem
Posté le 12-02-2020 à 14:46:05  profilanswer
 

Reprise du message précédent :
Et dire que j’allais me prendre une rtx 2060! Pour remplacer ma GTX780.
Je vais attendre la 3060 FE

mood
Publicité
Posté le 12-02-2020 à 14:46:05  profilanswer
 

n°10700130
havoc_28
Posté le 12-02-2020 à 15:52:23  profilanswer
 

obduction a écrit :

Je pense que le ray tracing sera privilégié en partie vu toute la marge qu'il reste à accomplir pour afficher fluidement un jeu moderne en full ray tracing et que le RT va se généraliser encore plus vite grâce aux prochaines consoles le supportant nativement de manière hardware.


 
Les futurs consoles généraliseront tout court le RT, car au rythme actuel ... On reste clairement sur un marché de niche.
 

obduction a écrit :


Le DLSS est loin d'être en état de mort cérébral. Au contraire, il n'a jamais été aussi vivant et en bonne forme.
Les derniers jeux supportant le DLSS offrent un DLSS de très bonne qualité et le DLSS s'avère être un allié de choix pour offrir des perfs en ray tracing du niveau des perfs sans RT.
 
En plus, nvidia n'a toujours pas encore sorti en pratique le DLSS2x malgré l'avoir annoncé en même temps que le DLSS donc les tensor cores vont servir.


 
Y a pas non plus une avalanche de titre, on est quand même loin du tableau qu'avait annoncé Nvidia lors de la présentation de Turing, on va dire que ça vivote en attendant ...  
 
 

obduction a écrit :

 
Les cartes turing se vendent très bien et pourtant les perfs en rasterisation n'augmentent que pour la 2080ti.


 
D'un coté Pascal n'est plus produit, et y a que Turing comme choix niveau Nvidia :D.  
 

obduction a écrit :

Le Ray tracing sera surement du niveau des turing niveau puissance voir légèrement supérieure donc tout dépend ce que tu appelles génial car cela ne veut pas dire grand chose en soi sans référentiel.


 
Tu t'avances beaucoup, on ne connait pas grand chose de l'implémentation du RT coté AMD et de son niveau de performance ... De plus les consoles c'est un APU, et y a des contraintes de tarif, dissipation etc etc
 

obduction a écrit :


Je vois mal AMd sortir du rdna2 avec des perfs en ray tracing inférieure au concurrent sorti 2 ans auparavant. Cela constituerait un échec énorme pour la division gpu d'AMD. Tout est possible mais il ne faut pas souhaiter qu'AMd ait son bulldozer like en gpu.


 
Tout dépendra du niveau de performance de RT des consoles, comme c'est AMD qui livre les deux, ils peuvent très bien calibrer leurs cartes graphiques dédiées pour avoir une puissance équivalente, donc les devs se caleront pour la plus part sur ce que permet de faire les consoles (pourquoi pas un peu inférieur aux turing actuels, sait on jamais), et ça sera de facto le minimum requis pour RT, et libre à certains devs (car tous ne vont pas chercher à faire plus), d'utiliser le surplus de puissance coté RT offert par Nvidia.  
 
On ne sait pas pour l'instant.

Message cité 1 fois
Message édité par havoc_28 le 12-02-2020 à 15:53:39
n°10700142
grolande
No problem
Posté le 12-02-2020 à 16:09:36  profilanswer
 

J’espère que la rtx 3070 coûtera un bras, genre 630€ lol!!
A l’époque de la 2070 j’ai failli m’en prendre une pour remplacer ma GTX780 mais quand j’ai vu le prix!! A la limite une rtx 3060 si elle vaut la 2080

n°10700145
obduction
Posté le 12-02-2020 à 16:12:06  profilanswer
 

havoc_28 a écrit :


Les futurs consoles généraliseront tout court le RT, car au rythme actuel ... On reste clairement sur un marché de niche.


Au rythme actuel? C'est sans doute une des technos qui a une des adoption la plus rapide.
En général toutes les autres sont bien plus lente. Les couleurs 32bits, le bump mapping, l'anistropic filtering, dx8,dx9,dx10,dx11,dx12, la tesselation, l'AO etc ont toutes été adoptées bien plus lentement que le ray tracing.
 
 

havoc_28 a écrit :


 
Y a pas non plus une avalanche de titre, on est quand même loin du tableau qu'avait annoncé Nvidia lors de la présentation de Turing, on va dire que ça vivote en attendant ...  


En 18 mois on a déjà plus d'une dizaine de titres déjà disponible, autant ayant un support annoncés sortant cette année. C'est déjà énorme pour une techno n'étant dispo que sur une marque et que sur une partie de la gamme.
On a plus jamais eu ça depuis la sortie du glide sur la première voodoo.
Je ne parle même pas de l'avalanche prévue pour les jeux next-gen.
 

havoc_28 a écrit :


Tu t'avances beaucoup, on ne connait pas grand chose de l'implémentation du RT coté AMD et de son niveau de performance ...  


Oui je m'avance mais je veux croire qu'AMD aura au moins rattraper son retard. Ce serait très mauvais signe pour AMD et le consommateur sur Pc si nvidia même 2 ans après n'a pas un concurrent sur ces anciennes cartes.
 

havoc_28 a écrit :


De plus les consoles c'est un APU, et y a des contraintes de tarif, dissipation etc etc


Des apus mais autrement plus perfs que ceux dispo sur PC car je ne vois pas encore d'apu capable de délivrer 6tflops.
T'as pas un apu à 9tflops sur Pc contrairement à ce qu'aura la ps5 d'après digital fundry qui sont en général très bien renseignés.
 
 

n°10700149
obduction
Posté le 12-02-2020 à 16:20:24  profilanswer
 

max022 a écrit :

Ben je ne suis pas d'accord mais bon de toute façon on ne sait pas encore ce qui va se passer et tu as peu être raison.  
Je pense qu'il y a effectivement aussi une vision à long terme mais la vision la plus importante est à court terme.  
En clair, Nvidia ne va pas sortir une carte qui ne se vend pas même si elle a une technologie d'avenir.


Qui a dit le contraire?
 
 

max022 a écrit :


L'IA est clairement une technologie d'avenir, il y a aussi des robots, poupées...  
Mais bon c'est une technologie d'avenir car cela permet de remplacer l'homme par des machines.  
(le top en matière de rentabilité pour une entreprise et ils peuvent payer pour cela car c'est très vite amorti...)


L'IA dans les jeux, pas vraiment vu comment elle a été laissée à l'abandon par les développeurs depuis une quinzaine d'année.
 
Elle le redeviendra peut être dans quelques années mais pour le moment, c'est un des parents pauvres des jeux alors que c'était pourtant un critère mis en avant au début des années 2000. Faut dire que le développement des gros titres ciblant principalement le grand public n'a pas aidé.
 
 

max022 a écrit :


Ce n'est pas du tout la même avec le RT qui ne fait toujours pas l'unanimité.  
On a toujours des personnes pour et d'autres contre.


T'as personne contre le RT dans les développeurs. C'est même une techno qui fait l'unanimité sur ce qu'elle représente et sur le futur qu'elle incarne car c'est le graal des développeurs depuis des lustres. Cela ne veut pas dire que tout le monde va l'intégrer de suite car c'est à la fois très gourmand et ça demande aussi pas mal de temps de développement et donc d'argent mais aucun développeur ne te dire que c'est une mauvaise chose.
C'est pas parce que tu as des joueurs qui n'y connaissent rien qui sont contre juste pour le principe ou parce qu'ils ont lu des conneries sur un réseau social ou un site fait par des incompétents. que ça va influer sur les choix d'nvidia.
 

max022 a écrit :


De toute façon les consoles seront ne pas aussi performantes que les gpu ordi (surtout les RTX 30..), du coup  
à ce moment la, ce sera un échec aussi en terme de performance.


Je n'ai pas compris ce propos.
 
 
 

n°10700155
havoc_28
Posté le 12-02-2020 à 16:26:38  profilanswer
 

obduction a écrit :


Au rythme actuel? C'est sans doute une des technos qui a une des adoption la plus rapide.
En général toutes les autres sont bien plus lente. Les couleurs 32bits, le bump mapping, l'anistropic filtering, dx8,dx9,dx10,dx11,dx12, la tesselation, l'AO etc ont toutes été adoptées bien plus lentement que le ray tracing.


 
Le rythme des sorties ne c'est pas vraiment accéléré depuis la sortie de Turing  [:arslan310].  Nvidia a énormément pousser pour qu'on ait quelques titres gérant le RT / DLSS, mais sans la participation forte de nvidia ...  Bref on a peut être une adoption plus importante que d'autres tech par le passé, mais pour l'instant ça reste quand même un marché de niche.  
 

obduction a écrit :


En 18 mois on a déjà plus d'une dizaine de titres déjà disponible, autant ayant un support annoncés sortant cette année. C'est déjà énorme pour une techno n'étant dispo que sur une marque et que sur une partie de la gamme.
On a plus jamais eu ça depuis la sortie du glide sur la première voodoo.
Je ne parle même pas de l'avalanche prévue pour les jeux next-gen.


 
A nouveau est ce que ce rythme est en augmentation conséquente ? On a quelques nouveaux titres par trimestres, mais rien de fulgurant.  
 

obduction a écrit :

Oui je m'avance mais je veux croire qu'AMD aura au moins rattraper son retard. Ce serait très mauvais signe pour AMD et le consommateur sur Pc si nvidia même 2 ans après n'a pas un concurrent sur ces anciennes cartes.


 
Comme déjà dit, tout dépendra de la puissance intégré niveau RT aux consoles, AMD pour économiser des transistors et de la surface pourrait se contenter du minimum requis à ce niveau, et ne pas chercher à venir égaler nvidia à ce niveau, vu qu'ils pourraient se contenter du minimum requis par les consoles.  
 

obduction a écrit :


Des apus mais autrement plus perfs que ceux dispo sur PC car je ne vois pas encore d'apu capable de délivrer 6tflops.
T'as pas un apu à 9tflops sur Pc contrairement à ce qu'aura la ps5 d'après digital fundry qui sont en général très bien renseignés.


 
Les APU consoles actuels sont déjà nettement plus gros et puissants que sur PC (pour la partie GPU en tout cas, mémoire dédiée tout ça), c'est pas la question de comparer un APU PC et Consoles futurs, mais tu ne peux pas non plus sortir un APU gigantesque pour console à cause des coûts que ça représente ... RDNA 1 N10 c'est 251 mm².

Message cité 2 fois
Message édité par havoc_28 le 12-02-2020 à 16:33:39
n°10700156
obduction
Posté le 12-02-2020 à 16:33:11  profilanswer
 

havoc_28 a écrit :


Le rythme des sorties ne c'est pas vraiment accéléré depuis la sortie de Turing  [:arslan310].  


Le rythme étant égale à zéro avant la sortie de turing, ça s'est bien accéléré vu qu'en 18 mois, on est arrivé à plus de 10 titres.
 

havoc_28 a écrit :


A nouveau est ce que ce rythme est en augmentation conséquente ?  


Déjà répondu juste avant.
 
 

havoc_28 a écrit :


 
Comme déjà dit, tout dépendra de la puissance intégré niveau RT aux consoles, AMD pour économiser des transistors et de la surface pourrait se contenter du minimum requis à ce niveau, et ne pas chercher à venir égaler nvidia à ce niveau, vu qu'ils pourraient se contenter du minimum requis par les consoles.  
 


Comme les prochaines consoles sont sensés viser la 4K comme réso standard, il faudra y placer un minimum de puissance sinon la RT n'existera que sur le papier dans les prochaines consoles ou alors pour un petit effet qui ne servira à rien. Vu que MS et Sony en parlent presque à chaque fois qu'ils parlent du hardware de leurs prochaines consoles, j'ai tendance à penser que la puissance sera là pour l'exploiter en 4K sur des effets comme dans Control.
 

havoc_28 a écrit :


Les APU consoles actuels sont déjà nettement plus gros et puissants que sur PC (pour la partie GPU en tout cas, mémoire dédiée tout ça), c'est pas la question de comparer un APU PC et Consoles futurs, mais tu ne peux pas non plus sortir un APU gigantesque pour console à cause des coûts que ça représente ... RDNA 1 N10 c'est 251 mm² ...


Je n'ai jamais parlé d'apu gigantesque.  
 
Je ne sais pas si on peut réellement extrapoler la taille de rdna 2 à partir du 1 vu que rdna2 sera entièrement basée sur l'archi rdna où d'après ce qu'avait dit amd, rdna1 était un hybride utilisant l'archi rdna et celle de vega.

n°10700158
havoc_28
Posté le 12-02-2020 à 16:37:55  profilanswer
 

obduction a écrit :

Le rythme étant égale à zéro avant la sortie de turing, ça s'est bien accéléré vu qu'en 18 mois, on est arrivé à plus de 10 titres.


 
En partant de 0 c'est sur que ... mais entre les premiers 12 mois et les derniers 6 mois est ce que la tendance de sorties de jeux à augmenter ? Non pas vraiment.  
 

obduction a écrit :


Comme les prochaines consoles sont sensés viser la 4K comme réso standard, il faudra y placer un minimum de puissance sinon la RT n'existera que sur le papier dans les prochaines consoles ou alors pour un petit effet qui ne servira à rien. Vu que MS et Sony en parlent presque à chaque fois qu'ils parlent du hardware de leurs prochaines consoles, j'ai tendance à penser que la puissance sera là pour l'exploiter en 4K sur des effets comme dans Control.


 
On ne sait pas, 4 K sur papier, RT sur papier. Utiliser des trucs comme le VRS etc etc  
 

obduction a écrit :


Je n'ai jamais parlé d'apu gigantesque.  
 
Je ne sais pas si on peut réellement extrapoler la taille de rdna 2 à partir du 1 vu que rdna2 sera entièrement basée sur l'archi rdna où d'après ce qu'avait dit amd, rdna1 était un hybride utilisant l'archi rdna et celle de vega.


 
Faudra quand même pas mal de transistors ... ou sinon ça voudrait dire que RDNA 2 fait nettement mieux que Nvidia en terme de rapport puissance RT / Transistor ce qui reste à prouver, car bon s'il faut gérer la 4K, la RT, tout ça ... c'est pas avec un APU  assez réduit en taille qu'on fait ça, ou sinon y a des compromis, pas de la vrai 4k (VRS et compagnie, des effets RT réduits etc etc.  
 
Enfin on verra bien, peut être qu'AMD a une recette miracle, mais je trouve que tu es super optimiste pour le RT de manière général ...

Message cité 1 fois
Message édité par havoc_28 le 12-02-2020 à 16:38:27
n°10700166
obduction
Posté le 12-02-2020 à 16:50:40  profilanswer
 

havoc_28 a écrit :


 
En partant de 0 c'est sur que ... mais entre les premiers 12 mois et les derniers 6 mois est ce que la tendance de sorties de jeux à augmenter ? Non pas vraiment.  
 


Non mais elle reste constante sans parler que beaucoup de AAA se sont vu retarder pour coïncider avec la sortie des prochaines consoles.
On a eu 6 nouveaux jeux annoncés en décembre pour un total de plus de 15 pour cette année sans parler de tous ceux non annoncés. Pour sa vraiment 2ème année, c'est déjà pas mal.
Dans la 2ème année du bump mapping, on devait avoir peut être 2-3 jeux à tout cassé. Idem pour la tesselation, pour directx 9 et 11.  
Il y a vraiment combien de jeux qui utilisent à l'heure d'aujourd'hui directx 12 à fond soit exploiter des Pixel Shader 6.0 et de toutes les nouveautés offertes par directx 12 en plus de l'api bas niveau? Je pense pas qu'il y en ait beaucoup sur tous les jeux utilisant dx12.
 
 

havoc_28 a écrit :


Faudra quand même pas mal de transistors ... ou sinon ça voudrait dire que RDNA 2 fait nettement mieux que Nvidia en terme de rapport puissance RT / Transistor ce qui reste à prouver, car bon s'il faut gérer la 4K, la RT, tout ça ... c'est pas avec un APU  assez réduit en taille qu'on fait ça, ou sinon y a des compromis, pas de la vrai 4k (VRS et compagnie, des effets RT réduits etc etc.


Déjà nvidia n'a pas de puce 7nm donc ça va être difficile de comparer avec nvidia.
 
On ne connait pas l'archi rdna 2 donc c'est pareil, c'est difficile d'extrapoler.
 
Ce sont des consoles, il y aura toujours des compromis. Tu en as aussi sur PC.
 

havoc_28 a écrit :


mais je trouve que tu es super optimiste pour le RT de manière général ...


Le RT étant une révolution que j'attends depuis très longtemps et qu'un jeu comme control montre déjà l'énorme avancée qu'offre le RT, je veux être optimiste pour que ça s'impose rapidement.  
 
Comme malheureusement les jeux gourmands sont multiplateformes de nos jours par la quasi totalité et souvent bridé par les console, ce serait bien que les consoles ne brident pas trop de ce côté.
 

n°10700169
havoc_28
Posté le 12-02-2020 à 17:00:10  profilanswer
 

obduction a écrit :


Non mais elle reste constante sans parler que beaucoup de AAA se sont vu retarder pour coïncider avec la sortie des prochaines consoles.
On a eu 6 nouveaux jeux annoncés en décembre pour un total de plus de 15 pour cette année sans parler de tous ceux non annoncés. Pour sa vraiment 2ème année, c'est déjà pas mal.
Dans la 2ème année du bump mapping, on devait avoir peut être 2-3 jeux à tout cassé. Idem pour la tesselation, pour directx 9 et 11.  
Il y a vraiment combien de jeux qui utilisent à l'heure d'aujourd'hui directx 12 à fond soit exploiter des Pixel Shader 6.0 et de toutes les nouveautés offertes par directx 12 en plus de l'api bas niveau? Je pense pas qu'il y en ait beaucoup sur tous les jeux utilisant dx12.


 
Est ce que l'utilisation de DX12, et API bas niveau simplifie la tâche des dévs VS DX11 ? Le RT, facilite énormément la vie des DEVs, ils ne sont pas obligés d’utiliser des screens spaces un peu partout, de créer des sources et spots de sources lumineuses, etc etc. Le RT en plus d'apporter quand bien utilisé un meilleur réalisme pour l'éclairage, ombres et réflexions, permet également une économie de temps dans le développement des jeux, donc c'est tout bénef pour eux.  
 
DX12 et le bas niveau au contraire, ça oblige un travail bien plus méticuleux de la part des devs, alors que le RT, à part la première phase d'apprentissage, c'est du gain de temps.  
 
 

obduction a écrit :


Déjà nvidia n'a pas de puce 7nm donc ça va être difficile de comparer avec nvidia.


 
On connait le nombre de transistors, ça permet quand même de faire quelques extrapolations.  
 

obduction a écrit :

On ne connait pas l'archi rdna 2 donc c'est pareil, c'est difficile d'extrapoler.


 
On ne connait pas non plus alors comme dit plus haut, quel sera l'implémentation de l'accélération matériel du RT par AMD, donc oui c'est encore plus compliqué d'extrapoler ce que sera le RT sauce AMD et RNDA2.  
 
 

obduction a écrit :


Le RT étant une révolution que j'attends depuis très longtemps et qu'un jeu comme control montre déjà l'énorme avancée qu'offre le RT, je veux être optimiste pour que ça s'impose rapidement.  
 
Comme malheureusement les jeux gourmands sont multiplateformes de nos jours par la quasi totalité et souvent bridé par les console, ce serait bien que les consoles ne brident pas trop de ce côté.
 


 
Control, même si on peut dire que c'est le pinacle du RT actuellement ... c'est pas non plus le meilleur jeu pour la comparaison avec la rastérisation classique, car contrairement à un BFV, dans control, une bonne partie des réflexions par exemple qui aurait pu être fait via les classiques screen spaces, sont totalement passé à la trappe pour uniquement laissé les reflexions via RT, donc en terme de comparaison non biaisé, on a vu mieux.
 
Après le RT c'est une révolution oui, mais ça va encore mettre du temps à vraiment atteindre un certain niveau de maturité, les RTX, et les consoles de la prochaines générations ne sont que les tout premiers pas dans le domaine.

Message cité 1 fois
Message édité par havoc_28 le 12-02-2020 à 17:05:25
mood
Publicité
Posté le 12-02-2020 à 17:00:10  profilanswer
 

n°10700223
Invite_Sur​prise
Racaille de Shanghaï
Posté le 12-02-2020 à 18:43:09  profilanswer
 

havoc_28 a écrit :

Les APU consoles actuels sont déjà nettement plus gros et puissants que sur PC (pour la partie GPU en tout cas, mémoire dédiée tout ça), c'est pas la question de comparer un APU PC et Consoles futurs, mais tu ne peux pas non plus sortir un APU gigantesque pour console à cause des coûts que ça représente ... RDNA 1 N10 c'est 251 mm².


 
Le chip Scarlett a été estimé à environ 400mm² en 7nm, ce qui n'est vraiment pas rien.
Pour le chip de Sony, ça parle plus de de 300mm².
 
Après la puissance du chip ne fait pas tout, ce qui compte c'est les jeux et bien sûr les exclusivités qui en découlent. M$ a perdu la manche précédente (et pas qu'un peu, plus de 2X), on va voir ce qu'ils vont faire, mais le branding Playstation est très fort et ils vont avoir du pain sur la planche comme on dit.

n°10700229
havoc_28
Posté le 12-02-2020 à 18:47:43  profilanswer
 

Invite_Surprise a écrit :


 
Le chip Scarlett a été estimé à environ 400mm² en 7nm, ce qui n'est vraiment pas rien.
Pour le chip de Sony, ça parle plus de de 300mm².
 
Après la puissance du chip ne fait pas tout, ce qui compte c'est les jeux et bien sûr les exclusivités qui en découlent. M$ a perdu la manche précédente (et pas qu'un peu, plus de 2X), on va voir ce qu'ils vont faire, mais le branding Playstation est très fort et ils vont avoir du pain sur la planche comme on dit.


 
Ce n'est pas rien, mais faut prendre en compte la partie CPU / Entrées / sorties et l'inconnu de la partie RayTracing niveau consommation transistor coté AMD.


Message édité par havoc_28 le 12-02-2020 à 18:50:10
n°10700232
Invite_Sur​prise
Racaille de Shanghaï
Posté le 12-02-2020 à 18:52:24  profilanswer
 

Le chip Scarlett a été présenté en public et y'a trop de doutes sur sa taille. Le chip de Sony par contre, c'est plus au doigt mouillé.

n°10700253
max022
Posté le 12-02-2020 à 19:29:43  profilanswer
 

Citation :

De toute façon les consoles seront ne pas aussi performantes que les gpu ordi (surtout les RTX 30..), du coup  
à ce moment la, ce sera un échec aussi en terme de performance.


 
En faites j'ai juste voulu dire que si on cherche l'excellence (meilleur performance, meilleur RT possible...),  
il faut oublier la console et se prendre un PC avec un budget bien plus conséquent.  
Je dis obligatoirement une bêtise en parlant de perf console mais cela ne me parait pas démesuré que l'on passe  
de la puissance d'une RX 580 (xbox one X) à la 5700XT.  
Du coup, vu la puissance de la CG il n'y aurait pas vraiment de quoi avoir un RT de dingue.  
 

n°10700321
obduction
Posté le 12-02-2020 à 22:01:59  profilanswer
 

havoc_28 a écrit :


 
Est ce que l'utilisation de DX12, et API bas niveau simplifie la tâche des dévs VS DX11 ? Le RT, facilite énormément la vie des DEVs, ils ne sont pas obligés d’utiliser des screens spaces un peu partout, de créer des sources et spots de sources lumineuses, etc etc. Le RT en plus d'apporter quand bien utilisé un meilleur réalisme pour l'éclairage, ombres et réflexions, permet également une économie de temps dans le développement des jeux, donc c'est tout bénef pour eux.  
 
DX12 et le bas niveau au contraire, ça oblige un travail bien plus méticuleux de la part des devs, alors que le RT, à part la première phase d'apprentissage, c'est du gain de temps.  


Il n'y a pas que dx12, dx9, dx11 etc n'ont pas été utilisés aussi rapidement.
 

havoc_28 a écrit :


On connait le nombre de transistors, ça permet quand même de faire quelques extrapolations.  


Des extrapolations peu fiables car trop d'inconnu.
 

havoc_28 a écrit :


On ne connait pas non plus alors comme dit plus haut, quel sera l'implémentation de l'accélération matériel du RT par AMD, donc oui c'est encore plus compliqué d'extrapoler ce que sera le RT sauce AMD et RNDA2.  


Pas forcément.
Il n'y a pas besoin de connaitre pour savoir que le niveau de perf que doit atteindre AMd doit au moins équivaloir celui d'nvidia d'il y a 2 ans car ça serait un échec cuisant pour AMD s'il est pas foutu de sortir des cartes ayant les perfs de son concurrent avec 2 ans de retard.
Rien n'empêche que RDNA 2 soit le bulldozer version gpu mais il faut surtout espérer que non.
 
 

havoc_28 a écrit :


Après le RT c'est une révolution oui, mais ça va encore mettre du temps à vraiment atteindre un certain niveau de maturité, les RTX, et les consoles de la prochaines générations ne sont que les tout premiers pas dans le domaine.


C'est comme la 3D. Cela fait environ 40 ans que ça existe dans les jeux vidéos et on est encore loin d'avoir des jeux aux graphismes aussi beaux et détaillés que la réalité.
Donc forcément le ray tracing ne va pas atteindre sa plénitude en moins de 2 ans voir en 5 ans. La puissance pour exploiter du full ray tracing dans les jeux récents est pas attendu avant 15 ans d'après nvidia mais petit à petit, on va avoir des jeux qui exploitent de plus en plus le ray tracing avec de moins en moins de couts sur la puissance exigée.

n°10700330
Activation
21:9 kill Surround Gaming
Posté le 12-02-2020 à 22:48:21  profilanswer
 

Le truc c'est que pour moi turing a été avant tout pensé pour les pro et donc je dirais
"Un minimum necessaire obligatoire pour au moins balancer du rt hybride en 2K sur des quadro
 
Ce minima etant déjà là on va dire avec turing, je voit pas necessité pour les powerstation equipé de quadro d avoir plus sur des puces ampere destiné au desktop/notebook
 
Derrière si les pro veulent traité des versions final en "4K" ( pour des cgi dans le cinema et enfin avoir une chaine 4K pour la post prod même sur les cgi) y aura les ferme de serveurs (avec des gpu à base de hbm2)
 
Du coup c'est pour ça que je pencherait plus pour une amelioration de l upscaling
++ perf en raster et mise en avant des mesh shader aupres des dev avec gamework (d ou la necessité de se sortir les doigts du luc avec l'utilisation reel d interface bas niveau tel vulkan
Après si peuvent opti les unité rt core sans encore bouffer la moitier des transistor du gpu juste pour les rt
Mais je dis bien 'opti' avec en cible les perf de turing. (Si c'est pour gonfler de 50 %  le nb de transistors dans les rtcore comparé à turing... Je trouverait ça très irréfléchit)
 
Nvidia aura beau dire ce qu il veut
Turing se sera moins vendu que maxwell et pascal (sans mm les crypto merdasse)
Le fait que seul la 2080ti ai apporté un gain n'y ai pas étranger
 
Et au vu de son tarif de taré  
On est bloqué depuis un moment au perf de la 1080ti avec les 2070super/2080/2080super qui l ont remplacé
 
Par contre je pense que ce qui représente les tensor core va augmenter en transistors
Et pour les mesh shader
Et pour l upscaling par IA
Et tout simplement l'IA
 
Financièrement l'IA
Pour l amelioration d image/photo
Pour l amelioration video
Dans le medical
Identification
Autre
Est plus vendeur que le rt en ce moment sur un desktop/notebook
 
Et c'est pas une bulle speculative comme le data mining, ça a déjà des usages


Message édité par Activation le 12-02-2020 à 23:00:32
n°10700332
havoc_28
Posté le 12-02-2020 à 22:54:06  profilanswer
 

obduction a écrit :


Pas forcément.
Il n'y a pas besoin de connaitre pour savoir que le niveau de perf que doit atteindre AMd doit au moins équivaloir celui d'nvidia d'il y a 2 ans car ça serait un échec cuisant pour AMD s'il est pas foutu de sortir des cartes ayant les perfs de son concurrent avec 2 ans de retard.
Rien n'empêche que RDNA 2 soit le bulldozer version gpu mais il faut surtout espérer que non. [...]


 
On ne connait pas les pré requis de Sony et M$ en terme de puissance coté RT, à nouveau si pour des raisons de coûts etc, le niveau de puissance coté RT n'est pas aussi élevé que ce qui est proposé par Nvidia, en quoi ça sera réellement problématique pour AMD de ne pas atteindre le niveau de performance en RayTracing de Turing, si la plus part des jeux consoles et leurs portages PCs, ne tirent pas parti de puissance en rayons / secondes offertes par turing et successeurs ?  
 
ATI puis AMD sont restés longtemps en retard niveau puissance géométrique / Tesselation VS Nvidia sans que ça ait réellement posé soucis, sauf dans des cas d’utilisations abusives de la tesselation, par exemple crysis 2 et l'affichage invisible de la mer en Ville.
 
Moi je ne sais pas si les consoles seront aussi puissantes cotés, rt, ou si elles se contenteront d'effets un peu plus réduits, pour économiser niveau transistors etc pour pouvoir avoir assez de performance niveau rastérisation et réellement avoir de la vrai 4K etc.
 
C'est pas forcément une histoire de répéter le cas de Buldozer mais une histoire de coûts niveau transistor ... Commencer par quelque chose de plus léger que ce que propose Turing, puis petit à petit augmenter la puissance avec l'adoption progressive du RT.  
 
Genre le refresh de cette génération de console pourrait très bien apporter un gain notable en particulier pour ce qui est du RT, se faire la main sur le RT sur de petits effets visuels en particuliers, effets sélectionnés pour qu'il soit le moins gourmand possible et ayant le plus de visibilités, puis avec finesses de gravures plus fines etc, augmenter le nombres et la puissances de ces effets avec du matériel plus puissant niveau rt, etc etc
 

Message cité 1 fois
Message édité par havoc_28 le 12-02-2020 à 23:00:56
n°10700333
ppn7
Posté le 12-02-2020 à 22:54:40  profilanswer
 

obduction a écrit :


Le DLSS est loin d'être en état de mort cérébral. Au contraire, il n'a jamais été aussi vivant et en bonne forme.
Les derniers jeux supportant le DLSS offrent un DLSS de très bonne qualité et le DLSS s'avère être un allié de choix pour offrir des perfs en ray tracing du niveau des perfs sans RT.
 
En plus, nvidia n'a toujours pas encore sorti en pratique le DLSS2x malgré l'avoir annoncé en même temps que le DLSS donc les tensor cores vont servir.


 
Petite question, le DLSS2X n'est pas utilisé sur Wolfenstein Youngblood?

n°10700342
obduction
Posté le 12-02-2020 à 23:11:40  profilanswer
 

ppn7 a écrit :


 
Petite question, le DLSS2X n'est pas utilisé sur Wolfenstein Youngblood?


Non, le dlss 2x n'a pas été utilisé sur Wolf. C'est toujours du dlss avec une réso upscalé plus ou moins basse.
Aucun jeu n'utilise le dlss2x pour le moment et nvidia n'en parle même plus.
 
C'est peut être parce que c'est trop consommateur de ressource pour les cartes turing couplé avec du RT. On le reverra peut être avec Ampère.

n°10700345
obduction
Posté le 12-02-2020 à 23:17:43  profilanswer
 

havoc_28 a écrit :


 
On ne connait pas les pré requis de Sony et M$ en terme de puissance coté RT, à nouveau si pour des raisons de coûts etc, le niveau de puissance coté RT n'est pas aussi élevé que ce qui est proposé par Nvidia, en quoi ça sera réellement problématique pour AMD de ne pas atteindre le niveau de performance en RayTracing de Turing, si la plus part des jeux consoles et leurs portages PCs, ne tirent pas parti de puissance en rayons / secondes offertes par turing et successeurs ?  


Problématique parce que les gens vont acheter les cartes les plus puissantes.
Sinon on pourrait dire la même chose en rasterisation ou sur les cpus, pourquoi amd ne vendait pas beaucoup quand il avait que bulldozer vu que les consoles avaient des cpus encore plus naze que bulldozer?
 
De plus, sur PC, il y a des chances que pas mal de jeux offrent un Rt plus poussé comme la plupart des jeux offrent des options graphiques plus poussés sur pc que sur console sans parler de la possibilité de monter en résolution.
 
 
 

Citation :

ATI puis AMD sont restés longtemps en retard niveau puissance géométrique / Tesselation VS Nvidia sans que ça ait réellement posé soucis, sauf dans des cas d’utilisations abusives de la tesselation, par exemple crysis 2 et l'affichage invisible de la mer en Ville.


C'est très différent parce que les jeux utilisant la tesselation ont été en quantité très faible pendant très longtemps et ne concernaient que quelques détails du jeu donc c'était pas gênant en soi.
 
 
 
 

n°10700347
ppn7
Posté le 12-02-2020 à 23:19:56  profilanswer
 

obduction a écrit :


Non, le dlss 2x n'a pas été utilisé sur Wolf. C'est toujours du dlss avec une réso upscalé plus ou moins basse.
Aucun jeu n'utilise le dlss2x pour le moment et nvidia n'en parle même plus.
 
C'est peut être parce que c'est trop consommateur de ressource pour les cartes turing couplé avec du RT. On le reverra peut être avec Ampère.


 
Peut-être qu'ils vont en remettre une couche au GDC 2020, ça serait intéressant.
 
Après même si actuellement le DLSS et le RT est un peu une niche, du moment que ça concerne les AAA, ça peut permettre une meilleure expérience in-game pour les joueurs occasionnels. C'est sûr que pour le joueur qui fait 50 jeux dans l'année dont 2 seulement en DLSS/RT ça va pas lui être très utile.
 
Je n'ai malheureusement jamais eu l'occasion de tester le RT, alors oui quand on compare des vidéos, c'est une chose mais en jeu, ça reste à voir si on est très regardant au niveau des détails.
Je pense notamment aux réflexions, qui pour moi doit être le truc le moins important que je remarque. Par exemple je viens de jouer hier à TLOU sur PS4 en remaster. Il y a de la pseudo réflexion en rastérisation sur les flaques d'eaux. Même si elles ne reflètent pas la réalité, ça me semble suffisant pour ne l'ambiance générale du jeu.  
Par contre, tout ce qui est illumination et ombrage, il y a clairement un truc à faire avec le RT hybride. Mais ça c'est aux développeurs de faire le choix du RT en fonction des performances.

n°10700360
havoc_28
Posté le 13-02-2020 à 00:06:05  profilanswer
 

obduction a écrit :


Problématique parce que les gens vont acheter les cartes les plus puissantes.
Sinon on pourrait dire la même chose en rasterisation ou sur les cpus, pourquoi amd ne vendait pas beaucoup quand il avait que bulldozer vu que les consoles avaient des cpus encore plus naze que bulldozer?
 
De plus, sur PC, il y a des chances que pas mal de jeux offrent un Rt plus poussé comme la plupart des jeux offrent des options graphiques plus poussés sur pc que sur console sans parler de la possibilité de monter en résolution.


 
Bulldozer le manque de performance était généralisé en jeu, le RT n'est qu'une option graphique qu'on peut activer / désactiver, ce qui est pas tout à fait la même chose. On ne sait pas si beaucoup de jeux utiliseront la pleine puissance du RT offerte par les Turing / Ampère, je trouve le parallèle assez pertinent avec l'utilisation de la tesselation ces dernières années GCN1, puis GCN2/3 (même si à partir de GCN 2 ils ont doubler la puissance à ce niveau en passant de 2 à 4 grosses unités, on était quand même bien derrière Kepler et encore pire Maxwell), GCN 4/5 ont paliers en partie la chose, mais toujours inférieur à Pascal  en leurs temps sur ce domaine ...
 

obduction a écrit :

C'est très différent parce que les jeux utilisant la tesselation ont été en quantité très faible pendant très longtemps et ne concernaient que quelques détails du jeu donc c'était pas gênant en soi.


 
Ce que tu décris me semble assez similaire à la situation actuelle du RT, au final ce ne sont que quelques effets graphiques, utilisés sur une minorité de jeux (marché de niche pour l'instant) ... Effets graphiques qu'on peut activer / désactiver, plus ou moins probant en fonction, mais au final pas si gênant que ça si on s'en passe ...

Message cité 1 fois
Message édité par havoc_28 le 13-02-2020 à 00:16:13
n°10700366
obduction
Posté le 13-02-2020 à 00:21:26  profilanswer
 

havoc_28 a écrit :


 
Bulldozer le manque de performance était généralisé, le RT n'est qu'une option graphique qu'on peut activer / désactiver, ce qui est pas tout à fait la même chose. On ne sait pas si beaucoup de jeux utiliseront la pleine puissance du RT offerte par les Turing, je trouve le parallèle assez pertinent avec l'utilisation de la tesselation ces dernières années GCN1, puis GCN2/3 (même si à partir de GCN 2 ils ont doubler la puissance à ce niveau en passant de 2 à 4 grosses unités, on était quand même bien derrière Kepler et encore pire Maxwell), GCN 4/5 ont paliers en partie la chose, mais toujours inférieur à Pascal  en leurs temps sur ce domaine ...


 

havoc_28 a écrit :


 
Ce que tu décris me semble assez similaire à la situation actuelle du RT, au final ce ne sont que quelques effets graphiques, utilisés sur une minorité de jeux (marché de niche pour l'instant) ... Effets graphiques qu'on peut activer / désactiver, plus ou moins probant en fonction, mais au final pas si gênant que ça si on s'en passe ...


Si on part par là, aucun effet graphique n'est gênant en soi si on le supprime.
 
Par contre ce n'est pas similaire du tout à la tesselation. Sur la tesselation, la quasi totalité du temps, la tesselation concernait que quelques éléments et encore parfois de manière tellement légère que c'était à peine visible. Cela l'a été au moins jusqu'à que les consoles gérant l'équivalent de dx11 sortent.
Là sur les jeux, c'est en général utilisé tout sauf de manière aussi éparse. Quand le RT est utilisé pour les ombres, c'est en géénral utilisé pour presque toutes les ombres ou en tout cas une très grande partie. Idem pour la réflexion.
Pourtant le RT consomme énormément plus de ressource que la tesselation et la tesselation était supporté par tous les gpus dx11 alors que, là le RT est seulement supporté par quelques gpus d'un constructeur.

n°10700368
havoc_28
Posté le 13-02-2020 à 00:30:58  profilanswer
 

obduction a écrit :


Si on part par là, aucun effet graphique n'est gênant en soi si on le supprime.
 
Par contre ce n'est pas similaire du tout à la tesselation. Sur la tesselation, la quasi totalité du temps, la tesselation concernait que quelques éléments et encore parfois de manière tellement légère que c'était à peine visible. Cela l'a été au moins jusqu'à que les consoles gérant l'équivalent de dx11 sortent.
Là sur les jeux, c'est en général utilisé tout sauf de manière aussi éparse. Quand le RT est utilisé pour les ombres, c'est en géénral utilisé pour presque toutes les ombres ou en tout cas une très grande partie. Idem pour la réflexion.
Pourtant le RT consomme énormément plus de ressource que la tesselation et la tesselation était supporté par tous les gpus dx11 alors que, là le RT est seulement supporté par quelques gpus d'un constructeur.


 
c'est pour ça que les ombres, dans Shadow of the TombRaider ou Call of Duty ModernWarfare sont assez peu probantes au final vs leurs équivalents traditionnels générés via rasterisation ? De même que bien souvent pour la réflexion qui peut être imiter dans bien des cas via des screens spaces ou encore suffit de pousser le coefficient de réflectivité des screens spaces dans GTA V et de mettre GTA V raytracing pour qu'une grande partie des gens pensent qu'il y a réellement un mod qui ajoute le RT dans GTA V ? Au contraire le global illumination dans un métro exodus est nettement plus notable, et control qui combine en partie les 3 cas du RT, mais qui biaise un peu le comparaison avec le RT désactivé en occultant certaines reflexions qui auraient pu être faite via rasterisation classique (mais qui n'ont pas été mises histoire d'économiser du temps dans le développement).
 
L'utilisation du RT en fonction des jeux est plus ou moins probantes, tout comme l'était en son temps la tesselation ...
 
Pour moi on en est qu'au tout début du RT, donc il est normal que les résultats certains cas assez peu marquants, et cette génération de consoles et RTX ne sont que les pionnières du RT, faut pas s'attendre à ce que se soit toujours l'effet wow d'un jeu à l'autre supportant le RT pour cette génération, ça s'améliorera surement petit à petit, mais cette génération ne sera qu'un palier dans cette évolution, et pour ce palier, je ne connais pas les besoins réellement nécessaires niveau puissance coté RT, si c'est Turing au minimum, ou moins, si on aura plus d'effets RT qu'actuellement ou un peu moins, en fonction des jeux etc  
 
Je ne connais pas la solution qu'd'AMD emploiera pour le RT, sa gourmandise en transistor, son niveau de performance vs la solution de nvidia, le niveau de RT intégré dans les consoles, l'impact que ce niveau aura sur le développement des jeux et de l'intégration du RT également sur les jeux pc etc.

Message cité 1 fois
Message édité par havoc_28 le 13-02-2020 à 01:01:51
n°10700428
max022
Posté le 13-02-2020 à 10:07:09  profilanswer
 

Mais bon de toute façon on a une méconnaissance total de ce que sera le RT des prochaines consoles.  
C'est tout à fait probable que ce soit une solution très différente que pour les cartes RTX.  
Perso je pense qu'il y aura en tout cas une solution logiciel pour réduire la facture des consoles.  
Après il peut très bien y avoir une solution matériel + logiciel. (un compromis prix/perf)

Message cité 2 fois
Message édité par max022 le 13-02-2020 à 11:10:23
n°10700448
baubaud
In binch we trust !
Posté le 13-02-2020 à 11:00:06  profilanswer
 

Drapal pour remplacer ma GTX 1080


---------------
Force et Binouse c[_] ® // Topic de vente et recherche
n°10700461
alex_onthe​beach
Posté le 13-02-2020 à 11:24:32  profilanswer
 

baubaud a écrit :

Drapal pour remplacer ma GTX 1080


Même chose ici !

n°10700490
jinxjab
Protection engendre sacrifice
Posté le 13-02-2020 à 12:23:12  profilanswer
 

max022 a écrit :

Mais bon de toute façon on a une méconnaissance total de ce que sera le RT des prochaines consoles.  
C'est tout à fait probable que ce soit une solution très différente que pour les cartes RTX.  
Perso je pense qu'il y aura en tout cas une solution logiciel pour réduire la facture des consoles.  
Après il peut très bien y avoir une solution matériel + logiciel. (un compromis prix/perf)


 
Tel que ça => https://www.imgtec.com/graphics-pro [...] y-tracing/
?
 
Ayant pratiqué un peu le RT dans ma jeunesse avec des outils de type PovRay, je ne suis pas certain que la puissance CPU gagnée depuis 10 ans soit suffisante pour opter pour une solution purement logicielle.
 
-subjectivité-


Message édité par jinxjab le 13-02-2020 à 12:23:57

---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.”
n°10700513
obduction
Posté le 13-02-2020 à 13:37:41  profilanswer
 

max022 a écrit :

Mais bon de toute façon on a une méconnaissance total de ce que sera le RT des prochaines consoles.  
C'est tout à fait probable que ce soit une solution très différent que pour les cartes RTX.


En quoi pourrait-on avoir une solution différente?
L'implémentation hardware peut être différente mais comme les apis sont déjà standardisés avec vulkan et Directx12, apis qui seront aussi utilisés sur console, seul conteront les perfs au final.
 
 

max022 a écrit :


Perso je pense qu'il y aura en tout cas une solution logiciel pour réduire la facture des consoles.  
Après il peut très bien y avoir une solution matériel + logiciel. (un compromis prix/perf)  


Vu les perfs des cpus versus les gpus, une solution logicielle ne servira à rien. C'est comme un pansement sur une jambe de bois car un cpu est strictement incapable d'afficher du ray tracing vu sa puissance de calcul infiniment plus faible que celle d'un gpu.
 
Il y a qu'à voir les essais de ray tracing en temps réel sur cpu, au mieux ça tourne assez fluidement en 640x480 au pire c'est sans denoiser et avec des caracs inférieure aux effets sur gpus. Je doute qu'un joueur console accepte que son jeu tourne en 640x480.
 
Ils peuvent sans doute combiner le hardware et le logiciel mais c'est pas 0.5 % au mieux d'amélioration que pourra apporter le cpu qui va changer grand chose. Vaut mieux consacrer le temps de calcul cpu à des taches bien plus adaptés au cpu

n°10700516
obduction
Posté le 13-02-2020 à 13:44:47  profilanswer
 

havoc_28 a écrit :


 
c'est pour ça que les ombres, dans Shadow of the TombRaider ou Call of Duty ModernWarfare sont assez peu probantes au final vs leurs équivalents traditionnels générés via rasterisation ? De même que bien souvent pour la réflexion qui peut être imiter dans bien des cas via des screens spaces ou encore suffit de pousser le coefficient de réflectivité des screens spaces dans GTA V et de mettre GTA V raytracing pour qu'une grande partie des gens pensent qu'il y a réellement un mod qui ajoute le RT dans GTA V ? Au contraire le global illumination dans un métro exodus est nettement plus notable, et control qui combine en partie les 3 cas du RT, mais qui biaise un peu le comparaison avec le RT désactivé en occultant certaines reflexions qui auraient pu être faite via rasterisation classique (mais qui n'ont pas été mises histoire d'économiser du temps dans le développement).


 
 

havoc_28 a écrit :


L'utilisation du RT en fonction des jeux est plus ou moins probantes, tout comme l'était en son temps la tesselation ...


Quand c'est peu probant, c'est que ça a mal été implémenté tout simplement.
 
 
 

havoc_28 a écrit :


Pour moi on en est qu'au tout début du RT, donc il est normal que les résultats certains cas assez peu marquants, et cette génération de consoles et RTX ne sont que les pionnières du RT, faut pas s'attendre à ce que se soit toujours l'effet wow d'un jeu à l'autre supportant le RT pour cette génération, ça s'améliorera surement petit à petit, mais cette génération ne sera qu'un palier dans cette évolution, et pour ce palier, je ne connais pas les besoins réellement nécessaires niveau puissance coté RT, si c'est Turing au minimum, ou moins, si on aura plus d'effets RT qu'actuellement ou un peu moins, en fonction des jeux etc  
 
Je ne connais pas la solution qu'd'AMD emploiera pour le RT, sa gourmandise en transistor, son niveau de performance vs la solution de nvidia, le niveau de RT intégré dans les consoles, l'impact que ce niveau aura sur le développement des jeux et de l'intégration du RT également sur les jeux pc etc.


La question n'est pas de connaitre l'intégration mais si on te suit savoir si rdna2 sera le bulldozer du gpu ou pas.
 
Pour le moment, amd même avec 2 ans de retard a toujours été capable d'égaler son concurrent donc je ne vois pas pourquoi cela serait différent.  
 
Je te trouve très pessimiste.

n°10700569
havoc_28
Posté le 13-02-2020 à 15:18:04  profilanswer
 

obduction a écrit :

Quand c'est peu probant, c'est que ça a mal été implémenté tout simplement.


 
Peut être que les ombres via rasterisation sont déjà avancées, et que même si le RT améliore les choses à ce niveau c'est pas si probant que cela ?  
 

obduction a écrit :


La question n'est pas de connaitre l'intégration mais si on te suit savoir si rdna2 sera le bulldozer du gpu ou pas.
 
Pour le moment, amd même avec 2 ans de retard a toujours été capable d'égaler son concurrent donc je ne vois pas pourquoi cela serait différent.  
 
Je te trouve très pessimiste.


 
C'est toi qui vient avec bulldozer, moi je dis simplement qu'on ne connait pas l'implémentation d'AMD pour le RT, ils peuvent cibler une puissance coté RT inférieur à ce que fais Nvidia, mais en contre partie une implémentation bien moins coûteuse en transistors ... Puis augmenter cela au fur et à mesure des générations et de la généralisation du RT.
 
L'accélération matériel du RT, c'est tout autre chose que l'augmentation de la puissance brute, est ce qu'AMD a l'équivalent de RT Core / Tensor Core, ou quelque chose de totalement différent avec une accélération au niveau même des unités de bases etc etc ?

Message cité 1 fois
Message édité par havoc_28 le 13-02-2020 à 16:08:11
n°10700579
Toskilate
Posté le 13-02-2020 à 15:40:06  profilanswer
 

Petite question, le DLSS c'est une fonctionnalité seulement dispo sur les cartes RTX on est d'accord ?

n°10700584
havoc_28
Posté le 13-02-2020 à 15:46:26  profilanswer
 

Toskilate a écrit :

Petite question, le DLSS c'est une fonctionnalité seulement dispo sur les cartes RTX on est d'accord ?


 
Oui, les GPU disposant de Tensor Core (FP16 améliorée / grille d'accélération I.A.), de la famille Turing  les RTX donc. (Volta en théorie pourrait en bénéficier aussi, mais pas sur qu'ils l'ont implémenté).

Message cité 1 fois
Message édité par havoc_28 le 13-02-2020 à 15:52:26
n°10700616
obduction
Posté le 13-02-2020 à 16:34:37  profilanswer
 

havoc_28 a écrit :


Peut être que les ombres via rasterisation sont déjà avancées, et que même si le RT améliore les choses à ce niveau c'est pas si probant que cela ?  


Les ombres par rasterisation, c'est plus avancé qu'il y a 20 ans mais ça reste loin des ombres par ray tracing. C'est criant quelque soit le jeu car les ombres par rasterisation, tu vois rapidement les défauts qui sont présents dans tous les jeux même dans ceux les plus élaborés.
Déjà que c'était bien visible avant même qu'nvidia introduise le ray tracing mais c'est encore plus criant quand on peut désormais comparer sur les jeux.
 

havoc_28 a écrit :


C'est toi qui vient avec bulldozer, moi je dis simplement qu'on ne connait pas l'implémentation d'AMD pour le RT, ils peuvent cibler une puissance coté RT inférieur à ce que fais Nvidia, mais en contre partie une implémentation bien moins coûteuse en transistors ... Puis augmenter cela au fur et à mesure des générations et de la généralisation du RT.


Je viens avec bulldozer mais c'est toi qui sans cesse ramène aussi à ça en disant qu'AMd aurait un gpu moins perf 2 ans après que son concurrent. C'est donc penser qu'AMd va sortir un gpu pas assez performant malgré 2 ans de retard. On est donc bien dans le cas de bulldozer que tu prononces le mot ou pas.
 
T'as le droit d'être aussi pessimiste mais je trouve ça un peu bizarre.
 

havoc_28 a écrit :


L'accélération matériel du RT, c'est tout autre chose que l'augmentation de la puissance brute, est ce qu'AMD a l'équivalent de RT Core / Tensor Core, ou quelque chose de totalement différent avec une accélération au niveau même des unités de bases etc etc ?


Ce n'est pas le plus important vu que les apis standardisés sont déjà là. Le plus important sont les perfs au final.

n°10700617
obduction
Posté le 13-02-2020 à 16:37:04  profilanswer
 

Toskilate a écrit :

Petite question, le DLSS c'est une fonctionnalité seulement dispo sur les cartes RTX on est d'accord ?


Oui, l'algo dlss est propriétaire à nvidia et utilise les tensor cores propres à l'archi d'nvidia mais rien n'empêche d'AMD d'élaborer une technique d'upscaling par IA comme ce que fait nvidia en utilisant sa propre architecture et des unités dédiées ou pas.
Il n'y a pas de brevet ou quoi que ce soit qui pourrait empêcher amd d'avoir une méthode d'upscale par IA.

n°10700626
havoc_28
Posté le 13-02-2020 à 16:55:15  profilanswer
 

obduction a écrit :


Les ombres par rasterisation, c'est plus avancé qu'il y a 20 ans mais ça reste loin des ombres par ray tracing. C'est criant quelque soit le jeu car les ombres par rasterisation, tu vois rapidement les défauts qui sont présents dans tous les jeux même dans ceux les plus élaborés.
Déjà que c'était bien visible avant même qu'nvidia introduise le ray tracing mais c'est encore plus criant quand on peut désormais comparer sur les jeux.


 
Pourtant, comme déjà dit, les ombres sont ce qui est de moins probants actuellement avec le RT. Ce n'est pas moi qui le dit, suffit de lire les tests à ce niveau, oui on peut voir que les ombres via RT apportent un plus, mais c'est pas non plus si évident que cela. C'est juste une méthode de rendu pour l'instant de certains élément de la scène, tout le reste est fait via rastérisation. ça apporte un peu plus, plus ou moins probants, mais pour l'instant on a pas encore franchi le pas, où le RT apporte un plus réellement indéniable, faut bien commencer par de petites touches, plus ou moins probantes en fonction du jeu et de l'utilisation du RT que ce soit ombres / reflexions. Et peut être qu'AMD pour des raisons de coûts niveau transistors etc, commencera par une implémentation plus légère et des effets un peu plus réduits que Nvidia.  
 

obduction a écrit :


Je viens avec bulldozer mais c'est toi qui sans cesse ramène aussi à ça en disant qu'AMd aurait un gpu moins perf 2 ans après que son concurrent. C'est donc penser qu'AMd va sortir un gpu pas assez performant malgré 2 ans de retard. On est donc bien dans le cas de bulldozer que tu prononces le mot ou pas.
 
T'as le droit d'être aussi pessimiste mais je trouve ça un peu bizarre.

 
 
Moi je comprends pas trop ton empressement pour le RT, c'est le futur, et donc ? ça viendra petit à petit, mais que ce soit via RT ou Rastérisation que le jeu soit beau et surtout soit un bon jeu c'est l'important, RT ou pas c'est pas mon problème, si le RT se généralise rapidement tant mieux, sinon tant pis, ça m’empêchera pas de m'amuser sur un bon jeu et d'attendre un peu plus longtemps que le RT se généralise tôt ou tard ...  
 

obduction a écrit :

Ce n'est pas le plus important vu que les apis standardisés sont déjà là. Le plus important sont les perfs au final.


 
Bien sur que c'est important de savoir l'implémentation d'AMD coté RT, et ce qu'elle sera capable de débité niveau rayons /s, car bon d'elle dépend les performances en RT au final  pour les consoles / et cartes graphique dédiées AMD ... Les API sont standardisés oui, mais rien ne me dit que l'implémentation d'AMD coté RT sera AUSSI performante que celle de Nvidia, j'ai pas cette certitude, même si AMD a 2 ans de retards, rien me dit qu'ils arriveront forcément au même niveau de performance coté RT. Comme déjà dit ils sont restés des années et RESTE encore en retard niveau puissance géométrique / tesselation, même avec RDNA même s'ils ont pallier ça avec des Primitive shader fonctionnels vs Vega, rien ne me dit encore une fois que RDNA 2 la première implémentation du RT coté AMD soit aussi performante que celle de Nvidia ...


Message édité par havoc_28 le 13-02-2020 à 17:03:33
n°10700644
ben shinob​i
Posté le 13-02-2020 à 17:50:56  profilanswer
 

ça fait deux pages qu'on ne parle plus des prix supposés pigeonnant des Ampères, qu'est ce qui se passe bowdel?  :o
 
Et puis vos débats sur les shadows en rasterisation ou RT c'est complètement glucose  [:rouliano34:1]  [:bidibulle:2]
 
Nous les péquins, le bas peuple, les gueux, les bouseux,  les prolos du hardware, on veut savoir combien ksa coute pour combien de fps en plus, le reste osef  [:nepheast:1]

Message cité 2 fois
Message édité par ben shinobi le 13-02-2020 à 18:00:55
n°10700659
alex_onthe​beach
Posté le 13-02-2020 à 18:23:56  profilanswer
 

ben shinobi a écrit :

ça fait deux pages qu'on ne parle plus des prix supposés pigeonnant des Ampères, qu'est ce qui se passe bowdel?  :o
 
Et puis vos débats sur les shadows en rasterisation ou RT c'est complètement glucose  [:rouliano34:1]  [:bidibulle:2]
 
Nous les péquins, le bas peuple, les gueux, les bouseux,  les prolos du hardware, on veut savoir combien ksa coute pour combien de fps en plus, le reste osef  [:nepheast:1]


Pas faux !

n°10700667
Activation
21:9 kill Surround Gaming
Posté le 13-02-2020 à 18:45:37  profilanswer
 

Envoi un twitt à huang, ptet qu il te répondra  :D
 
Déjà espère que AMD pourra au moins etre concurrentiel face à de là "3070"
 
Bien sur pour notre salut faut aussi espérer qu une rtx 3070 ne fera pas moins en rasterisation qu une 2080Ti
Sinon ça sera minable et le bon vieux temps de la gtx970 sera loin
 
Enfin bon là ils vont encore te dire que le virus a contaminer leur wafer
Tout va être raison pour dire que faut que ça soit cher
Sauf que la justification tiendra pas debout car ça va juste impliquer du retard de calendrier
 
Bon la gdc est proche... On devrait des news dans 3semaines

Message cité 1 fois
Message édité par Activation le 13-02-2020 à 18:48:37
n°10700742
obduction
Posté le 13-02-2020 à 21:52:50  profilanswer
 

ben shinobi a écrit :

ça fait deux pages qu'on ne parle plus des prix supposés pigeonnant des Ampères, qu'est ce qui se passe bowdel?  :o
 
Et puis vos débats sur les shadows en rasterisation ou RT c'est complètement glucose  [:rouliano34:1]  [:bidibulle:2]
 
Nous les péquins, le bas peuple, les gueux, les bouseux,  les prolos du hardware, on veut savoir combien ksa coute pour combien de fps en plus, le reste osef  [:nepheast:1]


Je te donne un indice très fiable d'après l'oncle de ma cousine dont son cousin au 3ème degré travaille pour le concierge du siège social d'nvidia. Cela coutera moins que 2000€.

n°10700750
Rayaki
Posté le 13-02-2020 à 22:37:59  profilanswer
 

A ta place je ne m'avancerai pas trop :o
Perso je m'attend à ce que les prix grimpent encore un peu... mais on verra !


---------------
Clan Torysss.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  14  15  16  ..  1872  1873  1874  1875  1876  1877

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR