Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2766 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  93  94  95  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10803018
zouaf
Posté le 14-08-2020 à 21:21:26  profilanswer
 

Reprise du message précédent :
A haute fréquence, les deux vont être sollicité.
Un ryzen 3600 est un très bon cpu donc ne t'inquiète pas, ça sera équilibré et encore heureux :)
 
Après, logiquement, ça devrait être plus intéressant niveau perf une 3070 (même si on ne connaît rien des perfs) qu'une 2070s.
Je ne te garantis pas que tu tiendras les 144fps avec les deux gpu car ça dépends des jeux et de tes réglages (sans rentrer dans le sempiternel débat, intel c'est mieux dans les jeux pour les hauts fps..).

Message cité 1 fois
Message édité par zouaf le 14-08-2020 à 21:24:02
mood
Publicité
Posté le 14-08-2020 à 21:21:26  profilanswer
 

n°10803023
duton
Posté le 14-08-2020 à 21:30:03  profilanswer
 

zouaf a écrit :

A haute fréquence, les deux vont être sollicité.
Un ryzen 3600 est un très bon cpu donc ne t'inquiète pas, ça sera équilibré et encore heureux :)
 
Après, logiquement, ça devrait être plus intéressant niveau perf une 3070 (même si on ne connaît rien des perfs) qu'une 2070s.
Je ne te garantis pas que tu tiendras les 144fps avec les deux gpu car ça dépends des jeux et de tes réglages (sans rentrer dans le sempiternel débat, intel c'est mieux dans les jeux pour les hauts fps..).


144 fps en soit ce n'est pas ce qui m'intéresse,
 
La fréq n'est pas indépendante des fps, non ? je veux dire, si je me mets en 144Hz et et que les fps sont à 60 je garde un intérêt ou pas ?

n°10803025
zouaf
Posté le 14-08-2020 à 21:35:39  profilanswer
 

oui, ce sera plus confortable que jouer à 60fps sur un écran de 60hz.
Bon, là on est vraiment hs, crée toi un topic si tu veux vraiment en débattre.
 

n°10803029
duton
Posté le 14-08-2020 à 21:38:52  profilanswer
 

C'est tout ce que je voulais savoir, Merci !

n°10803079
HashKah
It’s dangerous to go alone !
Posté le 14-08-2020 à 23:48:27  profilanswer
 

roland899 a écrit :


 
Surtout que je te prédit une rupture de stock dés le lancement...
 


 
T'en fais pas va, j'aurai le doigt sur le bouton pour l'achat Day one sur tous les sites revendeurs.
 
J'ai budgétisé 1500€, je pense que ça devrait aller pour au pire une bonne 3080.
Les fonds sont là, y'a plus qu'à attendre et à cliquer au bon moment (je suis rodé à l'exercice avec les sorties apple).
 
Après si la théorie selon laquelle la sortie devait intervenir plus tôt et a été repoussée en raison du Covid est bonne, ils ont eu le temps de constituer un peu de stock, la rumeur qui voudrait que des Custom soient prêtes au lancement irait dans ce sens.
 

Message cité 2 fois
Message édité par HashKah le 14-08-2020 à 23:50:11
n°10803080
Daillot
~ ~
Posté le 14-08-2020 à 23:50:07  profilanswer
 

HashKah a écrit :


J'ai budgétisé 1500€, je pense que ça devrait aller pour au pire une bonne 3080


 
Et ben dis donc, y a encore de beaux jours pour Nvidia  :sweat:


---------------
3080FE OC vs STOCK vs Undervolt | Mes ventes
n°10803082
HashKah
It’s dangerous to go alone !
Posté le 14-08-2020 à 23:52:30  profilanswer
 

Daillot a écrit :


 
Et ben dis donc, y a encore de beaux jours pour Nvidia  :sweat:


 
J'ai vu large, je n'ai pas dis que je voulais que de soit le prix de la carte mais je ne veux pas devoir réfléchir au moment de l'achat.
 
Je renouvelle mon matériel, après 10 ans sur la même tv, je suis passé sur une LG Oled C9 65 pouces, équipé Gsync, Freesync, HDMI 2.1 et 13ms de retard en mode jeu.  
 
Donc ce beau bébé je veux l'alimenter avec des jeux en 4k/60 fps sans avoir à faire la moindre concession et surtout sur Cyberpunk que j'attends comme le messie.

n°10803083
zouaf
Posté le 14-08-2020 à 23:57:42  profilanswer
 

HashKah a écrit :


 
J'ai vu large, je n'ai pas dis que je voulais que de soit le prix de la carte mais je ne veux pas devoir réfléchir au moment de l'achat.
 
Je renouvelle mon matériel, après 10 ans sur la même tv, je suis passé sur une LG Oled C9 65 pouces, équipé Gsync, Freesync, HDMI 2.1 et 13ms de retard en mode jeu.  
 
Donc ce beau bébé je veux l'alimenter avec des jeux en 4k/60 fps sans avoir à faire la moindre concession et surtout sur Cyberpunk que j'attends comme le messie.


 
Crois moi, tu en feras  :D
surtout si RT  :lol:

Message cité 1 fois
Message édité par zouaf le 14-08-2020 à 23:58:40
n°10803084
AllenMadis​on
Posté le 15-08-2020 à 00:00:15  profilanswer
 

HashKah a écrit :

 

J'ai vu large, je n'ai pas dis que je voulais que de soit le prix de la carte mais je ne veux pas devoir réfléchir au moment de l'achat.

 

Je renouvelle mon matériel, après 10 ans sur la même tv, je suis passé sur une LG Oled C9 65 pouces, équipé Gsync, Freesync, HDMI 2.1 et 13ms de retard en mode jeu.

 

Donc ce beau bébé je veux l'alimenter avec des jeux en 4k/60 fps sans avoir à faire la moindre concession et surtout sur Cyberpunk que j'attends comme le messie.

 

ah non moi c'est flight sim que j'attends comme le messie

 

niveau puissance va falloir des trucs pour faire carburer le bouzin

 

Je sais meme pas comment microsoft arrive a faire des vidéos live du truc en 4k60fps [:poutrella]


Message édité par AllenMadison le 15-08-2020 à 00:01:08

---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10803086
Daillot
~ ~
Posté le 15-08-2020 à 00:05:16  profilanswer
 

Ils ont ça relié à leur PC https://image.noelshack.com/minis/2020/33/6/1597442661-serveur-dedie-prive-virtuel-cloud.png  :o


---------------
3080FE OC vs STOCK vs Undervolt | Mes ventes
mood
Publicité
Posté le 15-08-2020 à 00:05:16  profilanswer
 

n°10803088
aliss
Rhyme the Rhyme Well
Posté le 15-08-2020 à 00:06:02  profilanswer
 

/rumeur
 
Des fréquences base/boost plutôt conservatrices pour la 3090 selon @_rogame
 
https://twitter.com/_rogame/status/1294312499156787202

n°10803090
Profil sup​primé
Posté le 15-08-2020 à 00:11:22  answer
 

Selon les dernières rumeurs, la série 3000 coûtera entre un bras et la peau du cul.

n°10803092
Daillot
~ ~
Posté le 15-08-2020 à 00:13:53  profilanswer
 

Vendre un rein, pourquoi pas, mais j'crois pas que l'on peut vivre sans les 2.


---------------
3080FE OC vs STOCK vs Undervolt | Mes ventes
n°10803095
HashKah
It’s dangerous to go alone !
Posté le 15-08-2020 à 00:26:24  profilanswer
 

zouaf a écrit :


 
Crois moi, tu en feras  :D
surtout si RT  :lol:


 
Avec le DLSS 2.0 (les rumeurs parlent d'un 3.0) qui sera encore plus efficace sur Ampère, un RT qu'on annonce moins gourmand en perfs, je suis persuadé que la carte HDG atteindra sans trop de problème le 4k/60fps/RT avec le coup du pouce du DLSS (qui comme on l'a vu sur Death Stranding via digital foundry, produit une image de meilleure qualité que la 4k native).
 

aliss a écrit :

/rumeur
 
Des fréquences base/boost plutôt conservatrices pour la 3090 selon @_rogame
 
https://twitter.com/_rogame/status/1294312499156787202


 
Les fréquences ne sont pas la donnée la plus importante pour les perfs, il faudra attendre de connaître le nombre de CU notamment, ainsi que des tensor cores.  
 
Et cette 3090 c'est plus une rumeur qu'autre chose non ? Les série 90 ont toujours été des bi-gpu si je ne m'abuse et Nvidia ne se remettra pas à refaire du bi-gpu au moment où le SLI est quasi mort et enterré à de rares exceptions près.
 
 
 
Après y'aura des limites hein, même pour Nvidia, vendre son hypothétique 3080ti au dessus de la 2080ti à sa sortie ça serait pas très bien accueilli à moins que la montée en perfs soit délirante et le justifie, ce qui ne devrait pas être le cas.
 
Je reste prudent, mais je table sur maxi 1400€ la 3080ti FE, au dessus c'est du foutage de gueule et on verra arriver des Custom à plus de 2000€ à l'aise et sans honte.
 
 

n°10803097
zouaf
Posté le 15-08-2020 à 00:31:08  profilanswer
 

vu l'opti générale des jeux sur pc, permets moi d'en douter.
Et j'excluais le dlss qui n'est pas du 4k natif mais de l'upscale..et une techno propriétaire de nvidia donc au compte goutte sur les jeux fonction des partenariats  :ange:  
 
Après, je ne remets pas en doute ses qualités hein même si perso, dur d'en parler car je ne l'ai pas testé :heink:

Message cité 1 fois
Message édité par zouaf le 15-08-2020 à 00:37:16
n°10803098
aliss
Rhyme the Rhyme Well
Posté le 15-08-2020 à 00:31:38  profilanswer
 

HashKah a écrit :


 
Les fréquences ne sont pas la donnée la plus importante pour les perfs, il faudra attendre de connaître le nombre de CU notamment, ainsi que des tensor cores.  
 
Et cette 3090 c'est plus une rumeur qu'autre chose non ? Les série 90 ont toujours été des bi-gpu si je ne m'abuse et Nvidia ne se remettra pas à refaire du bi-gpu au moment où le SLI est quasi mort et enterré à de rares exceptions près.
 


 
On pouvait s'attendre à une hausse de la fréquence gpu dûe au changement de process, on verra bien.
 
La 3090 est une rumeur persistante, à en juger par le specs annoncées, elle remplacerait l'appellation "Titan".
 
 

n°10803100
HashKah
It’s dangerous to go alone !
Posté le 15-08-2020 à 00:51:59  profilanswer
 

zouaf a écrit :

vu l'opti générale des jeux sur pc, permets moi d'en douter.
Et j'excluais le dlss qui n'est pas du 4k natif mais de l'upscale..et une techno propriétaire de nvidia donc au compte goutte sur les jeux fonction des partenariats  :ange:  
 
Après, je ne remets pas en doute ses qualités hein même si perso, dur d'en parler car je ne l'ai pas testé :heink:


 
Avec une 2080ti y'a déjà un paquet de jeux qui tournent en 4k/60 fps et personnellement ma tv est équipée Gsync, donc même si c'est 45-50 fps, ça ira parfaitement.
 
Après concernant le DLSS, déjà oui c'est une technologie de folie, pour moi bien plus intéressante que le RT, c'est le véritable avantage de la génération actuelle. Fait un tour sur le digital foundry consacré à Death Stranding, tu verras que le DLSS arrive à produire une image supérieure à de la 4k native à partir d'une image en 1440p, c'est juste bluffant  :love:  
 
Quant à l'implémentation, justement, la rumeur veut que le DLSS 3.0 puisse être intégré facilement à tous les jeux qui utilisent le Temporal aliasing. Ça ne se ferait pas de façon transparente, sans effort des développeurs, mais ce serait "apparemment" facile, demanderait peu de temps et vu le gain de perfs assez dingue ça risque de devenir un passage obligé pour tous les jeux gourmands.
 
Je vois mal Cyberpunk sortir dans être compatible DLSS par exemple, surtout si y'a partenariat Nvidia, c'est évident que le jeu permettra de jauger des capacités de la génération Ampère, comme Flight simulator (même si lui dépend de beaucoup de paramètres extérieurs comme la connexion et les serveurs Azur).
 

aliss a écrit :


 
On pouvait s'attendre à une hausse de la fréquence gpu dûe au changement de process, on verra bien.
 
La 3090 est une rumeur persistante, à en juger par le specs annoncées, elle remplacerait l'appellation "Titan".
 
 


 
Oh ben si ça remplace la Titan dans ce cas la ok, elle sera à 3000€ mais osef total.
Tant que la 3080ti affiche des perfs qui correspondent à celle de la génération précédente par rapport à la Titan RTX tout va bien.
 

n°10803129
ben shinob​i
Posté le 15-08-2020 à 09:27:20  profilanswer
 

HashKah a écrit :


 
bla bla bla nivida c génial de ouf....

   [:trollol]  
 
sérieux? t'es un vrp déguisé en fanboy ou l'inverse?... :o
 
 
DLSS 2.0 est bien, mais trop peu de jeux, genre 1 (control) en tire(nt) partie. Le ray tracing :  on est dans les 2 ou 3 jeux pour lesquels ça apporte un petit plus pas ouf...
 
A l'heure où on l'on discute d'Ampere, on ne peut que craindre la totale esbrouffe sur ces technologies propriétaires.
 
Oui dans 10 ans, quand on fera le compte, il y aura bien 50-100 jeux AAA (ou pas) qui exploiteront correctement ces features, dont on espère cyberpunk 2077.
Mais dans 10 semaines quand les amperes seront toutes dispo sur le marché, on en aura toujours 2 ou 3 ou 5 d'ici 2021 :o .
 
Suffit (je n'y crois pas vraiment mais sait on jamais) que la gestion du ray tracing et features idoines made in rdna2 consoleuse et pc déchire sa race en open source pour que ces technos libre de droit gagnent le marché dse éditeurs de jeux et paf le chien...
 
T'auras même pas 10 jeux AAA DLSS/RTX corrects en 10 ans.
 
Limite j'espère qu'il y aura des amperes sans tensor cores à l'instar des turing en milieu de gamme pour rattraper le coup, et dans un second temps des tensor cores qui soient compatibles open source avec rdna2,3 etc... et autres Xe bidule d'intel pour les générations à venir.
 
sinon on va droit dans le mur (à l'instar 3d vision, physx lelelelel etc...) avec des prix toujours plus hauts pour des features toujours plus confidentielles.

Message cité 2 fois
Message édité par ben shinobi le 15-08-2020 à 09:51:13
n°10803141
obduction
Posté le 15-08-2020 à 10:12:55  profilanswer
 

ben shinobi a écrit :

   [:trollol]  
 
sérieux? t'es un vrp déguisé en fanboy ou l'inverse?... :o
 
 
DLSS 2.0 est bien, mais trop peu de jeux, genre 1 (control) en tire(nt) partie. Le ray tracing :  on est dans les 2 ou 3 jeux pour lesquels ça apporte un petit plus pas ouf...
 
A l'heure où on l'on discute d'Ampere, on ne peut que craindre la totale esbrouffe sur ces technologies propriétaires.
 
Oui dans 10 ans, quand on fera le compte, il y aura bien 50-100 jeux AAA (ou pas) qui exploiteront correctement ces features, dont on espère cyberpunk 2077.
Mais dans 10 semaines quand les amperes seront toutes dispo sur le marché, on en aura toujours 2 ou 3 ou 5 d'ici 2021 :o .
 
.


Euh, je ne voudrais pas te contredire mais le ray tracing n'est pas une techno propriétaire mais un standard sur Pc depuis environ 2 ans avec DxRT et VulkanRT. Ce n'est pas parce qu'AMD n'a pas proposé encore de cartes utilisant ces apis que c'est une techno propriétaire. AMD est simplement à la bourre.
 
euh bis repetita, je ne voudrais pas te contraire mais il y a déjà 5 jeux qui gèrent le dlss2 et pas 1: Control, Mechwarrior 5, Death stranding, deliver us the moon, wolfensteing youngblood. Bientôt Cyberpunk2077 aussi. Par contre, là où tu as raison, c'est que le DLSS est une techno propriétaire mais normal vu que basé sur les tensor cores que seul nvidia possède.
 
euh bis bis repetita, Cyberpunk2077 utilisera le ray tracing et le dlss2.0, c'est déjà officiel depuis quelques semaines.
 
 

Citation :

T'auras même pas 10 jeux AAA DLSS/RTX corrects en 10 ans.


T'aurais enlevé le 0, cela aurait été crédible.

Message cité 1 fois
Message édité par obduction le 15-08-2020 à 10:14:38
n°10803147
raistlin5
Posté le 15-08-2020 à 10:36:33  profilanswer
 

Vous nous oubliez :)
Les Infos 3D...
nous on trouve ça cool le Raytracing sur une CG, on trouve ça même carrément cool :)


---------------
Infographiste 3D : www.vincent-grieu.com
n°10803150
gallean
Posté le 15-08-2020 à 10:39:07  profilanswer
 

j'aimerais bien que leadtek revienne sur le marché européen, mais bon je rêve un peu ^^


---------------
LSD for Éthiopie BIOS en 1.2.0.7 pour les mobo MSI
n°10803165
Rayaki
Posté le 15-08-2020 à 11:41:12  profilanswer
 

Pour rebondir sur la gamme "90", je me souviens pourtant avoir eu une bi-gpu mais reconnue comme une seule par windows, absolument pas comme un SLI :/


---------------
Clan Torysss.
n°10803166
obduction
Posté le 15-08-2020 à 11:41:40  profilanswer
 

raistlin5 a écrit :

Vous nous oubliez :)
Les Infos 3D...
nous on trouve ça cool le Raytracing sur une CG, on trouve ça même carrément cool :)


Le raytracing c'est plus que cool, c'est à peu près la même révolution graphique que l'arrivée des cartes 3d en 1995. C'est génial au final.

n°10803177
sardhaukar
Posté le 15-08-2020 à 11:54:10  profilanswer
 

obduction a écrit :


Le raytracing c'est plus que cool, c'est à peu près la même révolution graphique que l'arrivée des cartes 3d en 1995. C'est génial au final.


 
Tu trouves ?
Moi j'ai l'impression que pendant longtemps ce sera par petites touches ça et là, genre des reflets, qq éclairages. Clairement pas une claque graphique.
 
En 95 la 3D ça a été la mega baffe !

Message cité 2 fois
Message édité par sardhaukar le 15-08-2020 à 11:54:35
n°10803179
Rayaki
Posté le 15-08-2020 à 12:00:53  profilanswer
 

ça peut avoir un intérêt sur la gestion des ombres, notamment dans les jeux où on voit bien la chute des FPS quand on augmente la qualité avec un curseur.
 
Maintenant oui il ne faut pas non plus que ca devienne Miroir Land où même une tache de sang affiche des reflets...


Message édité par Rayaki le 15-08-2020 à 12:01:50

---------------
Clan Torysss.
n°10803181
ben shinob​i
Posté le 15-08-2020 à 12:04:44  profilanswer
 

obduction a écrit :


Euh, je ne voudrais pas te contredire mais le ray tracing n'est pas une techno propriétaire mais un standard sur Pc depuis environ 2 ans avec DxRT et VulkanRT..


Le "RTX" c'est à dire le ray tracing via tensor cores,  si tu préfères. VulkanRT c'est open source mais pas DxRT sous dx12... Aucun jeu n'utilise à ce jour VulkanRT pour le ray tracing avec les turing (à ma connaissance).
 
Ce n'est pas le ray tracing le souci. Sur que c'est l'avenir, mais assez lointain pour du gaming mainstream AAA :o . Pour l'instant on a de l'hybridation foireuse gourmande en ressources qui fait chuter le framerate.
 

Message cité 1 fois
Message édité par ben shinobi le 15-08-2020 à 12:11:13
n°10803194
raistlin5
Posté le 15-08-2020 à 12:26:11  profilanswer
 

obduction a écrit :


Le raytracing c'est plus que cool, c'est à peu près la même révolution graphique que l'arrivée des cartes 3d en 1995. C'est génial au final.


 
 
Mais Carrément!
 
On ne se rend pas compte de la révolution que c'est, car la plupart des utilisateurs sont des joueurs.
Mais en terme d'info 3D ça ouvre un champ et une évolution à la fois effrayante pour la 3D précalculée, qui voit ici sa fin annoncée à moyens/long terme.
Et une instantanéitée qui nous ravira tous... sur
éclairage
reflets
global illumination
réfraction
caustiques...
 
Des effets "simulés" ou bidouillés jusqu'à présent... Mais qui vont pouvoir être visualisés rapidement...
 
Vraiment c'est une avancée spectaculaire.
Moi qui bosse en précalculé ça sonne le début de la fin de ma spécialité, mais c'est la vie.
il faut s'adapter.
 
Pour le jeu c'est un plus visuel indéniable, mais qui n'est pas perçu directement, c'est fondu dans la masse.
Un peu comme les modules Phys-x l'ont été...
Certains trouvent cela accessoire, mais au final on sait que c'est un module qui se standardise au fil du temps!
 
L'informatique a cela de passionnant et d'effrayant...
On est capable de voir les progrès dans le temps...
Moi qui ai commencé en 93... C'est dingue franchement!
 
donc j'attends la RTX 3080 aussi!
Et la 3090 pour sa quantité de Vram surtout qui semble pour une fois ambitieuse...


---------------
Infographiste 3D : www.vincent-grieu.com
n°10803210
Activation
21:9 kill Surround Gaming
Posté le 15-08-2020 à 13:15:15  profilanswer
 

Rappel que DXR c'est du raytracing "hybride"
Bref ça s'appui sur la rasterisation
 
Du "raytracing à l'ancienne" faut pas l escompter avec 1 simple gpu avant belle lurette, 15ans ? ... en tout cas j' crois pas avant une approches MCM multigpu  
Mais à t-on vraiment besoin de "raytracing à l'ancienne" pour du temps reel... Non
 
Maintenant je persiste à dire que DXR a mit la charru avant les boeufs
 
Pour appliquer du DXR sur des choses généré de façon procédural
On a pas trop de soucis à se faire (des masse nuageuse, des etendues d'eau/ocean, de la vegetation genre herbe... Meme des arbres bien que malheuresement peu de jeu utilise des arbres généré de façon procédural
 
Par contre pour tout ce qui est "structure humaine" (véhicule, maison, immeuble, lampadaire, chaise, pont... ) c'est 99 %  du temps réalisé manuellement
(Même si il existe déjà des moteurs pour générer des maisons de façon procédural mais plutôt limité au secteur professionnel, pour des analyse de flux de trafic urbain)
 
Ces dit modèles "manuel" sont loin d'être parfait à ce jour dans les jeux video, et sont bien souvent des versions downgradé de modèle plus élaboré utilisé par exemple dans le secteur publicitaire
 
Le DXR ne fera qu'amplifier leurs défauts
 
Donc pour moi faut déjà passer par une étape indispensable qu'est le mesh shading
+ l'acceleration de l'utilisation du procédural
Et là oui on pourra dans des jeux être plus serein pour du DXR
 
La charge en temps homme pour utiliser DXR, c'est pas la gestion des raysons lui même
C'est d'enlever toute les "crasses" qui jusqu'à là était laissé sur tout les modèles 3D utilisé dans un jeu, trop souvent masqué à coup de blur
 
Je me rappel d un certain jeu de bagnole réputé en son temps. Quand tu desactivais le blur dans les options tu te rendait compte que les textures était mal raccordé à chaque face de l'objet, idem des polygones .... Va appliquer du RT là dessus ça serait à se tordre de rire
Idem pour caricaturer à l'extreme tu va pas appliquer du RT sur un arbre en trompe l'oeil simple 2D (sou enez vous tout ces jeux ou les forets sont des "photo" d'arbres affiché verticalement ou tu ne fait que changer l' orientation de chacun pour aider au trompe l'oeil
 
Bref pour moi qu on s'attèle déjà au mesh shading dans les jeux... Après on pourra causer raytracing
 
Qqun qui bosse dans le secteur de la publicité aura pas le même discours
Car pour pondre des pub 100 %  dépourvu de gameplay pour la promotion d'un jzu... Il aura des modèles détaillé facille 10x plus détaillé
 
Là ou dans un jeu qqchose va être modélisé avec ptet 1500 polygones... Dans le secteur "pub" le gars va bosser avec un modèles de 20000 polygones
 
Dans le secteur pub ils vont avoir 8mois pour faire un spot/trailer de 3mn dans un "couloir" (tout ce qui est hors champs camera ne sera pas modelisé)
Pour pondre un jeu ils vont avoir 4ans pour pondre un openworld non couloir
 
Bref il faut que les devs de jeu puisse recourir à des modèle 3D basé sur du Mesh, et plus recours au procedural
 
Idem pour les textures procedurales
Bref la méthodolie est à revoir, et ci peu on pour le moment basculé de méthodologie
Même si dans certains jeux y a su au moins des avancés sur le procédural
Mais maintenant faut passer la vitesse superieure et le GENERALISER
 
Le minimum technologique au niveau hard pour cela arrive dans qqmois
Cela devient un standard, et non plus une exception d'une élite fortuné
 
Quant aux éditeurs qui veulent te faire croire que ça demande plus de boulot pour augmenter les prix, c'est en grande partie faux.
des modèles de meilleurs qualité existe depuis bien longtemps justement pour des secteurs tel "pub"
quand au mesh shading, y a déjà des outils pour passer au nouveau standards.
Idem ça fait des années qui les devs ne reinvente pas la roue niveau modèles 3D, et constitut des bibliothèques entières de modèles voir recours à des modèles produits hors leur propre studio proposé à l'achat sous licence
 
un moddeur va pas remodéliser une chaise de 0 à chaque nouveau jeu, faut arrêter la blague, à chaque jeu finit d'être dev, il fait pas un formatage de son HDD
déjà car les modèles 3D serviront à l'épisode suivant
et des modèles selon la thématique serviront dans d'autres jeux (c'est sur que tu va pas reutiliser un Bus urbain dans un jeu medieval :o )


Message édité par Activation le 15-08-2020 à 13:32:45
n°10803219
obduction
Posté le 15-08-2020 à 13:42:01  profilanswer
 

sardhaukar a écrit :


 
Tu trouves ?
Moi j'ai l'impression que pendant longtemps ce sera par petites touches ça et là, genre des reflets, qq éclairages. Clairement pas une claque graphique.


Oui je trouve.
 
Ce sera pas petite touche vu que le ray tracing est tellement exigeant
 

Citation :


En 95 la 3D ça a été la mega baffe !


En 95 sortait uniquement le nv1 et la 3d blaster vlb.
 
Panzer dragoon en accéléré sur nv1, c'était pas non plus génial. La 3d blaster vlb, c'était bien pour les possesseurs de 486 et les quelques jeux gérant comme High Octane et Flight Unlimited mais c'était pas non plus les graphismes d'aujourd'hui. 1er semestre 96, tu avais la s3 virge et la matrox mystique, 2 cartes connues pour avoir été très mauvaise sur la 3d accélérée.
Cela restait que des petites couches ajoutées comme du bilnear filtering et 65000 couleurs versus 256.
 
Il a fallut attendre fin 96/début 97 avec la voodoo 1 pour une envolée mais ça restait des petites touches. Il suffit de comparer la 3d de pod 3dfx et la 3d de Control. On n'est pas passé directement de pod software à control. Il a fallut attendre 22-23 ans. La baffe était là à l'époque mais si on avait eu pod software et à la même époque control accélérée 3d grace aux cartes 3d, la baffe aurait 1000 fois plus immense.
 
Aujourd'hui tu as moins cette baffe avec le ray tracing car la rasterisation est arrivé à un haut niveau grace à la puissance des machines, , puissance que tu n'avais pas pour le software en 96 et que la rasterisation a fait des progrès avec des techniques système D pour émuler la lumière.  
 
Cependant, la baffe est bien là quand tu regardes control avec ray tracing et control sans ray tracing niveau gestion de la lumière et des ombres.
 
Alors c'est certain que c'est ça saute moins aux yeux qu'à l'époque car on était qu'au début de la 3D et une simple amélioration comme du lens flare suffisait à sublimer le graphisme mais cela reste une révolution pour tout ce qui touche à la gestion de la lumière (ombres, reflets, luminosité) vu qu'on a enfin une gestion identique à la réalité. Cette révolution sera certes plus progressive mais elle est en marche et elle sera aussi importante pour le rendu d'une scène au final que ce qu'on a eu avec la 3D.

n°10803223
sardhaukar
Posté le 15-08-2020 à 13:47:14  profilanswer
 

Heu non la PS1 est sortie en septembre 95 a 2099 Frs et ça a été la mega baffe direct.  :love:
Le PC a trainé derrière pendant 2 ans mais on se l'est prise bien violemment la révolution 3D.
 
Et le RT ? Bah j'attends de voir.

Message cité 1 fois
Message édité par sardhaukar le 15-08-2020 à 13:49:09
n°10803226
obduction
Posté le 15-08-2020 à 13:59:12  profilanswer
 

ben shinobi a écrit :


Le "RTX" c'est à dire le ray tracing via tensor cores,  si tu préfères. VulkanRT c'est open source mais pas DxRT sous dx12... Aucun jeu n'utilise à ce jour VulkanRT pour le ray tracing avec les turing (à ma connaissance).

 




Le RTxn, c'est juste une implémentation mais tu auras une implémentation proprio avec rdna2. L'implémentation, on s'en fiche un peu car c'est pas ça qui fait la compatibilité vu que quelque soit l'implémentation au sein du chip 3d, tant que ça gère les apis standardisés comme dXRT et VulkanRT,

 

DXRT n'est pas open source mais comme tous les directx. VulkanRT n'est pas utilisé mais c'est comme Vulkan, peu de jeux l'utilisent face à dx12 ou opengl, très peu de jeux l'ont utilisé comparé à directx depuis que directx et opengl existent.
Doom eternal a été annoncé avec le support du ray tracing donc comme doom eternal utilise vulkan, il utilisera vulkan RT quand le patch ajoutant le ray tracing sortira.

 
Citation :

Ce n'est pas le ray tracing le souci. Sur que c'est l'avenir, mais assez lointain pour du gaming mainstream AAA :o .


Cela ne veut pas dire grand chose car on a la même chose pour tout. Regarde ce qu'on peut faire avec les cartes 3d d'aujourd'hui versus les cartes 3d de 96. On peut dire la même chose.
Il a fallut plus de 20 ans pour avoir les graphismes d'aujourd'hui donc ça s'est pas fait en un jour. Tu as encore pleins de jeux aujourd'hui qui ont des textures basses définitions, des objets censées être ronds qui sont encore taillés à la serpe, des jeux full 3D contenant encore des sprites, du clipping, des lods foireux.
Bref, cela évolue sans cesse.

 

Le ray tracing c'est la même chose. On n'a que la 1ère géénration comme on a eu la 1ère génération en 95 de cartes 3d. Faut forcément pas s'attendre à avoir des cartes capables de faire quelque chose de parfaiot comme on n'a toujours pas 25 ans après des cartes capables de reproduire un jeu avec la qualité graphique et le même niveau de détail et finition que dans la réalité.

ben shinobi a écrit :


Pour l'instant on a de l'hybridation foireuse gourmande en ressources qui fait chuter le framerate.[/quote]
Je ne vois pas ce qui est foireux.
Gourmand? Normal, le ray tracing est gourmand et même ultra gourmand comme technique. Quand tu as des films qui mettent jusqu'à 10h pour calculer ne serait-ce qu'une image en ray tracing, en temps réel où tu dois avoir au moins 30 par seconde si ce n'est 60 de nos jours, tu peux pas demander la lune tout de suite.

 

Comme 25 ans après, augmenter le niveau graphique d'un jeu fait baisser les perfs d'une carte, forcément le ray tracing fera chuter les perfs.

 

Cela n'a rien de foireux, c'est même tout à fait normal et encore plus quand on a que la 1ère géné de cartes supportant le ray tracing. Avant que l'ajout du ray tracing ait un cout négligeable sur les perfs un peu comme mettre de l'aniso 16 x de nos jours, cela va prendre 15-20 ans. L'aniso 16x, avant qu'il n'ait qu'un impact négligeable sur les perfs, il a fallu attendre plusieurs années et pourtant c'est loin d'être une techno gourmande comparé au ray tracing. On ne peut décemment pas demander aux constructeurs de faire des miracles impossibles.

 

Là s'ajoute aussi le problème des gens qui veulent combiner la 4K avec la ray tracing sans aucune baisse de performance mais c'est impossible vu que même sans ray tracing, rien qu'afficher en 4K fait chuter largement les perfs et même la 2080ti est parfois limite dans certains jeux sans ray tracing en 4K.

 


[quotemsg=10803223,3749,759834]Heu non la PS1 est sortie en septembre 95 a 2099 Frs et ça a été la mega baffe direct.  :love:
Le PC a trainé derrière pendant 2 ans mais on se l'est prise bien violemment la révolution 3D.
.


Spetmbre 95 en europe mais fin 94 au japon.
Méga baffe? Bof bof si on avait un pentium. Par contre, oui si on avait qu'un 486, un amiga 500/1200 ou simplement une snes, CD32, Jaguar ou megadrive
A part le tout début avec ridge racer si on prend la sortie japon en 94, je dis oui car en 94, on avait loin de ce niveau mais dès  95, le Pc a vite montré sa supériorité même sans carte 3d.
Si on venait de la snes, oui là c'est compréhensible la mega baffe car là on avait un énorme saut qualitatif.
La 3DO m'a plus fait office de baffe graphique à l'époque que la playstation venant du Pc. Le premier Fifa sur 3DO en 94 en 3d texturé là ou sur Pc et toutes les autres consoles c'était de la bête 3d iso avec sprite m'a fait baver pas mal. Même nfs 1 sorti début 95 sur 3DO faisait rêver.

 


Suffit de regarder need fors speed 1 en octobre 95 sur PC qui enfonçait la version playstation ne serait-ce que grâce au 640x480 et c'est en octobre 1995 sur un simple pentium 90 soit un mois après la sortie de la play 1 en europe. D'ailleurs la sortie de ce jeu a été l'arrêt de mon envie d'avoir une playstation tant la version pc enfonçait la version playsation.
Le problème de la play 1 face au pc, c'est que Sony l'a sorti en europe beaucoup trop tard alors qu'en 94, ça aurait enterré la ludoth_èque Pc niveau graphisme facilement. En 95, si tu avais qu'un 486, ça enterrait mais avec un pentium ça ne l'enterrait déjà plus voir faisait moins bien malgré le fait que la ps1 avait des puces d'accélération 3D alors que cela n'est arrivé qu'au compte goutte sur Pc qu'en fin 95 et vraiment en masse fin 96/début 97 avec la voodoo1.

 

En fait, les seules choses qui ont manqué au pc entre la sortie de la play 1 et l'arrivée des cartes 3d, c'est les portages ratés de jeux consoles comme wipeout 1 (on en a encore aujourd'hui, suffit de voir Horizon) ou des portages inférieurs simplement pour mettre en avant la version console comme destruction derby ou tunnel b1, se coltiner du 256couleurs là où on avait 16 millions sur ps1 et parfois des cinématiques de moins bonne qualité sur PC.

 

Quake 1 en software mi 96 en 640x480 sur un p166, ça enfonçait visuellement toute la ludothèque ps1 et je ne parle même pas de la version accélérée 3d.  

 

Le Pc a largué la play 1 aux antipodes dès mi 96 soit un an après l'arrivée de la play en europe mais il avait déjà pris l'avance dès 95.


Message édité par obduction le 15-08-2020 à 14:22:31
n°10803252
raistlin5
Posté le 15-08-2020 à 15:01:41  profilanswer
 

L'évolution demande du temps.
La préparation des jeux et du contenu temps réel, la création procédurale de contenu et de mapping sont encore deux choses distinctes.
Là on parle d'affichage pas de préparation et de props...
 
Évidemment que les props servent d'un jeu à l'autre... c'est comme cela qu'on enrichie une bibliothèque... Mais les manières de faire les objets dépendent des contraintes des éditeurs et des moteurs employés... Donc... pas de l'affichage et du Raytracing.
 
En clair puisque tu parles de procédural, d'ailleurs, ce qui est en général problématique avec ce qui est polygonal... toutes les projections dépendent des développés UVW de chaque objet, de l'échelle et du ratio...
Avec du raytracing on peut déjà s'affranchir de ça... c'est justement une porte à du procédural...
 
Aprés... sur de l'herbe procédural... que dire... tu le soulignes aussi... c'est tout de même bien rare... en général on préfère des polys instanciés a foison...
 
 
En fait, je dirai que le plus intelligent serait de pouvoir limiter le raytracing a des particularités...
Les lumières volumétriques, les réflections, les réfractions et la Gi.
Même la projection des ombres n'a pas besoin du raytracing... les shadowmaps suffisent en général puisqu'on mélange des maps avec les alphas, qu'on se bat sur l'aliasing et les tailles de textures, les meshes sont en polygones...
On a pas de cheveux à projeter (pas encore)...
Alors...
Je trouve ça cool...
CHer... évidemment
Mais cool!


---------------
Infographiste 3D : www.vincent-grieu.com
n°10803267
havoc_28
Posté le 15-08-2020 à 15:52:11  profilanswer
 

sardhaukar a écrit :


 
Tu trouves ?
Moi j'ai l'impression que pendant longtemps ce sera par petites touches ça et là, genre des reflets, qq éclairages. Clairement pas une claque graphique.
 
En 95 la 3D ça a été la mega baffe !


 
Non mais tu as raison, d'un point du joueur, ça va pas révolutionner les graphismes du jours au lendemain, loin de là. Oui c'est une révolution graphique, sauf que visuellement ça sera pas la même chose que le passage de la 2D/3D, alors que c'est le même genre de révolution technique.  
 
Petit à petit avec les années, quand le matériel gagnera en puissance tout comme les devs auront appris à intégrer au mieux le RT, on pourra commencer à voir des avancées vraiment marquantes niveau graphismes, mais pour l'instant à part des petits plus graphique par ci par là, pour le joueur le RT ça apportera pas grand chose au final (après c'est plus ou moins subjectif).
 
Après on est sur le topique Ampère, pas juste Geforce, même si c'est sur ce forum ce qui intéresse le plus de gens, tu as aussi des gens avec une utilisation Pro ou le RT va bien être oui une révolution ou juste des gens qui aiment l'aspect technique de la chose, mais c'est sûr pour le joueur c'est pas Ampère ou RDNA 2 qui vont réellement révolutionner l'aspect de ses jeux vidéos, ça va peut être les améliorer un peu sur certains points : les ombres, réflexions et éclairage globales (parfois un ou deux, voir les trois).  
 
Mais encore une fois, pour le joueur, c'est pas la révolution, quand d'un point joueur voit des gens qui s'enthousiasmant sur le RT, y a de quoi rester un peu circonspect, "c'est ça ta révolution ? Tu me rappelles dans 5/7 ans quand on commencera à réellement voir une influence marquée dans les jeux :o", bref je caricature, mais on peut très bien réagir comme ça oui :D.  
 
Bref pour certains le RT c'est super, mais oui pour les joueurs c'est clairement pas la révolution, c'est juste le tout début d'un changement profond qui ne portera réellement ses fruits que dans quelques années (voir un peu plus).


Message édité par havoc_28 le 15-08-2020 à 16:01:58
n°10803279
ppn7
Posté le 15-08-2020 à 16:30:16  profilanswer
 

Sinon y a pas des rumeurs croustillantes ce week-end ?

n°10803282
AllenMadis​on
Posté le 15-08-2020 à 16:44:39  profilanswer
 

Nan.

 

Bon pour ceux qui ont reçu le fox spirit y'en a qui l'ont fait passer a 120hz ou plus ? :o

 

J'avais vu qq part qu'il y en avait qq uns sur ce topic mébon


Message édité par AllenMadison le 15-08-2020 à 16:45:10

---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10803306
Tigrou
Sans accroc
Posté le 15-08-2020 à 18:11:55  profilanswer
 

sardhaukar a écrit :

Heu non la PS1 est sortie en septembre 95 a 2099 Frs et ça a été la mega baffe direct.  :love:

Je me rappelle encore... J'avais laissé tomber les JV et quand le frangin en a acheté une c'est ce qui m'a fait y revenir (la trouadé, toussa... tout ce dont je rêvais avant et qui n'existait que dans mes rêves) [:guitar2]


---------------
Feedback - Stacy's mom
n°10803318
HashKah
It’s dangerous to go alone !
Posté le 15-08-2020 à 19:01:39  profilanswer
 

ben shinobi a écrit :

   [:trollol]  
 
sérieux? t'es un vrp déguisé en fanboy ou l'inverse?... :o
 
 
DLSS 2.0 est bien, mais trop peu de jeux, genre 1 (control) en tire(nt) partie. Le ray tracing :  on est dans les 2 ou 3 jeux pour lesquels ça apporte un petit plus pas ouf...
 
A l'heure où on l'on discute d'Ampere, on ne peut que craindre la totale esbrouffe sur ces technologies propriétaires.
 
Oui dans 10 ans, quand on fera le compte, il y aura bien 50-100 jeux AAA (ou pas) qui exploiteront correctement ces features, dont on espère cyberpunk 2077.
Mais dans 10 semaines quand les amperes seront toutes dispo sur le marché, on en aura toujours 2 ou 3 ou 5 d'ici 2021 :o .
 
Suffit (je n'y crois pas vraiment mais sait on jamais) que la gestion du ray tracing et features idoines made in rdna2 consoleuse et pc déchire sa race en open source pour que ces technos libre de droit gagnent le marché dse éditeurs de jeux et paf le chien...
 
T'auras même pas 10 jeux AAA DLSS/RTX corrects en 10 ans.
 
Limite j'espère qu'il y aura des amperes sans tensor cores à l'instar des turing en milieu de gamme pour rattraper le coup, et dans un second temps des tensor cores qui soient compatibles open source avec rdna2,3 etc... et autres Xe bidule d'intel pour les générations à venir.
 
sinon on va droit dans le mur (à l'instar 3d vision, physx lelelelel etc...) avec des prix toujours plus hauts pour des features toujours plus confidentielles.


 
Pourquoi faut-il toujours traiter quelqu'un de quelque chose ? Je t'ai offensé d'une quelconque manière ?
 
J'ai exprimé tout mon enthousiasme pour le DLSS qui est une technologie formidable et je mise sur sa généralisation croissante dans les jeux qui vont sortir.
 
On prend les paris ? Tous les gros jeux qui vont sortir dans les prochains mois et les prochaines années intégreront à minima le DLSS parce que c'est un moyen formidable de combiner haute résolution et haut framerate sans sacrifier sur la qualité graphique. Il faudrait être fou pour s'en passer au moment où, à tort ou à raison, le discours des consoliers c'est "la 4k c'est génial les djeunz"!  
 
On a vu que nous sommes encore à des encablures d'avoir une carte capables de tenir la 4k native, les 60fps de base et les réglages high/ultra sans les jeux récents. Je ne parle même pas de la possibilité d'arriver à des cartes qui auront suffisamment d'avance pour qu'on se dise qu'en 4k avant d'être dépassés par un jeu il faudra quelques années comme actuellement avec le 1080p.
 
AMD finira par sortir l'équivalent du DLSS parce que le deep learning c'est l'avenir tout simplement (on peut même parler des anciens jeux, on a vu les résultats via ESRGAN sur certains jeux comme FF9, c'est-à-dire bluffant).
 
Je ne suis pas fanboy Nvidia, je constate simplement qu'AMD a accumulé un retard conséquent sur les GPU et que toutes leurs promesses ont été des écrans de fumé et se sont soldées par des déceptions, d'où Nvidia qui augmente sans vergogne ses tarifs parce qu'ils savent qu'en face y'a rien.  
 
Ça prendra du temps mais ces technologies propriétaires vont se démocratiser, tout comme Gsync est entrain de le faire.
C'était un truc qu'on trouvait que les écrans haut de gamme y'a encore 2 ans, aujourd'hui j'ai Freesync et Gsync sur ma TV !!!!! Encore une formidable moyen de palier l'augmentation de résolution et la fluctuation du framerate.
 
Donc oui je favorise l'achat d'une carte Nvidia Haut de gamme parce que je sais qu'avec le DLSS et le Gsync de ma TV, je suis peinard sur 5 ans. Sans compter que c'est pas demain qu'on refera un bond comme ça sur la finesse de gravure.
 

n°10803319
obduction
Posté le 15-08-2020 à 19:13:45  profilanswer
 

Tigrou a écrit :

Je me rappelle encore... J'avais laissé tomber les JV et quand le frangin en a acheté une c'est ce qui m'a fait y revenir (la trouadé, toussa... tout ce dont je rêvais avant et qui n'existait que dans mes rêves) [:guitar2]


T'avais pas de Pc à l'époque?

n°10803321
valiran
Posté le 15-08-2020 à 19:40:05  profilanswer
 

"On n'a que la 1ère géénration comme on a eu la 1ère génération en 95 de cartes 3d. Faut forcément pas s'attendre à avoir des cartes capables de faire quelque chose de parfaiot"
 
Surtout que le RT est intégré dans le GPU, ce n'est pas une carte accélératrice.
Ce que je veux dire par là, c'est que nvidia ou amd (ou encore Intel) ne font pas un focus à 100% là dessus, là où en 95 ils ne faisaient que ça!


---------------
Mes ventes:
n°10803323
havoc_28
Posté le 15-08-2020 à 20:02:44  profilanswer
 

HashKah a écrit :

On prend les paris ? Tous les gros jeux qui vont sortir dans les prochains mois et les prochaines années intégreront à minima le DLSS parce que c'est un moyen formidable de combiner haute résolution et haut framerate sans sacrifier sur la qualité graphique. Il faudrait être fou pour s'en passer au moment où, à tort ou à raison, le discours des consoliers c'est "la 4k c'est génial les djeunz"!


 
Hum, le soucis c'est que la plus part des gros jeux, sont avant tout des jeux Multiplateforme, et les Futurs PS5 Xbox Series X utilisent des puces basés sur un SOC personnalisé Zen / 2 RDNA 2 qui ne supportent pas le DLSS, AMD s'y mettra tôt ou tard et peut être qu'on aura un équivalent coté consoles pour le refresh surement à mi vie de la génération qui vient, mais sauf surprise, le gros a été dit pour ce qui est des spécs des futurs consoles.  
 
Les DEVS ils vont avant tout coder les jeux pour PS5 / Xbox Series X etc, si y a des dévs qui intègrent le DLSS ça sera à leurs bon vouloir, donc une adoption massive, hum rien n'est dit qu'avec Ampère la tendance s'accélère ... et on pourrait très bien continuer avec le rythme actuel.
 

HashKah a écrit :

Ça prendra du temps mais ces technologies propriétaires vont se démocratiser, tout comme Gsync est entrain de le faire.


 
C'est plutôt Adaptive-Sync du consortium VESA qui se démocratise et généralise, avec la multiplication des écrans dit "Compatible GSync", qui n'intègre pas la puce des écran Gsync classique. L'adpative-sync qui est aussi compatible Freesync vu que c'est AMD qui avait proposé un standard libre et ouvert au consortium VESA. Nvidia a fini par plier et rendre ses geforces compatible avec l'adpatative-sync et par la même occasion pousser les constructeurs d'écrans à mettre en avant le logo "Compatible Gsync", histoire de surfer sur la vague des écrans adaptative-sync.

Message cité 1 fois
Message édité par havoc_28 le 15-08-2020 à 20:29:52
n°10803333
HashKah
It’s dangerous to go alone !
Posté le 15-08-2020 à 20:52:02  profilanswer
 

havoc_28 a écrit :


 
Hum, le soucis c'est que la plus part des gros jeux, sont avant tout des jeux Multiplateforme, et les Futurs PS5 Xbox Series X utilisent des puces basés sur un SOC personnalisé Zen / 2 RDNA 2 qui ne supportent pas le DLSS, AMD s'y mettra tôt ou tard et peut être qu'on aura un équivalent coté consoles pour le refresh surement à mi vie de la génération qui vient, mais sauf surprise, le gros a été dit pour ce qui est des spécs des futurs consoles.  
 
Les DEVS ils vont avant tout coder les jeux pour PS5 / Xbox Series X etc, si y a des dévs qui intègrent le DLSS ça sera à leurs bon vouloir, donc une adoption massive, hum rien n'est dit qu'avec Ampère la tendance s'accélère ... et on pourrait très bien continuer avec le rythme actuel.
 


 
J'ai expliqué que le DLSS 3.0 serait,à priori conçu pour être facilement mis en,place sur tous les jeux utilisant le Temporal aliasing. Il semblerait que ça ne soit pas automatique mais que les efforts à faire par les développeurs soient très minimes et que ça ne représente quasiment rien en temps de développement.
 
Donc un jeu qui sortira sur PC, pourra, à moindre frais, et via un patch, intégrer le support du DLSS 3.0, même s'il est développé de base sur consoles RDNA2 ou en collaboration avec AMD.
 
Pourquoi les développeurs se priveraient d'intégrer l'option à leurs portages PC, si ça ne leur coûte rien et permet de gagner en performances sans trop avoir à se casser le cul en optimisation ? Cela serait tout bonnement idiot.
 
Si les promesses quant au DLSS 3.0 se vérifient, ça devrait trésor viré se généraliser d'autant que sur la plupart des jeux auxquels j'ai eu l'occasion de jouer ces deniers temps, j'ai plus vu le logo de collaboration avec Nvidia que celui d'AMD.
 
Cyberpunk n'a pas choisi RDNA2 et AMD, ils ont opté pour toutes les technologies propriétaires de Nvidia parce qu'elles sont en avance sur la concurrence bien que souffrant du défaut de ne pas être open source.
 
Et puis bon faut pas se voilà la face quant aux nouvelles consoles, on parle déjà de jeux en 30fps et quand on voit la gueule d'Halo Infinite ou Médium sur la Série X, on ne voit pas trop les 13 Tflops et les promesses de bond graphique.
 

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  93  94  95  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)