Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1428 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  13  14  15  ..  1878  1879  1880  1881  1882  1883
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10698369
Tigrou
Sans accroc
Posté le 09-02-2020 à 13:02:32  profilanswer
 

Reprise du message précédent :

ppn7 a écrit :

Ça serait drôle de voir ça. L’empire colonisateur et donneur de leçons qu’est l’occident devenir à la botte d’un autre en quelque sorte


Heu... ça dépend pour qui [:ula]


---------------
Feedback - Stacy's mom
mood
Publicité
Posté le 09-02-2020 à 13:02:32  profilanswer
 

n°10698502
marijuo
Posté le 09-02-2020 à 15:19:20  profilanswer
 

Toskilate a écrit :

J'ai actuellement une GTX 1080, je vais partir sur la 3080 ! Comme ça, je serais tranquille pour un petit moment. Les RTX 20 sont vraiment des tests pour le RT. (mon avis)

 
PicouzeMan a écrit :

Tout pareil, mais je sens venir la carte à 1000€.  :(

 

[:lardoncru]

 

+1 j'ai remplacé ma vieillissante 770 par une 1080 d'occase à 300 balles après avoir longuement hésité avec une 2070 pour laquelle il fallait minimum claquer 500€ à l'époque.
je me suis finalement dis qu'il valait mieux que je garde mes sous pour la prochaine gen.
Là je pense que Ampere sera un Turing bien aboutis au vu de specs qui circulent.
Après j'attends de voir en vrai mais je me dis que quitte a claquer 800 boule, je préfére le faire cette année dans une 3080 plutôt que de l'avoir fait y a un an dans une 2080....

 

L'idée sera de garder la carte a moins 4 ans je pense...

 


yorys a écrit :

 

Y'a pas comme une inversion là (1er post) ?

 

https://www.ginjfo.com/actualites/c [...] 4-20200120

 

Ampere GA103  60  3840  10/20GB G6  320-bit RTX 3080
Ampere GA104  48  3072  8/16GB G6  256-bit RTX 3070

 


 :??:

 


Effectivement j'ai aussi remarqué cela.

Message cité 1 fois
Message édité par marijuo le 09-02-2020 à 15:20:31

---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°10698541
ppn7
Posté le 09-02-2020 à 16:31:40  profilanswer
 

marijuo a écrit :


 
 [:lardoncru]  
 
+1 j'ai remplacé ma vieillissante 770 par une 1080 d'occase à 300 balles après avoir longuement hésité avec une 2070 pour laquelle il fallait minimum claquer 500€ à l'époque.
je me suis finalement dis qu'il valait mieux que je garde mes sous pour la prochaine gen.
Là je pense que Ampere sera un Turing bien aboutis au vu de specs qui circulent.
Après j'attends de voir en vrai mais je me dis que quitte a claquer 800 boule, je préfére le faire cette année dans une 3080 plutôt que de l'avoir fait y a un an dans une 2080....
 
L'idée sera de garder la carte a moins 4 ans je pense...
 
 


 

marijuo a écrit :


 
 
Effectivement j'ai aussi remarqué cela.


 
Je suis curieux de savoir si Nvidia va plutôt privilégier la montée en puissance côté RT core, ou les performances brutes en rastérisation.
Même si on pourrait s'attendre à une évolution égale de part et d'autres, je pense que nvidia va pas trop se forcer, et peut-être juste miser sur un peu plus de RT core en priorité.
Ca leur permettra de garder le lead sur l'image que renvoie le RT.

n°10698563
havoc_28
Posté le 09-02-2020 à 17:15:37  profilanswer
 

ppn7 a écrit :


 
Je suis curieux de savoir si Nvidia va plutôt privilégier la montée en puissance côté RT core, ou les performances brutes en rastérisation.
Même si on pourrait s'attendre à une évolution égale de part et d'autres, je pense que nvidia va pas trop se forcer, et peut-être juste miser sur un peu plus de RT core en priorité.
Ca leur permettra de garder le lead sur l'image que renvoie le RT.


 
On va quand même passer au 7 nm, donc oui ils vont surement améliorer les performances en RT, mais de là à en faire une priorité ... car bon le RT + rasterisation pour l'instant ça reste un marché de niche, et même si ce marché va surement progresser avec l'introduction des nouvelles consoles, ça va pas non plus se généraliser du jour au lendemain, de plus, on sait toujours pas quel sera le niveau de performance d'accélération du raytracing des nouvelles consoles, il n'est même pas dit qu'on arrive au niveau des RTX actuelles ... et c'est les consoles qui vont dicter le niveau de puissance en RayTracing requis pour la plus part des titres, y a des devs qui tireront parti d'un supplément à ce niveau offert par les RTX nouvelle génération (ou même actuel le cas échéant), mais ça sera pas le cas pour tous loin de là.  
 
Donc oui améliorer les performances en RT, mais ne surtout pas négliger les performances en rasterisation pour conserver leurs net avantage en performances de manière global et pas juste en RT.  
D'autre part, l'image du RT est pas non plus si étincelante que ça, pour certains oui, mais pour d'autres, la priorité c'est les performances brut, pas le RT.

Message cité 1 fois
Message édité par havoc_28 le 09-02-2020 à 17:25:55
n°10698579
ppn7
Posté le 09-02-2020 à 17:48:19  profilanswer
 

havoc_28 a écrit :


 
On va quand même passer au 7 nm, donc oui ils vont surement améliorer les performances en RT, mais de là à en faire une priorité ... car bon le RT + rasterisation pour l'instant ça reste un marché de niche, et même si ce marché va surement progresser avec l'introduction des nouvelles consoles, ça va pas non plus se généraliser du jour au lendemain, de plus, on sait toujours pas quel sera le niveau de performance d'accélération du raytracing des nouvelles consoles, il n'est même pas dit qu'on arrive au niveau des RTX actuelles ... et c'est les consoles qui vont dicter le niveau de puissance en RayTracing requis pour la plus part des titres, y a des devs qui tireront parti d'un supplément à ce niveau offert par les RTX nouvelle génération (ou même actuel le cas échéant), mais ça sera pas le cas pour tous loin de là.  
 
Donc oui améliorer les performances en RT, mais ne surtout pas négliger les performances en rasterisation pour conserver leurs net avantage en performances de manière global et pas juste en RT.  
D'autre part, l'image du RT est pas non plus si étincelante que ça, pour certains oui, mais pour d'autres, la priorité c'est les performances brut, pas le RT.


 
Justement, quand Nvidia a débarqué avec ses RTX, on a eu une histoire de monopole, pas de concurrence, une dictée des prix etc... Si AMD ne propose rien de sérieux, il y a des raisons de croire qu'Nvidia, par son avance technique, va continuer avec une légère augmentation des performances brutes, et insister sur le RT.  
C'est pas ce que je souhaite personnellement, beaucoup aimerait pouvoir jouer en 4K avec des cartes "moyenne gamme" mais c'est pas le gamer qui dicte les règles ici. Et pour les consoles, Phil Spencer l'a dit lui même, quand c'est plus le hardware qui suit, on va prioriser le software (VRS, etc...)
 
On est encore loin de voir des consoles nativement 4K sur tous les jeux. On obtient des très bon résultats avec des résolutions inférieures et les techniques de reconstruction d'image. Ce n'est pas au gamer de dire si le RT ou la rastérisation doivent rester une priorité, c'est aux développeurs de savoir ce qui est meilleur pour eux afin de proposer des expériences de jeux inédites et qualitatives.
 
Qu'un jeu tournent en 4K native ou une résolution inférieur upscalé, le joueur au final il s'en fout si le résultat est maitrisé. Il suffit de voir Horizon Zero Dawn ou les quelques autres jeux qui ne sont pas en 4K native.
C'est clairement vers là qu'il faudrait se tourner. Et je pense que le RT même s'il est partiel, pourrait avoir beaucoup d'avantage pour le développement des jeux.

n°10698602
havoc_28
Posté le 09-02-2020 à 18:29:15  profilanswer
 

ppn7 a écrit :


 
Justement, quand Nvidia a débarqué avec ses RTX, on a eu une histoire de monopole, pas de concurrence, une dictée des prix etc... Si AMD ne propose rien de sérieux, il y a des raisons de croire qu'Nvidia, par son avance technique, va continuer avec une légère augmentation des performances brutes, et insister sur le RT.  
C'est pas ce que je souhaite personnellement, beaucoup aimerait pouvoir jouer en 4K avec des cartes "moyenne gamme" mais c'est pas le gamer qui dicte les règles ici. Et pour les consoles, Phil Spencer l'a dit lui même, quand c'est plus le hardware qui suit, on va prioriser le software (VRS, etc...)
 
On est encore loin de voir des consoles nativement 4K sur tous les jeux. On obtient des très bon résultats avec des résolutions inférieures et les techniques de reconstruction d'image. Ce n'est pas au gamer de dire si le RT ou la rastérisation doivent rester une priorité, c'est aux développeurs de savoir ce qui est meilleur pour eux afin de proposer des expériences de jeux inédites et qualitatives.
 
Qu'un jeu tournent en 4K native ou une résolution inférieur upscalé, le joueur au final il s'en fout si le résultat est maitrisé. Il suffit de voir Horizon Zero Dawn ou les quelques autres jeux qui ne sont pas en 4K native.
C'est clairement vers là qu'il faudrait se tourner. Et je pense que le RT même s'il est partiel, pourrait avoir beaucoup d'avantage pour le développement des jeux.


 
On va peut être re-contextualiser la sortie des RTX,  car c'est pas vraiment le le RT qui a dicté le tarif, mais les performances de Turing de manière générale, les 2070 / 2080 (Ti) étaient intouchables (les deux dernières le sont encore, surtout la Ti et la version S de la 2080) , la Vega 64 était sensiblement plus lente que la 2070, et arrivait à peine environ aux performances d'une RTX 2060 en rastérisation tout en consommant nettement plus ...  Nvidia était donc totalement seule sur le haut de gamme et très haut de gamme.  
 
La radeon VII en février 2019, qui est une mesure d'impuissance, sortir une puce destinée au HPC et qui n'était pas prévue pour être commercialisé cette fois ci dans le secteur grand publique ...  
 
Ils vont surement continuer de dire regarder ont à améliorer le RT, mais ils se doivent à nouveau de continuer à progresser en rastérisation, la surprise du RayTracing, ont la eut avec Turing, maintenant c'est aquis, ça va être moins un effet nouveauté / argument commercial que ça ne l'a été avec Turing, nvidia doit obligatoirement soigner ses performances sur les deux plans et pas juste priorisé le RT, amélioration architecturale, profiter du 7 nm ... ils ont de quoi faire.  
 
Après pour le DLSS ... quand on voit que de simples filtres (freestyle et RIS) arrive à donner comme résultat ... et bon le DLSS et RT c'est pas tout à fait la même chose :o, le raytracing on se sert également des tensors cores pour gommer les zones de bruits introduits par le RayTracing, le DLSS on se sert UNIQUEMENT des tensor core.
Et tu parles aussi sur certains topique du VRS, qui est encore autre chose vs le DLSS, pour ce qui est de la 4k.

Message cité 1 fois
Message édité par havoc_28 le 09-02-2020 à 18:39:27
n°10698635
max022
Posté le 09-02-2020 à 19:05:43  profilanswer
 

Ben je suis assez d'accord que l'upscaling 4K est mieux que le 4K natif en raison de la perte de fps (et on est loin d'être en ultra) en 4K natif.  
Mais je me pose une question à ce sujet car ma TV fait de l'upscaling 4K. (du coup on s'en sort plus si la console et la TV font de l'upscaling 4K....)  
L'upscaling 4K TV est le même que l'upscaling console ?  
Car dans ce cas cela va me faire .... d'avoir une console 4K, autant avoir une console full HD/ultra/100 fps (ma TV est en 100 hertz)

n°10698710
obduction
Posté le 09-02-2020 à 20:30:08  profilanswer
 

max022 a écrit :

Si produire en Chine devient trop cher la production pourrait aussi se faire ailleurs ?  
Si tel est le cas, je suppose que c'est ce qui se passerait si les couts de production devienent trop élevé.  
 


Il faut avant construire les usines et la logistique qui permettront la production ailleurs. Cela ne se fait pas du jour au lendemain.

n°10698761
ppn7
Posté le 09-02-2020 à 21:50:42  profilanswer
 

havoc_28 a écrit :


 
On va peut être re-contextualiser la sortie des RTX,  car c'est pas vraiment le le RT qui a dicté le tarif, mais les performances de Turing de manière générale, les 2070 / 2080 (Ti) étaient intouchables (les deux dernières le sont encore, surtout la Ti et la version S de la 2080) , la Vega 64 était sensiblement plus lente que la 2070, et arrivait à peine environ aux performances d'une RTX 2060 en rastérisation tout en consommant nettement plus ...  Nvidia était donc totalement seule sur le haut de gamme et très haut de gamme.  
 
La radeon VII en février 2019, qui est une mesure d'impuissance, sortir une puce destinée au HPC et qui n'était pas prévue pour être commercialisé cette fois ci dans le secteur grand publique ...  
 
Ils vont surement continuer de dire regarder ont à améliorer le RT, mais ils se doivent à nouveau de continuer à progresser en rastérisation, la surprise du RayTracing, ont la eut avec Turing, maintenant c'est aquis, ça va être moins un effet nouveauté / argument commercial que ça ne l'a été avec Turing, nvidia doit obligatoirement soigner ses performances sur les deux plans et pas juste priorisé le RT, amélioration architecturale, profiter du 7 nm ... ils ont de quoi faire.  
 
Après pour le DLSS ... quand on voit que de simples filtres (freestyle et RIS) arrive à donner comme résultat ... et bon le DLSS et RT c'est pas tout à fait la même chose :o, le raytracing on se sert également des tensors cores pour gommer les zones de bruits introduits par le RayTracing, le DLSS on se sert UNIQUEMENT des tensor core.
Et tu parles aussi sur certains topique du VRS, qui est encore autre chose vs le DLSS, pour ce qui est de la 4k.


 
-Non ça n'est pas que le RT qui a dicté le prix, mais il y a une part de la R&D là-dedans qu'il faut rentabiliser. Certes si AMD avait eu des cartes équivalentes même sans RT, ça aurait peut-être été différent, et encore, mais là n'est pas la question. C'est surtout qu'Nvidia a un ou deux coups d'avance sur AMD rien qu'avec la différence de node actuellement.
 
-Ce que je veux dire, c'est qu'Nvidia ayant une avance sur différent point, ne sont en aucun cas obligé de fournir une prouesse technique très importante en terme d'évolution des performances de rasterisation. On pourrait imaginer que si Nvidia est capable à gamme égale de fournir +50%, ils brideraient volontairement à disons 25% (c'est des chiffres au pif que je prends) tout en assurant encore une évolution similaire des RT/Tensors Core. Ensuite en fonction des prochaines cartes Navi, refaire un coup de Super, ça a bien marché avec les RTX 20xx Super.
 
-Pour le DLSS, comme son nom l'indique, c'est un algorithme de calcul, peut-être pas assez précis encore, mais en regardant ce qu'il est capable de faire ici :  
https://youtu.be/58nJgAjLlD4?t=171 on peut voir qu'en plus d'avoir un meilleur effet sur l'aliasing, on gagne en performance (DLSS quality)
Ou encore sur la végétation dans Shadow of the tomb raider, le résultat est impressionnant. (désolé je n'arrive pas à trouver l'article et les images, il me semblait que c'était sur CDH mais je n'arrive pas à accéder au site actuellement)
Concernant RIS ou Freestyle, je suis dubitatif, alors certes ça réduit le flou, mais quid de l'augmentation de l'aliasing, car qui dit image sharpening, image plus nette, dit image faisant ressortir plus les défauts également.
Je n'ai cité le VRS que pas pur gain en performance, il n'a aucune vocation à embellir les images on est d'accord. Simplement il a été cité par Phil Spencer, je reprenais juste la liste des outils qui permettront à l'avenir de maintenir un certain niveau de performance avec la limitation du hardware.
 
J'aimerais vraiment qu'il y ait beaucoup plus de jeux tirant profit de ces techniques de reconstruction d'image. Ca permettrait d'avoir plus de possibilité pour exploiter le RT
Exemple tiré de la vidéo de DF : https://youtu.be/coOzBPGl-O8?t=733
Deliver as the moon en DLSS performance correspondant à peu près à du 540p, contre du 1080p, on y voit que du feu, aucune différence.

n°10698765
obduction
Posté le 09-02-2020 à 22:00:02  profilanswer
 

ppn7 a écrit :


 
-Non ça n'est pas que le RT qui a dicté le prix, mais il y a une part de la R&D là-dedans qu'il faut rentabiliser. Certes si AMD avait eu des cartes équivalentes même sans RT, ça aurait peut-être été différent, et encore, mais là n'est pas la question. C'est surtout qu'Nvidia a un ou deux coups d'avance sur AMD rien qu'avec la différence de node actuellement.


La R&D il faut la rentabiliser mais nvidia ne mettra jamais de R&D nécessitant de vendre des cartes très chères pour être rentabilisé. Les revenus d'nvidia montrent que ce n'est pas le cas.
Le RT a couté de l'argent en R&D mais comme tout le reste.
 
Les prix pratiqués par nvidia sont des prix du à l'absence de concurrence et surtout des prix que les clients acceptent de payer. Cela a toujours été comme ça. C'est même cette principale raison qui avait poussé nvidia à l'époque du geforce 2 et 3 à perpétuer des prix de 500€  pour les gpus suivants.
 

Citation :


-Ce que je veux dire, c'est qu'Nvidia ayant une avance sur différent point, ne sont en aucun cas obligé de fournir une prouesse technique très importante en terme d'évolution des performances de rasterisation. On pourrait imaginer que si Nvidia est capable à gamme égale de fournir +50%, ils brideraient volontairement à disons 25% (c'est des chiffres au pif que je prends) tout en assurant encore une évolution similaire des RT/Tensors Core. Ensuite en fonction des prochaines cartes Navi, refaire un coup de Super, ça a bien marché avec les RTX 20xx Super.


Cela fait un peu théorie du complot.
 
Nvidia n'a pas vraiment l'habitude de brider ses cartes dans le sens que tu le dis. Les RTX super ne sont pas sortit dans le sens que tu mets sur le bridage. D'ailleurs il n'y avait pas du tout de bridage dans les rtx d'avant super.
 

mood
Publicité
Posté le 09-02-2020 à 22:00:02  profilanswer
 

n°10698766
havoc_28
Posté le 09-02-2020 à 22:03:47  profilanswer
 

ppn7 a écrit :


 
-Non ça n'est pas que le RT qui a dicté le prix, mais il y a une part de la R&D là-dedans qu'il faut rentabiliser. Certes si AMD avait eu des cartes équivalentes même sans RT, ça aurait peut-être été différent, et encore, mais là n'est pas la question. C'est surtout qu'Nvidia a un ou deux coups d'avance sur AMD rien qu'avec la différence de node actuellement.


 
Les tensors core / RT core, ils sont la pour durer dans le temps, et la R&D initiale aurait pu très et peut être sera encore amorti au fil des générations suivantes.  
 

ppn7 a écrit :


-Ce que je veux dire, c'est qu'Nvidia ayant une avance sur différent point, ne sont en aucun cas obligé de fournir une prouesse technique très importante en terme d'évolution des performances de rasterisation. On pourrait imaginer que si Nvidia est capable à gamme égale de fournir +50%, ils brideraient volontairement à disons 25% (c'est des chiffres au pif que je prends) tout en assurant encore une évolution similaire des RT/Tensors Core. Ensuite en fonction des prochaines cartes Navi, refaire un coup de Super, ça a bien marché avec les RTX 20xx Super.


 
Super c'est juste un petit refresh, on n'a pas gagné 25 % :D. On a juste introduit une puce complète TU 104 pour la RTX 2080 S, la RTX 2070S ils ont pris un TU104 un peu plus castré, la RTX 2060 S un TU 106 moins castré que sur la RTX 2060 etc. Certains modèle ont eut droit à de la GDDR6 un peu plus rapide, mais c'est juste un classique rafraîchissement de gamme.  
 
Après oui ils peuvent ne pas sortir la puce la plus grosse d'emblée (tout comme pour Pascal), et attendre un peu pour décliner au fur et mesure leurs nouvelles gammes,  étaler les sorties coté 7 nm (car quid de l'encombrement des lignes de production à ce niveau).  
 
 

ppn7 a écrit :


-Pour le DLSS, comme son nom l'indique, c'est un algorithme de calcul, peut-être pas assez précis encore, mais en regardant ce qu'il est capable de faire ici :  
https://youtu.be/58nJgAjLlD4?t=171 on peut voir qu'en plus d'avoir un meilleur effet sur l'aliasing, on gagne en performance (DLSS quality)
Ou encore sur la végétation dans Shadow of the tomb raider, le résultat est impressionnant. (désolé je n'arrive pas à trouver l'article et les images, il me semblait que c'était sur CDH mais je n'arrive pas à accéder au site actuellement)
Concernant RIS ou Freestyle, je suis dubitatif, alors certes ça réduit le flou, mais quid de l'augmentation de l'aliasing, car qui dit image sharpening, image plus nette, dit image faisant ressortir plus les défauts également.
Je n'ai cité le VRS que pas pur gain en performance, il n'a aucune vocation à embellir les images on est d'accord. Simplement il a été cité par Phil Spencer, je reprenais juste la liste des outils qui permettront à l'avenir de maintenir un certain niveau de performance avec la limitation du hardware.
J'aimerais vraiment qu'il y ait beaucoup plus de jeux tirant profit de ces techniques de reconstruction d'image. Ca permettrait d'avoir plus de possibilité pour exploiter le RT
Exemple tiré de la vidéo de DF : https://youtu.be/coOzBPGl-O8?t=733
Deliver as the moon en DLSS performance correspondant à peu près à du 540p, contre du 1080p, on y voit que du feu, aucune différence.


 
Pour avoir tester personnellement le DLSS dans Shadow of the tomb raider, le résultat est plus ou moins inégale en fonction des zones, y a des textures qui deviennent un peu plus flous avec le DLSS que sans (en fonction des surfaces etc), genre certains murs en terre ou pierre dans paititi etc, le fameux effet "vaseline", après dans l'ensemble le plutôt correcte, mais pas parfait en fonction de la sensibilité de chacun.  
 
Les filtres du RIS / Freestyle contrairement au DLSS ils ont bien un curseur pour augmenter ou diminuer l'effet en fonction, après y a des jeux qui se prêtent plus ou moins bien à ça, tout comme l'implémentation du DLSS est plus ou moins efficace en fonction des jeux, et comme le résultat n'est pas forcément excellent et qu’entraîner des algorithmies dans les fermes IA de nvidia ça met quand même du temps ... pour un résultat qui n'est pas forcément à la hauteur en fonction, le DLSS a peut être été un peu sur-vendu au final ...  
 
Après les vidéos etc, hum c'est pas forcément évident de se rendre compte de la chose, c'est par soit même qu'on se rend compte le mieux ... les techniques de compressions youtube etc ça aide pas vraiment : /.

Message cité 1 fois
Message édité par havoc_28 le 09-02-2020 à 22:04:15
n°10698789
Maxime3370​0
Posté le 09-02-2020 à 22:50:15  profilanswer
 

ppn7 a écrit :

Moi, c'est simple, y a pas de budget, j'attends juste une erreur de prix et je sors la CB. Autant dire que ça n'arrive que très rarement, du coup, ça fait moins mal au porte feuille dans tous les cas :D

 

https://www.rueducommerce.fr/produi [...] -135638423
Tiens une 2080ti aorus waterfoce à 882euros ;)

Message cité 1 fois
Message édité par Maxime33700 le 09-02-2020 à 22:51:13
n°10698804
ppn7
Posté le 09-02-2020 à 23:39:34  profilanswer
 

obduction a écrit :


La R&D il faut la rentabiliser mais nvidia ne mettra jamais de R&D nécessitant de vendre des cartes très chères pour être rentabilisé. Les revenus d'nvidia montrent que ce n'est pas le cas.
Le RT a couté de l'argent en R&D mais comme tout le reste.
 
Les prix pratiqués par nvidia sont des prix du à l'absence de concurrence et surtout des prix que les clients acceptent de payer. Cela a toujours été comme ça. C'est même cette principale raison qui avait poussé nvidia à l'époque du geforce 2 et 3 à perpétuer des prix de 500€  pour les gpus suivants.
 

Citation :


-Ce que je veux dire, c'est qu'Nvidia ayant une avance sur différent point, ne sont en aucun cas obligé de fournir une prouesse technique très importante en terme d'évolution des performances de rasterisation. On pourrait imaginer que si Nvidia est capable à gamme égale de fournir +50%, ils brideraient volontairement à disons 25% (c'est des chiffres au pif que je prends) tout en assurant encore une évolution similaire des RT/Tensors Core. Ensuite en fonction des prochaines cartes Navi, refaire un coup de Super, ça a bien marché avec les RTX 20xx Super.


Cela fait un peu théorie du complot.
 
Nvidia n'a pas vraiment l'habitude de brider ses cartes dans le sens que tu le dis. Les RTX super ne sont pas sortit dans le sens que tu mets sur le bridage. D'ailleurs il n'y avait pas du tout de bridage dans les rtx d'avant super.

 
Je parle pas de la sortie des RTX 20xx par rapport aux précédentes cartes, je parle de la sortie de Ampère par rapport à Turning. Il n'y a rien de complotiste, c'est tout simplement le marché qui veut ça. Ca serait même idiot de la part de Nvidia de sortir tout de suite le grand jeu sans savoir ce que pourra sortir la concurrence ou du moins avoir déjà une idée de ce qu'il sera possible de fournir par la suite pour la prochaine architecture etc...
 


 

havoc_28 a écrit :


 
Les tensors core / RT core, ils sont la pour durer dans le temps, et la R&D initiale aurait pu très et peut être sera encore amorti au fil des générations suivantes.  
 


 

havoc_28 a écrit :


 
Super c'est juste un petit refresh, on n'a pas gagné 25 % :D. On a juste introduit une puce complète TU 104 pour la RTX 2080 S, la RTX 2070S ils ont pris un TU104 un peu plus castré, la RTX 2060 S un TU 106 moins castré que sur la RTX 2060 etc. Certains modèle ont eut droit à de la GDDR6 un peu plus rapide, mais c'est juste un classique rafraîchissement de gamme.  
 
Après oui ils peuvent ne pas sortir la puce la plus grosse d'emblée (tout comme pour Pascal), et attendre un peu pour décliner au fur et mesure leurs nouvelles gammes,  étaler les sorties coté 7 nm (car quid de l'encombrement des lignes de production à ce niveau).  
C'est ce que je voulais dire en faisant l'analogie aux Super même si l'écart est faible, l'idée c'est effectivement de conserver quelques cartes sous la manche
 


 

havoc_28 a écrit :


 
Pour avoir tester personnellement le DLSS dans Shadow of the tomb raider, le résultat est plus ou moins inégale en fonction des zones, y a des textures qui deviennent un peu plus flous avec le DLSS que sans (en fonction des surfaces etc), genre certains murs en terre ou pierre dans paititi etc, le fameux effet "vaseline", après dans l'ensemble le plutôt correcte, mais pas parfait en fonction de la sensibilité de chacun.  
 
Les filtres du RIS / Freestyle contrairement au DLSS ils ont bien un curseur pour augmenter ou diminuer l'effet en fonction, après y a des jeux qui se prêtent plus ou moins bien à ça, tout comme l'implémentation du DLSS est plus ou moins efficace en fonction des jeux, et comme le résultat n'est pas forcément excellent et qu’entraîner des algorithmies dans les fermes IA de nvidia ça met quand même du temps ... pour un résultat qui n'est pas forcément à la hauteur en fonction, le DLSS a peut être été un peu sur-vendu au final ...  
 
Après les vidéos etc, hum c'est pas forcément évident de se rendre compte de la chose, c'est par soit même qu'on se rend compte le mieux ... les techniques de compressions youtube etc ça aide pas vraiment : /.


 
Est-ce que tu as testé éventuellement WolfenStein YoungBlood et Deliver as the Moon ? Car il semble y avoir encore une nette amélioration. Mais je suis bien conscient que cela reste perfectible. Peut-être que la technique va s'améliorer avec le temps et l'arrivée de DirectML. Après sur console, ça sera surement du checkerboard pour Sony comme sur PS4, avec la PS5, encore un truc différent sur XSX via DirectML

n°10698805
ppn7
Posté le 09-02-2020 à 23:42:29  profilanswer
 


 
Miracle une 2080Ti sous les 900€ et en France. Après je suis frontalier Suisse. J'ai pu voir des 1080 Ti à moins de 500€ 6 mois après sa sortie et j'ai pas craqué :D
Autant dire tout de suite que je suis pas encore prêt pour une 2080ti même à 800€

n°10698809
havoc_28
Posté le 09-02-2020 à 23:52:37  profilanswer
 

ppn7 a écrit :


 
Est-ce que tu as testé éventuellement WolfenStein YoungBlood et Deliver as the Moon ? Car il semble y avoir encore une nette amélioration. Mais je suis bien conscient que cela reste perfectible. Peut-être que la technique va s'améliorer avec le temps et l'arrivée de DirectML. Après sur console, ça sera surement du checkerboard pour Sony comme sur PS4, avec la PS5, encore un truc différent sur XSX via DirectML


 
Non, et j'ai pu le matériel pour (et ça changera pas avant 2021 pour moi) . Le DLSS à vocation à s'améliorer avec le temps, plus de jeux passeront à la moulinette par l'IA des stations Nvidia, plus Nvidia améliorera (logiquement), les algorithmes procédés via les tensor core, mais pour l'instant ... Peut être que ça sera le cas, peut être pas, même avec DirectML, y a pas mal de chose qui au final ne tienne pas vraiment leurs promesses.

n°10698810
AllenMadis​on
Posté le 09-02-2020 à 23:58:35  profilanswer
 

havoc_28 a écrit :


 
Non, et j'ai pu le matériel pour (et ça changera pas avant 2021 pour moi) . Le DLSS à vocation à s'améliorer avec le temps, plus de jeux passeront à la moulinette par l'IA des stations Nvidia, plus Nvidia améliorera (logiquement), les algorithmes procédés via les tensor core, mais pour l'instant ... Peut être que ça sera le cas, peut être pas, même avec DirectML, y a pas mal de chose qui au final ne tienne pas vraiment leurs promesses.


 
Je pense qu'avec le service geforce now (de streaming donc) ça servira aussi à améliorer le DLSS

n°10698812
ppn7
Posté le 10-02-2020 à 00:06:44  profilanswer
 

havoc_28 a écrit :


 
Non, et j'ai pu le matériel pour (et ça changera pas avant 2021 pour moi) . Le DLSS à vocation à s'améliorer avec le temps, plus de jeux passeront à la moulinette par l'IA des stations Nvidia, plus Nvidia améliorera (logiquement), les algorithmes procédés via les tensor core, mais pour l'instant ... Peut être que ça sera le cas, peut être pas, même avec DirectML, y a pas mal de chose qui au final ne tienne pas vraiment leurs promesses.


 

AllenMadison a écrit :


 
Je pense qu'avec le service geforce now (de streaming donc) ça servira aussi à améliorer le DLSS


 
On verra bien avec le temps, de toute façon rien n'est jamais trop sûr.

n°10698869
obduction
Posté le 10-02-2020 à 09:04:26  profilanswer
 

ppn7 a écrit :


C'est ce que je voulais dire en faisant l'analogie aux Super même si l'écart est faible, l'idée c'est effectivement de conserver quelques cartes sous la manche


Il n'y a eu aucune conservation de cartes sous la manche avec les super car les super sont grosso modo équivalent à une baisse de prix des cartes pour s’adapter à la concurrence et non une hausse des performances.
 
La 2070super remplace la 2080 et la 2060super remplace la 2070, et la 2080super s'intercale entre la 2080 et la 2080ti le tout en baissant le prix. Au final tu ne gagnes pas de performances avec ce qui était déjà dispo avant les super.
Si nvidia a sorti la 2060super en upgradant le chip de la 2060 plutôt que de baisser directement le prix de la 2070, c'est sans doute que c'était plus rentable niveau cout pour eux et donc niveau bénéfices mais pour le consommateur, cela revient au même.
 
 

Citation :

e parle pas de la sortie des RTX 20xx par rapport aux précédentes cartes, je parle de la sortie de Ampère par rapport à Turning. Il n'y a rien de complotiste, c'est tout simplement le marché qui veut ça. Ca serait même idiot de la part de Nvidia de sortir tout de suite le grand jeu sans savoir ce que pourra sortir la concurrence ou du moins avoir déjà une idée de ce qu'il sera possible de fournir par la suite pour la prochaine architecture etc...


Le marché ne veut rien.  
Regarde Turing, nvidia a sorti l'arsenal lourd de suite avec les 2080ti alors qu'ils auraient pu attendre de longs mois, les pascal se vendant comme des petits pains à l'époque.
 
Nvidia n'a pas pour l'habitude de brider ses gpus donc pourquoi le feraient-ils avec Ampère? Aucun intérêt parce qu'il ne faut pas raisonner qu'en terme de concurrence. Nvidia ne sort pas des cartes que parce qu'il y a de la concurrence mais aussi parce qu'il y a de la demande. La concurrence c'est surtout le positionnement tarifaire qui va se mettre en branle.
 
Nvidia a tout intérêt à sortir une 3080ti non castrée car il y aura une demande des consommateurs pour avoir une carte qui permette de jouer avec la RT en 4K avec le nombre de FPs toujours plus élevé. Cette demande aura lieu concurrence ou pas et c'est pour ça qu'nvidia ne castre pas ses chips comme ça même quand amd n'est pas là. Au contraire, cela permet à nvidia de gagner encore plus de parts de marché et de pouvoir se faire des marges en or sur des produits qu'ils peuvent vendre premium faute de concurrence.  
Par exemple, si nvidia avait attendu qu'amd sorte quelque chose en face la 2080ti pour la sortir, ils n'auraient pas pu profiter de plus d'un an de vente d'une carte vendu plus de 1000 euros qui doit rapporter pas mal à chaque vente.

Message cité 1 fois
Message édité par obduction le 10-02-2020 à 09:11:03
n°10698881
marijuo
Posté le 10-02-2020 à 09:41:45  profilanswer
 

obduction a écrit :


Il n'y a eu aucune conservation de cartes sous la manche avec les super car les super sont grosso modo équivalent à une baisse de prix des cartes pour s’adapter à la concurrence et non une hausse des performances.
 
La 2070super remplace la 2080 et la 2060super remplace la 2070, et la 2080super s'intercale entre la 2080 et la 2080ti le tout en baissant le prix. Au final tu ne gagnes pas de performances avec ce qui était déjà dispo avant les super.
Si nvidia a sorti la 2060super en upgradant le chip de la 2060 plutôt que de baisser directement le prix de la 2070, c'est sans doute que c'était plus rentable niveau cout pour eux et donc niveau bénéfices mais pour le consommateur, cela revient au même.
 
 

Citation :

e parle pas de la sortie des RTX 20xx par rapport aux précédentes cartes, je parle de la sortie de Ampère par rapport à Turning. Il n'y a rien de complotiste, c'est tout simplement le marché qui veut ça. Ca serait même idiot de la part de Nvidia de sortir tout de suite le grand jeu sans savoir ce que pourra sortir la concurrence ou du moins avoir déjà une idée de ce qu'il sera possible de fournir par la suite pour la prochaine architecture etc...


Le marché ne veut rien.  
Regarde Turing, nvidia a sorti l'arsenal lourd de suite avec les 2080ti alors qu'ils auraient pu attendre de longs mois, les pascal se vendant comme des petits pains à l'époque.
 
Nvidia n'a pas pour l'habitude de brider ses gpus donc pourquoi le feraient-ils avec Ampère? Aucun intérêt parce qu'il ne faut pas raisonner qu'en terme de concurrence. Nvidia ne sort pas des cartes que parce qu'il y a de la concurrence mais aussi parce qu'il y a de la demande. La concurrence c'est surtout le positionnement tarifaire qui va se mettre en branle.
 
Nvidia a tout intérêt à sortir une 3080ti non castrée car il y aura une demande des consommateurs pour avoir une carte qui permette de jouer avec la RT en 4K avec le nombre de FPs toujours plus élevé. Cette demande aura lieu concurrence ou pas et c'est pour ça qu'nvidia ne castre pas ses chips comme ça même quand amd n'est pas là. Au contraire, cela permet à nvidia de gagner encore plus de parts de marché et de pouvoir se faire des marges en or sur des produits qu'ils peuvent vendre premium faute de concurrence.  
Par exemple, si nvidia avait attendu qu'amd sorte quelque chose en face la 2080ti pour la sortir, ils n'auraient pas pu profiter de plus d'un an de vente d'une carte vendu plus de 1000 euros qui doit rapporter pas mal à chaque vente.


 
Je partage ton sentiment, d'autant plus que les archi de GPU sont utilisés également dans le milieu pro ou la demande de plus de puissance est toujours là et ou les prix sont encore plus élevés ( donc plus de marge encore !)
Du coup ça ferai mal en terme d'image si tu avais du coté pro, de l’évolution avec une nouvelle archi comme Ampère mais que coté grand public, nVidia continuai de ne proposer que du Turing par exemple.
Ça voudrai vraiment dire qu'ils attendent sur ce marché que leurs concurrents se réveillent et se garde une archi plus moderne en standbye.....
 
Et en plus comme tu l'as dis, rien ne les empêche de fixer leur prix sur leur gpu hdg pour lesquelles ils sont tout seuls sur le segment, se serai dommage de se privé de marge confortable si la demande est là.
Ça parait fou de claquer 1000€ dans un gpu pour jouer, mais quand on regarde autour de soit, combien de personne ont les derniers iPhone a 800/1000€ voir plus ?
Un paquet ! Et bien souvent y a même des smicard ou des étudiants alternants.... en tout cas moi j'en ai souvent vu dans mon entourage perso/pro !
Et la preuve qu'nVidia a bien fait (pour eux ^^) d'augmenter ses tarifs car ça ne les a pas empêcher effectivement de vendre leur 2080/2080 Ti
 
 
 
 


---------------
Fractal Meshify C / Asrock Z370 Gaming K6 / Intel Core i9 9900K / 4*8Go G.Skill Trident Z RGB@3200 c16/ GeForce RTX 3080 FTW3/ Creative SB Z / Corsair RM750i / Samsung 9801To + 860 Evo 1To /Barracuda 3To
n°10698891
max022
Posté le 10-02-2020 à 10:00:03  profilanswer
 

Ben vu la différence de prix/perf entre la 2080TI et la 2080 super, cela me parait évident que Nvidia s'est fait une marge monstrueuse sur la 2080 TI.  
Mais est ce que cela à été une bonne opération au final ?  
J'en sais rien, il y a des choses positives et négatives.  
Positive : ils se sont fait un max sur chaque carte.  
Négative : ils ont beaucoup moins vendu de cartes.  
Mais ils ont pu étudier les choses lors de la monté des prix bitcoins et il est plus que probable que la crise  
des cryptomonnaies ait eut un impact sur les prix. (cela a bien aidé AMD)  

n°10698907
obduction
Posté le 10-02-2020 à 10:35:25  profilanswer
 

max022 a écrit :

Ben vu la différence de prix/perf entre la 2080TI et la 2080 super, cela me parait évident que Nvidia s'est fait une marge monstrueuse sur la 2080 TI.  
Mais est ce que cela à été une bonne opération au final ?  
J'en sais rien, il y a des choses positives et négatives.  
Positive : ils se sont fait un max sur chaque carte.  
Négative : ils ont beaucoup moins vendu de cartes.


Cela reste à prouver car ce n'est pas sur ce genre de carte qu'ils font un gros volume de vente et de toute façon, ils ne l'auraient jamais vendu à 200-400€.
 
Si nvidia continue sur sa lancée de prix lorsqu'il n'y a pas concurrence, c'est que le positif compense largement le négatif. Ce n'est pas comme si la 2080ti était un ballon d'essai.

n°10698919
max022
Posté le 10-02-2020 à 11:03:24  profilanswer
 

Oui je pense aussi que malheureusement pour nous le positif compense le négatif
sinon ils ne l'aurait pas fait.


Message édité par max022 le 10-02-2020 à 11:03:39
n°10698922
Equipments
Posté le 10-02-2020 à 11:08:28  profilanswer
 

max022 a écrit :

Ben vu la différence de prix/perf entre la 2080TI et la 2080 super, cela me parait évident que Nvidia s'est fait une marge monstrueuse sur la 2080 TI.
Mais est ce que cela à été une bonne opération au final ?
J'en sais rien, il y a des choses positives et négatives.
Positive : ils se sont fait un max sur chaque carte.
Négative : ils ont beaucoup moins vendu de cartes.
Mais ils ont pu étudier les choses lors de la monté des prix bitcoins et il est plus que probable que la crise
des cryptomonnaies ait eut un impact sur les prix. (cela a bien aidé AMD)

 


On ne connaît pas exactement les ventes de chaque RTX en volume et en valeur ?

n°10698941
max022
Posté le 10-02-2020 à 11:50:34  profilanswer
 

ben on a les chiffres Steam qui sont très important puisque la plupart des cartes graphiques sont pour pouvoir jouer  
et que Steam est le leader la dessus.  
https://store.steampowered.com/hwsurvey/?l=french La 1060 est la carte qui est la plus utilisé sur Steam.  ;)  

n°10698986
obduction
Posté le 10-02-2020 à 13:33:28  profilanswer
 

Equipments a écrit :


 
 
On ne connaît pas exactement les ventes de chaque RTX en volume et en valeur ?


Non et c'est normal car rien n'oblige le constructeur à dévoiler le nombre.

n°10698987
obduction
Posté le 10-02-2020 à 13:34:53  profilanswer
 

max022 a écrit :

ben on a les chiffres Steam qui sont très important puisque la plupart des cartes graphiques sont pour pouvoir jouer  
et que Steam est le leader la dessus.  
https://store.steampowered.com/hwsurvey/?l=french La 1060 est la carte qui est la plus utilisé sur Steam.  ;)  


Steam ne donne que des pourcentages, pas des nombres de ventes. Comme on ne sait pas combien de compte sont vraiment actifs et unique, il est impossible de savoir le nombre de ventes de CG.

n°10699013
max022
Posté le 10-02-2020 à 14:31:12  profilanswer
 

Oui reste que cela donne clairement une idée des cartes qui sont le plus en utilisé sur steam.  
On aura de toute façon des choses fausses (plusieurs comptes Steam, carte pro, pas de compte steam...)  
mais c'est pareil pour les études : on ne prend qu'une partie de la population pour en tirer des conclusions.  
(on travail d'ailleurs comme cela dans la médecine : sous forme de statistique mais on peut complètement passer au travers si on est hors norme)  
On peut en tirer la conclusion suivante : les gtx 10.. occupe clairement le devant de la scène et plus particulièrement les 1050 TI et 1060.

n°10699118
obduction
Posté le 10-02-2020 à 17:22:56  profilanswer
 

max022 a écrit :

Oui reste que cela donne clairement une idée des cartes qui sont le plus en utilisé sur steam.
On aura de toute façon des choses fausses (plusieurs comptes Steam, carte pro, pas de compte steam...)
mais c'est pareil pour les études : on ne prend qu'une partie de la population pour en tirer des conclusions.
(on travail d'ailleurs comme cela dans la médecine : sous forme de statistique mais on peut complètement passer au travers si on est hors norme)
On peut en tirer la conclusion suivante : les gtx 10.. occupe clairement le devant de la scène et plus particulièrement les 1050 TI et 1060.


Pas besoin de cette étude pour savoir que le gros des ventes se situe sur le milieu et bas de gamme dans des gammes de prix beaucoup plus abordable pour tout un chacun. Steam ne fait que confirmer ce que l'on sait déjà depuis longtemps.

 

Diailleurs, nvidia n'espère pas que sa 2080ti se vende autant qu'une 1060 ou 1050 sinon ils ne pratiqueraient pas ce type de prix.

Message cité 1 fois
Message édité par obduction le 10-02-2020 à 17:23:22
n°10699161
Equipments
Posté le 10-02-2020 à 18:39:24  profilanswer
 

max022 a écrit :

ben on a les chiffres Steam qui sont très important puisque la plupart des cartes graphiques sont pour pouvoir jouer  
et que Steam est le leader la dessus.  
https://store.steampowered.com/hwsurvey/?l=french La 1060 est la carte qui est la plus utilisé sur Steam.  ;)  


 
 
oui j'ai vu les chiffres steam mais j'aurai bien voulu savoir les ventes générales enfin comme tout le monde  :D
 
 
 

obduction a écrit :


Pas besoin de cette étude pour savoir que le gros des ventes se situe sur le milieu et bas de gamme dans des gammes de prix beaucoup plus abordable pour tout un chacun. Steam ne fait que confirmer ce que l'on sait déjà depuis longtemps.
 
Diailleurs, nvidia n'espère pas que sa 2080ti se vende autant qu'une 1060 ou 1050 sinon ils ne pratiqueraient pas ce type de prix.


 
 
Evidemment tout le monde sait ça, c'était pas la question.


Message édité par Equipments le 10-02-2020 à 18:42:18
n°10699201
max022
Posté le 10-02-2020 à 19:37:17  profilanswer
 

Oui moi aussi j'aimerais bien avoir les chiffres globaux.  
Reste que je trouve les chiffres Steam intéressant car on peu faire énormément d'analyse dessus.  
(succès de la carte avec budget max de 200 euros, succès gtx 970, succès 10.., 1080ti vs 2080TI...)  

n°10699377
ben shinob​i
Posté le 11-02-2020 à 08:10:13  profilanswer
 

sur mindfactory vous pouvez voir les ventes par produits. je crois, sur certains autres sites de ventes en ligne aussi.
Si vous faites des taux et que vous les comparez à ceux de Steam je ne pense pas qu'il y ait une grosse différence.
Quand je sonde mon entourage (joueurs de guilde mmo, potes (steam et autres), famille, collègues, amis), l'essentiel des joueurs(alerte: avis personnel : hélas  :o ), jouent sur des laptops de 2 ou 3 ans avec en général des 1060 ou des 1050ti, ça correspond à peu près aux chiffres de steam.


Message édité par ben shinobi le 11-02-2020 à 08:16:33
n°10699531
max022
Posté le 11-02-2020 à 12:30:02  profilanswer
 

C'est vrai que pour tout ce qui est labtop ben dès que l'on arrive aux RTX cela coute une blinde.  
Perso j'ai la 1660 TI sur mon laptop mais il est plus récent puis je l'ai eus à 1.100 euros
mais il y a plein de laptops de 2 à 3 ans avec la 1050TI/1060 car c'est ce qui se faisait de mieux  
pour avoir quelque chose de correct sans trop dépenser.

n°10699865
Activation
21:9 kill Surround Gaming
Posté le 11-02-2020 à 23:48:13  profilanswer
 

Moi ce que je retiend pour les geforce 3000 c'est les mesh shader peu mit en avant sur turing
Si ils tiennent leur promesse on devrait avoir un gap notable en rasterisation
Attention a eu seul c'est pas eux qui vont faire le taff
Mais ça devrait aller de paire avec des jeux qui sortent enfin vraiment penser vulkan/dx12 avec les prochaine console
Plutot que des jeux dx11 bidouillé dans la douleur en jeu "dx12" sans vraiment utiliser le pipeline direct3d 12 comme il devrait
 
Si nvidia en reste sur "ampere" à des unité dédié rt core, je pense pas qu'il faut en soit augmenter leur proportion des avis du reste du gpu
Dans turing pour moi ils aucune une trop grosse part du gpu "coincé" par le "12nm"
 
Je me pose plus la question sur comment vont évoluer les tensor core, dans le cadre des mesh shader
 
J espère bien plus des mesh shader qui promet pas mal en gain de perf pour remplir des open world
Plus qu'une hausse de RT  
 
Y a aussi une interrogation de ou nvidia veut placer à terme sont geforce now payant  avec le RT
Sachant que de toute façon si le rt hybride vient à être utilisé sur PS5 et serie X
Peu de de studio feront un travaille supplémentaire pour qu il y ai encore du mieux mieux sur une RTX3000 RTX4000 RTX5000
Quand tu vois déjà comment les jeux sont finit à la pisse
Et les taulé que sont en train de se prendre les ubi, ea, bethesda, blizzard, car les joueurs se reveillent enfin qu ils faut arreter d etre con pour preco des jeux finit à la pisse
Bref avant du RT, ça sera déjà tellement mieux si les jeux..... Un truc dingue.... Fonctionnait day one
 
Aussi pour moi. Niveau perf "RT" nvidia ferait pas mal de se suffir des perf déjà presente sur des 2070super/2080 (pas forcément Ti)
Et sur les rtx3000 de foutre le paquet sur
1/ mesh shader
2/ upscaling (dlss c'est beurk à mon gout en l Etat)
3/ gros gain en rasterisation (car de toute façon rt hybride conserve une base de rasterisation.... Donc si pas de gros gain en rasterisation on va tourner en rond)
 
Qui a dans 2ans de plus sortir une rtx4000 qui offre de nouveau gap en RT
Quand plus de studio se seront sorti les doigts pour vraiment exploiter vulkan et dx12
 
À mon gout pour du waouh et la prochaine vague de jeux qui va débouler sur PS5 faut plus jouer sur les effets météo, environnement evolutif, vzgetation plus présente...
 
Car de toute façon pour mettre en avant le RT.... Faut avoir plus d'éléments dans le champ de vision justement ou à terme des effets des lancer de rayons pourront faire leur oeuvre
 
Du RT si au final y a quasi rien pour refleter/absorber la lumière.... Bah ça sert pas à grand chose
 
Préfère voir devant moi 1000 brins d herbes qui bouge au gré du vent avec qqs astuce de source d éclairage  
Que 20 brin d herbes qui bouge au gré du vent via rt hybride... De toute façon on reste sur de " l hybride "
 
Rappelons aussi que nvidia a récemment intégré "ReShade" reste à voir comment on va pouvoir taper dans une rtx avec
Avec les rt core  ?  Pas sur, moi j'ai un peu l'impression que les rtx3000 vont en plus des rt core (solution que j aime pas, car pour moi de toute façon ça reste un truc intermediaire tant qu on fait pas du rt full) proposer qqchose tel que le propose imagination technologie, va proposer AMD, et nvidia propose sur les "turing" GTX
 
Est ce que c'est si "souple que ça" les rt core pour être utilisable dans Reshade
 
C'est une question, n ayant pas de rtx, je ne sait pas si dans reshade "nvidiaisé" y a déjà des truc tangible qui sont proposé
En tout cas j ai pas vu qqun sur le topic des rtx2000 parler de cet ajout assé récent de Reshade
Du coup je part de l hypothèse que les rt core tu doit pas taper comme tu veux si facilement
Ça a été intégré en novembre ReShade me semble


Message édité par Activation le 12-02-2020 à 00:06:52
n°10699889
Dark Schne​iderr
⭐⭐
Posté le 12-02-2020 à 07:15:17  profilanswer
 

+1 Activation pour un bond nécessaire en rasterisation parce qu'une 2080 Ti n'est pas encore très à l'aise avec la 4K natif. Il reste encore une grosse marche.
 
Le DLSS est en état de mort cérébral, il va falloir trouver autre chose pour utiliser les Tensors Cores.
 
 


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°10699899
havoc_28
Posté le 12-02-2020 à 08:17:05  profilanswer
 

Dark Schneiderr a écrit :

+1 Activation pour un bond nécessaire en rasterisation parce qu'une 2080 Ti n'est pas encore très à l'aise avec la 4K natif. Il reste encore une grosse marche.
 
Le DLSS est en état de mort cérébral, il va falloir trouver autre chose pour utiliser les Tensors Cores.


 
Les tensors cores sont une part intégrale du RT sauce nvidia, vu qu'ils servent à diminuer les zones de bruits provoqués par le RT (ça aurait pu être fait avec de simple F16, mais le tensore core sont plus véloce alors tant qu'à faire), sans réduction de bruits faudrait balancer balancer bien plus de rayons encore (pas la peine de faire un dessin sur les performances dans ce cas là :D ...).


Message édité par havoc_28 le 12-02-2020 à 08:24:34
n°10699929
obduction
Posté le 12-02-2020 à 09:59:06  profilanswer
 

Le problème des geforce 2xxx c'est que leur gravure avait peu progressé comparé aux cartes de la génération Pascal. Or, la gravure ayant peu progressé, tu ne peux pas tout augmenter sur la puce. Nvidia ayant fait le choix d'introduire les rt cores qui sont gourmands en transistors, forcément ils ne pouvaient pas augmenter fortement le nombre de cores dédiés à la rasterisation.

 

Avec le 7nm qui va constituer une augmentation normalement aux alentours de x2 en densité, il y a moyen de tout augmenter et pas qu'un peu.

 

Nvidia peut décider de profiter qu'à augmenter les rt cores et là on pourrait avoir une augmentation énorme des perfs en ray tracing mais pas d'augmentation en rasterisation. C'est peu crédible car la plupart des jeux ne gèrent pas le ray tracing donc cette augmentation ne profiterait pas à la plupart des jeux et la 2080ti n'est pas encore tout à fait à l'aise ni totalement futur proof en 4K pour les jeux des 2-3 prochaines années.

 

Autre possibilité, nvidia peut décider de consacrer ça qu'à l'augmentation en rasterisation avec sans doute possibilité de multiplier les perfs par 2. Là aussi peu crédible vu que le futur est au ray tracing.

 

La dernière possibilité la plus crédible et de loin est d'augmenter les perfs en rasterisation et en ray tracing. Reste à voir l'augmentation des 2 mais ça sera forcément au prix d'un équilibre. Plus les perfs augmenteront d'un côté, moins elles augmenteront de l'autre.
C'est à nvidia de décider quoi privilégier sur l'autre.
Je pense que le ray tracing sera privilégié en partie vu toute la marge qu'il reste à accomplir pour afficher fluidement un jeu moderne en full ray tracing et que le RT va se généraliser encore plus vite grâce aux prochaines consoles le supportant nativement de manière hardware.

Message cité 1 fois
Message édité par obduction le 12-02-2020 à 10:07:57
n°10699930
obduction
Posté le 12-02-2020 à 10:06:41  profilanswer
 

Dark Schneiderr a écrit :


Le DLSS est en état de mort cérébral, il va falloir trouver autre chose pour utiliser les Tensors Cores.


Le DLSS est loin d'être en état de mort cérébral. Au contraire, il n'a jamais été aussi vivant et en bonne forme.
Les derniers jeux supportant le DLSS offrent un DLSS de très bonne qualité et le DLSS s'avère être un allié de choix pour offrir des perfs en ray tracing du niveau des perfs sans RT.
 
En plus, nvidia n'a toujours pas encore sorti en pratique le DLSS2x malgré l'avoir annoncé en même temps que le DLSS donc les tensor cores vont servir.

n°10700004
max022
Posté le 12-02-2020 à 12:04:20  profilanswer
 

Citation :

Je pense que le ray tracing sera privilégié en partie vu toute la marge qu'il reste à accomplir pour afficher fluidement un jeu moderne en full ray tracing et que le RT va se généraliser encore plus vite grâce aux prochaines consoles le supportant nativement de manière hardware.


 
Perso je suis persuadé qu'ils ne réfléchisse pas comme cela mais en terme de qu'est ce qui se vendra le plus au moment des RTX 30.. (les entreprises pense d'abord à court terme, il faut reverser les dividendes...)  
Du coup le pencherais à des perf en premier lieu car c'est ce qui voit le plus pour le consommateur et qui est le plus vendeur ainsi  qu'un léger upgrade du RT pour ne pas contrarier les autres.  
Puis je ne m'attends pas à ce que les consoles soient génial en RT, très loin de la.  
Perso je pense que les consoles ont juste du RT pour des raisons de marketing plus qu'autre chose et je ne m'attends à rien de folichon la dessus.  
Après je peux me tromper, on est sure de rien encore.

Message cité 1 fois
Message édité par max022 le 12-02-2020 à 12:05:16
n°10700039
obduction
Posté le 12-02-2020 à 13:29:50  profilanswer
 

max022 a écrit :

 

Perso je suis persuadé qu'ils ne réfléchisse pas comme cela mais en terme de qu'est ce qui se vendra le plus au moment des RTX 30.. (les entreprises pense d'abord à court terme, il faut reverser les dividendes...)


Si c'était ça, ils n'auraient pas sorti les turing avec des rt cores. Or la sortie montre qu'nvidia a une vision à long terme sur cet aspect vu que tout le monde sait déjà depuis très longtemps que c'est la technique de rendu du futur pour le temps réel.

 

Regarde la politique d'nvidia depuis quelques années avec sa diversification notamment dans l'ia learning avec les systèmes pour automobiles, tu verras qu'ils pensent aussi à moyen voir long terme sur pas mal d'aspect.

 
max022 a écrit :


Du coup le pencherais à des perf en premier lieu car c'est ce qui voit le plus pour le consommateur et qui est le plus vendeur ainsi  qu'un léger upgrade du RT pour ne pas contrarier les autres.


Les cartes turing se vendent très bien et pourtant les perfs en rasterisation n'augmentent que pour la 2080ti.

 

Augmenter les perfs en RT, c'est aussi augmenter les perfs donc ce que voit le plus le consommateur comme tu le dis.

 

C'est bien pour ça qu'nvidia augmentera les 2 mais comme la marge est beaucoup plus grande pour le ray tracing que pour la rasterisation, le gap sera forcément plus grand en Rt qu'en rasterisation.

 
Citation :

Puis je ne m'attends pas à ce que les consoles soient génial en RT, très loin de la.
Perso je pense que les consoles ont juste du RT pour des raisons de marketing plus qu'autre chose et je ne m'attends à rien de folichon la dessus.
Après je peux me tromper, on est sure de rien encore.


Le Ray tracing sera surement du niveau des turing niveau puissance voir légèrement supérieure donc tout dépend ce que tu appelles génial car cela ne veut pas dire grand chose en soi sans référentiel. Si le référentiel est du full RT dans les jeux récents, les perfs en RT ne seront pas génial avant environ 10 ans au moins. Si le référentiel est les perfs de la 2080ti, il y a de fortes chances que les perfs en RT des consoles soient très bonnes.

 

Je vois mal AMd sortir du rdna2 avec des perfs en ray tracing inférieure au concurrent sorti 2 ans auparavant. Cela constituerait un échec énorme pour la division gpu d'AMD. Tout est possible mais il ne faut pas souhaiter qu'AMd ait son bulldozer like en gpu.

Message cité 1 fois
Message édité par obduction le 12-02-2020 à 13:31:58
n°10700099
max022
Posté le 12-02-2020 à 14:35:33  profilanswer
 

Ben je ne suis pas d'accord mais bon de toute façon on ne sait pas encore ce qui va se passer et tu as peu être raison.  
Je pense qu'il y a effectivement aussi une vision à long terme mais la vision la plus importante est à court terme.  
En clair, Nvidia ne va pas sortir une carte qui ne se vend pas même si elle a une technologie d'avenir.  
L'IA est clairement une technologie d'avenir, il y a aussi des robots, poupées...  
Mais bon c'est une technologie d'avenir car cela permet de remplacer l'homme par des machines.  
(le top en matière de rentabilité pour une entreprise et ils peuvent payer pour cela car c'est très vite amorti...)  
Ce n'est pas du tout la même avec le RT qui ne fait toujours pas l'unanimité.  
On a toujours des personnes pour et d'autres contre.  
De toute façon les consoles seront ne pas aussi performantes que les gpu ordi (surtout les RTX 30..), du coup  
à ce moment la, ce sera un échec aussi en terme de performance.  
Alors que je ne pense pas que ce sera un échec, c'est un budget différent avec des attentes différentes que sur un PC.  
NB : j'ai peu être mal compris mais raterisation veut bien dire performance hors RT ?  
 

n°10700106
grolande
No problem
Posté le 12-02-2020 à 14:46:05  profilanswer
 

Et dire que j’allais me prendre une rtx 2060! Pour remplacer ma GTX780.
Je vais attendre la 3060 FE

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  13  14  15  ..  1878  1879  1880  1881  1882  1883

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR