Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3000 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  94  95  96  ..  1872  1873  1874  1875  1876  1877
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10803333
HashKah
It’s dangerous to go alone !
Posté le 15-08-2020 à 20:52:02  profilanswer
 

Reprise du message précédent :

havoc_28 a écrit :


 
Hum, le soucis c'est que la plus part des gros jeux, sont avant tout des jeux Multiplateforme, et les Futurs PS5 Xbox Series X utilisent des puces basés sur un SOC personnalisé Zen / 2 RDNA 2 qui ne supportent pas le DLSS, AMD s'y mettra tôt ou tard et peut être qu'on aura un équivalent coté consoles pour le refresh surement à mi vie de la génération qui vient, mais sauf surprise, le gros a été dit pour ce qui est des spécs des futurs consoles.  
 
Les DEVS ils vont avant tout coder les jeux pour PS5 / Xbox Series X etc, si y a des dévs qui intègrent le DLSS ça sera à leurs bon vouloir, donc une adoption massive, hum rien n'est dit qu'avec Ampère la tendance s'accélère ... et on pourrait très bien continuer avec le rythme actuel.
 


 
J'ai expliqué que le DLSS 3.0 serait,à priori conçu pour être facilement mis en,place sur tous les jeux utilisant le Temporal aliasing. Il semblerait que ça ne soit pas automatique mais que les efforts à faire par les développeurs soient très minimes et que ça ne représente quasiment rien en temps de développement.
 
Donc un jeu qui sortira sur PC, pourra, à moindre frais, et via un patch, intégrer le support du DLSS 3.0, même s'il est développé de base sur consoles RDNA2 ou en collaboration avec AMD.
 
Pourquoi les développeurs se priveraient d'intégrer l'option à leurs portages PC, si ça ne leur coûte rien et permet de gagner en performances sans trop avoir à se casser le cul en optimisation ? Cela serait tout bonnement idiot.
 
Si les promesses quant au DLSS 3.0 se vérifient, ça devrait trésor viré se généraliser d'autant que sur la plupart des jeux auxquels j'ai eu l'occasion de jouer ces deniers temps, j'ai plus vu le logo de collaboration avec Nvidia que celui d'AMD.
 
Cyberpunk n'a pas choisi RDNA2 et AMD, ils ont opté pour toutes les technologies propriétaires de Nvidia parce qu'elles sont en avance sur la concurrence bien que souffrant du défaut de ne pas être open source.
 
Et puis bon faut pas se voilà la face quant aux nouvelles consoles, on parle déjà de jeux en 30fps et quand on voit la gueule d'Halo Infinite ou Médium sur la Série X, on ne voit pas trop les 13 Tflops et les promesses de bond graphique.
 

mood
Publicité
Posté le 15-08-2020 à 20:52:02  profilanswer
 

n°10803344
havoc_28
Posté le 15-08-2020 à 21:36:44  profilanswer
 

HashKah a écrit :


 
J'ai expliqué que le DLSS 3.0 serait,à priori conçu pour être facilement mis en,place sur tous les jeux utilisant le Temporal aliasing. Il semblerait que ça ne soit pas automatique mais que les efforts à faire par les développeurs soient très minimes et que ça ne représente quasiment rien en temps de développement.
 
Donc un jeu qui sortira sur PC, pourra, à moindre frais, et via un patch, intégrer le support du DLSS 3.0, même s'il est développé de base sur consoles RDNA2 ou en collaboration avec AMD.
 
Pourquoi les développeurs se priveraient d'intégrer l'option à leurs portages PC, si ça ne leur coûte rien et permet de gagner en performances sans trop avoir à se casser le cul en optimisation ? Cela serait tout bonnement idiot.
 


 
ça reste du temps et de l'argent, même si c'est un coût mineure sur l'ensemble de la production du jeu, c’est toujours un coût à prendre en compte, et aussi une question de part de marché, pourquoi s’embêter à intégrer une technologie qui n'est supporté que par quelques % du parc installé ? Les consoles c'est des millions machines assurées, bien plus que tout le parc de PC gérant le DLSS.  
 
C'est une option dans les mains des devs, mais rien ne dit qu'ils l'utiliseront de façon massive, le DLSS 2.0 tout comme le 1.0 jusqu'à présent n'ont pas été adopté de façon massive.  
 
 

HashKah a écrit :

Si les promesses quant au DLSS 3.0 se vérifient, ça devrait trésor viré se généraliser d'autant que sur la plupart des jeux auxquels j'ai eu l'occasion de jouer ces deniers temps, j'ai plus vu le logo de collaboration avec Nvidia que celui d'AMD.


 
Un Logo Nvidia ne veut pas dire automatiquement DLSS ou RT. Pour l’instant que ce soit le RT ou le DLSS, le tau d'adoption est très lent, on en reste toujours à un titre par ci par là de temps à autre. Je ne sais pas si ça va s'accélérer ou non, mais pour l'instant je ne vois pas une augmentation de la cadence ce niveau, pas plus que depuis la sortie de Turing il y a 2 ans maintenant, ça changera peut être avec Ampère mais pour l'instant, je ne le vois pas.
 
Et DLSS 3.0 ? ça déjà été confirmé ça quelque part ? Je verrais lors de la conférence d'Ampère, et si y a une liste importante de jeux, déjà la liste des jeux RT / DLSS lors de la présentation de Turing c'est pas tout à fait matérialisé donc ... je resterai prudent là dessus.  
 

HashKah a écrit :


Cyberpunk n'a pas choisi RDNA2 et AMD, ils ont opté pour toutes les technologies propriétaires de Nvidia parce qu'elles sont en avance sur la concurrence bien que souffrant du défaut de ne pas être open source


 
Peut être par ce que CD Projekt RED avait déjà collaboré avec Nvidia pour The Witcher III ? Et que souvent Nvidia fournit un gros support technique, comme ils ont fait en partenariat avec DICE etc pour les premiers jeux gérant le RT via patch ? Et que Seul Nvidia jusqu'à présent sur PC fournit une solution é en main ?  
 

HashKah a écrit :

Et puis bon faut pas se voilà la face quant aux nouvelles consoles, on parle déjà de jeux en 30fps et quand on voit la gueule d'Halo Infinite ou Médium sur la Série X, on ne voit pas trop les 13 Tflops et les promesses de bond graphique.


 
Turing n'a pas non plus révolutionné les graphismes avec le RT et le DLSS, c'est des plus mais pas une révolution, on en est qu'au tout début, tout comme comme les premiers jeux sur une nouvelle génération de console n'exploite pas tout à fait le plein potentiel de ces nouvelles consoles ...


Message édité par havoc_28 le 15-08-2020 à 22:25:34
n°10803345
zouaf
Posté le 15-08-2020 à 21:41:41  profilanswer
 

HashKah a écrit :


 
Cyberpunk n'a pas choisi RDNA2 et AMD, ils ont opté pour toutes les technologies propriétaires de Nvidia parce qu'elles sont en avance sur la concurrence bien que souffrant du défaut de ne pas être open source.
 
Et puis bon faut pas se voilà la face quant aux nouvelles consoles, on parle déjà de jeux en 30fps et quand on voit la gueule d'Halo Infinite ou Médium sur la Série X, on ne voit pas trop les 13 Tflops et les promesses de bond graphique.
 


 
Concernant cyberpunk, tu te trompes, il est avant tout développé avec comme base les consoles current gen et next gen.
Il se passe exactement la même chose qu'avec the witcher 3 à l'époque et personne ne peut leur en vouloir: le jeu, pour être rentable, doit pouvoir tourner sur l'ensemble des plateformes du marché et est développé en ce sens.
Ils ont un partenariat avec nvidia car c'est l'acteur le plus représenté sur le marché des gpu (histoire de maximisé les ventes et il faut avouer que le RT se prête bien à ce style de jeu, à voir comment il sera intégré).
Les développeurs intègrent donc des features nvidia uniquement présente sur pc, à l'image du hairworks de witcher 3.
Est ce que le jeu est fondamentalement différent avec hairworks? bof bof  
 
Wait and see.
 

n°10803347
asmomo
Modérateur
Posté le 15-08-2020 à 21:48:11  profilanswer
 

J'ai pas trop suivi dernièrement mais nvidia ne file pas de la thune pour "influencer" ce genre de décision ?
 
Sinon merci de ne pas revenir sur le HS d'il y a qqes pages sur le taux de rafraîchissement de l'humain :o


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°10803348
zouaf
Posté le 15-08-2020 à 21:49:24  profilanswer
 

asmomo a écrit :

J'ai pas trop suivi dernièrement mais nvidia ne file pas de la thune pour "influencer" ce genre de décision ?
 
Sinon merci de ne pas revenir sur le HS d'il y a qqes pages sur le taux de rafraîchissement de l'humain :o


 
Si, il me semble qu'il aide au développement comme le précise Havoc et participe financièrement.

Message cité 1 fois
Message édité par zouaf le 15-08-2020 à 21:50:23
n°10803354
ppn7
Posté le 15-08-2020 à 22:14:49  profilanswer
 

Franchement si Nvidia arrive à proposer un truc avec le DLSS pour jeu déjà sortie avec TAA, chapeau... Mais pour moi, il n'y aura qu'espoir dans les nouveaux jeux, car même ceux déjà en développement or Cyberpunk, c'est mort.
 
Je me demande comment ça s'est profilé avec le portage de Death Stranding par contre...

n°10803358
Tigrou
Sans accroc
Posté le 15-08-2020 à 22:38:00  profilanswer
 

obduction a écrit :

T'avais pas de Pc à l'époque?


Non en '95 j'avais 18 ans, j'étais encore à l'école et je n’avais pas un rond :/


---------------
Feedback - Stacy's mom
n°10803366
obduction
Posté le 15-08-2020 à 23:08:50  profilanswer
 

valiran a écrit :

"On n'a que la 1ère géénration comme on a eu la 1ère génération en 95 de cartes 3d. Faut forcément pas s'attendre à avoir des cartes capables de faire quelque chose de parfaiot"

 


Ce que je veux dire par là, c'est que nvidia ou amd (ou encore Intel) ne font pas un focus à 100% là dessus, là où en 95 ils ne faisaient que ça!


Normal, les cartes 3d accélérait tout pour résumer très grosso modo donc les cartes 3d servait qu'à ça alors que le ray tracing n'est qu'une partie du graphisme et donc du travail que la carte graphique doit fournir.

 


Citation :

Surtout que le RT est intégré dans le GPU, ce n'est pas une carte accélératrice.


On serait dans les années 90, on aurait sans doute des cartes à insérer dans un port pour servir qu'à ça vu qu'à l'époque on faisait des cartes pour tout ce qui pouvait être accéléré ou suppporté mais aujourd'hui, ce n'est plus à la mode. Il y a qu'à voir le flop que ça a fait avec aegia sur la physique et la quasi stagnation de la physique que l'on se coltine depuis vu que c'est géré quasi uniquement que par software.

Tigrou a écrit :


Non en '95 j'avais 18 ans, j'étais encore à l'école et je n’avais pas un rond :/


T'avais une console 2D? Cela explique surement cela car en passant d'une snes, cd32, jaguar, à une ps1, c'est clair que c'était une grosse baffe.
En passant d'un Pc à la ps1, à moins d'avoir une ps1 fin 94 en import jap avec ridge racer, la baffe n'était plus là à la sortie de la version euro car le pc offrait déjà mieux alors que les cartes 3d n'allaient arriver en masse qu'un an après.


Message édité par obduction le 15-08-2020 à 23:23:27
n°10803370
obduction
Posté le 15-08-2020 à 23:14:44  profilanswer
 

asmomo a écrit :

J'ai pas trop suivi dernièrement mais nvidia ne file pas de la thune pour "influencer" ce genre de décision ?


Nvidia comme AMd font des accords avec les développeurs pour intégrer certaines features propres à leurs cartes. Cela peut être de l'argent mais aussi du support développeur pour aider à l'intégration. C'est pas forcément de l'argent.

HashKah a écrit :

 

J'ai expliqué que le DLSS 3.0 serait,à priori conçu pour être facilement mis en,place sur tous les jeux utilisant le Temporal aliasing. Il semblerait que ça ne soit pas automatique mais que les efforts à faire par les développeurs soient très minimes et que ça ne représente quasiment rien en temps de développement.

 

Donc un jeu qui sortira sur PC, pourra, à moindre frais, et via un patch, intégrer le support du DLSS 3.0, même s'il est développé de base sur consoles RDNA2 ou en collaboration avec AMD.

 

Pourquoi les développeurs se priveraient d'intégrer l'option à leurs portages PC, si ça ne leur coûte rien et permet de gagner en performances sans trop avoir à se casser le cul en optimisation ? Cela serait tout bonnement idiot.

 

Si les promesses quant au DLSS 3.0 se vérifient, ça devrait trésor viré se généraliser d'autant que sur la plupart des jeux auxquels j'ai eu l'occasion de jouer ces deniers temps, j'ai plus vu le logo de collaboration avec Nvidia que celui d'AMD.


Pour l'instant le dlss 3.0 n'existe que dans une rumeur d'une source peu crédible, rumeur qui n'a pas du tout été reprise depuis. Il faut ne pas trop s'emballer

 

Si le dlss3.0 existe, il n'existera jamais chez AMd car AMD n'a pas de tensor cores et le dlss3.0 utilise des algos proprios.
Est-ce qu'AMd aura une offre équivalente? Possible mais d'après DF, les perfs en int4/8 des prochaines consoles qui sont importantes pour ce type de techno semblent très faible comparé aux perfs des tensor cores des turing donc c'est peu probable. Cela expliquerait d'ailleurs pourquoi Sony et MS n'ont rien dit sur ça alors que si ça allait exister, ils l'auraient annoncé très vite tant nvidia a montré que c'est une énorme apport dans les jeux.

 
HashKah a écrit :


Cyberpunk n'a pas choisi RDNA2 et AMD, ils ont opté pour toutes les technologies propriétaires de Nvidia parce qu'elles sont en avance sur la concurrence bien que souffrant du défaut de ne pas être open source.


C'est faux vu que Cyberpunk est développé pour la ps 5 et xbox series x qui sont à base de rdna2.

 

Si Cyberpunk s'est lié à nvidia sur Pc, c'est que seul nviddia offre du tray tracing sur PC pour le moment et qu'AMD ne communique pas du tout sur ça. Cela ne veut pas dire que le ray tracing sera exclusif à nvidia car il fonctionnera sur les radeon 6000.

 
HashKah a écrit :


Et puis bon faut pas se voilà la face quant aux nouvelles consoles, on parle déjà de jeux en 30fps et quand on voit la gueule d'Halo Infinite ou Médium sur la Série X, on ne voit pas trop les 13 Tflops et les promesses de bond graphique.


Il semble que pour bon nombre de jeux, les 12 tflops soient avant tout pour du 4K natif et du 60fps voir du 120 fps comme sur le multi de hhalo infinite ou sur dirt 5.
Avoir du 4K à 60 fps, suffit de voir que la 2080ti avec ces 13 tflops n'y arrive pas sur tous les jeux donc quand tu vises ça sur une console à 12 tflops, reste plus grand chose pour améliorer fortement les graphismes.


Message édité par obduction le 15-08-2020 à 23:23:45
n°10803382
ben shinob​i
Posté le 16-08-2020 à 00:10:10  profilanswer
 

HashKah a écrit :


On prend les paris ? Tous les gros jeux qui vont sortir dans les prochains mois et les prochaines années intégreront à minima le DLSS parce que c'est un moyen formidable de combiner haute résolution et haut framerate sans sacrifier sur la qualité graphique. Il faudrait être fou pour s'en passer au moment où, à tort ou à raison, le discours des consoliers c'est "la 4k c'est génial les djeunz"!


 
BAh non, ça ne va pas se passer comme ça. :o  
 

HashKah a écrit :


Je ne suis pas fanboy Nvidia, je constate simplement qu'AMD a accumulé un retard conséquent sur les GPU et que toutes leurs promesses ont été des écrans de fumé et se sont soldées par des déceptions, d'où Nvidia qui augmente sans vergogne ses tarifs parce qu'ils savent qu'en face y'a rien.


 
ça c'est pas un discours de fanboy au mépris de la réalité factuelle? rdna 1  et 2, rien?  [:trollol]  
 
 

HashKah a écrit :


Ça prendra du temps mais ces technologies propriétaires vont se démocratiser, tout comme Gsync est entrain de le faire.


 
Nvidia est bien obligé, la techno est gratuite partout ailleurs (adaptative sync, vois ce qu'en dit HAvoc28)...
 
Sinon j'en ai une RTX, hein, 2070 SUper. C'est bien. c'est de la bonne carte. Tout ce que je vois c'est l'extrème pauvreté de l'offre DLSS+RT sous dx12 ...On l'oublie souvent mais ça fera 2 ans que cette techno est sortie... [:ol1v1er] en gros on est dans un rythme de 2 à 3 AAA par an.  [:one1504:1].
 
ça me fout bien les glandes. RAppelez vous la promesse initiale au launch, on était dans les 20-40 jeux d'ici 2020...

Message cité 1 fois
Message édité par ben shinobi le 16-08-2020 à 00:19:08
mood
Publicité
Posté le 16-08-2020 à 00:10:10  profilanswer
 

n°10803385
Iryngael
Awesome, ain't it ?
Posté le 16-08-2020 à 00:43:04  profilanswer
 

ben shinobi a écrit :

 

ça c'est pas un discours de fanboy au mépris de la réalité factuelle? rdna 1  et 2, rien?  [:trollol]

 




Réalité factuelle ?
RDNA2 pour l'instant y a pas, et aux dernières nouvelles ils n'auront pas d'équivalent DLSS, et sur le HDG actuel (qui se paye au prix fort), y a pas RDNA1 non plus... Donc oui, y a rien. (Et encore pire à la sortie des 20X0, y a enfin quelque chose sur le milieu de gamme AMD depuis).
Et je serai le premier à prendre de l'AMD s'il y avait un excellent rapport Q/P sur le haut de gamme sur la prochaine gen (genre 10% de perfs en moins pour un prix inférieur de 20 ou 30%, j'ai du mal à croire qu'ils pourront arriver au niveau des 3080Ti)


Message édité par Iryngael le 16-08-2020 à 00:44:55

---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°10803395
LePcFou
Delinquant textuel
Posté le 16-08-2020 à 01:56:35  profilanswer
 

zouaf a écrit :

 

Si, il me semble qu'il aide au développement comme le précise Havoc et participe financièrement.

 


En fait ils profitent de leurs partenariats pour injecter du code propriétaire dans les jeux et contrôler les performances du jeu.
Comme pour project cars par exemple.
ça leur permet de brider artificiellement les cartes amd, ou les cartes nvidia d'ancienne génération pour pousser au renouvellement

Message cité 1 fois
Message édité par LePcFou le 16-08-2020 à 01:58:40
n°10803398
shinji3rd
Posté le 16-08-2020 à 02:33:25  profilanswer
 

[:hugeq:1]
Sinon pas de nouveaux leak sur la conso?
 
Si je dois faire installer le triphasé chez moi, ce serait cool de me le dire un peu en avance.  
...quand je vais dire à l'électricien que le seul truc que je veux voir sortir du tableau c'est une dizaine de 8-pin, il va bégayer...  :whistle:

n°10803399
mgremont
Posté le 16-08-2020 à 02:35:05  profilanswer
 

LePcFou a écrit :


 
 
En fait ils profitent de leurs partenariats pour injecter du code propriétaire dans les jeux et contrôler les performances du jeu.
Comme pour project cars par exemple.
ça leur permet de brider artificiellement les cartes amd, ou les cartes nvidia d'ancienne génération pour pousser au renouvellement


 
Tu as des preuves de ce que tu avances?
 
EDIT:
Ok c'était bien ce que je pensais, des trucs de complotistes, à priori AMD n'avait juste pas bossé du tout sur l'opti du jeu:
https://www.techspot.com/review/100 [...] enchmarks/


Message édité par mgremont le 16-08-2020 à 03:03:42
n°10803443
HashKah
It’s dangerous to go alone !
Posté le 16-08-2020 à 12:19:00  profilanswer
 

shinji3rd a écrit :

[:hugeq:1]
Sinon pas de nouveaux leak sur la conso?
 
Si je dois faire installer le triphasé chez moi, ce serait cool de me le dire un peu en avance.  
...quand je vais dire à l'électricien que le seul truc que je veux voir sortir du tableau c'est une dizaine de 8-pin, il va bégayer...  :whistle:


 
Roooo ça va 300W, même si c'est 500 tout ira bien, suffit d'avoir une alimentation de 1200W et de prévoir de changer la carte dans les 3 ans qui viennent  [:l'artefact:3]  
 

n°10803451
shinji3rd
Posté le 16-08-2020 à 12:55:37  profilanswer
 

Après les configs bi-cpu, les configs bi-psu  :o

n°10803460
olioops
Si jeune et déjà mabuse.
Posté le 16-08-2020 à 13:21:53  profilanswer
 

shinji3rd a écrit :

[:hugeq:1]
Sinon pas de nouveaux leak sur la conso?

 

Si je dois faire installer le triphasé chez moi, ce serait cool de me le dire un peu en avance.
...quand je vais dire à l'électricien que le seul truc que je veux voir sortir du tableau c'est une dizaine de 8-pin, il va bégayer... :whistle:


T'as dėjà allumer un lustre chez toi ? Le disjoncteur a tenu le coup ? Ben ça devrait aller alors :O


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°10803463
obduction
Posté le 16-08-2020 à 13:33:52  profilanswer
 

shinji3rd a écrit :

[:hugeq:1]
Sinon pas de nouveaux leak sur la conso?
 
Si je dois faire installer le triphasé chez moi, ce serait cool de me le dire un peu en avance.  
...quand je vais dire à l'électricien que le seul truc que je veux voir sortir du tableau c'est une dizaine de 8-pin, il va bégayer...  :whistle:


T'auras juste à changer d'électricien et d'en prendre un de compétent. ;)

n°10803464
kriaz
Posté le 16-08-2020 à 13:34:40  profilanswer
 

toi ou ta femme a déjà allumé un sèche cheveux a la maison ? Ben ça devrait aller alors

n°10803465
gladiakk
Cold wind blow
Posté le 16-08-2020 à 13:38:53  profilanswer
 

Vous avez déjà fait chauffer de l'eau sur une plaque vitrocéramique ? Si tel est le cas, vous devriez être bon.

n°10803466
shinji3rd
Posté le 16-08-2020 à 13:40:44  profilanswer
 

houla on s'est levé du mauvais pied ce dimanche...  :(  
 
Quand nos CG vont cuir leur condos, vous ferez moins les malins avec vos lustres à 500W !  :lol:

n°10803467
ppn7
Posté le 16-08-2020 à 13:46:19  profilanswer
 

Ça donne faim toute cette cuisine. Bon appétit !

n°10803474
HashKah
It’s dangerous to go alone !
Posté le 16-08-2020 à 13:59:14  profilanswer
 

Je viens de lire des rumeurs qui parlent d'une sortie en septembre de la 3080 et de la 3090 mais aucune mention de la 3080ti.
 
Etant donné qu'on m'avait dit que la 3090 devait remplacer le segment titan, je me pose des questions :
 
- Est-ce que les rumeurs sont fausses et on aura bien notre 3080ti
- Est-ce que Nvidia va nous empapaouter en ne sortent la 3080ti que dans plusieurs mois pour envoyer le maximum d'enthousiasts vers la 3090 ?  
 
Ça me ferait chier de devoir patienter 6 mois pour voir apparaître une hypothétique 3080ti et si la 3090 tape à plus de 2000€ c'est même pas la peine...
 
Plus la date approche, plus je devient méfiant connaissant les pratiques détestables d'Nvidia sur la segmentation de ses gammes de cartes (le coup des 2070 super et 2080 super c'était une belle couillonade ça aussi).
 

n°10803478
shinji3rd
Posté le 16-08-2020 à 14:05:34  profilanswer
 

Ben là est toute la question de la segmentation.
 
On ne sait ni si la 3090 sera remplaçante de la 2080Ti ou de la Titan, ni même s'il vont garder l'appellation Ti...
Si super remplace Ti ce sera surement pour un refresh et pas un boost.  :(  
 
Et j'ai peur que d'un point de vue financier ils préfèrent 2 sorties espacées dans le temps...

n°10803480
HashKah
It’s dangerous to go alone !
Posté le 16-08-2020 à 14:11:31  profilanswer
 

shinji3rd a écrit :

Ben là est toute la question de la segmentation.
 
On ne sait ni si la 3090 sera remplaçante de la 2080Ti ou de la Titan, ni même s'il vont garder l'appellation Ti...
Si super remplace Ti ce sera surement pour un refresh et pas un boost.  :(  
 
Et j'ai peur que d'un point de vue financier ils préfèrent 2 sorties espacées dans le temps...


 
C'est une tendance qui m'agace, prendre les early adopteurs pour des cons.
 
Le coup de 1080ti, sorties près de 9 mois après la 1080 avec des performances égales à la Titan X Pascal, c'était une baise monstrueuse.
 
En gros si tu voulais exploiter au max la nouvelle génération en day one fallait aller chercher la Titan ou alors attendre (sans savoir combien de temps sinon c'est pas drôle) de voir si Nvidia sortirait une éventuelle 1080ti.
 
Là je sens venir la même chose "tu veux le top Ampère day one ? Y'a la 3090 à 2500€, sinon tu attends qu'on sorte peut être un jour la 3080ti à 1500€ lol "  
 
Perso après 5 ans, si je change c'est pas pour me retrouver avec une 3080 et être dégoûté de voir sortir la ti 6 mois plus tard avec 20-30% de perfs en plus. Y'a Cyberpunk qui sort en novembre, j'ai pas envie d'attendre des mois avant de me lancer  :(
 

Message cité 1 fois
Message édité par HashKah le 16-08-2020 à 14:13:24
n°10803484
genom
urinam non decolor unda
Posté le 16-08-2020 à 14:27:49  profilanswer
 

t'as pas compris toi, the more you buy the more you save!


Message édité par genom le 16-08-2020 à 14:28:01
n°10803487
AllenMadis​on
Posté le 16-08-2020 à 14:37:59  profilanswer
 

shinji3rd a écrit :

Après les configs bi-cpu, les configs bi-psu  :o


 [:somberlain_multi:2]

n°10803488
AllenMadis​on
Posté le 16-08-2020 à 14:38:50  profilanswer
 

HashKah a écrit :

Je viens de lire des rumeurs qui parlent d'une sortie en septembre de la 3080 et de la 3090 mais aucune mention de la 3080ti.

 

Etant donné qu'on m'avait dit que la 3090 devait remplacer le segment titan, je me pose des questions :

 

- Est-ce que les rumeurs sont fausses et on aura bien notre 3080ti
- Est-ce que Nvidia va nous empapaouter en ne sortent la 3080ti que dans plusieurs mois pour envoyer le maximum d'enthousiasts vers la 3090 ?

 

Ça me ferait chier de devoir patienter 6 mois pour voir apparaître une hypothétique 3080ti et si la 3090 tape à plus de 2000€ c'est même pas la peine...

 

Plus la date approche, plus je devient méfiant connaissant les pratiques détestables d'Nvidia sur la segmentation de ses gammes de cartes (le coup des 2070 super et 2080 super c'était une belle couillonade ça aussi).

 


 

Tu te prends la tête pour rien et la sortie est dans 2 semaines. Calmos.

 

Idem pour tous les autres, y'a juste 2 semaines a attendre et on sera fixés. Ca va très vite passer :jap:


Message édité par AllenMadison le 16-08-2020 à 14:39:21
n°10803491
jln2
Posté le 16-08-2020 à 14:43:50  profilanswer
 

HashKah a écrit :


 
C'est une tendance qui m'agace, prendre les early adopteurs pour des cons.
 
Le coup de 1080ti, sorties près de 9 mois après la 1080 avec des performances égales à la Titan X Pascal, c'était une baise monstrueuse.
 
En gros si tu voulais exploiter au max la nouvelle génération en day one fallait aller chercher la Titan ou alors attendre (sans savoir combien de temps sinon c'est pas drôle) de voir si Nvidia sortirait une éventuelle 1080ti.
 
Là je sens venir la même chose "tu veux le top Ampère day one ? Y'a la 3090 à 2500€, sinon tu attends qu'on sorte peut être un jour la 3080ti à 1500€ lol "  
 
Perso après 5 ans, si je change c'est pas pour me retrouver avec une 3080 et être dégoûté de voir sortir la ti 6 mois plus tard avec 20-30% de perfs en plus. Y'a Cyberpunk qui sort en novembre, j'ai pas envie d'attendre des mois avant de me lancer  :(
 


 
Les 780Ti/980Ti avaient aussi des sorties différées.

n°10803497
obduction
Posté le 16-08-2020 à 15:01:41  profilanswer
 

HashKah a écrit :

Je viens de lire des rumeurs qui parlent d'une sortie en septembre de la 3080 et de la 3090 mais aucune mention de la 3080ti.
 
Etant donné qu'on m'avait dit que la 3090 devait remplacer le segment titan, je me pose des questions :
 
- Est-ce que les rumeurs sont fausses et on aura bien notre 3080ti
- Est-ce que Nvidia va nous empapaouter en ne sortent la 3080ti que dans plusieurs mois pour envoyer le maximum d'enthousiasts vers la 3090 ?  
 
Ça me ferait chier de devoir patienter 6 mois pour voir apparaître une hypothétique 3080ti et si la 3090 tape à plus de 2000€ c'est même pas la peine...
 
Plus la date approche, plus je devient méfiant connaissant les pratiques détestables d'Nvidia sur la segmentation de ses gammes de cartes (le coup des 2070 super et 2080 super c'était une belle couillonade ça aussi).
 


Je ne sais pas qui t'a dit que la 3090 devait remplacer la titan mais celui qui t'a dit ça a voulu te faire une blague. Si une nouvelle titan sort, elle utilisera forcément le nom titan et n'utilisera pas la numérotation des non titans.
 
Si la 3090 est annoncée et pas la 3080ti, c'est juste que nvidia a décidé de renommer la 3080ti en 3090. 3080ti = 3090 de toute façon.
 
Nvidia s'est peut être dit que comme les bi gpu sont définitivement mort, autant utiliser la nomenclature 90 pour quelque chose qui que de la laisser dépérir vu que depuis les 690, il n'y avait plus d'utilisation. 90 ça parle potentiellement plus niveau marketing que 80ti aux yeux du public.

n°10803502
obduction
Posté le 16-08-2020 à 15:09:44  profilanswer
 

jln2 a écrit :


 
Les 780Ti/980Ti avaient aussi des sorties différées.


Ce sont des cas particuliers car cela vient d'une époque où nvidia a d'abord sorti le milieu de gamme avant le haut de gamme.  
Les 680 alias le chip milieu de gamme GK104 sont sortit avant les 780  et 780ti alias le chip haut de gamme GK110 qui constituait le gros chip de l'architecture commune Kepler.
Les 980ti sont issus la grosse puce maxwell haut de gamme GM200 sorti après les puces milieu de gamme GM204 pour les 980.
 
Nvidia avait galéré avec le GF100 des Fermi et donc a décidé après de sortir le chip milieu de gamme en premier pour moins de problème.
 
Depuis pascal, ce n'est plus le cas vu que Nvidia a repris le fonctionnement antérieur consistant à sortir ses grosses puces en premier. Visiblement, ils n'ont plus de problème pour sortir le chip haut de gamme en premier et c'est une bonne nouvelle.

n°10803516
havoc_28
Posté le 16-08-2020 à 16:00:49  profilanswer
 

obduction a écrit :

Depuis pascal, ce n'est plus le cas vu que Nvidia a repris le fonctionnement antérieur consistant à sortir ses grosses puces en premier. Visiblement, ils n'ont plus de problème pour sortir le chip haut de gamme en premier et c'est une bonne nouvelle.


 
Tu veux dire depuis Turing, pour Pascal ils ont bien lancé le GP104 en premier, et le GP102 n'est sorti que bien plus tard, à moins de compter la Titan X version Pascal :o
 
Fin Mai 2016 : GTX 1080 @ GP104.
Août    2016  : Titan X @ GP 102
Mars    2017  : GTX 1080 Ti @ GP 102

Message cité 2 fois
Message édité par havoc_28 le 16-08-2020 à 16:06:10
n°10803524
HashKah
It’s dangerous to go alone !
Posté le 16-08-2020 à 16:31:22  profilanswer
 

havoc_28 a écrit :


 
Tu veux dire depuis Turing, pour Pascal ils ont bien lancé le GP104 en premier, et le GP102 n'est sorti que bien plus tard, à moins de compter la Titan X version Pascal :o
 
Fin Mai 2016 : GTX 1080 @ GP104.
Août    2016  : Titan X @ GP 102
Mars    2017  : GTX 1080 Ti @ GP 102


 
Donc en gros c'est uniquement sur Turing que Nvidia n'a pas empapaouter les acheteurs en sortant directement son HDG, la 2080ti, d'entrée de jeu, sans sortir une carte supérieure de son chapeau 6 mois plus tard.
 
C'est maigre quand même pour en faire une généralité et se dire que sur Ampère on est tranquilles.
 
Turing est peut être l'exception, où ils ont dû sortir la carte HDG d'entrée de jeu parce que la différence de performances brutes entre la 1080ti et la 2080 n'était pas significative en dehors du RT qui n'a servi à rien les premiers mois.
 
Là si la 3080 offre +20% par rapport à la 3080, pas sûr qu'ils sortent d'entrée de jeu la 3080ti si ils gardent cette nomenclature et qu'on reste sur le principe d'une 3090 comme ultra haut de gamme.
 
Il se peut que la 3090 serve de substitut à une Titan Ampère qui elle serait dans la catégorie semi-pro luxe, vu l'inflation des prix sur les Titan. Quand j'ai acheté ma Titan X pascal, elle valait le prix d'une 2080ti custom, la Titan RTX ayant pris quasiment 1000€ au passage, si la Titan Ampère dépasse les 3000€ il devient logique d'intercaler une carte entre 1500€ et 3000€, on peut imaginer que la 3090 remplisse cet office et se place entre 2000€ et 2500€.
 
Bien sûr ce sont des spéculations mais ça correspond à la façon de faire de Nvidia.

Message cité 3 fois
Message édité par HashKah le 16-08-2020 à 16:43:56
n°10803527
cyberfred
Posté le 16-08-2020 à 16:45:37  profilanswer
 

HashKah a écrit :


 
 
Turing est peut être l'exception, où ils ont dû sortir la carte HDG d'entrée de jeu parce que la différence de performances brutes entre la 1080ti et la 2080 n'était pas significative en dehors du RT qui n'a servi à rien lès premiers mois.
 
Là si la 3080 offre +20% par rapport à la 3080, pas sûr qu'ils sortent d'entrée de jeu la 3080ti si ils gardent cette nomenclature et qu'on reste sur le principe d'une 3090 comme ultra haut de gamme.
 
Il se peut que la 300 90 serve de substitut à une Titan Ampère qui elle serait dans la catégorie semi-pro luxe, vu l'inflation des prix sur les Titan. Quand j'ai acheté ma Titan X pascal, elle valait le prix d'une 2080ti custom, la Titan RTX ayant prix quasiment 1000€ au passage, si la Titan Ampère dépasse les 3000€ il devient logique d'intercaler une carte entreprises 1500€ et 3000€, on peut imaginer que la 3090 remplisse cet office et se place entre 2000€ être 2500€.
 


 
je suppose que tu voulais dire par rapport à la 2080 Ti ;)
maintenant , on verra bien mais si Nvidia nous sort une 3090 en septembre , il se pourrait aussi qu'il n'y ait tout simplement pas de "3080 ti" et que 3090 = 3080 ti tout simplement  
mais je suis dubitatif sur le fait qu'une 3090 soit un substitu à une nouvelle Titan , on verra bien :jap:

n°10803533
AllenMadis​on
Posté le 16-08-2020 à 17:04:23  profilanswer
 

HashKah a écrit :


 
Donc en gros c'est uniquement sur Turing que Nvidia n'a pas empapaouter les acheteurs en sortant directement son HDG, la 2080ti, d'entrée de jeu, sans sortir une carte supérieure de son chapeau 6 mois plus tard.
 
C'est maigre quand même pour en faire une généralité et se dire que sur Ampère on est tranquilles.
 
Turing est peut être l'exception, où ils ont dû sortir la carte HDG d'entrée de jeu parce que la différence de performances brutes entre la 1080ti et la 2080 n'était pas significative en dehors du RT qui n'a servi à rien les premiers mois.
 
Là si la 3080 offre +20% par rapport à la 3080, pas sûr qu'ils sortent d'entrée de jeu la 3080ti si ils gardent cette nomenclature et qu'on reste sur le principe d'une 3090 comme ultra haut de gamme.
 
Il se peut que la 3090 serve de substitut à une Titan Ampère qui elle serait dans la catégorie semi-pro luxe, vu l'inflation des prix sur les Titan. Quand j'ai acheté ma Titan X pascal, elle valait le prix d'une 2080ti custom, la Titan RTX ayant pris quasiment 1000€ au passage, si la Titan Ampère dépasse les 3000€ il devient logique d'intercaler une carte entre 1500€ et 3000€, on peut imaginer que la 3090 remplisse cet office et se place entre 2000€ et 2500€.
 
Bien sûr ce sont des spéculations mais ça correspond à la façon de faire de Nvidia.


 
Ils ont par contre baisé ceux qui avaient acheté une 2080 ou 2070 avec la sortie des Super...

n°10803536
sardhaukar
Posté le 16-08-2020 à 17:13:39  profilanswer
 

AllenMadison a écrit :


 
Ils ont par contre baisé ceux qui avaient acheté une 2080 ou 2070 avec la sortie des Super...


 
Je ne suis pas d'accord, ça se voyait bien que le deal des 2070/2080 était mauvais ça a été rabâché 1000 fois sur le topic Turing. Ces acheteurs ont payé de plein grès. Que plus tard le rapport perf/prix a évolué suite à la sortie de RNDA n'est pas du tout une surprise.

n°10803538
obduction
Posté le 16-08-2020 à 17:18:40  profilanswer
 

havoc_28 a écrit :


 
Tu veux dire depuis Turing, pour Pascal ils ont bien lancé le GP104 en premier, et le GP102 n'est sorti que bien plus tard, à moins de compter la Titan X version Pascal :o
 
Fin Mai 2016 : GTX 1080 @ GP104.
Août    2016  : Titan X @ GP 102
Mars    2017  : GTX 1080 Ti @ GP 102


Tu as raison. J'avais pas vérifié pour Pascal et j'étais persuadé qu'ils avaient changé avec ça.
Cela reste quand même une période transitoire unique car à part ces 3 archis, nvidia a toujours sorti le haut de gamme en premier.

n°10803539
Baudeflo
Posté le 16-08-2020 à 17:19:04  profilanswer
 

sardhaukar a écrit :


 
Je ne suis pas d'accord, ça se voyait bien que le deal des 2070/2080 était mauvais ça a été rabâché 1000 fois sur le topic Turing. Ces acheteurs ont payé de plein grès. Que plus tard le rapport perf/prix a évolué suite à la sortie de RNDA n'est pas du tout une surprise.


 
La tuile  :sweat:


---------------
NB life
n°10803540
obduction
Posté le 16-08-2020 à 17:22:46  profilanswer
 

HashKah a écrit :

 

Donc en gros c'est uniquement sur Turing que Nvidia n'a pas empapaouter les acheteurs en sortant directement son HDG, la 2080ti, d'entrée de jeu, sans sortir une carte supérieure de son chapeau 6 mois plus tard.

 

C'est maigre quand même pour en faire une généralité et se dire que sur Ampère on est tranquilles.

 

Turing est peut être l'exception, où ils ont dû sortir la carte HDG d'entrée de jeu parce que la différence de performances brutes entre la 1080ti et la 2080 n'était pas significative en dehors du RT qui n'a servi à rien les premiers mois.

 

.


Je crois que tu as loupé la floppé d'archi avant kepler où nvidia sortait le haut de gamme en premier. Turing est donc tout sauf une exception mais une généralité qui est revenu après une période temporaire.
Aucune raison sauf problème pour fabriquer le gpu hdg qu'nvidia revienne à la période kepler-Pascal.
D'ailleurs il y a pas une rumeur qui va dans le sens d'une sortie du milieu de gamme en premier et pourtant on a eu une floppée de rumeur issu de pleins de personnes même des certifiées déjà bidon. Cela confirme qu'on aura bien du haut de gamme.

AllenMadison a écrit :

 

Ils ont par contre baisé ceux qui avaient acheté une 2080 ou 2070 avec la sortie des Super...


Pas du tout mais alors pas du tout.


Message édité par obduction le 16-08-2020 à 17:23:46
n°10803542
Tey35
Posté le 16-08-2020 à 17:37:58  profilanswer
 

Les super, notamment la 2070S étaient une réponse à la sortie des RX5700/XT d’AMD.
Nvidia qui cherche toujours impérativement à étouffer tout lancement d’AMD ne pouvait pas laisser une carte dépasser sa 2070 (RX5700XT) pour prêt de 200€ de moins, il fallait combler ce trou, surtout sur ce segment semi-HDG très important.


Message édité par Tey35 le 16-08-2020 à 17:38:43

---------------
Ryzen 3800X / 32Go 3600C16 / Vega 64 Gigabyte OC / B450 Strix / 970evo Nvme /Noctua NHU12A / Seasonic Focus+ 850 / Phanteks evolv x / 5x Noctua NFP14s / MSI Optix Mag271CQR 1440p 144Hz et Pixel mort :D
n°10803546
HashKah
It’s dangerous to go alone !
Posté le 16-08-2020 à 17:45:47  profilanswer
 

sardhaukar a écrit :


 
Je ne suis pas d'accord, ça se voyait bien que le deal des 2070/2080 était mauvais ça a été rabâché 1000 fois sur le topic Turing. Ces acheteurs ont payé de plein grès. Que plus tard le rapport perf/prix a évolué suite à la sortie de RNDA n'est pas du tout une surprise.


 
Ouais enfin quand tu dois acheter un gpu tu ne peux parfois pas attendre de voir les prochains moove de Nvidia sur les 6 prochains mois.
 
Depuis hier je n'ai plus de GPU dédié puisque j'ai vendu le mien.  
Je peux faire preuve de patience deux mois (voire trois si c'est juste un soucis de délai de livraison/approvisionné) mais après il va me falloir un GPU parce que mon temps libre j'aime bien l'utiliser à jouer et que ma pile de bouquins et de livres en retard ne me permettra pas de patienter au delà.
 
C'est bien en cela que le coup des super était une belle baise, on ne donne aucune visibilité aux potentiels acheteurs et on sort un refresh qui était certainement prévu bien avant, 6 mois plus tard.
 
C'est un reproche qui s'adresse à AMD aussi, lors d'une conférence de lancement de génération on devrait avoir une roadmap avec les dates de sortie du Haut de Gamme, du Moyen de Gamme et du Bas de gamme, avec l'assurance qu'il n'y aura pas de sortie surprise.
 
Autre problème, AMD et Nvidia sont en syncro maintenant sur leurs sorties de GPU.  
Big Navi est aussi prévu pour l'automne apparemment, du coup impossible de se tourner vers l'un plutôt que l'autre puisque dans le deux cas on ne peut prédire ce qu'ils vont faire.
 
Si encore il y avait un décalage de 6 mois, on pourrait se dire "bon AMD ils ont sorti Big Navi depuis 6 mois, y'a aucune rumeur, a priori je suis peinard, leur HDG sera bien leur HDG" et comparer avec les premiers tests de la nouvelle génération Nvidia pour voir si ça vaut le coup d'attendre ou pas.
 
Après malheureusement, même si niveau Cpu AMD ont fait une remontada fantastique, sur la partie GPU je doute d'un rattrapage sur le HDG, au mieux on aura des performances de l'ordre d'une 2080ti, sans pour autant avoir accès aux technologies propriétaires Nvidia et aux tensors core puisqu'ils n'en ont pas parlé et ne semblent pas aller dans cette direction.
 
On connaît tous le problème de toutes manières, si tu veux du HDG aujourd'hui, tu es pleinement tributaire d'Nvidia et de leurs caprices que ce soit sur le prix ou les délais.  
 
Et dire que les 2080ti n'ont pas baissé d'un centime chez les revendeurs et que sur leboncoin t'en négocie pas une custom sous la barre des 1000€, ça fout les j'tons  :sweat:  
 
 

Message cité 1 fois
Message édité par HashKah le 16-08-2020 à 17:48:00
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  94  95  96  ..  1872  1873  1874  1875  1876  1877

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR