Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2317 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  78  79  80  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10795148
Baudeflo
Posté le 23-07-2020 à 11:06:53  profilanswer
 

Reprise du message précédent :

cyberfred a écrit :

en parlant de news/rumeurs :
https://www.guru3d.com/news-story/r [...] ected.html

Citation :

Rumor: Ampere based GeForce RTX 3000 series might arrive earlier than expected


 
on verra bien ;)


 
https://www.cowcotland.com/news/727 [...] chain.html
 
Encore de la rumeur mais bon :o
 
Drap :o


---------------
NB life
mood
Publicité
Posté le 23-07-2020 à 11:06:53  profilanswer
 

n°10795171
Mr Fox
Fox engine
Posté le 23-07-2020 à 12:32:42  profilanswer
 

cyberfred a écrit :

en parlant de news/rumeurs :
https://www.guru3d.com/news-story/r [...] ected.html

Citation :

Rumor: Ampere based GeForce RTX 3000 series might arrive earlier than expected


 
on verra bien ;)


Oui enfin entre fin Aout et Septembre ce n'est pas énorme.
 
De toute façon sans covid, les cartes étaient annoncées en mai et on sait quasi tout des specs.
 
Il ne manque plus que les tests et le prix mais à mon avis ils attendent amd pour ça :o

n°10795173
Rayaki
Posté le 23-07-2020 à 12:43:37  profilanswer
 

Mr Fox a écrit :


Oui enfin entre fin Aout et Septembre ce n'est pas énorme.
 
De toute façon sans covid, les cartes étaient annoncées en mai et on sait quasi tout des specs.
 
Il ne manque plus que les tests et le prix mais à mon avis ils attendent amd pour ça :o


 
Euh non  [:dakans]  


---------------
Clan Torysss.
n°10795183
davideneco
Posté le 23-07-2020 à 13:06:03  profilanswer
 

Rayaki a écrit :


 
Euh non  [:dakans]  


 
 
A part le nombre de tensor/rt core et leur performance,  on connait quasi tout

n°10795185
cyberfred
Posté le 23-07-2020 à 13:06:51  profilanswer
 

Mr Fox a écrit :


Oui enfin entre fin Aout et Septembre ce n'est pas énorme.
 
De toute façon sans covid, les cartes étaient annoncées en mai et on sait quasi tout des specs.
 
Il ne manque plus que les tests et le prix mais à mon avis ils attendent amd pour ça :o


 
bah non , y jamais vraiment eu d'annonces de cartes en Mai  :??: même sans Covid
tant qu'Nvidia n'a pas donné des infos lors d'un evenement/conf dédiée , y a rien de plus que des rumeurs pour le moment :spamafote:
même si on peut se douter qu'on aura probablement du concret d'ici fin aout/ début septembre :jap:

Message cité 1 fois
Message édité par cyberfred le 23-07-2020 à 13:30:28
n°10795238
Mesobuthus
Posté le 23-07-2020 à 14:43:47  profilanswer
 

https://www.live360.fr/nvidia-gefor [...] fications/
2ème rumeur en à peine un mois concernant de possibles 3070ti ça sent plutôt bon j'ai plutôt envie d'y croire!

n°10795240
Mr Fox
Fox engine
Posté le 23-07-2020 à 14:48:13  profilanswer
 

davideneco a écrit :


 
 
A part le nombre de tensor/rt core et leur performance,  on connait quasi tout


 :jap:  
 

cyberfred a écrit :


 
bah non , y jamais vraiment eu d'annonces de cartes en Mai  :??: même sans Covid
tant qu'Nvidia n'a pas donné des infos lors d'un evenement/conf dédiée , y a rien de plus que des rumeurs pour le moment :spamafote:
même si on peut se douter qu'on aura probablement du concret d'ici fin aout/ début septembre :jap:


Je ne comprends pas ce que tu dis, le Covid etait déjà présent en mai et Nv a explicitement dit qu'ils reportaient leur conf
 
Sinon c'est comme d habitude, tu vas voir que les rumeurs sur les specs vont etre vrais...de toute façon la plupart des chiffres annoncés me semblent très cohérent.
 
La seule grande inconnue est le prix, est ce que ça va s'envoler comme la gen précédente ou rester constant ?
 
 

n°10795242
Tolrahc
Posté le 23-07-2020 à 14:49:39  profilanswer
 

Moi je prédis qu'elles sortiront un jour ces cartes et qu'au moins l'une d'entre elles sera plus perf qu'une 2080 Ti [:michaeldell:2]

n°10795243
cyberfred
Posté le 23-07-2020 à 14:50:18  profilanswer
 

@Mr Fox : ils ont reporté leur conf , mais rien ne dit qu'ils auraient annoncé la prochaine gen à ce moment là ;)
 
sinon +1 avec toi sur le prix/perf , en espérant qu'il n'y ait pas une grosse envolée à ce niveau  :sweat:


Message édité par cyberfred le 23-07-2020 à 14:50:40
n°10795269
havoc_28
Posté le 23-07-2020 à 15:35:50  profilanswer
 

Mr Fox a écrit :

De toute façon sans covid, les cartes étaient annoncées en mai et on sait quasi tout des specs.
Sinon c'est comme d habitude, tu vas voir que les rumeurs sur les specs vont etre vrais...de toute façon la plupart des chiffres annoncés me semblent très cohérent.


 
Non [:arslan310]. A force de balancer des chiffres / spéculations, on finit toujours par se rapprocher du nombre réel, mais combien de ces spéculations seront fausses au final ? Les mêmes qui annonçaient du GA102 à 8000 unités puis c'est passé à 6000 puis dans les 5000  :whistle:  Si on fait le compte des rumeurs qui se sont relevées fausses y en a bien plus que celles qui ont vu juste ...
 
 

davideneco a écrit :

A part le nombre de tensor/rt core et leur performance,  on connait quasi tout


 
A part les spéculations des rumeurs et ce qui a été révélé avec le GA100 on connait quasi rien  :whistle:.
 
Comme les divers magiques qui allaient sauver Vega, car ls drivers de la Frontiers Editions à sa sortie était pas assez optimisé, carte pro non destinée au jeu blabla :o.


Message édité par havoc_28 le 23-07-2020 à 16:27:20
mood
Publicité
Posté le 23-07-2020 à 15:35:50  profilanswer
 

n°10795365
obduction
Posté le 23-07-2020 à 19:42:31  profilanswer
 

Feitan21 a écrit :

Pourquoi pas de HBM2 sur Big Navi ?


Vu ce qu'il s'est passée avec les vega obligeant à avoir des prix élevés à cause de la hbm pour un intérêt quasi nul face à la gddr, AMd a je pense abandonner la HBM pour les cartes gaming car pas d'intérêt.

n°10795371
havoc_28
Posté le 23-07-2020 à 20:00:42  profilanswer
 

obduction a écrit :

Vu ce qu'il s'est passée avec les vega obligeant à avoir des prix élevés à cause de la hbm pour un intérêt quasi nul face à la gddr, AMd a je pense abandonner la HBM pour les cartes gaming car pas d'intérêt.


 
A l'époque la GDDR6 n'existait pas, la GDDR5X n'a pas été adopté mar les autres fabriquants de ram, Micron semblait avoir contrat d'exclusivité avec Nvidia pour la GDDR5x. Un gros Polaris / Vega en GDDR5 aurait été possible mais à quel prix ? Fréquence en berne conso astronomique ...  Une carte équivalente à une 1070 de base pour 350w ?  :pt1cable:   Vega 64 arrive au moins au niveau d'une 1080 pour 300w mais bon   :whistle:  
 
AMD n'avait pas non plus les moyens de multiplier les designs, Vega a été envisagé comme puce à tout faire, servant à la fois le marché HPC etc, une puce à tout faire pas forcément très orienté jeu ... De plus certaines fonctionnalité de Vega n'ont finalement jamais été opérationnelle : les primitives shaders (qui le sont dans RDNA), le razteriser n'a pas fonctionné comme prévu aussi ...  
 
Bref Vega n'est pas une si mauvaise architecture que ça, mais utilisée pour le jeu ... c'est vraiment pas ça :o  (après en promo, undervolt etc pourquoi pas hein), à l'époque AMD avait trop d'alternative non plus : /.

Message cité 2 fois
Message édité par havoc_28 le 23-07-2020 à 20:05:16
n°10795374
obduction
Posté le 23-07-2020 à 20:09:42  profilanswer
 

havoc_28 a écrit :


 
A l'époque la GDDR6 n'existait pas, la GDDR5X n'a pas été adopté mar les autres fabriquants de ram, Micron semblait avoir contrat d'exclusivité avec Nvidia pour la GDDR5x. Un gros Polaris / Vega en GDDR5 aurait été possible mais à quel prix ? Fréquence en berne conso astronomique ...  Une carte équivalente à une 1070 de base pour 350w ?  :pt1cable:   Vega 64 arrive au moins au niveau d'une 1080 pour 300w mais bon   :whistle:  
 
AMD n'avait pas non plus les moyens de multiplier les designs, Vega a été envisagé comme puce à tout faire, servant à la fois le marché HPC etc, une puce à tout faire pas forcément très orienté jeu ... De plus certaines fonctionnalité de Vega n'ont finalement jamais été opérationnelle : les primitives shaders (qui le sont dans RDNA), le razteriser n'a pas fonctionné comme prévu aussi ...  
 
Bref Vega n'est pas une si mauvaise architecture que ça, mais utilisée pour le jeu ... c'est vraiment pas ça :o  (après en promo, undervolt etc pourquoi pas hein), à l'époque AMD avait trop d'alternative non plus : /.


Ils ne referont pas la même erreur car la hbm2 n'apportait pas ce qui avait été marketé niveau perfs et seul le prix a eu droit au toujours plus haut alors que cela n'était pas le but à la base. S'ils refont la même erreur, ce serait assez grave.
 
S'ils utilisent la HBM2, ce sera uniquement pour une puce pour cartes professionnelles un peu comme nvidia utilise la hbm sur sa puce GA100 mais pas sur les autres puces de l'archi ampère destinés aux joueurs.

n°10795379
havoc_28
Posté le 23-07-2020 à 20:25:34  profilanswer
 

obduction a écrit :


Ils ne referont pas la même erreur car la hbm2 n'apportait pas ce qui avait été marketé niveau perfs et seul le prix a eu droit au toujours plus haut alors que cela n'était pas le but à la base. S'ils refont la même erreur, ce serait assez grave.
 
S'ils utilisent la HBM2, ce sera uniquement pour une puce pour cartes professionnelles un peu comme nvidia utilise la hbm sur sa puce GA100 mais pas sur les autres puces de l'archi ampère destinés aux joueurs.


 
La HBM2 c'est pas sa faute si GCN était à bout de souffle et pas une super architecture pour le jeu sur sa fin, pour avoir autant de bande passante que ce qu'ont fourni les deux empilement de HBM2 de V10 ... il aurait fallut un bus mémoire 512 bits et de la GDDR5 à 8 gb/s,  niveau consommation voila quoi ... Sans HBM2 la situation aurait été encore pire pour Vega ou la grosse Polaris le cas échéant sur le plan conso, ou il aurait comme dit plus haut avoir des fréquences et donc performance en baisse ...
 
Maintenant AMD avec le passage au 7nm, et une refonde de son architecture, c'est plus la même problématique, ils peuvent utiliser de la GDDR6 plus efficiente et rapide que ne l'était la GDDR5 et réserver la HBM2 pour CDNA.  
 

n°10795427
Activation
21:9 kill Surround Gaming
Posté le 23-07-2020 à 22:16:38  profilanswer
 

davideneco a écrit :


 
 
A part le nombre de tensor/rt core et leur performance,  on connait quasi tout


 
le seul dire officiel de nvidia ça a été sur le rapport de tensor core comparé à turing
 
et le design du rad via photo volé
 
sorti de ça je pige pas l’excitation de supposé qu il va y avoir une 3070ti ou une 3090 ou une 3080ultra ou une "jambon edition"
pourrait y avoir 50 déclinaison
si vous n avez pas la grille tarifaire et les perf en face de cette grille tarifaire, on s'en tape du nom de la carte moi j'ai envie de dire :o
 
juste pour pipoter pourrait balancer un message sur reddit en english :o pour dire un crack type, y a la RTX3080Ultima qui est prévu, le Ultima faisant référence à dx12ultimate
y aurait encore 3 gus pour le croire et se branler dessus
 
lancer des rumeurs c'est pas compliqué, t as pas besoin d'être chinois ou américain pour faire croire que ces des fuite d'un gars qui bosse à l usine, ou d'un mail qu'à fuite d'une tete de chez nvidia aux states
suffit juste d'avoir des comptes qui date un peu sur des forums un peu connu et balance la sauce dans une langue qui n'est pas la tienne :o
 
cette année 2020 a été une purge en terme conférence aussi bien destiné aux utilisateurs finaux, que les conf destinés aux developpeurs
idem destiné aux investisseurs ou ils ont sorti la mega dose de brosse à reluire, jamais ils auront autant ciré du vent pour le rendre "solide" des avis des financiers
 
Ai confiance [:mastersam:1]
 
Par contre c'est enfoncer des portes ouverte que de dire "y aura plus d'unités de calculs que la gen d'avant"
Non sans blague, pour des taches massivement parallélisable, en augmentant la nb d'unités de calculs car on gagne en finesse de gravure
on a des gains de perf .... wouuuuuuah ça me trou le luc :o
Bizarre ça moi je pensais qu'on gagnait des perfs en réduisant le nb de transistors, donc d'unité de calcul [:zogfix_weapon357]
 
Par contre avoir des gains avec moins de transistors ça reste possible, tout simplement car ta version précédente était peut être pas optimal, donc en la voyant vivre tu vois ce qui peut être optimisé, améliorer
ou carrément changer complètement la méthodologie pour viser un même but (exemple le mesh shading)
 
par contre ça se fait à des date charnière ces changements, exemple là un changement de gen de consoles
Vous prenez là un cerny qui la bouche en coeurs te parle de ssd, de son, etc...
technologiquement ça aurait pu être fait dès la PS4pro, ça n'aurait servit à rien, car ça n'aurait pas pu être appliqué à la ps4 non pro
 
Bref la seule chose dont il faut se rejouir c'est qu'à fin 2020, les consoles nouvelles gen vont enfin profiter d'un gap technologique
pas qu'en terme de "le cpu tourne plus vite, et y a plus d'unité de calculs"
 
mais bien en terme "on a repensé la manière de faire, ça sera le nouveau socle minimum hardware, vous n'avez plus le droit d'ignorer ces technologies, car un éditeur concurrent saura les utiliser et vous bouffer votre marché, si vous n'en tiré pas avantage dans vos propres productions"


Message édité par Activation le 23-07-2020 à 22:32:39
n°10795448
jinxjab
Protection engendre sacrifice
Posté le 23-07-2020 à 23:00:40  profilanswer
 

Mesobuthus a écrit :

https://www.live360.fr/nvidia-gefor [...] fications/
2ème rumeur en à peine un mois concernant de possibles 3070ti ça sent plutôt bon j'ai plutôt envie d'y croire!


 
Je n'ai toujours pas trouvé de lien pour l’hypothétique GDDR6X.
Comment les gens peuvent croire en ces "leaks" ?


Message édité par jinxjab le 23-07-2020 à 23:01:15

---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°10795449
Le Profana​teur
Passéiste désincarné
Posté le 23-07-2020 à 23:03:07  profilanswer
 

Comment des gens peuvent les lire surtout.


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°10795472
Helyis
Choisir, c'est mourir un peu
Posté le 24-07-2020 à 00:23:14  profilanswer
 

havoc_28 a écrit :


 
A l'époque la GDDR6 n'existait pas, la GDDR5X n'a pas été adopté mar les autres fabriquants de ram, Micron semblait avoir contrat d'exclusivité avec Nvidia pour la GDDR5x. Un gros Polaris / Vega en GDDR5 aurait été possible mais à quel prix ? Fréquence en berne conso astronomique ...  Une carte équivalente à une 1070 de base pour 350w ?  :pt1cable:   Vega 64 arrive au moins au niveau d'une 1080 pour 300w mais bon   :whistle:  
 
AMD n'avait pas non plus les moyens de multiplier les designs, Vega a été envisagé comme puce à tout faire, servant à la fois le marché HPC etc, une puce à tout faire pas forcément très orienté jeu ... De plus certaines fonctionnalité de Vega n'ont finalement jamais été opérationnelle : les primitives shaders (qui le sont dans RDNA), le razteriser n'a pas fonctionné comme prévu aussi ...  
 
Bref Vega n'est pas une si mauvaise architecture que ça, mais utilisée pour le jeu ... c'est vraiment pas ça :o  (après en promo, undervolt etc pourquoi pas hein), à l'époque AMD avait trop d'alternative non plus : /.


 
 
Honnêtement, je peut pas trop te laisser dire ça se vega, elles ont quand même très bien vieilli pour du jeu, elles mangent bien leur concurrent de l'époque, quand on voit ce qu'une vega64 custom met dans les dents d'une 1080 custom, et de où elles partaient à l'époque, ils ont fait du bon boulot. LEs cartes étaient terriblement mauvaise à la sortie à cause du design de référence pas adapté, de ses voltages trop haut (quand je vois l'undervolt que prend quasi toutes les vega que j'ai eu entre les mains, ils auraient pu s'éviter une réputation horrible avec un peu de binning...), et des drivers pas mature. Une fois que tu leurs donne le soin qu'elles méritent, avec un undervolt et un petit oc sur la mémoire HBM2 (l'architecture est tellement demandante de bande passante mémoire...), ça te fait une carte très très bonne, surtout au prix qui était le sien sur la fin de vie... :/  
 
Je dirai que vega en jeu, c'est une opportunité gâchée d'AMD, gâchée par le fait qu'elle sois arrivé trop tard, face aux monstres qu'étaient les gpu pascal

n°10795473
Rayaki
Posté le 24-07-2020 à 00:24:26  profilanswer
 

et comme d'habitude (parce que bon hein la nature humaine est ce qu'elle est...), les personnes qui pensent dur comme fer connaitre les specs exactes vont être les 1ere à venir CHOUINER quand les specs vont sortir !!
 
 
 [:bakk47]  [:moquette:1]  [:lergo:3]  
 
-> OUIN c'est plus cher que ça devait l'être, on nous prend pour des mougeons
-> OUIN ce n'est pas ce qui était prévu, sisijelejure j'avais mes sources proches de nvidia
-> OUIN c'est moins rapide que prévu, pourtant le changement de gravure nous avait promis easy 50% (sans préciser)
-> AH je vous l'avais dit que j'avais raison (après avoir changer 10 fois de version histoire de couvrir tous les cas possibles, au fil des semaines)
-> NVIDIA nous a menti !!!! faut boycotter, le produit final n'est pas celui qui nous avait été promis
 
Bref ! y a quand même pas mal de monde pour ne pas comprendre qu'une rumeur, c'est... UNE RUMEUR !
 
On peut parler et discuter des "leaks" éventuels pour en tirer des discussions et avis, mais ca ne va pas plus loin !
Les seuls qui SAVENT actuellement, ce sont NVIDIA et leur partenaires proches sous NDA (et éventuellement les fuites dont la seule actuellement qui serait la plus véridique serait la photo du design de la carte)
 

Spoiler :

et bien entendu, elles vont jurer qu'on ne l'y reprendra plus... et rebelotte l'année suivante :o


Message édité par Rayaki le 24-07-2020 à 00:28:08

---------------
Clan Torysss.
n°10795479
Rayaki
Posté le 24-07-2020 à 00:31:01  profilanswer
 

Tolrahc a écrit :

Moi je prédis qu'elles sortiront un jour ces cartes et qu'au moins l'une d'entre elles sera plus perf qu'une 2080 Ti [:michaeldell:2]


 
Mais  :lol:  :lol:  :lol:  :lol:  :lol:  
Bon là je pense qu'on peut dire que tu ne prends pas beaucoup de risques :o


---------------
Clan Torysss.
n°10795496
havoc_28
Posté le 24-07-2020 à 02:20:25  profilanswer
 

Helyis a écrit :


 
 
Honnêtement, je peut pas trop te laisser dire ça se vega, elles ont quand même très bien vieilli pour du jeu, elles mangent bien leur concurrent de l'époque, quand on voit ce qu'une vega64 custom met dans les dents d'une 1080 custom, et de où elles partaient à l'époque, ils ont fait du bon boulot. LEs cartes étaient terriblement mauvaise à la sortie à cause du design de référence pas adapté, de ses voltages trop haut (quand je vois l'undervolt que prend quasi toutes les vega que j'ai eu entre les mains, ils auraient pu s'éviter une réputation horrible avec un peu de binning...), et des drivers pas mature. Une fois que tu leurs donne le soin qu'elles méritent, avec un undervolt et un petit oc sur la mémoire HBM2 (l'architecture est tellement demandante de bande passante mémoire...), ça te fait une carte très très bonne, surtout au prix qui était le sien sur la fin de vie... :/  
 
Je dirai que vega en jeu, c'est une opportunité gâchée d'AMD, gâchée par le fait qu'elle sois arrivé trop tard, face aux monstres qu'étaient les gpu pascal


 
https://www.techpowerup.com/review/ [...] vo/28.html
 
https://tpucdn.com/review/asus-radeon-rx-5700-xt-tuf-evo/images/relative-performance_2560-1440.png
 
Si on prend un panel 100 % DX12 / Vulkan  une Vega 64 sera surement 10/15% devant en moyenne, mais on est déjà 3 ans après la sortie de V10 quasiment et ça fait 4 ans que le GP104 est sorti ... Et un GP104 ça s'overclock aussi ... J'ai eut les deux donc bon ...  Attendre 2/3 ans pour commencer à voir sa carte égaler voir dépasser légèrement a concurrente de l'époque, puis encore 1 à 2 ans pour qu'il commence à y avoir réellement une marge un peu notable en faveur de sa carte ... moui. Le test de TPU date de juin dernier. Bref celui qui a une 1080 depuis 4 ans, il a pas une expérience de jeu vraiment dégradée par rapport à ce que tu as avec une Vega 64 ...  
 
A nouveau Vega c'est une architecture généraliste tout à fait correcte, mais pour une utilisation jeu Pure ? Non ... Suffit de regarder les chiffres.  
 
GP 104 : 314 mm², 16 nm FF+ 2560 unités, bus mémoire 256 bits 320 go/s de BP (GDDR5X), 64 ROPs, 160 TMU.  
GP 102 : 471 mm² //               3840 unités, bus mémoire 384 bits 548 go/s de BP (GDDR5x) 96 ROPs,  240 TMU.
V 10    : 484 mm²  14 nm LPP 4096 unités, bus mémoire "2048 bits" 484 go/s de BP HBM 2 , 64 ROPs, 256 TMU.  
 
V10 bien plus large que le GP104, comparable au GP102, le 14 nm LPP est aussi un peu plus dense que le 16 nm FF mais il est vrai qu'il monte un peu moins bien en fréquence (mais pas tant que ça), de plus, oui, il y a pas mal de truc pour le compute, mais le joueur c'est pas son problème, la HBM2 était (et reste) bien plus coûteuse que la GDDR5X etc
 
Y a eut de bonne affaire avec V10, offrant un très bon rapport performance prix V56/64, mais à nouveau en tant qu'architecture en prenant juste l'aspect jeu malgré le fait qu'elle dispose d'un support DX12 / Vulkan bien meilleur que Pascal ça ne change pas les faits ... En tant que puce niveau taille V10 est bien plus comparable au GP102 et à cause de son niveau de performance AMD a été obligé tant bien que mal de s’aligner avec le GP104 niveau tarif, pour rester compétitif, alors que le GP104 ou même le GP102 étaient moins coûteux à produire que le V10 ...  
 
Tu juges la carte uniquement sur son rapport performance / prix bref les vega 56/ 64 en tant que cartes, moi encore une fois je parle au niveau de l'architecture où l'on doit prendre un peu plus de recul ...
 
Vega (sous ses formes V56/64) a été une très mauvaise affaire pour AMD comparé à ce qu'a été Pascal pour Nvidia ... A voir maintenant ce que donneront Ampère VS RDNA 2.

Message cité 1 fois
Message édité par havoc_28 le 24-07-2020 à 02:36:18
n°10795543
Mr Fox
Fox engine
Posté le 24-07-2020 à 09:40:45  profilanswer
 

havoc_28 a écrit :


 
...
 
V10 bien plus large que le GP104, comparable au GP102, le 14 nm LPP est aussi un peu plus dense que le 16 nm FF mais il est vrai qu'il monte un peu moins bien en fréquence (mais pas tant que ça), de plus, oui, il y a pas mal de truc pour le compute, mais le joueur c'est pas son problème, la HBM2 était (et reste) bien plus coûteuse que la GDDR5X etc
 
Y a eut de bonne affaire avec V10, offrant un très bon rapport performance prix V56/64, mais à nouveau en tant qu'architecture en prenant juste l'aspect jeu malgré le fait qu'elle dispose d'un support DX12 / Vulkan bien meilleur que Pascal ça ne change pas les faits ... En tant que puce niveau taille V10 est bien plus comparable au GP102 et à cause de son niveau de performance AMD a été obligé tant bien que mal de s’aligner avec le GP104 niveau tarif, pour rester compétitif, alors que le GP104 ou même le GP102 étaient moins coûteux à produire que le V10 ...  
 
Tu juges la carte uniquement sur son rapport performance / prix bref les vega 56/ 64 en tant que cartes, moi encore une fois je parle au niveau de l'architecture où l'on doit prendre un peu plus de recul ...
 
Vega (sous ses formes V56/64) a été une très mauvaise affaire pour AMD comparé à ce qu'a été Pascal pour Nvidia ... A voir maintenant ce que donneront Ampère VS RDNA 2.


Intéressant, au passage la 1080 s'overclokait très bien aussi.
 
J'avais été déçu à l'époque de pascal par les vega et même par les Rx480. Je pense qu'AMD fera mieux cette gen mais NV sera au dessus dans le très haut de gamme.
Si je prêche pour ma paroisse, j'attends de voir le prix des série 70 et de l'AMD en face :o

n°10795566
Iryngael
Awesome, ain't it ?
Posté le 24-07-2020 à 10:30:05  profilanswer
 

Ma 1080 se porte tellement bien que c'est la première fois que je suis CPU limited tellement j'ai gardé la carte longtemps (merci Ubisoft :o)...


Message édité par Iryngael le 24-07-2020 à 10:32:05

---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°10795573
obduction
Posté le 24-07-2020 à 10:39:06  profilanswer
 

havoc_28 a écrit :


 
La HBM2 c'est pas sa faute si GCN était à bout de souffle et pas une super architecture pour le jeu sur sa fin, pour avoir autant de bande passante que ce qu'ont fourni les deux empilement de HBM2 de V10 ... il aurait fallut un bus mémoire 512 bits et de la GDDR5 à 8 gb/s,  niveau consommation voila quoi ... Sans HBM2 la situation aurait été encore pire pour Vega ou la grosse Polaris le cas échéant sur le plan conso, ou il aurait comme dit plus haut avoir des fréquences et donc performance en baisse ...
 
Maintenant AMD avec le passage au 7nm, et une refonde de son architecture, c'est plus la même problématique, ils peuvent utiliser de la GDDR6 plus efficiente et rapide que ne l'était la GDDR5 et réserver la HBM2 pour CDNA.  
 


La HBM2, sa faute c'est son prix trop élevé.
Plus de bande passante, c'est bien mais encore faut-il que le gpu puisse l'exploiter. La GDDR n'avait pas à rougir au final au niveau débit.
 
Avec la GDDR6 qui permet de très gros débits, plus aucun intérêt pour des cartes joueurs d'avoir de la HBM bien plus chère qui n'apportera rien en pratique.

n°10795632
AllenMadis​on
Posté le 24-07-2020 à 12:34:48  profilanswer
 

tant qu'on a pas les bench et les prix, tout débat sert a rien
 
 
voala


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10795657
havoc_28
Posté le 24-07-2020 à 13:16:56  profilanswer
 

obduction a écrit :


La HBM2, sa faute c'est son prix trop élevé.
Plus de bande passante, c'est bien mais encore faut-il que le gpu puisse l'exploiter. La GDDR n'avait pas à rougir au final au niveau débit.


 
A nouveau la GDDR5 le maximum qu'ont pouvait faire c'est 512 gb/s avec de la GDDR5 à 8 Gb/s , une V64 avec une telle configuration mémoire ça aurait pas été 300w mais 400/450w hein ... Et vega 64 n'avait que deux empilements de HBM2, si y avait pas eut la problématique du tarif de la HBM2 on aurait pu avoir 4 empilement comme sur V20 et avoir 1 To/s de BP ... le double de ce que permettait la GDDR5, soucis le tarif aurait été encore plus démentiel ...  
 
V10 répondait très bien à l'augmentation de bande passante (voir oc de la HBM2 sur V10)ou encore avec V20 où ils ont principalement doublé la bande passante mémoire.  
 
Mais le tarif de la HBM2 ne rend pas cette tech intéressante pour carte grand publique effectivement, et avec la dispo en masse de la GDDR6 y a pas trop de question à se poser à ce niveau oui.  
 
GA100 / CDNA en HBM2, Ampère pour joueur et autre non activité HPC / RDNA 2 la GDDR6 fera le travail.

Message cité 1 fois
Message édité par havoc_28 le 24-07-2020 à 13:22:07
n°10795799
ppn7
Posté le 24-07-2020 à 17:53:22  profilanswer
 

Franchement j’ai hâte, première fois que je songe à changer mon GPU car sur Call of Duty Warzone ça devient infernal.  
 
Je pensais que j’étais CPU limited mais en baissant la resolution j’arrive quand même à mettre le GPU à 100% sur du 800x400.
 
Même une GTX/RTX 3050 va potentiellement m’apportait au moins +100% de FPS en moyenne dans les jeux :D

n°10795848
obduction
Posté le 24-07-2020 à 19:47:05  profilanswer
 

havoc_28 a écrit :


 
A nouveau la GDDR5 le maximum qu'ont pouvait faire c'est 512 gb/s avec de la GDDR5 à 8 Gb/s , une V64 avec une telle configuration mémoire ça aurait pas été 300w mais 400/450w hein ... Et vega 64 n'avait que deux empilements de HBM2, si y avait pas eut la problématique du tarif de la HBM2 on aurait pu avoir 4 empilement comme sur V20 et avoir 1 To/s de BP ... le double de ce que permettait la GDDR5, soucis le tarif aurait été encore plus démentiel ...  
 
V10 répondait très bien à l'augmentation de bande passante (voir oc de la HBM2 sur V10)ou encore avec V20 où ils ont principalement doublé la bande passante mémoire.  
 
Mais le tarif de la HBM2 ne rend pas cette tech intéressante pour carte grand publique effectivement, et avec la dispo en masse de la GDDR6 y a pas trop de question à se poser à ce niveau oui.  
 
GA100 / CDNA en HBM2, Ampère pour joueur et autre non activité HPC / RDNA 2 la GDDR6 fera le travail.


C'est ce que j'ai dis.
 
La 1080ti avec sa gddr5x sorti avant les vega64 avec ses quasi 500 go/s a montré que c'était tout sauf un goulot d'étranglement.  Plus n'apportait rien au final.
 
ça + le prix, ce fut la fausse bonne idée pour une puce de jeux.
 
Vu les débits possibles de la GDDR6 qui peuvent avoisiner les 800 go/s et sans doute plus de 1to/s dans une future gddr6x ou gddr7 surement déjà en développement, la HBM2 est encore moins utile sur ce plan là pour une puce gaming.
 
C'est bien, pour ça que RDNA2 pour joueur n'utilisera pas la HBM. AMd ne refera pas l'erreur 2 fois.
 

n°10795929
Activation
21:9 kill Surround Gaming
Posté le 25-07-2020 à 05:38:40  profilanswer
 

la HBM elle est surtout là pour pallier à une problématique qui arrivera tôt ou tard
, on va pas pouvoir indéfiniment monter en Ghz, donc faudra élargir le bus
 
et le fait de stacker plusieurs couche c'est pour l'aspect encombrement, tout comme la memoire flash dans un smartphone, un ssd, une microsd
 
Et à date la HBM n'a jamais été pensé pour un usage gaming
les Fury et les Vega chez AMD ont avant tout été pensé HEDT/server/Supercomputer
certainement pas mainstream
 
Fiji quand il est sorti, déjà niveau I/O bof  :ange:  
c'était clairement une puce pensé pour faire du gpgpu dans un serveur, clairement pas pour etre le top du top dans une config grand public, et guère plus sur le marché workstation
 
Et puis bon y a encore de la marge de manœuvre au niveau Deep Dive pour la GDDR destiné à des cartes graphiques
car bon y en a qui peuvent bien nous fabuler des casque VR 16K, la VR reste un marché de niche (qqs dizaine de milions de casques pour qqs milliards d'ordinateurs/smartphones/tablette)
on devrait survivre un bon moment dans la 4K
autant le gap SD vers 720p était flagrant (faut dire qu'en SD c'était pensé ratio 4/3 donc des films au format cinema etait + de 4 fois moins définit sur un DVD qu'avait du simple 720p  
1080p on avait encore un gap sur des scène riche en détails (bref pas un dessin animé "épuré" )
là l'ultrahd nous apporte du "piqué"  
au delà ça commence à être du bonus, et maintenant c'est plus la fluidité (donc plus le passage de 60 à 120 Hz)
 
Bref après le 1080p 60fps qui a très longtemps été "la norme", on va se stabiliser sur cette nouvelle norme en devenir du 2160p 60-120fps
l'utilité de HBM2 ou ... HBM3 là dedans .... bof
techniquement  une "GDDR7" qui baisse même en Ghz comparé à de la GDDR6, ça peut remplir sans pb le contrat, et c'est réalisable
ce qui va prendre le plus de temps c'est tomber d'accord sur ses specifications

Message cité 2 fois
Message édité par Activation le 25-07-2020 à 05:39:33
n°10795935
Roovy
Posté le 25-07-2020 à 08:40:59  profilanswer
 

Ça revient si cher que ça d'utiliser la HBM2 ?
 
Si on tente de réduire les coûts en employant seulement 2 stacks (ce qui est tout à fait suffisant niveau bande passante pour un GPU gaming haut-de-gamme : 922 Go/s pour 2 stacks de HBM2E à 3,6 Gb/s ou 820 Go/s pour 2 stacks de HBM2E à 3,2 Gb/s) et en remplaçant le full interposer par une solution d'interconnexion du style de l'EMIB d'Intel (possible ?) , ça revient quand même toujours sensiblement plus cher que d'utiliser de la GDDR6 à 18 Gb/s sur un bus 384-bit (soit 864 Go/s) pour avoir un équivalent en bande passante mémoire ?
 

n°10795940
Tolrahc
Posté le 25-07-2020 à 09:14:06  profilanswer
 

Mouais ... en attendant la radeon 7 reste 2x moins chère qu'une 2080Ti malgré sa VRAM supposée hors de prix et une quantité de 16GO:
https://www.amazon.fr/2AXFX-Radeon- [...] 4532769586

Message cité 2 fois
Message édité par Tolrahc le 25-07-2020 à 09:16:40
n°10795944
Roovy
Posté le 25-07-2020 à 09:29:09  profilanswer
 

Tolrahc a écrit :

Mouais ... en attendant la radeon 7 reste 2x moins chère qu'une 2080Ti malgré sa VRAM supposée hors de prix et une quantité de 16GO:  
https://www.amazon.fr/2AXFX-Radeon- [...] 4532769586


Tout à fait , d'où mon interrogation justement , d'autant plus que le GPU Vega 20 de la Radeon VII se voit accoler carrément 4 stacks de HBM2 ; bon après , le tarif de cette carte graphique se doit de rester relativement modéré sur le marché grand public pour rester en adéquation avec ses performances "moyennes" en gaming.
 


Message édité par Roovy le 25-07-2020 à 10:04:51
n°10795945
Tolrahc
Posté le 25-07-2020 à 09:34:28  profilanswer
 

Ben je dirais que si on compare avec une 2080Ti le rapport perf/prix est carrément favorable à la Radeon 7


Message édité par Tolrahc le 25-07-2020 à 09:34:42
n°10795946
obduction
Posté le 25-07-2020 à 09:38:32  profilanswer
 

Activation a écrit :

la HBM elle est surtout là pour pallier à une problématique qui arrivera tôt ou tard
, on va pas pouvoir indéfiniment monter en Ghz, donc faudra élargir le bus


Sachant qu'on a eu par le passé des cartes avec bus 512 et que depuis beaucoup d'années on a soit bus 256 ou 352, il y a encore de la marge avec la GDDR.
 
 
 

Citation :


Et à date la HBM n'a jamais été pensé pour un usage gaming


Quand la HBM est sortie, tout le monde parlait de la HBM comme remplaçante de la GDDR.
Quant à ton affirmation, je n'ai jamais lu ça donc cela reste à voir.
 
 
 
 

n°10795948
Roovy
Posté le 25-07-2020 à 09:40:37  profilanswer
 

Pour un usage gaming , la RTX 2080 Ti est incontestablement au-dessus du lot et nVidia peut se permettre de fixer le tarif qu'il veut ; la Radeon VII est grosso modo au niveau de la RTX 2070 Super , pas mieux que ça.
 

n°10795950
obduction
Posté le 25-07-2020 à 09:49:05  profilanswer
 

Tolrahc a écrit :

Mouais ... en attendant la radeon 7 reste 2x moins chère qu'une 2080Ti malgré sa VRAM supposée hors de prix et une quantité de 16GO:
https://www.amazon.fr/2AXFX-Radeon- [...] 4532769586


La 2080ti a son prix fixé à cause du manque de concurrence, pas à cause de son cout donc si nvidia la place à ce tarif, cela ne veut absolument rien dire concernant son coût de production.

 

La radeon7, elle a un tarif moins chère pour plusieurs raisons: si amd veut la vendre, vu qu'elle a des perfs inférieures à une 2080ti, évidemment, amd ne va pas la vendre au tarif d'une 2080ti. Dans un gpu, il n'y a pas que la ram qui fait le prix mais aussi la puce graphique et la radeon 7 est basée sur la vieillissante version vega de l'archi GCN boostée grâce à sa gravure en 7nm ce qui réduisait les couts. A 740€, le tarif officiel à sa sortie, c'était clairement pas un tarif abordable car du même niveau que la 2080. Or, AMD pour gagner des parts de marché se doit de jouer sur les prix, ce qu'il ne pouvait pas faire alors qu'nvidia pourrait facilement baisser ses prix largement s'ils le voulaient.
C'était pareil avec les vega64, retard + perfs qui arrivait juste au niveau de la concurrence + conso moins bonne et pourtant prix aussi élevé que la concurrence. La HBM jouait bien un rôle là dedans.


Message édité par obduction le 25-07-2020 à 09:50:21
n°10795958
havoc_28
Posté le 25-07-2020 à 10:12:35  profilanswer
 

Roovy a écrit :

Ça revient si cher que ça d'utiliser la HBM2 ?
 
Si on tente de réduire les coûts en employant seulement 2 stacks (ce qui est tout à fait suffisant niveau bande passante pour un GPU gaming haut-de-gamme : 922 Go/s pour 2 stacks de HBM2E à 3,6 Gb/s ou 820 Go/s pour 2 stacks de HBM2E à 3,2 Gb/s) et en remplaçant le full interposer par une solution d'interconnexion du style de l'EMIB d'Intel (possible ?) , ça revient quand même toujours sensiblement plus cher que d'utiliser de la GDDR6 à 18 Gb/s sur un bus 384-bit (soit 864 Go/s) pour avoir un équivalent en bande passante mémoire ?


 
La HBM est bien plus chère que de la mémoire type GDDR, la GDDR ça reste une classique puce 2d, la HBM c'est plusieurs empilement de couches, jusqu'à 8 pour les dernières normes, et le coût de l'interposer oui, l'EIMB d'intel comme on le voit dans  
les Core G c'est pour lier CPU et GPU (le GPU à son propre package avec son interposer), est ce que l'EIMB peut servir d'interposer hum ? Je ne sais pas.
 

obduction a écrit :

Sachant qu'on a eu par le passé des cartes avec bus 512 et que depuis beaucoup d'années on a soit bus 256 ou 352, il y a encore de la marge avec la GDDR.


 
512 bits en GDDR6 ça semble particulièrement compliqué, 384 bits oui ça se fait, au delà pour avoir un tracé convenable niveau interférence avec 16 puces c'est pas du tout la même histoire qu'à l'époque de la GDDR5.
 

Activation a écrit :


les Fury et les Vega chez AMD ont avant tout été pensé HEDT/server/Supercomputer
certainement pas mainstream
 
Fiji quand il est sorti, déjà niveau I/O bof  :ange:  
c'était clairement une puce pensé pour faire du gpgpu dans un serveur, clairement pas pour etre le top du top dans une config grand public, et guère plus sur le marché workstation


 
Fiji ça été plus un démonstrateur qu'autre chose, 4 go de vram pour un usage pro ? :o.  ça limite pas mal les spectres d'utilisations et pas de FP64 vs Hawaï, au moins V10 était chargé niveau FP16 et jeux d'instructions pour ML et V20 la puce complète (retour des FP64).

Message cité 1 fois
Message édité par havoc_28 le 25-07-2020 à 10:20:46
n°10796112
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 25-07-2020 à 19:39:08  profilanswer
 

#paco

 

Nvidia continue tjs sa politique de sortie avec les hauts de game first, le reste 6 mois apres ?
Ou a t on une chance de voir la remplaçante de la 2060 super arriver en meme temps ?


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°10796138
ppn7
Posté le 25-07-2020 à 21:27:47  profilanswer
 

THE REAL KRYSTOPHE a écrit :

#paco
 
Nvidia continue tjs sa politique de sortie avec les hauts de game first, le reste 6 mois apres ?  
Ou a t on une chance de voir la remplaçante de la 2060 super arriver en meme temps ?


 
Je me pose la même question, enfin même si c'est pas en même temps je me demande si on aurait pas le droit à du mid end avant ou en même temps que la sortie des consoles ?

n°10796173
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 25-07-2020 à 23:09:19  profilanswer
 

J'hésite vraiment a choper une 2060 super a 320 euro pour remplacer ma 970 ou a attendre 2 mois...

 

L'archi a 2 ans...mais si en face ca sort a 500 euro....:o


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°10796176
Tolrahc
Posté le 25-07-2020 à 23:16:48  profilanswer
 

THE REAL KRYSTOPHE a écrit :

J'hésite vraiment a choper une 2060 super a 320 euro pour remplacer ma 970 ou a attendre 2 mois...  
 
L'archi a 2 ans...mais si en face ca sort a 500 euro....:o


 
Tu peux vraiment pas tenir deux mois ? (970 ici aussi)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  78  79  80  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)