Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3194 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  34  35  36  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10751892
Xixou2
Posté le 16-04-2020 à 18:29:54  profilanswer
 

Reprise du message précédent :

Le Profanateur a écrit :

Mais avec du gros renfort marketing «Vous serez surpris»


Mwahaha ;-)

mood
Publicité
Posté le 16-04-2020 à 18:29:54  profilanswer
 

n°10751901
Activation
21:9 kill Surround Gaming
Posté le 16-04-2020 à 18:47:07  profilanswer
 

Le Profanateur a écrit :

Mais avec du gros renfort marketing «Vous serez surpris»


 
Non avec un marketing type  
"Le même kikouya en mieux qulà ps5 et bobox"
Et pi toutfaçon les editeurs sefront pas chier à plus  
Tfacon master race cé lé sony sex [:baarf]


Message édité par Activation le 16-04-2020 à 18:48:18
n°10751958
obduction
Posté le 16-04-2020 à 20:42:01  profilanswer
 

zouaf a écrit :

Mouais, je ne me baserai pas trop sur les tflops pour évaluer les perfs des nouvelles consoles par rapport aux gpu nvidia.  
De même, pour la comparaison ps4-ps5 et xbox one- series x comme ce n'est pas la même archi, difficile d'évaluer le réel gain de perf entre gen de console en se basant uniquement sur les tflops.  
Si je me souviens bien, vega 64 faisait plus que 12 tflops ..  
 
On aura des éléments de réponse quand on aura une idée des perfs de l'archi RDNA 2.


On a déjà des éléments avec RDNA1 qui montre que la r5700xt (9.7 tflops) offre des perfs pas loin de à la 2080 (10 tlfops). D'après techpowerup, la rx5700xt offre des perf 10 à 15 % en dessous de la 2080 selon la résolution pour environ 4% de tflops en moins.
RDNA 2 n'étant plus une archi hybride entre RDNA et GCN, il  y a des fortes chances que cela soit plus efficace à tflops équivalent donc soit du même niveau que Turing voir Ampère.
 
On peut donc se baser sans trop se tromper sur les tflops pour avoir une idée des perfs qu'on pourrait avoir sur PC. Cela donne en tout cas une idée qu'AMd aura de quoi au moins rivaliser avec Turing sur les perfs. A voir sur le rapport perf/conso car là pour le moment Nvidia est loin devant AMd depuis l'après fermi.

n°10751959
obduction
Posté le 16-04-2020 à 20:45:03  profilanswer
 

zouaf a écrit :

Ouais, j'ai vraiment hâte de voir ce que va donner le RT sauce AMD :)


Moi aussi en espérant que les perfs soient du même niveau que chez Nvidia.  
D'après quelques vagues infos de développeurs travaillant sur des jeux pour consoles next-gen qui utiliseraient assez fortement le ray tracing, on peut penser que le niveau devrait être bon.
A vérifier lors de la sortie mais je vois mal AMd bâcler ce pan qui est le futur et même le présent. Ils ont eu tout le temps pour préparer quelque chose de valable et n'ont pas été pris au dépourvu.

n°10752018
havoc_28
Posté le 16-04-2020 à 22:34:42  profilanswer
 

obduction a écrit :


Moi aussi en espérant que les perfs soient du même niveau que chez Nvidia.  
D'après quelques vagues infos de développeurs travaillant sur des jeux pour consoles next-gen qui utiliseraient assez fortement le ray tracing, on peut penser que le niveau devrait être bon.
A vérifier lors de la sortie mais je vois mal AMd bâcler ce pan qui est le futur et même le présent. Ils ont eu tout le temps pour préparer quelque chose de valable et n'ont pas été pris au dépourvu.


 
Comme tu as dit déjà pour le RayTracing faut bien commencer quelques part, l'approche d'AMD pourrait être plus modeste que celle de Nvidia mais aussi moins gourmande en transistor, un compromis qui pourrait avoir du sens dans les consoles et même pour un premier jet en RT pour les cartes graphiques dédiées, la futur Xboite, c'est un APU de 360 mm², dans la moyenne haute des APU consoles, mais y caser 8C/16T Zen 2 personnalisé (avec peut être un L3 plus modeste pour économiser des transistors), 56 CU RDNA 2, un bus mémoire 320 bits + les transistors liés au RayTracing, c'est pas dit qu'on arrive au niveau de Turing niveau RayTracing, 10, 8 et 6 Gigarays/s respectivement pour le TU102/104/106.
 
Nvidia lors de sa conférence de présentation de Turing à affirmer que ça faisait 10 ans qu'ils travaillaient sur leurs RT Core ... qu'AMD a travaille depuis un certains temps sur le RT c'est certains, mais encore une fois rien ne dit pour l'instant qu'ils arriveront à égaler Nvidia à ce niveau, sur un APU console à des contraintes de coûts de limites de consommation etc ... S'ils arrivent niveau RT à n'égaler ne serait ce que le TU106 ça serait déjà une bonne chose.
 

Citation :

Implementing real-time ray tracing on GPUs was an enormous technical challenge, requiring nearly 10 years of collaboration between NVIDIA’s research, GPU hardware design, and software engineering teams

.  
 
https://devblogs.nvidia.com/nvidia- [...] -in-depth/
 
"TURING RAY TRACING TECHNOLOGY"
 
Après si AMD a une bote secrète à ce niveau, tant mieux, mais moi je resterai très prudent sur le niveau de performance en RT des futurs consoles et de RDNA 2 ...


Message édité par havoc_28 le 16-04-2020 à 22:52:45
n°10752042
obduction
Posté le 16-04-2020 à 23:23:38  profilanswer
 

Je sais que tu es sceptique sur pleins de choses mais il n'y a pas plus de raison à être sceptique qu'à ne pas l'être. Je vois pas pourquoi AMd ne pourrait pas égaler les perfs d'nvidia. C'est pas comme si c'était impossible et le temps qu'a mis nvidia nvidia pour leur RT core ne signifie pas qu'on ne peut pas y arriver plus rapidement autrement.  
 
Je pense que les développeurs qui bossent sur les jeux next-gen, sont plus à même d'en parler que toi et moi donc je leur fais plus confiance quand ils disent qu'ils bossent sur des jeux tirant partie assez fortement du ray tracing sur les prochaines consoles.
 
De toute façon, on verra bien d'ici 6-7 mois environ sauf retard du à une pandémie qui s'aggraverait et durerait dans le temps.

n°10752055
neoulous
Posté le 16-04-2020 à 23:53:38  profilanswer
 

obduction a écrit :

Je sais que tu es sceptique sur pleins de choses mais il n'y a pas plus de raison à être sceptique qu'à ne pas l'être. Je vois pas pourquoi AMd ne pourrait pas égaler les perfs d'nvidia. C'est pas comme si c'était impossible et le temps qu'a mis nvidia nvidia pour leur RT core ne signifie pas qu'on ne peut pas y arriver plus rapidement autrement.  
 
Je pense que les développeurs qui bossent sur les jeux next-gen, sont plus à même d'en parler que toi et moi donc je leur fais plus confiance quand ils disent qu'ils bossent sur des jeux tirant partie assez fortement du ray tracing sur les prochaines consoles.
 
De toute façon, on verra bien d'ici 6-7 mois environ sauf retard du à une pandémie qui s'aggraverait et durerait dans le temps.


 
Mouais, je reste complètement dubitatif perso... Cela fait des années qu'on s'attend à ce que AMD viennent titiller les perfs de Nvidia et on est systématiquement déçus... J'ai été AMD de nombreuses années puis ai basculé du côté des verts qui, il faut l'avouer, offre des puces et drivers bien plus performants, certes à des prix toujours de plus en plus déments mais dans la mesure où ils ont le monopole de la performance, ils seraient cons de s'en priver. (je suis d'ailleurs un des premiers "cons" qui a claqué 1200 balles il y a 20 mois dans la 2080ti et au final, je ne le regrette même pas aujourd'hui car c'est une carte qui va rester au top pendant encore minimum 6 mois...
Donc pour moi, AMD nous sortira un THDG tout juste au dessus de la 2080TI actuelle tandis qu'au même moment, Nvidia va claquer sa 3080ti qui va exploser une fois  de plus AMD.
On en reparle dans quelques mois mais je serai bien heureux d'avoir tord pour enfin pouvoir avoir l'envie de retourner chez les rouges qui ont toujours pratiqué des tarifs bien plus sympathiques que les verts !

n°10752111
obduction
Posté le 17-04-2020 à 09:37:59  profilanswer
 

La grosse différence est qu'enfin AMd a changé l'architecture de ses GPUs là où pendant de nombreuses années, AMd était lié à la même archi GCN faut de moyen.

n°10752142
Invite_Sur​prise
Racaille de Shanghaï
Posté le 17-04-2020 à 10:45:56  profilanswer
 

C'est pas qu'une question de moyen mais un surtout un choix stratégique intimé par l'arrivée de nouvelles consoles.
 
La fin du cycle GCN correspond d'ailleurs à cela. Elle a fait son temps pour la génération de consoles actuelles et il faut passer à autre chose, entamer un nouveau cycle.
NV n'est pas dans la même dynamique et n'a pas les mêmes contraintes, plus axées PC/HPC. Mais on peut retrouver ce type d'approche avec Tegra notamment où les cycles sont plus longs avec le Shield ou encore la Switch, avec un Xavier plus tourné vers l'autonomous machines.
Au delà de l'aspect financier, c'est la stratégie des deux groupes qui prime sur les cycles de vie des architectures des deux fabricants.

Message cité 2 fois
Message édité par Invite_Surprise le 17-04-2020 à 10:47:19
n°10752161
lolo-1234
Posté le 17-04-2020 à 11:15:20  profilanswer
 

tous cela est trés bien mais sa ne donne pas de date de sortie pour des GPU HDG en 7 nm  
je me dis que j ai finalement fais le bon choix en achetant ma 2080 S  
de toute façon ma 1060 été à genoux j avais pas vraiment le choix pour jouer au jeux récent dans de bonne condition

mood
Publicité
Posté le 17-04-2020 à 11:15:20  profilanswer
 

n°10752216
yorys
Posté le 17-04-2020 à 12:20:17  profilanswer
 

jujuf1 a écrit :

Keske sont moches les gigabytes.


 

lolo-1234 a écrit :

tous cela est trés bien mais sa ne donne pas de date de sortie pour des GPU HDG en 7 nm  
je me dis que j ai finalement fais le bon choix en achetant ma 2080 S  
...


 
 
Bon, bah, je suis faible... [:vizera]
 
J'ai acheté hier soir sur mamazon une Aorus 2080 Super OC en reconditionné qui a poppée au prix vaguement aberrant de 643€ ...
 
https://www.gigabyte.com/FileUpload/Product/3/7015/2019073018170512e5127f4ff94ec1e892d0d298a701c20e_m.png
 
Si ok elle me permettra d'attendre sereinement que ça se décante au niveau des 30XX et de toute façon je me fiche de l'esthétique !  
 
Je me demande quand même un peu ce que je vais recevoir, au pire je la renverrai...
 
 :sweat:

Message cité 1 fois
Message édité par yorys le 17-04-2020 à 12:26:38
n°10752218
Mr Fox
Fox engine
Posté le 17-04-2020 à 12:20:43  profilanswer
 

Invite_Surprise a écrit :

C'est pas qu'une question de moyen mais un surtout un choix stratégique intimé par l'arrivée de nouvelles consoles.
 
La fin du cycle GCN correspond d'ailleurs à cela. Elle a fait son temps pour la génération de consoles actuelles et il faut passer à autre chose, entamer un nouveau cycle.
NV n'est pas dans la même dynamique et n'a pas les mêmes contraintes, plus axées PC/HPC. Mais on peut retrouver ce type d'approche avec Tegra notamment où les cycles sont plus longs avec le Shield ou encore la Switch, avec un Xavier plus tourné vers l'autonomous machines.
Au delà de l'aspect financier, c'est la stratégie des deux groupes qui prime sur les cycles de vie des architectures des deux fabricants.


Oui mais il faut reconnaitre qu'AMD a mis bcp d'energie pour aller taper Intel. NV lui n'a qu'un seul concurrent sur son coeur de métier...Bon ils se lancent aussi dans le cloud gaming et la ça etre autre chose.
 
Tiens une question que je suis obligé de me poser, ma config commence à être ancienne et surtout mon CPU qui un i5 de 7 ou 8 ans.
Il passait encore avec ma 1060 mais si  je passe à la 3060 ou equiv je sens bien le bottleneck sauf que je jouerai certainement en 2 ou 4k donc je me dis que le bottleneck sera limité à ces résolutions.
 
ça se tient ?  
 
J'ai vu un bench (avec mon i5(4coeurs) de 2012 vs i5 (6coeurs) de 2018 avec une 1070) et ça pouvait avoir son importance (en 1080p) surtout sur les fps min (-20/30%) ...sur les fps moyen on perd peu de perf (-10%).
A relativiser quand même avec les jeux de 2020 mais bon ça m'embeterait de faire un upgrade assez cher pour peu de perf

n°10752232
lolo-1234
Posté le 17-04-2020 à 12:37:27  profilanswer
 

yorys a écrit :


 
 
Bon, bah, je suis faible... [:vizera]
 
J'ai acheté hier soir sur mamazon une Aorus 2080 Super OC en reconditionné qui a poppée au prix vaguement aberrant de 643€ ...
 
https://www.gigabyte.com/FileUpload [...] c20e_m.png
 
Si ok elle me permettra d'attendre sereinement que ça se décante au niveau des 30XX et de toute façon je me fiche de l'esthétique !  
 
Je me demande quand même un peu ce que je vais recevoir, au pire je la renverrai...
 
 :sweat:


 
 [:acherpy]  c est exactement la meme que la mienne bon choix et a ce prix la j aurai foncé aussi [:acherpy]  
 
sous flotte c est une tuerie en air tu nous en diras des nouvelle le powermax est à 350W  [:bakk31]  
 
 

n°10752254
Luzog
Posté le 17-04-2020 à 13:18:04  profilanswer
 

Les gars, franchement, acheter du matos en ce moment :(


---------------
Mon Feed--Achats/Ventes
n°10752259
yorys
Posté le 17-04-2020 à 13:22:39  profilanswer
 

Luzog a écrit :

Les gars, franchement, acheter du matos en ce moment :(


 
Oui c'est vrai, on est tellement mieux à mater BFM en attendant de passer sous respirateur...
... et la fin du monde...
 :o


Message édité par yorys le 17-04-2020 à 13:24:37
n°10752260
lolo-1234
Posté le 17-04-2020 à 13:23:52  profilanswer
 

pourquoi pas ? on vas pas rester indéfiniment assis sur notre cul à attendre que monde s écroule  :pt1cable:  
 
et il faut pouvoir occuper sont temps pendant le confinement ce genre d article est essentiel en ce moment :D
 
@yorys
quelques bench furmark pour te donner une idée en attendant
 
http://www.ozone3d.net/gpudb/score.php?which=888700
 
http://www.ozone3d.net/gpudb/score.php?which=888699
 
http://www.ozone3d.net/gpudb/score.php?which=888704


Message édité par lolo-1234 le 17-04-2020 à 13:27:46
n°10752269
simracingp​assion
Posté le 17-04-2020 à 13:32:22  profilanswer
 

neoulous a écrit :


 
Mouais, je reste complètement dubitatif perso... Cela fait des années qu'on s'attend à ce que AMD viennent titiller les perfs de Nvidia et on est systématiquement déçus... J'ai été AMD de nombreuses années puis ai basculé du côté des verts qui, il faut l'avouer, offre des puces et drivers bien plus performants, certes à des prix toujours de plus en plus déments mais dans la mesure où ils ont le monopole de la performance, ils seraient cons de s'en priver. (je suis d'ailleurs un des premiers "cons" qui a claqué 1200 balles il y a 20 mois dans la 2080ti et au final, je ne le regrette même pas aujourd'hui car c'est une carte qui va rester au top pendant encore minimum 6 mois...
Donc pour moi, AMD nous sortira un THDG tout juste au dessus de la 2080TI actuelle tandis qu'au même moment, Nvidia va claquer sa 3080ti qui va exploser une fois  de plus AMD.
On en reparle dans quelques mois mais je serai bien heureux d'avoir tord pour enfin pouvoir avoir l'envie de retourner chez les rouges qui ont toujours pratiqué des tarifs bien plus sympathiques que les verts !


 
+1 mais vivement qu'AMD arrive au niveau de Nvidia pour ne plus avoir à dépenser 1200€ pour avoir le top...

n°10752271
yorys
Posté le 17-04-2020 à 13:32:58  profilanswer
 

lolo-1234 a écrit :


 
 [:acherpy]  c est exactement la meme que la mienne bon choix et a ce prix la j aurai foncé aussi [:acherpy]  
 
sous flotte c est une tuerie en air tu nous en diras des nouvelle le powermax est à 350W  [:bakk31]  
 


 
Merci, mais je vais la garder sous air, et je n'OC pas le matos qui me sert (aussi) à bosser (DaVinci Resolve 16).  
 :jap:

n°10752284
lolo-1234
Posté le 17-04-2020 à 13:43:22  profilanswer
 

ok c est toi qui vois c est bete de pas exploiter les 140% du powermax
perso j avais deja le water alors la version wb c étais l idéal pas besoin d oc de toute façon stock sa tourne :)

n°10752344
obduction
Posté le 17-04-2020 à 15:21:33  profilanswer
 

Invite_Surprise a écrit :

C'est pas qu'une question de moyen mais un surtout un choix stratégique intimé par l'arrivée de nouvelles consoles.

 

La fin du cycle GCN correspond d'ailleurs à cela. Elle a fait son temps pour la génération de consoles actuelles et il faut passer à autre chose, entamer un nouveau cycle.
NV n'est pas dans la même dynamique et n'a pas les mêmes contraintes, plus axées PC/HPC. Mais on peut retrouver ce type d'approche avec Tegra notamment où les cycles sont plus longs avec le Shield ou encore la Switch, avec un Xavier plus tourné vers l'autonomous machines.
Au delà de l'aspect financier, c'est la stratégie des deux groupes qui prime sur les cycles de vie des architectures des deux fabricants.


Le cycce GCN n'est pas lié aux consoles mais au fait qu'AMd n'avait pas les moyens de changer d'archi quand ils bossaient sur l'architecture CPU ZEn. Quand ils perdaient de l'argent chaque trimestre au point que l'action ne valait même plus 1$ et l'entreprise évaluée à peine à 2 milliards, c'est évident que c'était une question de moyen avant tout car ça coute très chère en R&D de développer une archi de CPU ou de GPU donc ne parlons mêmes pas de 2 en parallèle.

 

Nvidia peut changer souvent car ils ont les moyens ce qu'AMd n'avait pas et nvidia ne se focalise que sur les gpus et non les cpus et ça ça change tout. AMD ayant plus de moyens maintenant, peu de chance que RDNA dure autant de temps que GCN dont on voyait qu'AMd sortait des versions ++++ comme Intel le fait avec son archi skylake mais là pas par manque de moyen mais par incpapacité à avoir un 10nm fiable et en attendant le 7nm.

 


Message cité 1 fois
Message édité par obduction le 17-04-2020 à 15:23:45
n°10752395
Invite_Sur​prise
Racaille de Shanghaï
Posté le 17-04-2020 à 17:00:17  profilanswer
 

obduction a écrit :

Le cycce GCN n'est pas lié aux consoles mais au fait qu'AMd n'avait pas les moyens de changer d'archi quand ils bossaient sur l'architecture CPU ZEn.


 
Ben si pourtant :
 
PS4/Xbox One --> GCN2
PS4 Pro / Xbox One X --> GCN4
 
PS5/XBox SX ---> RDNA2
...

n°10752404
Dark Schne​iderr
⭐⭐
Posté le 17-04-2020 à 17:42:23  profilanswer
 
n°10752421
obduction
Posté le 17-04-2020 à 18:30:16  profilanswer
 

Invite_Surprise a écrit :


 
Ben si pourtant :
 
PS4/Xbox One --> GCN2
PS4 Pro / Xbox One X --> GCN4
 
PS5/XBox SX ---> RDNA2
...


Spoiler :

Les consoles utilisent les variantes GCN disponibles au moment de leur sortie  mais GCN n'a pas été fait pour les consoles vu que GCN est sortit.
L'achi GCN date de 2012 soit bien avant les ps4 et xbox one.
Que la variante GCN 2 ait été développée avec aussi les consoles en vision car GCN2 est sortit dans la même période que les consoles, c'est tout à fait possible mais on parle je parle de l'archi globale pas des variantes.
 
La version 2 de RDNA a été travaillée spécialement pour les consoles d'après ce qu'on sait mais l'archi RDNA non car c'est une archi destinée à durer pensée d'abord pour être un successeur au GCN pour les prochaines gammes de GPUs. L'avantage est que les consoles étant au final des pcs customisés, c'est bien plus facile surtout qu'AMD fabrique des socs façon pour les consoles.
 
Les nouvelles consoles sortent à un moment où AMD a changé d'archi mais c'est plus une coïncidence qu'autre chose. AMD devait de toute façon changer son archi GCN car elle était clairement à bout de souffle.
 
Le marché d'AMD pour les GPUs est principalement le Pc car c'est là qu'AMd gagne le plus d'argent. Les marges sur console sont faibles vu les prix pratiqués à Sony et Ms.
 
AMd n'a pas les moyens de calquer sa stratégie sur des consoles qui au final ne rapportent pas assez. Cela serait suicidaire car les consoles c'est moins de 200 millions de ventes en 5 ans là où AMd vend largement plus de gpus et cpus sur Pc depuis 5 ans et avec des marges bien plus grandes.
 
C'est comme si tu me disais que Jaguar et Zen ont été fait pour les consoles car
 
PS4/Xbox One --> Jaguar
PS4 Pro / Xbox One X --> Jaguar
 
PS5/XBox SX ---> ZEn 2
 
Ce n'est pourtant pas le cas.  
 
Il y a donc une question de cout avant tout car la R&D ça coute extrêmement chère et AMd a vécu une décennie très difficile financièrement parlant lui dictant beaucoup de chose comme la vente de leur fonderie, le rafistolage de GCN pendant longtemps etc.


Message édité par obduction le 17-04-2020 à 20:17:15
n°10752752
Activation
21:9 kill Surround Gaming
Posté le 18-04-2020 à 14:40:27  profilanswer
 

plutot que des archi dev "pour les consoles"  
moi j'aurais plutôt dit que l'archi a été dev grace au budget R&D apporté par les consoles  
 
c'est grace au contrat avec ms et sony pour leur console que AMD a pu débloquer un budget à mettre dans la R&D des consoles
 
maintenant rdna2 n'est en rien spécifique au console, bien avant avec zen pour les cpu AMD à un moment il a bien fallut se dire bon on va arrêter de persister dans la connerie, faut qu on propose des solution efficiente sinon on est mort
bulldozer a été une grosse merde en terme efficience
gcn a été une grosse merde en terme efficience
 
l'efficience c'est pas l'appanage des consoles, c'est valable dans tout matériel informatique
même en entreprise un grand groupe international peut pas fermer les yeux sur ses facture gargantuesque en energie
et même pour les HP, lenovo, etc... eux même tu peux pas non plus à perf egal proposer des truc qui sur consomme/surchauffe, car derrière ça génère plus de sav donc moins économiquement rentable
 
Donc nul doute que l"argent frais des contrat sony/MS a été salvateur, surtout qu'à l'époque AMD était encore tenu par un contrat de merde avec GF non content d'avoir des archi obsolète

Message cité 2 fois
Message édité par Activation le 18-04-2020 à 14:45:47
n°10752760
havoc_28
Posté le 18-04-2020 à 14:45:26  profilanswer
 

Activation a écrit :

gcn a été une grosse merde en terme efficience


 
GCN a été très correcte face a Kepler, le vent a réellement tourné uniquement à partir de Maxwell, bref pendant 2 ans et demis ça été une architecture tout à fait compétitive.

n°10752766
Activation
21:9 kill Surround Gaming
Posté le 18-04-2020 à 14:49:22  profilanswer
 

havoc_28 a écrit :


 
GCN a été très correcte face a Kepler, le vent a réellement tourné uniquement à partir de Maxwell, bref pendant 2 ans et demis ça été une architecture tout à fait compétitive.


 
dans mon coeur gcn reste et restera du vliw auquel on a juste fait evoluer le soft et un peu l interpréteur  
je suis désolé mais y a trop de gen de gpu gcn qui on essayé de faire la différence grace à une différence de finesse de gravure
si faut à chaque fois utiliser une finesse 1.5-1.8x plus evoluer pour sauver les meubles par rapport aux mecs d en face, j appel pas ça un truc efficient :o

Message cité 1 fois
Message édité par Activation le 18-04-2020 à 14:52:16
n°10752767
ppn7
Posté le 18-04-2020 à 14:51:55  profilanswer
 

C’etait quand même quelque chose la 7970 en son temps...

n°10752769
havoc_28
Posté le 18-04-2020 à 14:53:56  profilanswer
 

Activation a écrit :


 
dans mon coeur gcn reste et restera du vliw auquel on juste fait evoluer le soft et un peu l interpréteur  
je suis désolé mais y a trop de gen de gpu gcn qui on essayé de faire la différence grace à une différence de finesse de gravure
si faut à chaque fois utiliser une finesse 1.5-1.8x plus evoluer pour sauver les meubles par rapport aux mecs d en face, j appel pas ça un truc efficient :o


 
Le premier tiers de la vie de GCN est bon (juste les travers habituels, carte blower au lancement et pas de carte personnalisée : coucou R9 290X), après AMD n'a pas eut les moyens de faire une refonte en profondeur comme Nvidia l'a fait entre Kepler et Maxwell, puis un gros travail de monter en fréquence avec le 16 nm sur Pascal, qui est si on peut dire un Maxwell haute fréquence et a définitivement mis GCN hors jeu :o.
 
Trop de GPU GCN qui ont profité d'une nouvelle finesse de gravure ? Y a eut Polaris en 14nm et Vega en 14 et 7 nm, mais la Radeon VII est anecdotique. On peut clairement dire qu'ils ont bien trop tiré sur la corde avec GCN et qu'ils auraient du passer à autre chose dés le "16/14 nm", mais de la à dire que GCN fut globalement mauvais ... non c'est trop réducteur.


Message édité par havoc_28 le 18-04-2020 à 15:07:01
n°10752781
Activation
21:9 kill Surround Gaming
Posté le 18-04-2020 à 15:07:46  profilanswer
 

ppn7 a écrit :

C’etait quand même quelque chose la 7970 en son temps...


 
pb on ne retiendra que cette fameuse HD7950-70 qui a vraiment marqué  
 
après y a eu R9 280 et son "ça fait le café et osef que ça consomme vu le prix"
les  fury (fiji) et vega, on plus marqué pour l interposé et la memoire HBM pire la premiere le design watercoolé de serie
clairement pas pour les perf
 
et rappel HD7970  c'est :
sortie avec 1 trimestre d'avance face à nvidia
bus 384bits vs 256bits avec la gtx680
en gros 2000 vs 1500 unité de calcul
 
rien que ça
donc gcn là dedans mouehhh
 
ça tombe justement ou nvidia se prend le mur de l efficience à retravailler après l usine à gaz gtx480 (fermi) et son fail de conception suite à mésentente entre les equipe de nvidia, ou ils ont un peu sauver les meuble avec une revision du gpu pour donner les gtx570-580 et par la suite une remise à plat architectural avec kepler

Message cité 1 fois
Message édité par Activation le 18-04-2020 à 15:14:31
n°10752791
havoc_28
Posté le 18-04-2020 à 15:14:40  profilanswer
 

Activation a écrit :


 
pb on ne retiendra que cette fameuse HD7950-70 qui a vraiment marqué  
 
après y a eu R9 280 et son "ça fait le café et osef que ça consomme vu le prix"
les  fury (fiji) et vega, on plus marqué pour l interposé et la memoire HBM pire la premiere le design watercoolé de serie
clairement pas pour les perf
 
et rappel HD7970  c'est :
sortie avec 1 trimestre d'avance face à nvidia
bus 384bits vs 256bits avec la gtx680
en gros 2000 vs 1500 unité de calcul
 
rien que ça
donc gcn là dedans mouehhh


 
Le GK104 il tournait à combien en FP64, ? Juste un mode support VS Tahiti qui lui était un GPU vraiment à tout faire, et que Tahiti soit sorti avec 3 mois d'avance tant mieux pour AMD ? :o  Et on parle du GK110 VS Hawaii ? 561 mm² VS 438 mm² ? Ou le second est clairement supérieur niveau FP64 ... Hawaii fut une meilleur puce que le GK110, sauf qu'à l'époque dans le monde pro c'est l'éco système CUDA et compagnie qui a permis de garder la suprématie, car désolé Hawaï, techniquement a nouveau fut une puce supérieure au GK110.
A nouveau comme dit plus haut la R9 290X a souffert d'un blower de référence mauvais ... si la carte était sorti directement avec des solutions personnalisées de qualité, elle aurait eut bien meilleur presse. Nvidia avait par contre de meilleur algorithmes de compression du frame buffer et compagnie mais ça date pas d'hier :o.  
 
Après j'ai bien dit que le tournant c'était Maxwell V2 et par conséquent Fiji aurait du être le chant du signe de GCN ... Polaris c'est meh, et Vega encore pire, ça on est d'accord, mais sinon à nouveau le premier tiers de vie de GCN pour moi est tout à fait correcte, et même bon.  
 

Activation a écrit :

ça tombe justement ou nvidia se prend le mur de l efficience à retravailler après l usine à gaz gtx480 (fermi) et son fail de conception suite à mésentente entre les equipe de nvidia, ou ils ont un peu sauver les meuble avec une revision du gpu pour donner les gtx570-580 et par la suite une remise à plat architectural avec kepler


 
Le GF110 ne consommait pas vraiment moins que le GF100, mais au moins on avait la puce entière :o. Après en face la béta de test de GCN,  la HD 6970 ça avait pas été non plus très méchant  :sarcastic:.
 
RDNA 1 VS Turing ne fait illusion que grâce au 7 nm et encore y a pas de RT ou Tensor core (même si pour l'instant c'est pas spécialement très dommageable). A voir RDNA 2 vs la prochaine génération chez Nvidia :o.


Message édité par havoc_28 le 18-04-2020 à 15:30:41
n°10752803
Activation
21:9 kill Surround Gaming
Posté le 18-04-2020 à 15:33:33  profilanswer
 

t en a besoin des FP64 dans les jeux :o
 
et je vois pas bien ou tu veux en venir avec ton Hawaii vs GK110, tu veut me demontrer que  
2800 vs 2300
bus 512 vs 384
rop 64 vs 48
 
 c'est GCN qui fait le café  :??:  je savais pas que le principe de bande passante et rop par exemple changeait tant que ça des avis d'une archi :o
 
d'ailleurs c est rigolo que tu parle d hawaii c'est l arrivée de TrueAudio le truc que tout le monde s'en bat lec et qui est remis sur le tapis avec Mark Cerny pour la PS5 :D  
 
 
je pige pas tu veux me prouve que "GCN" c'est bien, mais tu me montre juste que faut grossir tout pour compenser > ce qui entraine une efficience de merde
 
pourquoi vouloir me faire dire que GCN c'est bien alors :heink: moi po comprendre  :??:

Message cité 1 fois
Message édité par Activation le 18-04-2020 à 15:34:30
n°10752804
havoc_28
Posté le 18-04-2020 à 15:40:52  profilanswer
 

Activation a écrit :

t en a besoin des FP64 dans les jeux :o
 
et je vois pas bien ou tu veux en venir avec ton Hawaii vs GK110, tu veut me demontrer que  
2800 vs 2300
bus 512 vs 384
rop 64 vs 48
 
 c'est GCN qui fait le café  :??:  je savais pas que le principe de bande passante et rop par exemple changeait tant que ça des avis d'une archi :o
 
d'ailleurs c est rigolo que tu parle d hawaii c'est l arrivée de TrueAudio le truc que tout le monde s'en bat lec et qui est remis sur le tapis avec Mark Cerny pour la PS5 :D  
 
 
je pige pas tu veux me prouve que "GCN" c'est bien, mais tu me montre juste que faut grossir tout pour compenser > ce qui entraine une efficience de merde
 
pourquoi vouloir me faire dire que GCN c'est bien alors :heink: moi po comprendre  :??:


 
Faudrait peut être regarder les spécifications du GK110 complet, là tu parles de la GTX 780 non TI ? La GTX 780 Ti c'est 2880 SP VS 2816 SP chez Hawaii. On a le bus mémoire plus large chez AMD et avec les ROPs qui vont avec, mais ça a nouveau comme j'ai dit c'est une résultante des algorithmes de compression du frame buffer etc, meilleur chez Nvidia à l’époque (tout comme aujourd'hui en faite :o), je l'ai bien noté plus haut.
Si au final on a une carte aussi performante en jeu, avec une consommation similaire,  une puce notablement plus petite (a nouveau 561 mm² VS 438 mm²)  et plus performante en FP64, bref un GPU qui excelle dans tous les tableaux avec une finesse de gravure identique, les deux puces sont en 28 nm de chez TSMC ... pour moi la meilleur puce est facil à désigner.


Message édité par havoc_28 le 18-04-2020 à 15:50:52
n°10752805
Iryngael
Awesome, ain't it ?
Posté le 18-04-2020 à 15:42:32  profilanswer
 

La FP64 manque pour BOINC :o Avec des ratios de 1:32 voire 1:64 vs FP32 là où t'avais du 1:2, ça fait que les GPU sortis après la 7970 valent pas un brol sur les projets distribués qui comptent sur le GPU :D

 

Mais sinon en effet en jeu ça sert pas tellement. La mode étant plutot de faire la promo des perfs en INT4/INT8 pour l'inférence en IA et ce genre de trucs


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°10752807
havoc_28
Posté le 18-04-2020 à 15:45:05  profilanswer
 

Iryngael a écrit :

La FP64 manque pour BOINC :o Avec des ratios de 1:32 voire 1:64 vs FP32 là où t'avais du 1:2, ça fait que les GPU sortis après la 7970 valent pas un brol sur les projets distribués qui comptent sur le GPU :D
 
Mais sinon en effet en jeu ça sert pas tellement. La mode étant plutot de faire la promo des perfs en INT4/INT8 pour l'inférence en IA et ce genre de trucs


 
A l'époque on avait encore des GPU à tout faire, avant qu'on commence petit à petit à spécialisée les cartes, comme tu as dit de nos jours y a les INT4/8 et FP16 pour les jeux, la FP64 étant utilisée uniquement dans un marché de niche dans les supercalculateurs etc.
Après Tahiti c'était 1:4 pour les FP64 :p. Après le GK110 et Hawaï en version joueur était artificiellement bridée à ce niveau.


Message édité par havoc_28 le 18-04-2020 à 15:46:13
n°10752819
Activation
21:9 kill Surround Gaming
Posté le 18-04-2020 à 16:06:25  profilanswer
 

autant pour moi j'ai pas regarde la bonne fiche
 
mais je démordrais pas GCN c'est de la poudre aux yeux en grande partie soft
avec des unité vectoriel que AMD à voulu conserver jusqu'au bout avec VEGA et ses primite shader qu'ils n'ont pas réussi à faire marcher comme espéré (impicit vs explicit)
pour moi ça marche très bien en calcul scientifique, gpgpu mais c'est pas fait pour une carte gaming
 
à coté de ça quand les hd3870-3850 sont sorti après le HD2900XT on nous a sorti le coup de powerplay
comme quoi le gpu etait sous haute surveillance pour la conso
et là paf quand les puce GCN ont été de sortie visiblement powerplay n'a plus jamais été le pilote de l'avion
tant d'années ou on te vendait "powerplay il a l oeil sur tout le gpu, il a des capteur partout"
et vlà les puces GCN et AMD ne mouchte plus mot de powerplay ni meme de powertune qui dopit être son remplacant
 
si !  ça en reparle quand les cpu zen se pointe, mais visiblement le "powerplay" il a jamais su fliquer les gcn :o
 
tout ça pourquoi à la base, gcn est juste pour gérer des unité vectoriel comme des unité scalaire
aaaah je dit pas que les ingé de AMD ils se sont pas creusé la tête quand  même, le nb de fois ou ils ont jouer sur les caches, et j'en passe pour ne jamais vouloir toucher à leur unité vectoriel, ils y ont cru jusqu'à vega ou ils se sont cassé les dents :o (ou jusqu'à ne plus avoir de dents :o )
 
ce qui est rigolo c'est que rdna se pointe quand Raja le grand Raja et d'autres qui ont été débauché par intel ne sont plus là
au final on ne saura jamais le fin mot de l histoire  
Mais bon chez intel de toute façon ils veulent avant tout des gpu pour faire du gpgpu dans les data center car leur marché "vente de xeon" ne cesse de s en prendre plein la gueule
donc même si intel nous sort des gpu gamer moisi, d'experience "GCN" ils auront au moins de bonne puce gpgpu merci Raja ? :o

Message cité 1 fois
Message édité par Activation le 18-04-2020 à 16:12:52
n°10752831
havoc_28
Posté le 18-04-2020 à 16:21:28  profilanswer
 

Activation a écrit :

autant pour moi j'ai pas regarde la bonne fiche
 
mais je démordrais pas GCN c'est de la poudre aux yeux en grande partie soft
avec des unité vectoriel que AMD à voulu conserver jusqu'au bout avec VEGA et ses primite shader qu'ils n'ont pas réussi à faire marcher comme espéré (impicit vs explicit)
pour moi ça marche très bien en calcul scientifique, gpgpu mais c'est pas fait pour une carte gaming


 
Que GCN soit du VLIW 4 avec un nouvel ordonnanceur pour mieux alimenter le tout dans les grandes lignes oui :D, que GCN soit une architecture généraliste qui fonctionne bien en GPGPU et correctement en jeu (en tout cas VS Kepler)à nouveau oui. Après vs une architecture purement orienté jeu comme l'a été Maxwell, là effectivement ça le faisait plus vraiment, et comme dit plus haut, Pascal a enfoncé le clou et la fin de GCN faisait vraiment pitié a voir.  
 
Les primitive shader au final ont été rendu fonctionnelles avec RDNA 1 :D.  
 

Activation a écrit :


à coté de ça quand les hd3870-3850 sont sorti après le HD2990 on nous a sorti le coup de powerplay
comme quoi le gpu etait sous haute surveillance pour la conso
et là paf quand les puce GCN ont été de sortie visiblement powerplay n'a plus jamais été le pilote de l'avion  
tant d'années ou on te vendait "powerplay il a l oeil sur tout le gpu, il a des capteur partout"
et vlà les puces GCN et AMD ne mouchte plus mot de powerplay ni meme de powertune qui dopit être son remplacant  
 
si ça en reparle quand les cpu zen se pointe, mais visiblement le "powerplay" il a jamais su fliquer les gcn :o


 
Le PowerPlay ne faisait et ne fait que contrôler uniquement le GPU, la GDDR,  l'étage d'alimentation il connait pas :o, et vu que depuis les HD3000, la consommation de la GDDR n'a fait que grimper ... :D (c'est reparti à la baisse avec la GDDR5 X/ GDDR6 cela dit). Alors que de l'autre coté nvidia mettait en place une surveillance globale de la carte avec sondes placées un peu partout, pour avoir une estimation très fine de la consommation totale de la carte. C'est sur que vu qu'AMD en est resté à une mesure sommaire uniquement de la puce graphique et non de l'ensemble de la carte ... on avait quelque chose de clairement moins précis coté AMD vs Nvidia, et c'est encore le cas, avec une 5700 XT, le log de consommation ne te donne que la consommation de la puce seule, et non de la carte entière (après à partir de Vega AMD a placé aussi des capteurs sur les points chaud du GPU, Nvidia aussi mais non lisible par log externe).  
 

Activation a écrit :


tout ça pourquoi à la base, gcn est juste pour gérer des unité vectoriel comme des unité scalaire
aaaah je dit pas que les ingé de AMD ils se sont pas creusé la tête quand, le nb de fois ou ils ont jouer sur les caches, et j'en passe pour ne jamais vouloir toucher à leur unité vectoriel, ils y ont cru jusqu'à vega ou ils se sont cassé les dents :o (ou jusqu'à ne plus avoir de dents :o )


 
Je pense que c'est plus à un manque de moyen qu'autre chose, obliger de tirer la corde sur GCN ... Contrairement à Intel ou c'est des problèmes de leadership qui font qu'on reste bloqué sur SKL, chez AMD pour la division RTG, ça été un manque de moyen.  
 

Activation a écrit :


ce qui est rigolo c'est que rdna se pointe quand Raja le grand Raja et d'autres qui ont été débauché par intel ne sont plus là
au final on ne saura jamais le fin mot de l histoire  
Mais bon chez intel de toute façon ils veulent avant tout des gpui pour faire du gpgpu dans les data center car leur marché "vente de xeon" ne cesse de s en prendre plzin la gueule
donc même si intel nous sort des gpu gamer moisi, d'experience "GCN" ils auront au moins de bonne puce gpgpu merci Raja ? :o


 
RDNA 1 a été conçu a l'époque de RAJA donc on pourrait dire que dans RDNA, le R c'est le R de RAJA :o (et aussi Radeon mais bon :D) . Car bon l'architecture RDNA 1 ça se gribouille pas en quelques mois sur un bout de table :D, et raja et ses équipes y ont contribué plus ou moins ou en tout cas donné les grandes lignes directrices. Après pour Intel le marché GPGPU étant privilégié ... à voir ce que fait Raja et ses équipes chez Intel à ce niveau mais bon ... vu la cacophonie chez Intel, même si Raja y met du sien et de la bonne volonté pas sur que ça donne quoi que ce soit :o.


Message édité par havoc_28 le 18-04-2020 à 16:33:19
n°10752848
obduction
Posté le 18-04-2020 à 16:53:34  profilanswer
 

Activation a écrit :

plutot que des archi dev "pour les consoles"  
moi j'aurais plutôt dit que l'archi a été dev grace au budget R&D apporté par les consoles  
 
c'est grace au contrat avec ms et sony pour leur console que AMD a pu débloquer un budget à mettre dans la R&D des consoles


Je ne mettrais pas ma main à couper sur ça.
Les consoles utilisant AMD, ce fut la x360 et puis la ps4 et xbox one.
GCN est sorti en 2012 et développer une archi ça prend plusieurs années de R&D.
Peut être que les contrats entre sony, Ms et AMd dataient de très nombreuses années avant la sortie des consoles donc avant le lancement de la R&D pour GCN mais à vérifier.
Avant la sortie de bulldozer en 2011, AMd avait encore des moyens financiers pour développer du gpu et du cpu en parallèle donc pas forcément besoin d'argent de Ms et Sony sans parler que l'argent des contrats des consoles a servi aussi pour faire le soc custom de chaque console, ce qui doit pas se faire sans dépenser pas mal d'argent.

n°10752985
Profil sup​primé
Posté le 18-04-2020 à 21:59:25  answer
 

Les RTX sont toutes out of stock sur nvidia.com a part la 2080 ti. Signe que quelque chose bouge ?

n°10752997
havoc_28
Posté le 18-04-2020 à 22:48:50  profilanswer
 


 
Non, ça c'est déjà produit sans que ça témoigne de quelque chose ...

n°10753011
sardhaukar
Posté le 18-04-2020 à 23:09:09  profilanswer
 

Signe de pénurie peut-être ?

n°10753015
AllenMadis​on
Posté le 18-04-2020 à 23:15:28  profilanswer
 

 

non y'a rien qui bouge, je suis allé faire le tour des rumeurs c'est toujours, à priori, planifié pour une annonce fin aout et lancement au computex fin septembre pour le coup (27-30 septembre).

 

Ca coincide parfaitement avec les "rumeurs" (comprendre, les officiels de nvidia en off) qui disent que rien n'est changé et que ça sortira bien en late quarterly three.


Message édité par AllenMadison le 18-04-2020 à 23:16:01

---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  34  35  36  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)