Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2403 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GDC: Async Compute : ce qu'en dit Nvidia

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Page Précédente
Auteur Sujet :

[HFR] Actu : GDC: Async Compute : ce qu'en dit Nvidia

n°9766817
tridam
Profil : Equipe HardWare.fr
Posté le 23-03-2016 à 18:31:34  profilanswer
8Votes positifs
 

Nous avons bien entendu profité de la GDC pour questionner Nvidia en vue d'en apprendre plus sur ce dont sont capables ses GPU en terme de prise en charge du ...
Lire la suite ...

mood
Publicité
Posté le 23-03-2016 à 18:31:34  profilanswer
 

n°9766830
ockiller
Posté le 23-03-2016 à 18:50:09  profilanswer
9Votes positifs
 

Voilà qui est une fantastique réponse à de nombreux débats fertiles dans les commentaires :). Merci pour cette pêche aux infos et cette analyse complète !

n°9766833
Lyto
Posté le 23-03-2016 à 18:56:24  profilanswer
7Votes positifs
 

News intéressante. Reste à espérer que ça ne parte pas en guerre de fanboys.
Là où ça va être encore plus intéressant, c'est sur la prochaine génération de GPU. Curieux de savoir quels ont été les choix des deux marques :)

n°9766834
CardinalFu​neste
Posté le 23-03-2016 à 19:02:48  profilanswer
11Votes positifs
 

En gros Nvidia c'est pour consommer tout de suite avec une durée de vie moins longue
AMD = course de fond. On savait tout çela depuis un moment mais excellent article.

n°9766840
Invite_Sur​prise
Racaille de Shanghaï
Posté le 23-03-2016 à 19:15:21  profilanswer
6Votes positifs
 

Merci Damien pour ces investigations  :jap:

n°9766858
TNZ
Ryzen 9 5950X powered ...
Posté le 23-03-2016 à 19:36:13  profilanswer
12Votes positifs
 

Ouais ... en résumé, chez nVidia ils sont restés fidèles à leur crédo : beaucoup de Mhz et on bourrine. Le chapitre de l'architecture est intéressant parce qu'il montre que les Geforce ne sont pas conçues pour ce type de fonctionnement. En activant la prise en charge complète, ils n'y aura que peu d'améliorations.  
 
D'ailleurs au sujet des API et des jeux, ils ont bien souvent fait beaucoup de lobbying sur les coeurs de métier concernés alors que côté AMD les architectures sont issues de l'écoute des professionnels de ces 2 secteurs.
 
En résumé, nVidia reste bien prétentieux et langue de bois comme il faut même si les questions sont bien pertinentes et extrêmement bien amenées par le journaliste. Ils sont dépassés et pis c'est tout.


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9766866
zz6
Posté le 23-03-2016 à 19:42:45  profilanswer
2Votes positifs
 

S'ils veulent vendre du Pascal, peut-être ne veulent-ils pas que leur 980 ti s'approchent trop des performances de celui-ci. On ne sort pas un Joker trop vite si ce n'est pas nécessaire.

n°9766882
sasuke87
Posté le 23-03-2016 à 19:59:41  profilanswer
8Votes positifs
 

Du coup y a un risque que Maxwell et Kepler prennent un sacré coup de vieux à la sortie de Pascal (et les jeux DX12 utilisant l'async compute).  
 
Tout ça me fait un peu penser à l'époque des radeon x18xx/x19xx vs Geforce 6800/7900. Les cartes nvidia faisaient jeu égal avec les Radeon jusqu'à l'arrivée des Geforce 8 où les performances des vielles Geforce ont complètement sombrées sur les nouveaux jeux alors que les Radeon de la même génération affichaient encore des performances correctes.


Message édité par sasuke87 le 23-03-2016 à 20:00:27
n°9766900
sasuke87
Posté le 23-03-2016 à 20:23:15  profilanswer
6Votes positifs
 

Comment arrives tu à la conclusion que les choix de nvidia sont plus "pc" que ceux d'amd?

n°9766910
loustic
Posté le 23-03-2016 à 20:34:18  profilanswer
3Votes positifs
 

Merci Damien, ça fait plaisir de voir des gens tenace :D

mood
Publicité
Posté le 23-03-2016 à 20:34:18  profilanswer
 

n°9766912
mazrim
Posté le 23-03-2016 à 20:37:39  profilanswer
1Votes positifs
 

" - De toute évidence, AMD a plutôt misé sur les débits bruts de ses GPU, ce qui implique en général un rendement inférieur et plus d'opportunité d'optimisation au niveau de celui-ci. "
 
Optimisation ... , jeux pc ...  :)  
Quand on voit le boulot sur certains jeux, il est peut-être bien là le problème d'AMD.


Message édité par mazrim le 23-03-2016 à 20:38:43
n°9766915
ever_over
Posté le 23-03-2016 à 20:38:36  profilanswer
5Votes positifs
 

sasuke87 a écrit :

Comment arrives tu à la conclusion que les choix de nvidia sont plus "pc" que ceux d'amd?


Il a surement lu l'article  :ange:  
Le choix d'AMD pour l'exécution concomitante a plus de sens sur console (hardware fixe, optimisation fine possible) que sur PC (hardware varié, optimisation générale uniquement avec risque de contre performance).

n°9766923
cyrille_00​88
Posté le 23-03-2016 à 20:43:01  profilanswer
1Votes positifs
 

TNZ a écrit :

Ouais ... en résumé, chez nVidia ils sont restés fidèles à leur crédo : beaucoup de Mhz et on bourrine. Le chapitre de l'architecture est intéressant parce qu'il montre que les Geforce ne sont pas conçues pour ce type de fonctionnement. En activant la prise en charge complète, ils n'y aura que peu d'améliorations.  
 
D'ailleurs au sujet des API et des jeux, ils ont bien souvent fait beaucoup de lobbying sur les coeurs de métier concernés alors que côté AMD les architectures sont issues de l'écoute des professionnels de ces 2 secteurs.
 
En résumé, nVidia reste bien prétentieux et langue de bois comme il faut même si les questions sont bien pertinentes et extrêmement bien amenées par le journaliste. Ils sont dépassés et pis c'est tout.


 
ils sont  soit disant dépassé mdr mais "CC" eux qui sont devant sur pc et ordinateur portable que je sache et pas qu'un peu ^_^* en retirant intel ^_^* de l'équation
 
bien qu'en mettant intel nvidia doit etre potable
meme en metant les igp d'amd ça doit etre bas quand meme ^_^*
 
prie pour que pascal ne soit pas totalement direct x 12
 
niveau consommation ils ne sont pas bourrin ^_^* bien que j'avoue qu'ils auraient pu faire plus d'efforts ... les mega hz ça consomme donc déjà ta critique n'est pas correcte

Message cité 1 fois
Message édité par cyrille_0088 le 23-03-2016 à 20:58:11
n°9766929
Xixou2
Posté le 23-03-2016 à 20:46:19  profilanswer
4Votes positifs
 

Bref les gpu nvidia actuel ne supportent pas vraiment le parallélisme.

n°9766940
cyrille_00​88
Posté le 23-03-2016 à 21:03:28  profilanswer
0Votes positifs
 

sasuke87 a écrit :

Du coup y a un risque que Maxwell et Kepler prennent un sacré coup de vieux à la sortie de Pascal (et les jeux DX12 utilisant l'async compute).  
 
 
 
Tout ça me fait un peu penser à l'époque des radeon x18xx/x19xx vs Geforce 6800/7900. Les cartes nvidia faisaient jeu égal avec les Radeon jusqu'à l'arrivée des Geforce 8 où les performances des vielles Geforce ont complètement sombrées sur les nouveaux jeux alors que les Radeon de la même génération affichaient encore des performances correctes.


 
c'est aberrant ce qui tu marque pascale risque de mettre les fury et la nano nettement derriere voire plus ce qui est bien plus choquant que de mettre une volé au maxwell et kepler ^_^* sauf si c'est le 980 ti j'avoue ou meme les 980 modifiées


Message édité par cyrille_0088 le 23-03-2016 à 21:05:30
n°9766967
lapin
Posté le 23-03-2016 à 21:21:25  profilanswer
3Votes positifs
 

CardinalFuneste a écrit :

En gros Nvidia c'est pour consommer tout de suite avec une durée de vie moins longue
AMD = course de fond. On savait tout çela depuis un moment mais excellent article.


 
 
se qui est extrêmement problématique en terme d'image, c'est que chez AMD les bons Drivers pour les jeux vidéos Direct X11 mettent un certains temps à apparaître, voir plusieurs mois facilement 3 mois.
 
du coup quand les jeux vidéos sortent AMD semble moins performant, du moins pendant plusieurs semaines voir plusieurs mois, c'est embêtant question crédibilité.
 

n°9766990
Artisanal
Posté le 23-03-2016 à 21:34:18  profilanswer
11Votes positifs
 

C'est pas pour rien que ATI/radeon porte la couleur rouge comme le vin : les pilotes se bonifient avec le temps :whistle:

n°9767005
CardinalFu​neste
Posté le 23-03-2016 à 21:49:25  profilanswer
4Votes positifs
 

Honnêtement j'ai pas plus de problèmes de drivers sur AMD que sur  cartes nvidia. le seul jeu que j'ai vraiment trouvé pénalisant pour les cartes d'AMD c'était project cars qui a été assez rapidement corrigé sinon c'est que des corrections mineurs permettant de faire gagner 2,3 fps dans la grande majorité des cas

n°9767025
armandrayn​al
Posté le 23-03-2016 à 22:13:10  profilanswer
1Votes positifs
 

Citation :

GM200 (GTX 980 Ti) : 6.0 fps / Gtransistors, 7.8 fps / Tflops, 142.1 fps / To/s
Fiji (R9 Fury X) : 5.6 fps / Gtransistors, 5.8 fps / Tflops, 97.9 fps / To/s


Une comparaison comme celle là laisse à penser que l'ingénierie made in nvidia est supérieur à celle d'AMD : chez nvidia on utilise mieux les transistors !
Mais oui mais non :s
 

Citation :

Lors du développement d'une architecture GPU, une bonne partie du travail consiste à prévoir le profil des tâches qui seront prises en charge quand les nouvelles puces seront commercialisées.


GCN et Kepler, designée en même temps, ont toutes les 2 été conçues pour les jeux ET les apps pro.
Ces archi ont donc été développées avec les mêmes "profils de tâches" il me semble.
La comparaison fait mal à AMD car chez eux y'a pas eu de refresh de l'archi, et la puce est polyvalente(avec de vraies perfs en double précision).
Si AMD avait eu les moyens d'nvidia peut-être aurait-il, lui aussi, fait un refresh ayant pour 'profil de tâche' uniquement les jeux ...
Seulement voilà, chez AMD on se doit de faire beaucoup avec peu, et ce depuis sans doute un peu trop longtemps d'ailleurs.
J'aimerais bien voir une comparaison de ce genre entre GCN et Kepler; Si les résultats sont inversés ça expliquerait pourquoi nvidia a ressenti le besoin de développer un refresh.

Message cité 1 fois
Message édité par armandraynal le 23-03-2016 à 22:16:30
n°9767034
tfpsly
Sly
Posté le 23-03-2016 à 22:35:25  profilanswer
3Votes positifs
 

L'Async Compute n'est pas aussi exploitable par D3D12 que sur console. L'absence de vraie fence est une grosse limitation par exemple, qui empêche de garder les jobs async compute en parallèle de job graphique légère afin d'avoir un bon partage. Voir http://www.wihlidal.ca/Presentatio [...] ompute.pdf pg 72 et plus pour plus de détails.
 
Et pour la petite histoire, c'est l'un des deux constructeurs de consoles qui a demandé à AMD s'il y avait moyen de ne pas gaspiller les pipes de shaders non utilisés par les jobs graphiques (pour rappel les jobs graphiques/compute shaders utilisent des multiples de 64 threads (sur GCN en tout cas : une "wave" ), avec un max limité par le nombres de registres et de mémoire locale nécessaire pour chaque threads). Donc il est très rare que tous les pipes soient utilisés, sans l'async-compute. Belle idée au final.
 
Dans cette présentation de Frostbite, on voit aussi qu'ils ont implémenté un clipper en software, possible les pipes de shaders sur GCN peuvent lire le zbuffer hiérarchique (et ses min et max par tile) - voir slide 67 à 71.


Message édité par tfpsly le 23-03-2016 à 22:40:58
n°9767057
tridam
Profil : Equipe HardWare.fr
Posté le 23-03-2016 à 23:25:49  profilanswer
0Votes positifs
 

Merci pour le lien, je n'ai pas eu l'occasion de suivre cette session :)

n°9767080
Xillendo
Posté le 24-03-2016 à 00:10:53  profilanswer
2Votes positifs
 

GCN est une très bonne archi (excellente même en Compute) mais difficile à exploiter à fond en jeu (quasiment impossible même, avec les anciennes API).
C'est aussi pour ça sans doute que les pilotes AMD sont plus lent à arriver (autre que le fait que leur équipe est plus petite que celle de Nvidia), car les ingés ont sans doute plus de travail pour améliorer les perfs que ceux de Nvidia.
 
Maxwell lui, c'est le résultat de la prise de conscience par Nvidia que le 28nm allait s'éterniser, et que le seul moyen d'augmenter les perfs, c'était de créer une archi spécialisée dans le types de taches graphiques du moment (GL, DX11...).
Donc forcément, Maxwell est plus facile à exploiter que GCN dans les taches graphiques actuelles, puisqu'il a été conçu pour ça.
 
 
Cependant, avec les nouvelles API, la donne change, il devient possible de mieux exploiter GCN, donc l'efficacité de Maxwell par rapport à GCN, sur des jeux exploitant les Async Compute, se réduit.
Sans parler, que ces API permettent aussi AMD de corriger son problème de traitement des draw calls monothreadé côté driver.

n°9767081
cocto81
Posté le 24-03-2016 à 00:13:10  profilanswer
3Votes positifs
 

armandraynal a écrit :


GCN et Kepler, designée en même temps, ont toutes les 2 été conçues pour les jeux ET les apps pro.
Ces archi ont donc été développées avec les mêmes "profils de tâches" il me semble.
La comparaison fait mal à AMD car chez eux y'a pas eu de refresh de l'archi, et la puce est polyvalente(avec de vraies perfs en double précision).
Si AMD avait eu les moyens d'nvidia peut-être aurait-il, lui aussi, fait un refresh ayant pour 'profil de tâche' uniquement les jeux ...
Seulement voilà, chez AMD on se doit de faire beaucoup avec peu, et ce depuis sans doute un peu trop longtemps d'ailleurs.
J'aimerais bien voir une comparaison de ce genre entre GCN et Kepler; Si les résultats sont inversés ça expliquerait pourquoi nvidia a ressenti le besoin de développer un refresh.


En fait c'est pas vrai ni pour Kepler, ni pour GCN. Pour Kepler seul leur gros GPU GK110/210, et pour AMD seuls les HD 7950/7970/R9 280x en GCN 1.0 et Les R9 290/290x/295/390/390x en GCN 1.1 ont des capacités intéressantes en flottants double précision. Et encore, à part certains hacks, ils ne sont entièrement activés que sur les cartes pro (Quadro et Firepro), avec AMD qui les castre moins en version gaming.
 
Par contre rien de tout ça sur Maxwell, sur aucune de leur carte. Au point que pour performer en SIMPLE PRECISION sur maxwell face à AMD, Nvidia incite même à l'utilisation de calculs flottants non ISO.
 
Du coup pour AMD, les autres cartes GCN (que celles citées) sont relativement modestes en flottants double précision, et ça concerne aussi Fidji.
Ca souligne le bon coup de prendre un HD 7950/70 à l'époque (notamment avec 3Go) et plus récemment une R9 290/390 notamment avec 8Go de vram.
Je me demande ce qu'il advient des quelques cartes HD 7970 et R9 280x vendues avec 6Go de Vram. Il semblerait que ça ait été fait sans l'accord explicite d'AMD et que les 6Go ne seraient pas reconnus par les pilotes (mais seulement 3)... je me pose juste la question parce que j'avais lorgné sur une de ces cartes à l'époque.


Message édité par cocto81 le 24-03-2016 à 00:17:50
n°9767094
armandrayn​al
Posté le 24-03-2016 à 00:35:50  profilanswer
0Votes positifs
 

cocto81 a écrit :

armandraynal a écrit :


GCN et Kepler, designée en même temps, ont toutes les 2 été conçues pour les jeux ET les apps pro.
Ces archi ont donc été développées avec les mêmes "profils de tâches" il me semble.
La comparaison fait mal à AMD car chez eux y'a pas eu de refresh de l'archi, et la puce est polyvalente(avec de vraies perfs en double précision).
Si AMD avait eu les moyens d'nvidia peut-être aurait-il, lui aussi, fait un refresh ayant pour 'profil de tâche' uniquement les jeux ...
Seulement voilà, chez AMD on se doit de faire beaucoup avec peu, et ce depuis sans doute un peu trop longtemps d'ailleurs.
J'aimerais bien voir une comparaison de ce genre entre GCN et Kepler; Si les résultats sont inversés ça expliquerait pourquoi nvidia a ressenti le besoin de développer un refresh.


En fait c'est pas vrai ni pour Kepler, ni pour GCN. Pour Kepler seul leur gros GPU GK110/210, et pour AMD seuls les HD 7950/7970/R9 280x en GCN 1.0 et Les R9 290/290x/295/390/390x en GCN 1.1 ont des capacités intéressantes en flottants double précision. Et encore, à part certains hacks, ils ne sont entièrement activés que sur les cartes pro (Quadro et Firepro), avec AMD qui les castre moins en version gaming.
 
Par contre rien de tout ça sur Maxwell, sur aucune de leur carte. Au point que pour performer en SIMPLE PRECISION sur maxwell face à AMD, Nvidia incite même à l'utilisation de calculs flottants non ISO.
 
Du coup pour AMD, les autres cartes GCN (que celles citées) sont relativement modestes en flottants double précision, et ça concerne aussi Fidji.
Ca souligne le bon coup de prendre un HD 7950/70 à l'époque (notamment avec 3Go) et plus récemment une R9 290/390 notamment avec 8Go de vram.
Je me demande ce qu'il advient des quelques cartes HD 7970 et R9 280x vendues avec 6Go de Vram. Il semblerait que ça ait été fait sans l'accord explicite d'AMD et que les 6Go ne seraient pas reconnus par les pilotes (mais seulement 3)... je me pose juste la question parce que j'avais lorgné sur une de ces cartes à l'époque.


Malgré leurs modestes perfs en dp, elles ne sont tout de même pas à la rue et tiennent la route. Fidji vaut hawaii si je me souviens bien sur cet aspect là et c'est là la polyvalence dont je parlais.
M'enfin c'était surtout du design général des archi dont je voulais parler et pas de GPU spécifique ni des segments pro/gaming ou même des différentes gammes.
Edit : autant pour moi, fidji vaut tahiti en dp en fait. C'est quand même pas si pire que du côté de maxwell ^^


Message édité par armandraynal le 24-03-2016 à 00:42:36
n°9767164
ockiller
Posté le 24-03-2016 à 08:09:25  profilanswer
2Votes positifs
 

TNZ a écrit :

Ouais ... en résumé, chez nVidia ils sont restés fidèles à leur crédo : beaucoup de Mhz et on bourrine. Le chapitre de l'architecture est intéressant parce qu'il montre que les Geforce ne sont pas conçues pour ce type de fonctionnement. En activant la prise en charge complète, ils n'y aura que peu d'améliorations.  
 
D'ailleurs au sujet des API et des jeux, ils ont bien souvent fait beaucoup de lobbying sur les coeurs de métier concernés alors que côté AMD les architectures sont issues de l'écoute des professionnels de ces 2 secteurs.
 
En résumé, nVidia reste bien prétentieux et langue de bois comme il faut même si les questions sont bien pertinentes et extrêmement bien amenées par le journaliste. Ils sont dépassés et pis c'est tout.


Mouais... L'article HFR résume parfaitement bien les problématiques pour faire une architecture qui vise à tirer le maximum du 28 nm dans un maximum de situations. nVidia avait indiqué avoir tiré des bénéfices côté consommation en simplifiant le scheduling des threads par rapport à Kepler, et cette simplification a aussi permis de pouvoir utiliser plus facilement les ressources disponibles. Et ce qu'ils ont gagné côté consommation  c'est plus de marge pour augmenter les fréquences ce qui permet d'augmenter naturellement les performances à tous les niveaux.
 
AMD paye probablement son architecture plus flexible en partie par cette consommation plus élevée, et donc des fréquences moindres. Qui plus est par rapport à Maxwell on savait qu'elle n'utilisait pas naturellement aussi bien toutes ses ressources (par rapport à Kepler ça avait l'air d'être équilibré), mais en contre partie GCN permet d'exécuter plus facilement des tâches en concomitance pour remplir les trous, un peu à la manière d'un Pentium 4 et de son Hyper-Threading.
 
Le hic c'est que cette possibilité n'existait pas à la sortie des cartes et il a fallu attendre 4 ans pour en voir la couleur, et il a fallu qu'AMD sorte pour ça une nouvelle API, rien de moins. C'est pour ça que ce choix a l'air débile parce que dire qu'on aura des gains avec ces cartes dans 4 ans, on a plutôt l'habitude de voir qu'une carte de cet âge soit obsolète de toutes manières. Sans compter le fait que pendant tout ce temps on soit obligé de se fier aux performances dans les jeux actuels (DX11) pour se faire un avis sur les cartes...
 
Après, le fait que l'histoire soit différente si AMD avait sorti un refresh en face de Maxwell, oui, probablement, mais en attendant c'est nVidia qui est en position de force...

Message cité 1 fois
Message édité par ockiller le 24-03-2016 à 08:14:49
n°9767218
TNZ
Ryzen 9 5950X powered ...
Posté le 24-03-2016 à 09:58:27  profilanswer
10Votes positifs
 

ockiller a écrit :

.../...
 
Le hic c'est que cette possibilité n'existait pas à la sortie des cartes et il a fallu attendre 4 ans pour en voir la couleur, et il a fallu qu'AMD sorte pour ça une nouvelle API, rien de moins. C'est pour ça que ce choix a l'air débile parce que dire qu'on aura des gains avec ces cartes dans 4 ans, on a plutôt l'habitude de voir qu'une carte de cet âge soit obsolète de toutes manières. Sans compter le fait que pendant tout ce temps on soit obligé de se fier aux performances dans les jeux actuels (DX11) pour se faire un avis sur les cartes...
 
Après, le fait que l'histoire soit différente si AMD avait sorti un refresh en face de Maxwell, oui, probablement, mais en attendant c'est nVidia qui est en position de force...


Oui, cela montre bien le côté opportuniste de nVidia qui ne voit pas le cœur de métier sur le long terme mais fonctionne avec des produits "réponse au marché" spécifiques tout en faisant du lobbying pour que les APIs et les jeux perdurent le plus possible. Une raison probable à cet état de fait, c'est qu'ils n'ont pas les capacités de concevoir l'avenir du secteur (manque de bons cerveaux ?). Ce ne sont pas des leaders technologiques mais des suiveurs (en mode pas éthique du tout).  
 

cyrille_0088 a écrit :

ils sont  soit disant dépassé mdr mais "CC" eux qui sont devant sur pc et ordinateur portable que je sache et pas qu'un peu ^_^* en retirant intel ^_^* de l'équation
 
bien qu'en mettant intel nvidia doit etre potable
meme en metant les igp d'amd ça doit etre bas quand meme ^_^*
 
prie pour que pascal ne soit pas totalement direct x 12
 
niveau consommation ils ne sont pas bourrin ^_^* bien que j'avoue qu'ils auraient pu faire plus d'efforts ... les mega hz ça consomme donc déjà ta critique n'est pas correcte


La lecture de bench obsolète 1 mois après sa sortie n'a jamais été pour ma part un indicateur fiable sur la qualité et le savoir-faire d'un constructeur.  
Je m'intéresse plus à l'objectif visé et à la démarche de celui-ci. On le sait tous que les cartes graphiques sont plus ou moins rapidement obsolètes.  
 
L'archi nVidia d'aujourd'hui est peu ou prou restée celle qui a été conçue pour répondre à la fessée des Radeon 9700 pro (qui a laissé nVidia sur le flanc, d'un point de vue techno, pendant quelques temps).
 
Oui, ils ont devant aujourd'hui sur des trucs en DX11 car leurs puces sont faites que pour ça. Avec DX12, ce n'est plus la même limonade.
Hors, même si le côté course de fond d'AMD peut paraître ridicule aux yeux de certains, ces derniers ont 4 ans d'avance technologique sur cet aspect. nVidia va devoir se sortir les doigts pour refaire une famille de puces "DX12 only" dans la mesure où ils ne font que du spécifique à chaque fois. Quelque part, ils subissent les lois du marché (quand ils n'arrivent plus à les dicter). C'est comme un programmeur qui passe d'une logique séquentielle au multi-threading ; ce n'est pas juste une histoire d’instructions supplémentaires ou différentes, mais bien une autre façon de penser / concevoir les traitements (programmeur de gestion VS programmeur industriel).  
 
GCN + DX12 / Vulkan ... ça sent la période riche en évolutions qui mettra au grand jour les capacités d'innovation et le vrai savoir-faire métier des acteurs du marché. [:spamafote]


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9767253
petit-tigr​e
miaou
Posté le 24-03-2016 à 10:35:59  profilanswer
3Votes positifs
 

Xixou2 a écrit :

Bref les gpu nvidia actuel ne supportent pas vraiment le parallélisme.


Et ce n'est pas vraiment un problème vu que les performances sont globalement très élevées de base avec les GeForce... alors...


---------------
mIaOuUuUuUuUuUu
n°9767255
lulu1980
Posté le 24-03-2016 à 10:38:26  profilanswer
5Votes positifs
 

Très belle analyse TNZ!

Message cité 1 fois
Message édité par lulu1980 le 24-03-2016 à 10:39:06
n°9767264
ever_over
Posté le 24-03-2016 à 10:49:32  profilanswer
4Votes positifs
 

lulu1980 a écrit :

Très belle analyse TNZ!


Oui c'est beau la haine. Pas grave si sur le fond il raconte n'importe quoi.

n°9767275
lulu1980
Posté le 24-03-2016 à 11:05:57  profilanswer
3Votes positifs
 

libre à toi de donner des arguments qui prouvent le contraire


Message édité par lulu1980 le 24-03-2016 à 11:10:09
n°9767285
ockiller
Posté le 24-03-2016 à 11:11:23  profilanswer
3Votes positifs
 

TNZ a écrit :

Oui, cela montre bien le côté opportuniste de nVidia qui ne voit pas le cœur de métier sur le long terme mais fonctionne avec des produits "réponse au marché" spécifiques tout en faisant du lobbying pour que les APIs et les jeux perdurent le plus possible.


Ok, je comprends ce que tu veux dire. Effectivement fallait pas compter sur nVidia pour faire le moindre effort sachant qu'ils tirent un avantage de la situation. Malgré ça ça reste culotté de la part d'AMD de faire le pari d'imposer une nouvelle API.
 

TNZ a écrit :

Une raison probable à cet état de fait, c'est qu'ils n'ont pas les capacités de concevoir l'avenir du secteur (manque de bons cerveaux ?). Ce ne sont pas des leaders technologiques mais des suiveurs (en mode pas éthique du tout).


Je dirai qu'ils sont bien plus doués qu'AMD pour concevoir leur propre avenir. Sur le secteur en lui même je trouve qu'ils sont pas mal actifs. VXGI ça me fait rêver perso :)
 

TNZ a écrit :

L'archi nVidia d'aujourd'hui est peu ou prou restée celle qui a été conçue pour répondre à la fessée des Radeon 9700 pro (qui a laissé nVidia sur le flanc, d'un point de vue techno, pendant quelques temps).


What !? Les archis ont énormément évolué depuis la 9700 Pro, celle qui a posé les bases des archis modernes est selon moi le G80 de la Geforce 8800, le SIMT ça n'existait pas avant à ma connaissance, et ça s'est imposé.
 

TNZ a écrit :

Oui, ils ont devant aujourd'hui sur des trucs en DX11 car leurs puces sont faites que pour ça. Avec DX12, ce n'est plus la même limonade.
Hors, même si le côté course de fond d'AMD peut paraître ridicule aux yeux de certains, ces derniers ont 4 ans d'avance technologique sur cet aspect. nVidia va devoir se sortir les doigts pour refaire une famille de puces "DX12 only" dans la mesure où ils ne font que du spécifique à chaque fois. Quelque part, ils subissent les lois du marché (quand ils n'arrivent plus à les dicter). C'est comme un programmeur qui passe d'une logique séquentielle au multi-threading ; ce n'est pas juste une histoire d'instructions supplémentaires ou différentes, mais bien une autre façon de penser / concevoir les traitements (programmeur de gestion VS programmeur industriel).  
 
GCN + DX12 / Vulkan ... ça sent la période riche en évolutions qui mettra au grand jour les capacités d'innovation et le vrai savoir-faire métier des acteurs du marché. [:spamafote]


Là il y a un peu de mauvaise foi. Tu ne sembles pas comprendre que les GPU qui marchent déjà bien sous DX11 fonctionneront tout aussi bien sous DX12. Dans le cas d'AMD ils profitent de DX12 pour combler une petite lacune côté efficacité (sans parler du coût CPU des pilotes, où les lacunes sont un peu plus grosses...).
 
Après, c'est vrai qu'AMD a tendance à faire des archis qui correspondent bien à ce qu'ils prévoient être une charge typique dans un futur plus ou moins proche, contrairement à nVidia qui a tendance à faire des archis optimisées pour les charges actuelles. Les deux ont leurs avantages et leurs inconvénients, après chacun se fait son avis en fonction de ses besoins, en tous cas ça ne justifie pas de dire que les archis d'nVidia sont spécifiques à une API, c'est complètement faux.


Message édité par ockiller le 24-03-2016 à 11:29:12
n°9767293
Noim
pwnd
Posté le 24-03-2016 à 11:20:57  profilanswer
11Votes positifs
 

lulu1980 a écrit :

libre à toi de donner des arguments qui prouvent le contraire


Pour recommencer la même discussion que dans le thread précédent, et celui d'avant, et celui d'avant, et... ad nauseam? Moi je veux bien, à vrai dire ça m'amuse pas mal de démonter les argumentations des fanboys, mais je crois que une fois de temps en temps, on peut faire un break aux lecteurs et arrêter de leur servir la même soupe à base de haterz, de théories du complot, d'interprétations biaisées et d'arguments sous LSD.  
 
Je peux assez facilement faire un résumé du thread, si tu veux :  
- TNZ va dire à quel point Nvidia sont des nuls et AMD géniaux.
- Lulu1980 va être d'accord avec lui.
- ockiller va rétorquer.
- Cocto81 va expliquer que Nvidia est en fait un conglomérat dirigé par des créatures reptiliennes venues d'une autre dimension.
- TNZ va en remettre une couche.
- Lulu1980 va être d'accord avec lui.
- Ever-over ne sera pas d'accord avec TNZ.
- Noim va critiquer AMD sur des questions de stratégie et de réalisme par rapport au marché sans rapport avec l'aspect technique.
- mazinger va débarquer et faire feu sur Nvidia sans majuscule ni ponctuation
- Lulu1980 va être d'acord avec lui.
- Petit-tigre va défendre Nvidia.
- ravenloft va nous sortir une courbe sur 20 ans du cours des stocks options avec indexation sur le crédit revolving.
- C-wiz va parler de VR.
- Tridam va gueuler.
 

Message cité 1 fois
Message édité par Noim le 24-03-2016 à 11:23:13
n°9767294
lulu1980
Posté le 24-03-2016 à 11:21:45  profilanswer
2Votes positifs
 

Nous verrons dans un an ce que valent les Maxwell.
Un Noim en forme aujourd'hui! C'est le printemps!


Message édité par lulu1980 le 24-03-2016 à 11:23:55
n°9767297
petit-tigr​e
miaou
Posté le 24-03-2016 à 11:24:53  profilanswer
4Votes positifs
 

Dans un an, Maxwell aura 3 ans.


---------------
mIaOuUuUuUuUuUu
n°9767299
Noim
pwnd
Posté le 24-03-2016 à 11:26:50  profilanswer
2Votes positifs
 

lulu1980 a écrit :

Nous verrons dans un an ce que valent les Maxwell.
Un Noim en forme aujourd'hui! C'est le printemps!


 
La sève fait glou-glou sous mon écorce.

n°9767301
TNZ
Ryzen 9 5950X powered ...
Posté le 24-03-2016 à 11:28:18  profilanswer
5Votes positifs
 

ockiller » Disons que la archis nVidia sont spécifiques à un profil d'utilisation d'une API sur le plan des perfs / optimisations. Ça reste de bonne guerre ceci dit.

 

Toutefois, il est important de rester sur le rail défini par nVidia sinon ça marche beaucoup moins bien. C'est ça que je défini comme "spécifique" dans la démarche nVidia. Ils verrouillent le matériel, le logiciel et les cas d'usage dans un cadre précis au delà duquel il n'est pas recommandé de s'aventurer (tiens ça me fait penser à un certain développeur d'interface graphique). C'est le propre des manufacturiers de produits "opportunistes".
[:spamafote]


Message édité par TNZ le 24-03-2016 à 11:28:59

---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9767303
lulu1980
Posté le 24-03-2016 à 11:29:00  profilanswer
4Votes positifs
 

petit-tigre a écrit :

Dans un an, Maxwell aura 3 ans.


 
j'ai pas dit qu'il avait un an apprend à lire j'ai dit on verra l'état de ses perfs dans un an avec les jeux du moment quand Nvidia s'en désintéressera au profit de pascal.

Message cité 1 fois
Message édité par lulu1980 le 24-03-2016 à 11:30:30
n°9767306
petit-tigr​e
miaou
Posté le 24-03-2016 à 11:33:38  profilanswer
3Votes positifs
 

TNZ a écrit :


Oui, cela montre bien le côté opportuniste de nVidia qui ne voit pas le cœur de métier sur le long terme mais fonctionne avec des produits "réponse au marché" spécifiques tout en faisant du lobbying pour que les APIs et les jeux perdurent le plus possible. Une raison probable à cet état de fait, c'est qu'ils n'ont pas les capacités de concevoir l'avenir du secteur (manque de bons cerveaux ?). Ce ne sont pas des leaders technologiques mais des suiveurs (en mode pas éthique du tout).  
 


Et je ne vois pas où est le problème sincèrement... Comme tu dis, AMD a une vision à long terme et Nvidia une vision à l'instant T. Or il me semble que la plupart des joueurs profitent des jeux à l'instant T et pas 2 ans après.
 
Que l'archi GCN se révèle pleinement grâce à DX12 tant mieux mais c'est dommageable de voir qu'en fin de compte, elle n'a pas vraiment été adaptée aux standards qui restent ceux du moment (DX11).
Et ça l'est d'autant plus que de toute façon, les joueurs changent régulièrement de GPU pour 36 raisons. Ceux sous AMD n'y échapperont pas. Si les futurs GPU de la marque sont convaincants en perfs et ne chauffent pas, j'en connais beaucoup qui vont dégager les grille-pains 290/390 au profit de ces nouveaux GPU, même s'ils peuvent tirer +5/10 fps de plus qu'une Maxwell dans un jeu de fin 2017... ne serait-ce que, au delà de la perf pure et la conso, pour bénéficier des dernières avancées technologiques. Même chose chez les NV users.
 
Du coup est-ce si illogique de sortir des produits qui répondent à un besoin PRESENT et non pas un besoin potentiel dans XX mois ? Je n'en suis pas sûr...


---------------
mIaOuUuUuUuUuUu
n°9767308
Neji Hyuga
Modérateur
:grut:
Posté le 24-03-2016 à 11:34:15  profilanswer
2Votes positifs
 

Noim a écrit :

[..]on peut faire un break aux lecteurs et arrêter de leur servir la même soupe à base de haterz, de théories du complot, d'interprétations biaisées et d'arguments sous LSD.  


 
Meilleur post jamais.
 
Les guéguerres à deux ronds qui démarrent dès les premiers messages à chaque news GPU et se transforment en jugements de valeurs/règlements de comptes, c'est gonflant [:el frog:4]


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9767310
petit-tigr​e
miaou
Posté le 24-03-2016 à 11:35:32  profilanswer
2Votes positifs
 

lulu1980 a écrit :


 
j'ai pas dit qu'il avait un an apprend à lire j'ai dit on verra l'état de ses perfs dans un an avec les jeux du moment quand Nvidia s'en désintéressera au profit de pascal.


Je sais lire, merci. JE te dis juste que dans un an, Maxwell (970/980) aura 3 ans, ce qui est une durée tout à fait convenable pour un GPU... et quand je dis durée de vie, ça veut dire jouer avec un maximum de settings à 60 fps. Ca ne veut pas dire que la carte va du jour au lendemain faire 15 fps parce que Pascal sera là.


---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GDC: Async Compute : ce qu'en dit Nvidia

 

Sujets relatifs
[HFR] Actu : De Tick-Tock à Process-Architecture-Optimization[HFR] Actu : Andy Grove est décédé
[HFR] Actu : Pilotes AMD 16.3.1 Hotfix[HFR] Actu : Skylake gagne un an de support Windows 7 / 8.1
[HFR] Actu : GDC: Async Compute et AotS : des détails 
Plus de sujets relatifs à : [HFR] Actu : GDC: Async Compute : ce qu'en dit Nvidia


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR