Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2791 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Auteur Sujet :

[HFR] Actu : GDC: Async Compute : ce qu'en dit Nvidia

n°9767310
petit-tigr​e
miaou
Posté le 24-03-2016 à 11:35:32  profilanswer
2Votes positifs
 

Reprise du message précédent :

lulu1980 a écrit :


 
j'ai pas dit qu'il avait un an apprend à lire j'ai dit on verra l'état de ses perfs dans un an avec les jeux du moment quand Nvidia s'en désintéressera au profit de pascal.


Je sais lire, merci. JE te dis juste que dans un an, Maxwell (970/980) aura 3 ans, ce qui est une durée tout à fait convenable pour un GPU... et quand je dis durée de vie, ça veut dire jouer avec un maximum de settings à 60 fps. Ca ne veut pas dire que la carte va du jour au lendemain faire 15 fps parce que Pascal sera là.


---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le 24-03-2016 à 11:35:32  profilanswer
 

n°9767311
lulu1980
Posté le 24-03-2016 à 11:36:25  profilanswer
4Votes positifs
 

petit-tigre a écrit :

TNZ a écrit :


Oui, cela montre bien le côté opportuniste de nVidia qui ne voit pas le cœur de métier sur le long terme mais fonctionne avec des produits "réponse au marché" spécifiques tout en faisant du lobbying pour que les APIs et les jeux perdurent le plus possible. Une raison probable à cet état de fait, c'est qu'ils n'ont pas les capacités de concevoir l'avenir du secteur (manque de bons cerveaux ?). Ce ne sont pas des leaders technologiques mais des suiveurs (en mode pas éthique du tout).  
 


Et je ne vois pas où est le problème sincèrement... Comme tu dis, AMD a une vision à long terme et Nvidia une vision à l'instant T. Or il me semble que la plupart des joueurs profitent des jeux à l'instant T et pas 2 ans après.
 
Que l'archi GCN se révèle pleinement grâce à DX12 tant mieux mais c'est dommageable de voir qu'en fin de compte, elle n'a pas vraiment été adaptée aux standards qui restent ceux du moment (DX11).
Et ça l'est d'autant plus que de toute façon, les joueurs changent régulièrement de GPU pour 36 raisons. Ceux sous AMD n'y échapperont pas. Si les futurs GPU de la marque sont convaincants en perfs et ne chauffent pas, j'en connais beaucoup qui vont dégager les grille-pains 290/390 au profit de ces nouveaux GPU, même s'ils peuvent tirer +5/10 fps de plus qu'une Maxwell dans un jeu de fin 2017... ne serait-ce que, au delà de la perf pure et la conso, pour bénéficier des dernières avancées technologiques. Même chose chez les NV users.
 
Du coup est-ce si illogique de sortir des produits qui répondent à un besoin PRESENT et non pas un besoin potentiel dans XX mois ? Je n'en suis pas sûr...


 
Moi ça m'intéresse de pas changer de GPU tous les 1 ou 2 ans.

n°9767316
TNZ
Ryzen 9 5950X powered ...
Posté le 24-03-2016 à 11:47:27  profilanswer
4Votes positifs
 

petit-tigre a écrit :

Et je ne vois pas où est le problème sincèrement... Comme tu dis, AMD a une vision à long terme et Nvidia une vision à l'instant T. Or il me semble que la plupart des joueurs profitent des jeux à l'instant T et pas 2 ans après.
 
Que l'archi GCN se révèle pleinement grâce à DX12 tant mieux mais c'est dommageable de voir qu'en fin de compte, elle n'a pas vraiment été adaptée aux standards qui restent ceux du moment (DX11).
Et ça l'est d'autant plus que de toute façon, les joueurs changent régulièrement de GPU pour 36 raisons. Ceux sous AMD n'y échapperont pas. Si les futurs GPU de la marque sont convaincants en perfs et ne chauffent pas, j'en connais beaucoup qui vont dégager les grille-pains 290/390 au profit de ces nouveaux GPU, même s'ils peuvent tirer +5/10 fps de plus qu'une Maxwell dans un jeu de fin 2017... ne serait-ce que, au delà de la perf pure et la conso, pour bénéficier des dernières avancées technologiques. Même chose chez les NV users.
 
Du coup est-ce si illogique de sortir des produits qui répondent à un besoin PRESENT et non pas un besoin potentiel dans XX mois ? Je n'en suis pas sûr...


Tes arguments sont recevables pour les gamers plein de pognon atteints du syndrôme de girouette chronique. Malheureusement il y en a beaucoup, mais ce n'est pas la majorité des personnes qui gèrent l'infra de leur PC domestique.
 
Cas concret : j'ai tourné pendant 9 ans avec une carte mère serveur (bi-opteon 290) sur laquelle est passé pas moins de 3 CG. Cela fait une moyenne de 3 ans par carte ... et encore la dernière est maintenant avec le FX8350. Du coup, je préfère de loin avoir une carte graphique avec une durée de vie la plus longue possible avec laquelle je pourrai jouer confortablement (sans me lamenter parce que je tourne à 80 FPS et que la concurrence tourne à 85) plutôt qu'un machin qui coûte un bras et qui sera obsolète au bout de 6 mois (comprendre ne plus avoir la plus grosse). Est ce bien raisonnable ?


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9767322
petit-tigr​e
miaou
Posté le 24-03-2016 à 11:57:42  profilanswer
2Votes positifs
 

Euh je ne suis pas plein de pognon ou atteint du syndrome de girouette chronique... je te remercie quand même.
 
Je veux juste profiter correctement des jeux quand ils sortent et pas des mois après. Ca va faire 2 ans que j'ai ma 970 et elle est toujours au top niveau... Nul doute qu'elle pourra en faire 3 (vu que les futurs GPU HDG ne seront de surcroit pas là cette année visiblement).
 
3 ans, c'est ton exigence non ? On est donc en plein dans tes objectifs... donc je le redis : où est-ce que c'est irraisonnable ?
 
Tirer sur la corde à rallonge, ce n'est pas une solution de confort non plus. Bientôt on va passer à l'HBM2 et compagnie, tu seras attiré comme beaucoup c'est tout. Je ne dis pas que tu vas craquer mais tu vas forcément suivre ça avec curiosité et agir selon les résultats.
 
Si ton objectif est de rester avec le même GPU pendant 10 ans comme ta carte-mère, autant dire que c'est voué à l'échec si sur ces 10 mêmes années tu comptes jouer avec le même niveau de qualité.


---------------
mIaOuUuUuUuUuUu
n°9767327
Noim
pwnd
Posté le 24-03-2016 à 12:05:50  profilanswer
4Votes positifs
 

TNZ a écrit :

Tes arguments sont recevables pour les gamers plein de pognon atteints du syndrôme de girouette chronique. Malheureusement il y en a beaucoup, mais ce n'est pas la majorité des personnes qui gèrent l'infra de leur PC domestique.
 
Cas concret : j'ai tourné pendant 9 ans avec une carte mère serveur (bi-opteon 290) sur laquelle est passé pas moins de 3 CG. Cela fait une moyenne de 3 ans par carte ... et encore la dernière est maintenant avec le FX8350. Du coup, je préfère de loin avoir une carte graphique avec une durée de vie la plus longue possible avec laquelle je pourrai jouer confortablement (sans me lamenter parce que je tourne à 80 FPS et que la concurrence tourne à 85) plutôt qu'un machin qui coûte un bras et qui sera obsolète au bout de 6 mois (comprendre ne plus avoir la plus grosse). Est ce bien raisonnable ?


 
Tes 3 cartes étaient-elles des Nvidia?
Définit obsolète.
Maxwell est-il obsolète?
Kepler est-il obsolète (si oui, mon PC n'a pas reçu le mémo, il devrait se tenir au courant)?
Autre alternative, pour faire de belles économies : ne pas se jeter sur les derniers AAA et ne pas les gloutonner. Et oui, le rythme irraisonnable de changement de carte pour le jeu est le symptôme d'une consommation irraisonnée des dits jeux. Triple avantage : étalement de l'achat des jeux dans le temps, durée de vie améliorée de la carte et dégagement de temps pour d'autres activités. Win-win-win.

Message cité 1 fois
Message édité par Noim le 24-03-2016 à 12:11:11
n°9767334
petit-tigr​e
miaou
Posté le 24-03-2016 à 12:14:31  profilanswer
2Votes positifs
 

Noim a écrit :

Autre alternative, pour faire de belles économies : ne pas se jeter sur les derniers AAA et ne pas les gloutonner. Et oui, le rythme irraisonnable de changement de carte pour le jeu est le symptôme d'une consommation irraisonnée des dits jeux. Triple avantage : étalement de l'achat des jeux dans le temps, durée de vie améliorée de la carte et dégagement de temps pour d'autres activités. Win-win-win.


Ce n'est pas tant gloutonner des AAA qui pousse à l'obsolescence mais mettre tous les curseurs à droite dans le menu d'options sans se demander un seul instant quel est le rapport coût/apport visuel.
Ca dépend aussi de quelles conditions de jeu on parle, 1080p, 1440p, 4K... à quel framerate ?

 

La 4K n'est de surcroit pas exploitable correctement en l'état alors en 2018, que la 970 fasse 11 fps sur l'AAA à la mode tout au minimum et la 390 19 dans les mêmes conditions grâce à l'async, ça nous fera une belle jambe vu que ce sera dans les deux cas injouable pour beaucoup (je sais qu'il y en a qui arrivent à se contenter de 30).
Pour le coup, selon tes conditions de jeu, la durée de vie peut être divisée par 5...


Message édité par petit-tigre le 24-03-2016 à 12:15:46

---------------
mIaOuUuUuUuUuUu
n°9767345
TNZ
Ryzen 9 5950X powered ...
Posté le 24-03-2016 à 12:21:22  profilanswer
2Votes positifs
 

petit-tigre a écrit :

Euh je ne suis pas plein de pognon ou atteint du syndrome de girouette chronique... je te remercie quand même.
 
Je veux juste profiter correctement des jeux quand ils sortent et pas des mois après. Ca va faire 2 ans que j'ai ma 970 et elle est toujours au top niveau... Nul doute qu'elle pourra en faire 3 (vu que les futurs GPU HDG ne seront de surcroit pas là cette année visiblement).
 
3 ans, c'est ton exigence non ? On est donc en plein dans tes objectifs... donc je le redis : où est-ce que c'est irraisonnable ?
 
Tirer sur la corde à rallonge, ce n'est pas une solution de confort non plus. Bientôt on va passer à l'HBM2 et compagnie, tu seras attiré comme beaucoup c'est tout. Je ne dis pas que tu vas craquer mais tu vas forcément suivre ça avec curiosité et agir selon les résultats.
 
Si ton objectif est de rester avec le même GPU pendant 10 ans comme ta carte-mère, autant dire que c'est voué à l'échec si sur ces 10 mêmes années tu comptes jouer avec le même niveau de qualité.


Désolé pour le cliché nerdz, je dénonce une attitude commune, pas forcément ton approche.  
 
3 ans en moyenne est un résultat. Je n'ai pas de "schéma directeur" pour mon infra domestique. Ce sont les besoins qui guident les changements.  
Le remplacement de la carte mère a été provoqué par le besoin des instructions de virtualisation des processeurs. J'avais besoin de faire des VMs 64 bits.


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9767371
Noim
pwnd
Posté le 24-03-2016 à 12:53:53  profilanswer
3Votes positifs
 

Post effacé pour tenter de résister à tous mes instincts et ne pas dérailler ce thread plus qu'il ne l'est déjà.


Message édité par Noim le 24-03-2016 à 13:29:11
n°9767390
petit-tigr​e
miaou
Posté le 24-03-2016 à 13:14:12  profilanswer
1Votes positifs
 

TNZ a écrit :


Désolé pour le cliché nerdz, je dénonce une attitude commune, pas forcément ton approche.  
 
3 ans en moyenne est un résultat. Je n'ai pas de "schéma directeur" pour mon infra domestique. Ce sont les besoins qui guident les changements.  
Le remplacement de la carte mère a été provoqué par le besoin des instructions de virtualisation des processeurs. J'avais besoin de faire des VMs 64 bits.


Pas de souci  :jap:


---------------
mIaOuUuUuUuUuUu
n°9767405
Zurkum
Posté le 24-03-2016 à 13:32:03  profilanswer
0Votes positifs
 

Tout dépend de l'acheteur ... Je ne compte pas changer de CG dans un avenir proche alors le fait que ma carte puisse exploiter les prochaines features ( en partie, aucune n'est DX12 ready à 200% ) me fait bien plaisir ..
Édit : j'avais pas vu la deuxième page  :O


Message édité par Zurkum le 24-03-2016 à 13:34:26
mood
Publicité
Posté le 24-03-2016 à 13:32:03  profilanswer
 

n°9767437
matyas69
Posté le 24-03-2016 à 14:00:18  profilanswer
0Votes positifs
 

C'est drôle qu'on reparle de ça car depuis les derniers pilotes le compute ralentit à partir de 33 au lieu de 32.

 

Pilotes 364.51

Spoiler :

Compute only:
1. 10.00ms
2. 10.00ms
3. 10.00ms
4. 10.00ms
5. 9.20ms
6. 9.02ms
7. 9.02ms
8. 9.02ms
9. 8.94ms
10. 8.52ms
11. 8.51ms
12. 8.53ms
13. 8.52ms
14. 8.53ms
15. 8.52ms
16. 8.52ms
17. 8.51ms
18. 8.52ms
19. 8.53ms
20. 8.52ms
21. 8.53ms
22. 8.54ms
23. 8.53ms
24. 8.54ms
25. 8.53ms
26. 8.55ms
27. 8.53ms
28. 8.53ms
29. 8.53ms
30. 8.53ms
31. 8.58ms
32. 8.54ms
33. 16.89ms
34. 16.88ms

 

-------------------------
Graphics only: 39.50ms (42.47G pixels/s)
Graphics + compute:
1. 47.92ms (35.01G pixels/s)
2. 47.91ms (35.02G pixels/s)
3. 47.93ms (35.00G pixels/s)
4. 47.93ms (35.00G pixels/s)
5. 47.96ms (34.98G pixels/s)
6. 47.91ms (35.02G pixels/s)
7. 47.91ms (35.02G pixels/s)
8. 47.93ms (35.00G pixels/s)
9. 47.96ms (34.98G pixels/s)
10. 47.90ms (35.03G pixels/s)
11. 47.92ms (35.01G pixels/s)
12. 47.90ms (35.02G pixels/s)
13. 47.95ms (34.99G pixels/s)
14. 47.96ms (34.98G pixels/s)
15. 47.90ms (35.03G pixels/s)
16. 47.94ms (34.99G pixels/s)
17. 47.91ms (35.02G pixels/s)
18. 47.95ms (34.99G pixels/s)
19. 47.90ms (35.02G pixels/s)
20. 47.92ms (35.01G pixels/s)
21. 47.93ms (35.00G pixels/s)
22. 47.90ms (35.02G pixels/s)
23. 47.92ms (35.01G pixels/s)
24. 47.93ms (35.00G pixels/s)
25. 47.94ms (34.99G pixels/s)
26. 47.94ms (34.99G pixels/s)
27. 47.91ms (35.02G pixels/s)
28. 47.91ms (35.02G pixels/s)
29. 47.93ms (35.00G pixels/s)
30. 47.95ms (34.99G pixels/s)
31. 47.94ms (35.00G pixels/s)
32. 47.93ms (35.01G pixels/s)
33. 56.28ms (29.81G pixels/s)

 

Pilotes 353.63

Spoiler :

Compute only:
1. 8.52ms
1. 8.53ms
2. 8.52ms
3. 8.53ms
4. 8.52ms
5. 8.53ms
6. 8.52ms
7. 8.52ms
8. 8.51ms
9. 8.53ms
10. 8.52ms
11. 8.54ms
12. 8.55ms
13. 8.53ms
14. 8.52ms
15. 8.53ms
16. 8.52ms
17. 8.52ms
18. 8.51ms
19. 8.53ms
20. 8.52ms
21. 8.54ms
22. 8.55ms
23. 8.54ms
24. 8.53ms
25. 8.53ms
26. 8.53ms
27. 8.53ms
28. 8.53ms
29. 8.58ms
30. 8.59ms
31. 8.57ms
32. 16.99ms
33. 19.13ms
34. 19.11ms
35. 19.11ms

 

-----------------
Graphics only: 39.48ms (42.50G pixels/s)
Graphics + compute:
1. 47.97ms (34.98G pixels/s)
2. 47.93ms (35.00G pixels/s)
3. 47.93ms (35.00G pixels/s)
4. 47.97ms (34.98G pixels/s)
5. 47.93ms (35.00G pixels/s)
6. 47.92ms (35.01G pixels/s)
7. 47.93ms (35.00G pixels/s)
8. 47.91ms (35.02G pixels/s)
9. 47.95ms (34.99G pixels/s)
10. 47.92ms (35.01G pixels/s)
11. 47.92ms (35.01G pixels/s)
12. 47.95ms (34.99G pixels/s)
13. 47.91ms (35.02G pixels/s)
14. 47.93ms (35.00G pixels/s)
15. 47.94ms (34.99G pixels/s)
16. 47.94ms (34.99G pixels/s)
17. 48.02ms (34.94G pixels/s)
18. 47.93ms (35.01G pixels/s)
19. 47.92ms (35.01G pixels/s)
20. 47.97ms (34.97G pixels/s)
21. 47.96ms (34.98G pixels/s)
22. 47.97ms (34.97G pixels/s)
23. 47.93ms (35.01G pixels/s)
24. 47.94ms (34.99G pixels/s)
25. 47.97ms (34.98G pixels/s)
26. 47.95ms (34.99G pixels/s)
27. 47.95ms (34.99G pixels/s)
28. 47.94ms (35.00G pixels/s)
29. 47.93ms (35.00G pixels/s)
30. 48.01ms (34.94G pixels/s)
31. 47.96ms (34.98G pixels/s)
32. 56.45ms (29.72G pixels/s)
33. 56.39ms (29.75G pixels/s)

 


Message édité par matyas69 le 24-03-2016 à 14:01:59
n°9767570
tridam
Profil : Equipe HardWare.fr
Posté le 24-03-2016 à 17:07:36  profilanswer
11Votes positifs
 

Soyons sérieux au niveau du débat entre les performances dans les jeux de maintenant et ceux de demain. Quand AMD a travaillé sur les ACE pour Tahiti, disons 2 ans avant sa sortie soit fin 2009, ils ne sont pas dit "hey investissons du temps là-dessus, ça va être génial pour booster les performances en 2017 et dans 3 jeux de 2016 !" :o
 
Soit AMD pensait exploiter cette possibilité pour le rendu 3D via des tweaks autour des API précédentes mais sans jamais y parvenir, soit AMD pensait que le support logiciel tomberait un jour du ciel, soit AMD n'avait pas pensé à ce type d'utilisation et visait plutôt l'exécution de software de type GPU computing en tâche de fond (folding@home), en impactant le moins possible le rendu 3D. Je penche plutôt pour cette dernière option.
 
Ceci dit sur le fond on peut se poser la question de savoir ce qui est le plus intéressant pour les joueurs. Une carte qui fonctionne à 60 au lieu de 50 fps au moment de son achat ou une carte qui fonctionne à 35 au lieu de 30 fps 3 ans plus tard. Mais je pense qu'il n'y a probablement pas de réponse universelle à cette question ;)

n°9767582
pepes003
Loués soient les Or(d)i
Posté le 24-03-2016 à 17:19:15  profilanswer
2Votes positifs
 


Pourquoi ne pas leur demander Damien plutôt que spéculer/troller ;)


---------------
> Mon FEEDBACK <
n°9767793
CardinalFu​neste
Posté le 24-03-2016 à 22:06:53  profilanswer
3Votes positifs
 

petit-tigre a écrit :

Euh je ne suis pas plein de pognon ou atteint du syndrome de girouette chronique... je te remercie quand même.
 
Je veux juste profiter correctement des jeux quand ils sortent et pas des mois après. Ca va faire 2 ans que j'ai ma 970 et elle est toujours au top niveau... Nul doute qu'elle pourra en faire 3 (vu que les futurs GPU HDG ne seront de surcroit pas là cette année visiblement).
 
3 ans, c'est ton exigence non ? On est donc en plein dans tes objectifs... donc je le redis : où est-ce que c'est irraisonnable ?
 
Tirer sur la corde à rallonge, ce n'est pas une solution de confort non plus. Bientôt on va passer à l'HBM2 et compagnie, tu seras attiré comme beaucoup c'est tout. Je ne dis pas que tu vas craquer mais tu vas forcément suivre ça avec curiosité et agir selon les résultats.
 
Si ton objectif est de rester avec le même GPU pendant 10 ans comme ta carte-mère, autant dire que c'est voué à l'échec si sur ces 10 mêmes années tu comptes jouer avec le même niveau de qualité.


 
j'ai une 7970 et une 280x deux gpu "vieux de plus de 4ans maintenant. ces carte m'ont permis de jouer en 1080p en full et ultra a quasi tout les titres dx11 jusqu'a present et peut etre avec l'api Vulkan/dx12 me permettra de la pousser encore facile 2ans de plus. Si j'en juge par mon expérience, cette carte m'aura offert pratiquement 6ans de gaming sans trop faire de concession sur les détails et la résolution. Cela me conforte dans le choix d'AMD d'avoir choisi ce type d’architecture a longue durée de vie mais tout en offrant quand même de très bonnes perfs des le départ et avec les jeux du moment  

n°9767809
Zurkum
Posté le 24-03-2016 à 22:28:24  profilanswer
1Votes positifs
 

Tout dépend de la personne / budget  :jap:
Je vais garder ma 290X encore un bout de temps  par exemple alors que certains n'attendent que la x80Ti pour changer leur 980Ti  :jap:

n°9767851
CardinalFu​neste
Posté le 24-03-2016 à 23:58:05  profilanswer
2Votes positifs
 

J'étais comme ça aussi autrefois :D Mais avec l'age, les centres d’intérêts on tendance a se déplacer vers autre chose et les finances ne peuvent suivre pour tout :(  J'ai quand même encore ce plaisir de geek a recevoir et bidouiller du matos récent/ancien heureusement :love:

n°9767950
petit-tigr​e
miaou
Posté le 25-03-2016 à 09:18:58  profilanswer
1Votes positifs
 

CardinalFuneste a écrit :


 
j'ai une 7970 et une 280x deux gpu "vieux de plus de 4ans maintenant. ces carte m'ont permis de jouer en 1080p en full et ultra a quasi tout les titres dx11 jusqu'a present et peut etre avec l'api Vulkan/dx12 me permettra de la pousser encore facile 2ans de plus. Si j'en juge par mon expérience, cette carte m'aura offert pratiquement 6ans de gaming sans trop faire de concession sur les détails et la résolution. Cela me conforte dans le choix d'AMD d'avoir choisi ce type d’architecture a longue durée de vie mais tout en offrant quand même de très bonnes perfs des le départ et avec les jeux du moment  


Pas à 60 fps... Mais voilà, tu ne le dis pas.
Moi ça ne m'intéresse pas de jouer en "conditions console" avec du 30 ou du yoyo incessant.
 
Encore une fois, c'est donc du cas par cas. :)
 
Avec une 8800 GT, on peut jouer à Bioshock Infinite avec les détails maxi (hors DX11 forcément) à 60 fps... en 720p et quasiment 30 en 1080p. La carte date de 2007 et le jeu de 2013, ça fait 6 ans aussi. Tu as des benchs qui trainent sur le net.
 
La longévité des GPU dépend de nos exigences propres, rien d'autre.


---------------
mIaOuUuUuUuUuUu
n°9767955
TNZ
Ryzen 9 5950X powered ...
Posté le 25-03-2016 à 09:22:04  profilanswer
4Votes positifs
 

tridam a écrit :

Soyons sérieux au niveau du débat entre les performances dans les jeux de maintenant et ceux de demain. Quand AMD a travaillé sur les ACE pour Tahiti, disons 2 ans avant sa sortie soit fin 2009, ils ne sont pas dit "hey investissons du temps là-dessus, ça va être génial pour booster les performances en 2017 et dans 3 jeux de 2016 !" :o
 
Soit AMD pensait exploiter cette possibilité pour le rendu 3D via des tweaks autour des API précédentes mais sans jamais y parvenir, soit AMD pensait que le support logiciel tomberait un jour du ciel, soit AMD n'avait pas pensé à ce type d'utilisation et visait plutôt l'exécution de software de type GPU computing en tâche de fond (folding@home), en impactant le moins possible le rendu 3D. Je penche plutôt pour cette dernière option.
 
Ceci dit sur le fond on peut se poser la question de savoir ce qui est le plus intéressant pour les joueurs. Une carte qui fonctionne à 60 au lieu de 50 fps au moment de son achat ou une carte qui fonctionne à 35 au lieu de 30 fps 3 ans plus tard. Mais je pense qu'il n'y a probablement pas de réponse universelle à cette question ;)


Et si tout simplement cela signifiait qu'AMD dispose d'un vrai R&D digne de ce nom ?
Pas de spéculation, pas de troll, juste que les ingés AMD pensent coeur de métier au lieu de time-to-market.
[:spamafote]


---------------
"Mieux vaut demander à un qui sait plutôt qu'à deux qui cherchent." ... "Le plus dur, c'est de faire simple.", TNZ
n°9767971
Noim
pwnd
Posté le 25-03-2016 à 09:45:50  profilanswer
2Votes positifs
 

S'il y a bien un département qui a été impacté par les pertes financières et les trois vagues successives de licenciements chez AMD, c'est bien la R&D.
 
Au risque de passer pour un cynique, je trouve qu'il faut faire preuve d'un optimisme à la limite de la naïveté pour voir dans les choix stratégiques désastreux du point de vue de la santé d'entreprise une quelconque expression de la vocation philanthropique ou de la conscience professionnelle exacerbée d'AMD.  
 
Edit : à voir si je retrouve le document, mais sauf erreur, il n'y a encore pas si longtemps, les chiffres du budget R&D des deux entreprises étaient relativement proches, avec cette petite nuance que l'une divise ça entre sa branche GPU et sa branche CPU, alors que l'autre n'avait que la partie GPU... Il est possible que la situation ai changé avec l'arrivée de la VR et les autres domaines de recherche (deep learning entre autre).
 
Edit 2 : Ce n'est pas le doc que j'avais en tête, mais il fera l'affaire :  
 
http://cdn.wccftech.com/wp-content/uploads/2015/03/1amd_nvidia_intel.png
 
Le budget R&D d'AMD en 2015 est le plus faible des 10 dernières années. Si Zen est aussi bon qu'on l'espère et que Polaris tient tête à Pascal, ce sera tout simplement un exploit.

Message cité 1 fois
Message édité par Noim le 25-03-2016 à 10:44:53

---------------
"Real stupidity beats artificial intelligence every time". - T.Pratchett, Hogfather
n°9767984
Nono0000
Posté le 25-03-2016 à 10:02:53  profilanswer
0Votes positifs
 

TNZ a écrit :


Et si tout simplement cela signifiait qu'AMD dispose d'un vrai R&D digne de ce nom ?
Pas de spéculation, pas de troll, juste que les ingés AMD pensent coeur de métier au lieu de time-to-market.
[:spamafote]


 
Pour avoir connu les mêmes problématiques dans un autre domaine de R&D de microelec, je ne pense pas que les ingénieurs de chez AMD soient plus tournés vers l'avenir que leurs homologues de chez Nvidia.  
C'est le management technique qui tranche de manière différente sur les choses à mettre et celles à garder pour plus tard.
D'un point de vue technique, c'est frustrant de ne pas voir toutes les possibilités techniques développées intégrer le produit final et pourtant, si on ne veut pas un produit qui soit à côté de la plaque (prix, fonctions réellement utilisées...) il faut faire de sacrés compromis techniques.
Pour la société qui m'emploie cela a, jusqu'à présent, était des choix judicieux (mème si certains étaient douloureux) car la santé financière est excellente et visiblement la même chose se passe chez Nvidia.


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°9768213
CardinalFu​neste
Posté le 25-03-2016 à 14:19:43  profilanswer
4Votes positifs
 

Noim a écrit :

S'il y a bien un département qui a été impacté par les pertes financières et les trois vagues successives de licenciements chez AMD, c'est bien la R&D.
 
Au risque de passer pour un cynique, je trouve qu'il faut faire preuve d'un optimisme à la limite de la naïveté pour voir dans les choix stratégiques désastreux du point de vue de la santé d'entreprise une quelconque expression de la vocation philanthropique ou de la conscience professionnelle exacerbée d'AMD.  
 
Edit : à voir si je retrouve le document, mais sauf erreur, il n'y a encore pas si longtemps, les chiffres du budget R&D des deux entreprises étaient relativement proches, avec cette petite nuance que l'une divise ça entre sa branche GPU et sa branche CPU, alors que l'autre n'avait que la partie GPU... Il est possible que la situation ai changé avec l'arrivée de la VR et les autres domaines de recherche (deep learning entre autre).
 
Edit 2 : Ce n'est pas le doc que j'avais en tête, mais il fera l'affaire :  
 
http://cdn.wccftech.com/wp-content [...] _intel.png
 
Le budget R&D d'AMD en 2015 est le plus faible des 10 dernières années. Si Zen est aussi bon qu'on l'espère et que Polaris tient tête à Pascal, ce sera tout simplement un exploit.


 
Je pense qu'AMD a moins de R&D a faire pour son polaris qu'nvidia pour son pascal. La majorité des avances sur les api bas niveau et de l’intégration de la HBM on déjà été faites sur ses précédents gpu, l’entreprise va en grande parti économiser ces recherches la contrairement a nvidia qui dois repartir de quasi zero sur sont futur gpu...
Et puis si le pognon faisait tout en info ca se saurait, bien des grosse boites se font mettre des volées monumentales dans certains des secteurs par des petits outsiders, bien des colosses ont fini par crever dans l'histoire de l'informatique

Message cité 3 fois
Message édité par CardinalFuneste le 25-03-2016 à 14:21:02
n°9768216
CardinalFu​neste
Posté le 25-03-2016 à 14:26:43  profilanswer
3Votes positifs
 

petit-tigre a écrit :


Pas à 60 fps... Mais voilà, tu ne le dis pas.
Moi ça ne m'intéresse pas de jouer en "conditions console" avec du 30 ou du yoyo incessant.
 
Encore une fois, c'est donc du cas par cas. :)
 
Avec une 8800 GT, on peut jouer à Bioshock Infinite avec les détails maxi (hors DX11 forcément) à 60 fps... en 720p et quasiment 30 en 1080p. La carte date de 2007 et le jeu de 2013, ça fait 6 ans aussi. Tu as des benchs qui trainent sur le net.
 
La longévité des GPU dépend de nos exigences propres, rien d'autre.


 
Non c'est sur mais pour exemple dans un jeu comme the division qui est un des plus aboutis techniquement, je joue en 1080p en ultra sans AA a 45fps de moyenne ce qui est ma limite acceptable en terme framerate, c'est groso modo la même chose qu'une 970. pas mal pour une mémé vieille de 4ans  :D

Message cité 1 fois
Message édité par CardinalFuneste le 25-03-2016 à 14:27:29
n°9768233
lulu1980
Posté le 25-03-2016 à 14:40:08  profilanswer
2Votes positifs
 

Dis pas ça à petit tigre il va faire une attaque...

n°9768235
Yeagermach​42
Posté le 25-03-2016 à 14:43:42  profilanswer
2Votes positifs
 

CardinalFuneste a écrit :


 
Je pense qu'AMD a moins de R&D a faire pour son polaris qu'nvidia pour son pascal. La majorité des avances sur les api bas niveau et de l’intégration de la HBM on déjà été faites sur ses précédents gpu, l’entreprise va en grande parti économiser ces recherches la contrairement a nvidia qui dois repartir de quasi zero sur sont futur gpu...
Et puis si le pognon faisait tout en info ca se saurait, bien des grosse boites se font mettre des volées monumentales dans certains des secteurs par des petits outsiders, bien des colosses ont fini par crever dans l'histoire de l'informatique


Amd a fait un pari pour avoir le marché console (qui intéressait pas grand monde). C'est ce pari que l'on retrouve dans Mantle et maintenant dans D3D12 et Vulkan. A priori, on pourrait donc le donner gagnant (même si je préfère attendre pour cela de voir quelles fonctions vont vraiment être utilisé par les devs). Nvidia a fait un choix different mais pas tant que cela non plus. Et ils ont eu 3 bonnes années pour préparer leur nouvelle architecture en fonction de D3D12/Vulkan. Ils ne se sont pas réveillé l'année dernière, loin de la. Surtout qu'ils partent pas de zéro : exécuter des taches concomitantes, ils savent faire depuis pas mal de temps avec Cuda.
 
Donc a voir si AMD maintient son avance avec la prochaine génération et surtout ce que les devs vont utiliser de D3D12/Vulkan. Si ils "oublient" l'async, AMD perd une bonne partie (voir la totalité) de son avance.

n°9768236
Yeagermach​42
Posté le 25-03-2016 à 14:44:12  profilanswer
2Votes positifs
 

CardinalFuneste a écrit :


 
Non c'est sur mais pour exemple dans un jeu comme the division qui est un des plus aboutis techniquement, je joue en 1080p en ultra sans AA a 45fps de moyenne ce qui est ma limite acceptable en terme framerate, c'est groso modo la même chose qu'une 970. pas mal pour une mémé vieille de 4ans  :D


Avec les effets Nvidia ?

n°9768248
CardinalFu​neste
Posté le 25-03-2016 à 14:59:46  profilanswer
0Votes positifs
 

http://pic.yupoo.com/ztwss/Fi4HqCZP/medish.jpg
 
Je mets tous ce que le panneau me permet de mettre en HQ après je ne ne sais pas si il y a des settings propre aux cartes nvidia mais je crois que c'est aussi géré par les radeon. il ne me reste qu'une petite 640 pour faire un essai, ma 460gtx elle a crevé y a peu  :(

n°9768250
Noim
pwnd
Posté le 25-03-2016 à 15:02:54  profilanswer
0Votes positifs
 

CardinalFuneste a écrit :


Je pense qu'AMD a moins de R&D a faire pour son polaris qu'nvidia pour son pascal. La majorité des avances sur les api bas niveau et de l'intégration de la HBM on déjà été faites sur ses précédents gpu, l'entreprise va en grande parti économiser ces recherches la contrairement a nvidia qui dois repartir de quasi zero sur sont futur gpu...
Et puis si le pognon faisait tout en info ca se saurait, bien des grosse boites se font mettre des volées monumentales dans certains des secteurs par des petits outsiders, bien des colosses ont fini par crever dans l'histoire de l'informatique

 
Je me contente d'apporter une nuance factuelle à l'affirmation de TNZ sur le "vrai R&D" d'AMD. Si tu souhaites interpréter ce graphique comme un signe encourageant sur l'état d'AMD, c'est ton droit le plus strict, loin de moi l'idée de vouloir jouer les rabat-joie.

Message cité 1 fois
Message édité par Noim le 25-03-2016 à 15:11:07
n°9768254
Neji Hyuga
Modérateur
:grut:
Posté le 25-03-2016 à 15:08:00  profilanswer
0Votes positifs
 

CardinalFuneste a écrit :

[..] bien des grosse boites se font mettre des volées monumentales dans certains des secteurs par des petits outsiders, bien des colosses ont fini par crever dans l'histoire de l'informatique


 
C'est vrai, mais les grosses boîtes ont aussi tendance à avaler les petits outsiders :whistle:


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9768270
CardinalFu​neste
Posté le 25-03-2016 à 15:21:46  profilanswer
1Votes positifs
 

Noim a écrit :

 
Je me contente d'apporter une nuance factuelle à l'affirmation de TNZ sur le "vrai R&D" d'AMD. Si tu souhaites interpréter ce graphique comme un signe encourageant sur l'état d'AMD, c'est ton droit le plus strict, loin de moi l'idée de vouloir jouer les rabat-joie.


 
Je ne dit pas non plus que c'est la fête du slip chez AMD mais c'est surprenant ce qu'ils peuvent produire avec si peu d'investissements  

n°9768285
ever_over
Posté le 25-03-2016 à 15:34:55  profilanswer
1Votes positifs
 

CardinalFuneste a écrit :


Et puis si le pognon faisait tout en info ca se saurait, bien des grosse boites se font mettre des volées monumentales dans certains des secteurs par des petits outsiders, bien des colosses ont fini par crever dans l'histoire de l'informatique


Forcément, si tu vois AMD comme un petit outsider genre startup... AMD me semble plutôt dans la case "colosse qui finit par crever" comme tu le définis.

n°9768526
neurotoxic
Posté le 25-03-2016 à 19:45:48  profilanswer
1Votes positifs
 

Y'a plus qu'à croiser les doigts pour que Polaris et Zen déboitent. Parce que dans tout les cas ceux qui seront dans la merde au delà du personnel de chez AMD c'est NOUS ! Moi aussi je fais parti du club des possesseurs de mémé 7970 (et bien heureux). Et franchement la seule chose dont j'ai peur c'est de voir disparaitre l'outsider. Intel se déchaine sur le prix et la qualité de ses procos (cf: la pâte thermique merdique sur les skylake pourtant hyper chers) et Nvidia de même sur les prix et avec les librairies de technos propriétaires que je n'apprécie guère plus.

n°9768541
CardinalFu​neste
Posté le 25-03-2016 à 20:04:09  profilanswer
0Votes positifs
 

Si AMD crève ça va se jouer monde ARM vs intel/nvidia avec probablement a terme une sclérose de l’environnement x86 et sa mort a long terme... :( les deux entreprises peuvent tres bien survivre a ça en se réorientant dans des secteurs clef avec intel dans le monde pro et nvidia dans l'embarqué et le soc ARM a gros gpu

n°9768937
loustic
Posté le 26-03-2016 à 18:26:52  profilanswer
0Votes positifs
 

Je suis même pas sûr qu'il faille parler de long terme pour la mort du x86, du moins en grand public si ça continue comme ça.

n°9768938
Yeagermach​42
Posté le 26-03-2016 à 18:28:02  profilanswer
0Votes positifs
 

Bof, depuis le temps que des gens l'annoncent et que rien se produit.

n°9769003
loustic
Posté le 26-03-2016 à 20:26:27  profilanswer
0Votes positifs
 

Rien? les perfs augmentent beaucoup plus que l'X86, on commence déjà à l'utiliser en entreprise et il envahi le grand public dans beaucoup d'équipements.

n°9769024
Nono0000
Posté le 26-03-2016 à 20:46:09  profilanswer
0Votes positifs
 

Tout comme le x86 réduit fortement sa consommation. Cela marche dans les deux sens...
Les deux vont continuer à cohabiter un bon moment.
La pénétration ARM dans les serveurs reste faible et doit faire ses preuves:
http://www.nextplatform.com/2016/0 [...] -gauntlet/

 

Et je ne vois pas en quoi la fin d'AMD signifierait la fin du x86/x64?
On peut par contre se demander de ce qu'il adviendrait des brevets actuellement détenus par AMD...


Message édité par Nono0000 le 26-03-2016 à 20:46:35

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°9769028
Yeagermach​42
Posté le 26-03-2016 à 20:50:01  profilanswer
0Votes positifs
 

On pourrait rajouter qu'actuellement Intel ne montre pas ce qu'il a en reserve vu qu'AMD n'est pas dans la plus grande forme. Mais si Arm vient les titiller, la course sera relancée.

n°9769040
CardinalFu​neste
Posté le 26-03-2016 à 21:13:02  profilanswer
0Votes positifs
 

http://wccftech.com/nvidia-pascal- [...] s-compute/
 
Toujours pas d'asynchronous compute sur les futures gpu du cameleon d'apres les dernières rumeurs. Cela parait crédible Pascal est en préparation depuis plusieurs années et ce n'est pas une techno qui s’intègre facilement si elle ne correspondait pas a la philosophie d'nvidia

n°9769042
Yeagermach​42
Posté le 26-03-2016 à 21:17:11  profilanswer
0Votes positifs
 

Et d'après l'article de HFR, c'est plutôt logique.

n°9769115
pinpinb
Posté le 27-03-2016 à 00:13:08  profilanswer
0Votes positifs
 

tridam a écrit :

soit AMD n'avait pas pensé à ce type d'utilisation et visait plutôt l'exécution de software de type GPU computing en tâche de fond (folding@home), en impactant le moins possible le rendu 3D. Je penche plutôt pour cette dernière option.


 
La raison qui m'a fait arrêté de plier. Trop fatigant ces micro-latences d'affichage :(

n°9769178
sasuke87
Posté le 27-03-2016 à 09:32:14  profilanswer
1Votes positifs
 

Je prédis un avenir plutôt sombre l'async compute  :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : De Tick-Tock à Process-Architecture-Optimization[HFR] Actu : Andy Grove est décédé
[HFR] Actu : Pilotes AMD 16.3.1 Hotfix[HFR] Actu : Skylake gagne un an de support Windows 7 / 8.1
[HFR] Actu : GDC: Async Compute et AotS : des détails 
Plus de sujets relatifs à : [HFR] Actu : GDC: Async Compute : ce qu'en dit Nvidia


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR