Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
908 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9
Auteur Sujet :

[HFR] Actu : AMD doit licencier 500 personnes

n°9624201
cortexzehe​f
Posté le 04-10-2015 à 13:31:22  profilanswer
1Votes positifs
 

Reprise du message précédent :

carrera a écrit :


et +1 pour la courtoisie, je soutiendrai alein qui est libre de son budget.


 
+1 aussi, je m'excuse si j'ai été un peu extrême, mais bon, fallait que ça sorte  :pt1cable:

mood
Publicité
Posté le 04-10-2015 à 13:31:22  profilanswer
 

n°9624207
ever_over
Posté le 04-10-2015 à 13:39:36  profilanswer
0Votes positifs
 

mazingerz a écrit :


 
bas disons si AMD disparait c'est le X86 qui disparaitre avec
et peut être même le PC
 
si ça devient un marché mono marque comme apple je donne pas long feu à vivre au PC  
 
sauf si une autre compagnie reprend le flambeau


AMD est un acteur mineur, sa disparition ne changera probablement rien. C'est la menace d'ARM qui motive Intel à faire mieux. C'est pas des cpu zen avec 8 ou 16 cores qui vont ramener le grand public sur le desktop, la tendance est clairement autre.
Pour les pronostics, il faut regarder à la fois les mauvais côtés, mais aussi les bons. Par exemple, si NVidia se retrouve seul sur les CG, les prix augmenteront peut-être (pas glop), et les perfs augmenteront surement (glop) puisqu'on aura une optimisation complète pour l'archi NVidia, un peu comme sur console.

n°9624220
petit-tigr​e
miaou
Posté le 04-10-2015 à 13:57:48  profilanswer
2Votes positifs
 

Disons qu'avec Intel, on paie encore un 2500k à son prix de sortie...


---------------
mIaOuUuUuUuUuUu
n°9624231
cortexzehe​f
Posté le 04-10-2015 à 14:17:36  profilanswer
3Votes positifs
 

ever_over a écrit :


 
Pour les pronostics, il faut regarder à la fois les mauvais côtés, mais aussi les bons. Par exemple, si NVidia se retrouve seul sur les CG, les prix augmenteront peut-être (pas glop), et les perfs augmenteront surement (glop) puisqu'on aura une optimisation complète pour l'archi NVidia, un peu comme sur console.


 
Les CG deviendront vite obsolètes car nvidia pourra faire n'importe quoi avec les pilotes. Il n'y a pas de bon côté dans un monopole

n°9624242
petit-tigr​e
miaou
Posté le 04-10-2015 à 14:35:04  profilanswer
0Votes positifs
 

Sans dire qu'il y a de bons côtés, en admettant qu'NV soit seul, il ne pourra pas non plus faire comme si tout le monde allait suivre comme des cons...
 
Si au bout de 6 mois, les perfs se divisent par 2, NV risque de se prendre un retour commercial assez mauvais car on achètera pas non plus des GPU tous les 4 matins comme on devait le faire en 1997 et on retournera sur console. En tout cas, moi, c'est ce que je ferais.
 
Dans le sens inverse, rien n'obligerait NV à sortir de nouveaux GPU dans le même cycle, ils pourront être allongés et donc les pilotes seraient nettement plus travaillés pour ça.
 
Encore une fois, pures hypothèses :o


---------------
mIaOuUuUuUuUuUu
n°9624248
ever_over
Posté le 04-10-2015 à 14:50:30  profilanswer
0Votes positifs
 

cortexzehef a écrit :


 
Les CG deviendront vite obsolètes car nvidia pourra faire n'importe quoi avec les pilotes. Il n'y a pas de bon côté dans un monopole


C'était juste un exemple, pas une prédiction. L'inconvénient que tu mets en avant est de la même catégorie que le mien (plus cher / moins durable, c'est pareil). ça ne change rien au fait qu'il est plus facile d'optimiser quand il n'y a qu'une seule archi, ce qui est un avantage.
Ensuite, il faut faire le bilan avantage / inconvénient, et là, tu peux penser que les inconvénients sont trop importants par rapports aux avantages. Un autre pourra penser le contraire, c'est subjectif.
Si tu ne veux voir que les inconvénients, en niant les avantages qui sont pourtant évidents, c'est un raisonnement à charge.

n°9624251
cortexzehe​f
Posté le 04-10-2015 à 14:52:23  profilanswer
0Votes positifs
 

ever_over a écrit :


C'était juste un exemple, pas une prédiction. L'inconvénient que tu mets en avant est de la même catégorie que le mien (plus cher / moins durable, c'est pareil). ça ne change rien au fait qu'il est plus facile d'optimiser quand il n'y a qu'une seule archi, ce qui est un avantage.
Ensuite, il faut faire le bilan avantage / inconvénient, et là, tu peux penser que les inconvénients sont trop importants par rapports aux avantages. Un autre pourra penser le contraire, c'est subjectif.
Si tu ne veux voir que les inconvénients, en niant les avantages qui sont pourtant évidents, c'est un raisonnement à charge.


 
Tu as raison, car ça fera moins de boulot pour les dev qui pourront optimiser bien comme il faut, c'est évident.
 

Spoiler :

Mais ça va nous couter cher  :D  

n°9624252
fredo3
Posté le 04-10-2015 à 14:52:40  profilanswer
0Votes positifs
 

Tant qu'il y aura le marché du GPGPU que demandera de plus en plus de puissance, et qu'Intel leur met la pression avec leur équivalent (Knight Corner and co), alors pas de soucis à se faire, il y aura toujours une belle course à la puissance niveau GPU chez NV.

 

Par contre niveau tarif, ben là faudra pas s'étonner qu'ils grimpent un peu en effet.


Message édité par fredo3 le 04-10-2015 à 14:53:57
n°9624261
petit-tigr​e
miaou
Posté le 04-10-2015 à 15:08:48  profilanswer
0Votes positifs
 

Le problème est que le GPGPU dans les jeux, c'est complètement dérisoire à ce jour :\ et c'est pas parti pour changer vu que les jeux resteront pour la plupart calqués sur les capacités des consoles.


---------------
mIaOuUuUuUuUuUu
n°9624270
Yeagermach​42
Posté le 04-10-2015 à 15:19:46  profilanswer
0Votes positifs
 

petit-tigre a écrit :

Le problème est que le GPGPU dans les jeux, c'est complètement dérisoire à ce jour :\ et c'est pas parti pour changer vu que les jeux resteront pour la plupart calqués sur les capacités des consoles.


C'est surtout pas pres de changer tant que les gens privilégieront les graphismes au reste. La puissance est partagée entre les deux fonctionnalités. Et tant qu'on mettra tout dans l'un et rien dans l'autre ...

mood
Publicité
Posté le 04-10-2015 à 15:19:46  profilanswer
 

n°9624272
darkandy
?
Posté le 04-10-2015 à 15:24:32  profilanswer
1Votes positifs
 

petit-tigre a écrit :


 
Et alors ? Sérieux, arrêtez avec vos histoires de résolutions et de pseudo grands discours bidon. Si les mecs veulent absolument du 60 fps MINIMUM avec des détails de ouf, le 1080p sied très bien à cette affaire.
Tu prends un jeu comme GTA 5, en poussant toutes les options au maximum, y compris les avancées, il est impossible de maintenir un 60 fps constant en 1080p sur des 970 ou 980, sans même parler des 290/390.
 
Pourquoi vous cherchez absolument à établir un pseudo cadre d'utilisation alacon pour un GPU ? Les gens achètent pour leurs besoins et pas les vôtres. Toi tu kiffes peut-être jouer en 4K à 24 fps maxi mais pour d'autres, c'est imbuvable et la fluidité prime autant que la qualité de rendu.
 
Pour le prix d'une 980 Ti, t'as peut être 2 R9 mais t'as le double de conso, d'encombrement et de chaleur dans ton boitier aussi... et accessoirement le double d'emmerdes vu que tu deviens terriblement dépendant des pilotes pour que les jeux reconnaissent tes 2 GPU.
 
Tu vois le monde que par tes petits yeux mais tout le monde n'a pas tes exigences ni tes critères. Y en a qui veulent allier performance/faiblesse d'encombrement/silence/faible conso/qualité de refroidissement dans une seule et même carte et force est d'admettre qu'AMD a du mal à concurrencer NV là-dessus (heureusement que Sapphire est là).


 
 
Pour le Crossfire ce n'était principalement qu'un exemple tarifaire, je trouve ça tout autant useless que le SLI, ou alors pour des  benchs et recherche du meilleur OC/score. Sachant que les optimisations d'un côté comme de l’autre sont pas vraiment au point pour énormément de jeux.
 
Merci de ton avis de "Pro Gamer", surtout si c'est pour l'exemple de GTA5 en TAF...
 
Et je m'en fou de la 4K, j'ai un simple écran 1080p qui me suffit largement. Tu sait pour les perfs, il existe dans plusieurs jeux des options graphiques, qui au final, vu légèrement à la baisse, ne change vraiment pas grand chose à l'expérience de jeu, surtout quand il y a du mouvement rapide.  
 
Pour le 60fps je suis d'accord avec toi, bien que perso mis à part une grande chute de fps visible, je trouve pas ça trop pénalisant (à mes yeux, peut-être as tu une vue exceptionnel, comme beaucoup apparemment..). Mais pour le TAF cela en deviens ridicule pour certaines options.
 
Et oui je donne mon avis avec mes petits yeux, un peu comme toi non ? La chauffe chez AMD (R9 380/290(X)/390(X))c'est du passé avec les cartes customs. La Fury X ? A quelques FPS de différence et si seulement elle n'avait pas de soucis de pompe ou de CW à son arrivé, elle serait un très bon choix, y compris pour la consommation. Reste la Fury non X qui reste un bon compromis non ?  
 
Et que dire de la Nano un sorte de carte élitiste : il y a le silence (hors CW alacon...), la bonne conso et les perfs mais trop chère aux yeux de la plupart des utilisateurs car AMD et pas assez puissante ? lol... Si Nvidia avait sorti une équivalente en GTX980 avec mémoire HBM au même prix, ça serait pas le même discourt je pense (toujours du monde que je vois avec mes petits yeux)...
 
Edit : et pour la conso, TOUTES les cartes mono GPU (haut de gamme comprises) + CPU (haut de gamme compris aussi) peuvent tourner sans soucis avec un alim de 500/550W de qualité, donc argument non recevable. Bien évidemment hors OC CPU (qui se justifie que pour les benchs) et GPU (qui se justifie que pour euh... les benchs).


Message édité par darkandy le 04-10-2015 à 15:29:45

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9624370
Zilak
I can't carry anymore !
Posté le 04-10-2015 à 18:02:02  profilanswer
0Votes positifs
 

Petit tigre à raison sur le point que chacun voit les jeux différemment et pour certains un SLI/CFX n'est pas "idiot" sur du 1080P.
Il y a des joueurs qui aiment bien l'Ultra car ils aiment faire des screens n'importe quand et avoir un très beau screen. (CF moi même)
Même des choses quasi invisible dans l'action le deviennent en screen.
D'autre vont aimer performer à 60 ou 120 hz car ils ont l'habitude de fluidité et ne vont pas apprécier les pertes de frames.

 

Si tout les jeux tourneraient en Ultra FHD avec un framerate constant/suffisant. Je dirais ok c'est bête de mettre plus pour le même rendu. Mais aujourd'hui en septembre 2015 tout les jeux ne tournent pas en ultra sur du FHD même avec la carte de la mort.

 

C'est un fait et c'est pour ça qu'il y a un marché dessus.[:4lkaline7]

Message cité 1 fois
Message édité par Zilak le 04-10-2015 à 18:03:08
n°9624377
petit-tigr​e
miaou
Posté le 04-10-2015 à 18:07:49  profilanswer
0Votes positifs
 

[:shimay:1] [:lapanne:1] [:hpfan] [:jean-michel platini:3]


---------------
mIaOuUuUuUuUuUu
n°9624425
fredo3
Posté le 04-10-2015 à 19:13:32  profilanswer
0Votes positifs
 

petit-tigre a écrit :

Le problème est que le GPGPU dans les jeux, c'est complètement dérisoire à ce jour :\ et c'est pas parti pour changer vu que les jeux resteront pour la plupart calqués sur les capacités des consoles.


Non mais ce que je voulais dire c'est que tant qu'ils feront des puces puissantes pour du GPGPU il y aura forcément des dérivés en version GPU (même s'il y a des compromis à faire)


Message édité par fredo3 le 04-10-2015 à 19:13:46
n°9624427
sasuke87
Posté le 04-10-2015 à 19:16:05  profilanswer
0Votes positifs
 

Yeagermach42 a écrit :


C'est surtout pas pres de changer tant que les gens privilégieront les graphismes au reste. La puissance est partagée entre les deux fonctionnalités. Et tant qu'on mettra tout dans l'un et rien dans l'autre ...


MS vient de racheter Havok, peut-être que DX13 l'intègrera de base  :o

n°9624454
cortexzehe​f
Posté le 04-10-2015 à 19:45:56  profilanswer
0Votes positifs
 

Zilak a écrit :


Il y a des joueurs qui aiment bien l'Ultra car ils aiment faire des screens n'importe quand et avoir un très beau screen. (CF moi même)  
 
]


 
Moi je met en ultra pour le screen puis je change  :D

n°9624456
Gg67500
Posté le 04-10-2015 à 19:46:59  profilanswer
0Votes positifs
 

Moi suis en full ultra full AA tout le temps  [:garypresident:2]


---------------
halte là on ne passe pas !
n°9624513
Zurkum
Posté le 04-10-2015 à 20:54:52  profilanswer
0Votes positifs
 

Zilak a écrit :

Ah non c'est juste Zurkum présent sur tout les postes a marteler son aberration. Comme le fait qu'il vaut mieux jouer 25fps en low sur du 4K qu en ultra 60fps sur du 1080p...
Je ne vois pas le rapport avec le prix de la carte. Il y d un côté l hardware avec sa performance et de l autre le marketing avec ses tarifs.

 

Sans parler de 4K à fond où la carte va peiner à sortir ses 30fps, 900€ de GPU pour du 1080p c'est dommage sachant que la carte peut sortir du 1440p voir du 4K ( même si ce sera certainement pas en Ultra pour le 4K).

 

http://www.hardware.fr/articles/94 [...] eld-4.html

 

80fps en 1440p tout à fond sur un modèle de ref.

Message cité 1 fois
Message édité par Zurkum le 04-10-2015 à 20:56:34
n°9624516
darkandy
?
Posté le 04-10-2015 à 20:58:17  profilanswer
0Votes positifs
 

Je pense que les cartes graphiques HDG actuelles en on assez sous le capot pour du "Ultra FHD" en 60fps, c'est juste un soucis d'optimisation pour pas mal de jeux et ce n'est pas nouveau : c'est souvent aux pilotes des cartes graphiques de corriger le tir, rarement avec un patch du jeu lui-même (sauf pour dernier Batman peut-être lol). Les jeux sont lancés dans la marre, et démerdez-vous ! Ça expliquerait la logique des partenariats finalement, même si c'est pas forcément dans ce sens là qu'ils ont été utilisés.
 
La puissance de la GTX980Ti par ex comble cette mauvaise utilisation des jeux pour l'affichage des graphismes. Enfin je me trompe peut-être :)
 
Sachant que pas mal tournent en DX9/10 alors que ces cartes ont sûrement plus de facilité en DX11/12. Aussi l'optimisation de la ram, 4Go est juste pour quelques titres pas forcément plus beau que d'autres.


Message édité par darkandy le 04-10-2015 à 21:06:38

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9624519
darkandy
?
Posté le 04-10-2015 à 21:02:16  profilanswer
0Votes positifs
 

Zurkum a écrit :


 
Sans parler de 4K à fond où la carte va peiner à sortir ses 30fps, 900€ de GPU pour du 1080p c'est dommage sachant que la carte peut sortir du 1440p voir du 4K ( même si ce sera certainement pas en Ultra pour le 4K).
 
http://www.hardware.fr/articles/94 [...] eld-4.html
 
80fps en 1440p tout à fond sur un modèle de ref.


 
 
Ah oui mais là les R9 290X et GTX970 sont en dessous de 60 fps  :o Par contre pour la Fury Nano et la GTX980 ça passe de justesse pour des screens [:hodjeur]


Message édité par darkandy le 04-10-2015 à 21:03:52

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9624665
cocto81
Posté le 05-10-2015 à 02:55:12  profilanswer
4Votes positifs
 

Primo : de nombreux acteurs ont intérêt à faire survivre AMD. Ne serait-ce que tout ce qui relève de la plateforme PC...
Secundo : le rachat/fusion semble impossible et AMD est de ce fait très sous-coté si on ne se réfère qu'à la bourse (puisque ça les sous-évalue du fait de l'accord avec Intel).
 
Au niveau du 14nm, AMD va enfin rattraper Intel. AMD était limité par la capacité techno des fondeurs face à Intel. Or Intel s'est en partie fait rattraper et en plus, l'augmentation de densité ne rime plus avec fréquence plus haute par core sur les GPU. En gros le 10nm pourrait coûter plus cher à mettre en oeuvre qu'il ne rapportera en terme de gain.
 
Donc tout joue en faveur d'AMD qui est fin prêt pour redevenir un concurrent sérieux.
 
Au niveau des GPU, hors du coup Maxwell fait par Nvidia (architecture de transition totalement orientée jeux, qui fait l'impasse sur la puissance GPGPU, sur DX 12 de Windows 10 et probablement sur la nouvelle API Métal, similaire chez Apple - qui bascule de ce fait sur GPU AMD).
 
Au niveau commercial pur et du développement de l'architecture qui est au point, AMD a donc intérêt à faire des économies de personnel... pour passer l'hiver tranquillement, avant les sorties de 2016 sur 14/16nm.


Message édité par cocto81 le 05-10-2015 à 02:57:56
n°9624834
t3ddy
Posté le 05-10-2015 à 11:48:22  profilanswer
0Votes positifs
 

Maxwell est sorti en février 2014, avec les 750/ti. Il ne fait pas l'impasse sur D3D12 et Metal, D3D12 n'existait pas encore et n'était probablement même pas en cours de dev, de même que Metal.
Si Pascal ne supporte pas correctement D3D12, on pourra parler de faire l'impasse.

n°9624900
cortexzehe​f
Posté le 05-10-2015 à 13:20:16  profilanswer
1Votes positifs
 

t3ddy a écrit :

Maxwell est sorti en février 2014, avec les 750/ti. Il ne fait pas l'impasse sur D3D12 et Metal, D3D12 n'existait pas encore et n'était probablement même pas en cours de dev, de même que Metal.
Si Pascal ne supporte pas correctement D3D12, on pourra parler de faire l'impasse.


 
Les 7XXX sont sortis en 2012 et supportent plus d'instructions que Maxwell sur DX12.
Mantle est sorti avec BF4, fin 2013.
 
Si nvidia n'a pas préparé Maxwell (surtout la gen2) pour DX12, ça devait être voulu  :jap:

n°9624905
Yeagermach​42
Posté le 05-10-2015 à 13:24:41  profilanswer
0Votes positifs
 

cortexzehef a écrit :


 
Les 7XXX sont sortis en 2012 et supportent plus d'instructions que Maxwell sur DX12.
Mantle est sorti avec BF4, fin 2013.
 
Si nvidia n'a pas préparé Maxwell (surtout la gen2) pour DX12, ça devait être voulu  :jap:


C'est clairement voulu. M2 est une suite de M1 pour faire la transition avec la vrai nouvelle archi qu'est pascal. Nvidia l'a toujours montré ainsi. Et vu qu'AMD n'y a pas répondu, ils en ont bénéficié un max.

n°9624918
cortexzehe​f
Posté le 05-10-2015 à 13:32:45  profilanswer
0Votes positifs
 

Yeagermach42 a écrit :


C'est clairement voulu. M2 est une suite de M1 pour faire la transition avec la vrai nouvelle archi qu'est pascal. Nvidia l'a toujours montré ainsi. Et vu qu'AMD n'y a pas répondu, ils en ont bénéficié un max.


 
Je pense aussi. Ils ne pouvaient pas rester sans GPU entre Kepler et Pascal.
AMHA, je pense que Maxwell ne durera pas bien longtemps (dès la démocratisation de DX12, càd lorsque les Pascal et cie seront de sortie)

n°9624923
blazkowicz
Posté le 05-10-2015 à 13:34:49  profilanswer
1Votes positifs
 

Je pense plutôt que Pascal est un autre Maxwell. La vraie nouvelle archi est Volta - pas pour toute suite.

n°9624926
Yeagermach​42
Posté le 05-10-2015 à 13:37:49  profilanswer
0Votes positifs
 

cortexzehef a écrit :


 
Je pense aussi. Ils ne pouvaient pas rester sans GPU entre Kepler et Pascal.
AMHA, je pense que Maxwell ne durera pas bien longtemps (dès la démocratisation de DX12, càd lorsque les Pascal et cie seront de sortie)


W10 ne fait que 6% de part de marché pour l'instant (ce qui est énorme sachant que l'OS n'est sorti que depuis 2 mois). W7 en fait toujours de 50%. Donc tous les jeux sortant cette fin d'année et sans doute une très grande partie de l'année prochaine (voir de l'année suivante) seront toujours DX11 en première intention (et DX12 en seconde).  
 
Ce qui peut accélérer la chose par contre, c'est que les "gamers" selon les stats steams sont déjà 23% a être passé sur W10. Mais on reste a l'horizon fin 2016.
 
La bataille de fin d'année prochaine entre Nvidia et AMD sera très intéressante je pense (j'espère).

n°9624934
mate591
Posté le 05-10-2015 à 13:43:02  profilanswer
0Votes positifs
 

Ah la gueguerre AMD vs Nvidia, on s'en lasse pas ^^ c'est pas la fin d'AMD du tout. Plus qu'a espérer que le budget dégagé serve aux recherches et remettre la firme en forme. Il le faut, pour nous consommateurs. Wait and see now ^^

n°9624942
t3ddy
Posté le 05-10-2015 à 13:50:15  profilanswer
0Votes positifs
 

cortexzehef a écrit :


Les 7XXX sont sortis en 2012 et supportent plus d'instructions que Maxwell sur DX12.
Mantle est sorti avec BF4, fin 2013.
 
Si nvidia n'a pas préparé Maxwell (surtout la gen2) pour DX12, ça devait être voulu  :jap:


Si tu le dis, c'est que ça doit être vrai.  
Effectivement, c'est très surprenant qu'nvidia ne supporte pas mantle qui est sorti en même temps que BF4, tout le monde ne sait. Nvidia pouvait tout à fait ajouter ce support d'une techno concurrente à laquelle il  n'avait pas accès,  sur une architecture déjà bouclée. Mais à quoi pensais-je ?

Message cité 1 fois
Message édité par t3ddy le 05-10-2015 à 13:51:03
n°9624958
cortexzehe​f
Posté le 05-10-2015 à 14:00:57  profilanswer
0Votes positifs
 

t3ddy a écrit :


Effectivement, c'est très surprenant qu'nvidia ne supporte pas mantle qui est sorti en même temps que BF4, tout le monde ne sait. Nvidia pouvait tout à fait ajouter ce support d'une techno concurrente à laquelle il  n'avait pas accès,  sur une architecture déjà bouclée. Mais à quoi pensais-je ?


 
Tu as surement mal compris ce que je voulais dire.
 
La série 7xxx était déjà faite avant Mantle, mais est tout de même compatible. DX12 est aussi compatible avec la série 7 alors qu'il est sorti le 29 Juillet 2015.
 
Tu penses que c'est du au hasard?
Microsoft aurait fait ça juste pour AMD?
 
C'est juste que Maxwell n'avait pas à prendre en charge DX12 c'tout   :o

n°9624977
Yeagermach​42
Posté le 05-10-2015 à 14:09:21  profilanswer
0Votes positifs
 

cortexzehef a écrit :


 
Tu as surement mal compris ce que je voulais dire.
 
La série 7xxx était déjà faite avant Mantle, mais est tout de même compatible. DX12 est aussi compatible avec la série 7 alors qu'il est sorti le 29 Juillet 2015.
 
Tu penses que c'est du au hasard?
Microsoft aurait fait ça juste pour AMD?
 
C'est juste que Maxwell n'avait pas à prendre en charge DX12 c'tout   :o


C'est juste que la console de MS (comme celle de sony d'ailleurs) est basé sur la série 7xxx. DX12 est "juste" l'API console qui vient sur PC. Mantle étant aussi une API ressemblant a cela mais faite a la demande de Dice.
 
Nvidia n'ayant pas participé a l'appel d'offre pour les consoles ne s'est pas préoccupé de cela. (l'appel d'offre indiquait que la puce devait comprendre un CPU X86 et GPU (une APU quoi). Nvidia ne faisant pas de x86)

n°9624982
t3ddy
Posté le 05-10-2015 à 14:13:00  profilanswer
0Votes positifs
 

cortexzehef a écrit :


Tu as surement mal compris ce que je voulais dire.
 
La série 7xxx était déjà faite avant Mantle, mais est tout de même compatible. DX12 est aussi compatible avec la série 7 alors qu'il est sorti le 29 Juillet 2015.
 
Tu penses que c'est du au hasard?
Microsoft aurait fait ça juste pour AMD?
 
C'est juste que Maxwell n'avait pas à prendre en charge DX12 c'tout   :o


Toi aussi tu as mal compris, je n'aurais pas du être ironique. Mantle a été fait par amd et pensé pour son architecture, D3D12 reprend les avancées de mantle à ce qu'il parait donc il n'y a aucune surprise que cela soit plus adapté aux GCN 1.1 et 1.2 (pour les 7xxx, elles ne sont pas bcp plus avancées que les maxwell). Je ne vois pas comment on pourrait, à moins d'être chroniquement de mauvaise foi, prêter des intentions à nvidia.
Nvidia a été incapable de penser maxwell, même les "v2", pour un truc auquel il n'avait pas accès.
Edit : il faut arrêter de croire qu'une archi est décidée le mois de la sortie des cartes.

Message cité 1 fois
Message édité par t3ddy le 05-10-2015 à 14:16:55
n°9624993
cortexzehe​f
Posté le 05-10-2015 à 14:16:59  profilanswer
0Votes positifs
 

t3ddy a écrit :


Mantle a été fait par amd et pensé pour son architecture, D3D12 reprend les avancées de mantle à ce qu'il parait donc il n'y a aucune surprise que cela soit plus adapté aux GCN 1.1 et 1.2 (pour les 7xxx, elles ne sont pas bcp plus avancées que les maxwell). Je ne vois pas comment on pourrait, à moins d'être chroniquement de mauvaise foi, prêter des intentions à nvidia.
Nvidia a été incapable de penser maxwell, même les "v2", pour un truc auquel il n'avait pas accès.


 
Donc c'est bien ce que je dis, Maxwell n'avait pas à prendre en charge DX12...

n°9625005
Jerry_Cbn
Posté le 05-10-2015 à 14:21:47  profilanswer
0Votes positifs
 

Hardware.fr en a déjà parlé dans cet article : http://www.hardware.fr/news/14350/ [...] tx-12.html
 
Maxwell semble en effet mal supporter D3D12. Nous aurons peut être des surprises !

n°9625016
Invite_Sur​prise
Racaille de Shanghaï
Posté le 05-10-2015 à 14:27:04  profilanswer
3Votes positifs
 

D3D12 = Async Compute ?
 
Le service marketing d'AMD semble avoir réussi son opération de désinformation... les + naïfs sont tombés dedans à priori.

n°9625031
havoc_28
Posté le 05-10-2015 à 14:36:50  profilanswer
0Votes positifs
 

Maxwell D3D12_1 avec feature level 1 et 2 .
 
GCN 1.1/1.2 D3D12_0 Feature level 1 2 3 .
 
CCN 1.0 D3D11_1 Feature level 1 2 3 .
 
GCN ne supporte pas D3D12_1 donc GCN supporte mal DX12 ?  
Mawell ne supporte pas le feature level 3 donc supporte mal DX12 ?

n°9625032
t3ddy
Posté le 05-10-2015 à 14:37:00  profilanswer
0Votes positifs
 

cortexzehef a écrit :


Les 7XXX sont sortis en 2012 et supportent plus d'instructions que Maxwell sur DX12.
Mantle est sorti avec BF4, fin 2013.
 
Si nvidia n'a pas préparé Maxwell (surtout la gen2) pour DX12, ça devait être voulu  :jap:


Dialogue de sourd. Vu les circonstances, c'est "normal" que les maxwell supportent très mal les async compute, même si ça augure pas bon pour le passage à D3D12 pour ces cartes dans certaines situations. Mais de là à affirmer comme vous le faites et comme tu le défends, qu'nvidia a fait ça intentionnellement, c'est vraiment de la mauvaise foi, encore une fois.


Message édité par t3ddy le 05-10-2015 à 14:39:40
n°9625096
Profil sup​primé
Posté le 05-10-2015 à 15:54:41  answer
0Votes positifs
 

Jerry_Cbn a écrit :

Hardware.fr en a déjà parlé dans cet article : http://www.hardware.fr/news/14350/ [...] tx-12.html
 
Maxwell semble en effet mal supporter D3D12. Nous aurons peut être des surprises !


débat stérile  
d'ici que les jeux DX12 "commencent " à se démocratiser , la relève de Maxwell sera déjà là  
et toute cette polémique passera au second plan puisque l'actu tournera autour de pascal & co  
en d'autre terme on s'en cogne  
à plus forte raison quand le débat n'a rien à voir avec le sujet de la news :sarcastic:  
 
rappel : AMD n'est pas le seul a avoir dégraissé ces derniers temps

Message cité 1 fois
Message édité par Profil supprimé le 05-10-2015 à 15:56:23
n°9625104
petit-tigr​e
miaou
Posté le 05-10-2015 à 16:15:14  profilanswer
1Votes positifs
 

havoc_28 a écrit :

Maxwell D3D12_1 avec feature level 1 et 2 .
 
GCN 1.1/1.2 D3D12_0 Feature level 1 2 3 .
 
CCN 1.0 D3D11_1 Feature level 1 2 3 .
 
GCN ne supporte pas D3D12_1 donc GCN supporte mal DX12 ?  
Mawell ne supporte pas le feature level 3 donc supporte mal DX12 ?


Les AMD supportent déjà DX14 voyons.


---------------
mIaOuUuUuUuUuUu
n°9625181
Modération
Posté le 05-10-2015 à 17:30:00  answer
5Votes positifs
 

Ca trolle dur par ici, merci d'éviter de poster n'importe quoi. Surtout quand ça n'est même pas drôle.

n°9625225
mazingerz
Posté le 05-10-2015 à 18:01:04  profilanswer
1Votes positifs
 


 
wé enfin sauf pour tout ceux qui on acheté du maxwell et ne compte pas changer de Carte graphique à tout bout de champs  

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9

Aller à :
Ajouter une réponse
 

Sujets relatifs
[RESOLU]conseil config bureautique 400 à 500 €[HFR] Actu : L'A9 d'Apple produit par Samsung et TSMC
[HFR] Actu : AMD Catalyst 15.9 Beta[HFR] Actu : Ajout d'Ivy Bridge dans le dossier Skylake
[Recherche de Config] HFR Reliant :oDifférence entre 3 modèles AMD?
Plus de sujets relatifs à : [HFR] Actu : AMD doit licencier 500 personnes


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR