Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2702 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12
Auteur Sujet :

[HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?

n°9604566
MasterDav
Posté le 09-09-2015 à 12:19:34  profilanswer
1Votes positifs
 

Reprise du message précédent :


https://fr.wiktionary.org/wiki/inutile


Message édité par MasterDav le 09-09-2015 à 12:27:48
mood
Publicité
Posté le 09-09-2015 à 12:19:34  profilanswer
 

n°9604568
martyx
Posté le 09-09-2015 à 12:21:24  profilanswer
0Votes positifs
 

josedsf a écrit :

Je trouve dommage de na pas parler des résultats très impressionants des 290X :
http://arstechnica.co.uk/gaming/20 [...] or-nvidia/


 
 
Ce test là est bizarre, sur tous les tests que j'ai vu la 290x est au niveau des 980 mais jamais des 980TI.

n°9604572
josedsf
Posté le 09-09-2015 à 12:23:22  profilanswer
0Votes positifs
 

Ouaip, ceci dit la 390x est un rebadgeage de 290X. Mais bon, çà peut faire des heureux...
 
edit et oui on aimerait bien voir les Fury !!!!


Message édité par josedsf le 09-09-2015 à 12:23:57

---------------
Guide cpu / Zen4
n°9604579
martyx
Posté le 09-09-2015 à 12:32:44  profilanswer
0Votes positifs
 

Aussi pour ça que je disais que le test était bizarre, ça, ça reste plus probable.
 
http://www.extremetech.com/gaming/ [...] -to-head/2


Message édité par martyx le 09-09-2015 à 12:33:18
n°9604581
ti-rhum
Posté le 09-09-2015 à 12:35:54  profilanswer
0Votes positifs
 

martyx a écrit :


Je pense que si les maxwell étaient matériellement adaptées au DX12 elles auraient aussi eu des gains de performances, c'est un fait.


 
pour ce qui est de perte de perfs coté nvidia en dx12 sur Ashes, oxide a éxpliqué le pourquoi du comment:
 
"We actually just chatted with Nvidia about Async Compute, indeed the driver hasn't fully implemented it yet, but it appeared like it was. We are working closely with them as they fully implement Async Compute. We'll keep everyone posted as we learn more"
 
"about Async Compute, indeed the driver hasn't fully implemented it yet, but it appeared like it was"
les drivers nvidia indiquaient a oxide le support de l'Async Compute, or une fois ce dernier actif paf, perte de perf
 
"We are working closely with them as they fully implement Async Compute"
reste plus qu'a attendre le support de l'Async Compute pour Ashes dans un prochain driver, contrairement a GCN qui gere ca en Hardware maxwell le fait en software+hardware

n°9604583
Activation
21:9 kill Surround Gaming
Posté le 09-09-2015 à 12:39:40  profilanswer
2Votes positifs
 

Moi je m'explique pas par contre pourquoi les perfs en dx11 sont aussi merdique chez amd sur cette version alpha de jeu :o
 
De même etrangement c'est un bench sous hawai
 
Est ce à dire que si fiji à le meme nombre de ACE que hawai
Les fury et fury x ne verront pas plus de perf que sur une 390x dans cette alpha de jeu
 
Moueh  
Tout n'a pas été creusé, pourquoi pas de bench avec fiji en plus de hawai ????
 
On nous dit pas tout coté nvidia, mais c'est loin s d'etre transparent chez amd aussi

Message cité 1 fois
Message édité par Activation le 09-09-2015 à 12:43:47
n°9604588
devilsan
Posté le 09-09-2015 à 12:43:07  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

devilsan a écrit :

Nvidia est une societe que je ne porte pas dans mon coeur ces dernieres annees. Ils font du lobbying chez les developpeur pour brider les performances de la concurrence.Ces dernieres annees ils ont rien fait de novateur contrairement a AMD qui a developpe Mantle et concu le HBM avec Hynix.Ils ont menti a leur Client sur la 970 et ses 3,5Gb et sur le support de Dx12.Bref je ne les porte pas dans mon coeur et jespere vraiment qu AMD recoltera le fruit de son travail ou du moins de ses effort d innovation avec sa prochaine generation de GPU.


Ouais enfin quand on voit où en est AMD et les erreurs qu'ils ont réalisé, je pense que voir nVidia comme le méchant et AMD le gentil, c'est totalement réducteur et pas aussi simple que ça.
Le côté "victime" d'AMD, j'ai beaucoup de mal avec ça. C'est comme si ils étaient responsables de rien.


 
comme tu l'as surement remarqué je cite un ensemble de choses qui ont causé chez un  desamour pour Nvidia. AMD n est pas tout rose notament pour navoir pas depuis 2012 et sachant l'importance grandissante de l'efficacite energetique, pu sortir une nouvelle architecture capable de concurrencer Maxwell ,Probablemt a cause de ressource financieres limitées ou une mauvaise analyse du marché ou encore l'utilisation du 20nm finalement annulé .

n°9604593
martyx
Posté le 09-09-2015 à 12:49:40  profilanswer
0Votes positifs
 

ti-rhum a écrit :


reste plus qu'a attendre le support de l'Async Compute pour Ashes dans un prochain driver, contrairement a GCN qui gere ca en Hardware maxwell le fait en software+hardware


 
Oui, je suis d'accord, je ne parle pas de ça. Je dis justement que si Nvidia passait totalement par le hardware, ils auraient aussi bénéficié d'un gain de perf.
Je pense que leur truc de mi-software mi-hardware c'est pour rattraper le coup sur des cartes plus anciennes qui ne supportent pas du tout le dx12. Une façons de limiter les dégats du coté des 780, etc...

Message cité 1 fois
Message édité par martyx le 09-09-2015 à 12:50:11
n°9604601
KapSnake
Posté le 09-09-2015 à 12:55:07  profilanswer
0Votes positifs
 

AMD rattrape juste sont retard grâce au Dx12 rien de plus :)
Si c'est comme pour la Fury de belle promesse et au final rien.
Pour le moment mes jeux sont en Dx11 et Nvidia fait mieux donc on verra en temps voulu si Nvidia arrive à régler se petit problème ou pas avant de crier victoire pour AMD.

n°9604606
tridam
Profil : Equipe HardWare.fr
Posté le 09-09-2015 à 13:00:30  profilanswer
3Votes positifs
 

lulunico06 a écrit :

Vous oubliez une chose que vos précédentes news sur le sujet expliqués.
Utiliser le multi engine réduit la fréquence du gpu vu qu il est plus utilisé.
Un gpu qui a un gain réduit car il supporte mal la chose a son gain qui est réduit voir qui peut devenir négatif si la fréquence est réduite.
Je me trompe ?
Du coup la fury x risque d avoir un gain supérieur a beaucoup de carte vu que le watercooling pourra sûrement éviter la baisse de fréquence.
A l inverse la nano qui ne tient pas le ghz qu elle affiche aura une fréquence encore plus basse que d habitude.


 
Oui c'est vrai que le Multi Engine pourra dans certains cas augmenter la charge GPU et donc sa consommation et éventuellement amener une réduction de la fréquence si une limite est atteinte. Mais le gain devra rester bien supérieur à la baisse de fréquence. Ceci dit les cartes qui n'atteignent pas leur limite de conso ou de température en profiteront un petit peu plus.
 

martyx a écrit :


Fin bref, AMD récolte juste le fruit de 5 ans de boulot... logique. Mais surtout d'avoir fournis une partie de leur travail (Mantle) (quasi) gratuitement à Microsoft.


 

Invite_Surprise a écrit :

Est-ce que cela va aider AMD à vendre des cartes ?


 
Ca c'est la question. Est-ce qu'AMD va en tirer des bénéfices ? Mais aussi est-ce que ça valait la peine pour AMD d'investir dans des ACE dès 2011 ? Nvidia est souvent beaucoup plus pragmatique au sujet du retour sur investissements du travail fait sur ses architectures GPU.

mood
Publicité
Posté le 09-09-2015 à 13:00:30  profilanswer
 

n°9604609
devilsan
Posté le 09-09-2015 à 13:02:17  profilanswer
1Votes positifs
 

KapSnake a écrit :

AMD rattrape juste sont retard grâce au Dx12 rien de plus :)
Si c'est comme pour la Fury de belle promesse et au final rien.
Pour le moment mes jeux sont en Dx11 et Nvidia fait mieux donc on verra en temps voulu si Nvidia arrive à régler se petit problème ou pas avant de crier victoire pour AMD.


si on se fie juste à ce becnhmark c'est pas juste un rattrapage vu qu'une 290x se rapproche dangereusement dune 980Ti qui coute plus de 2 fois son prix.

n°9604616
tridam
Profil : Equipe HardWare.fr
Posté le 09-09-2015 à 13:07:23  profilanswer
1Votes positifs
 

martyx a écrit :


 
Oui, je suis d'accord, je ne parle pas de ça. Je dis justement que si Nvidia passait totalement par le hardware, ils auraient aussi bénéficié d'un gain de perf.
Je pense que leur truc de mi-software mi-hardware c'est pour rattraper le coup sur des cartes plus anciennes qui ne supportent pas du tout le dx12. Une façons de limiter les dégats du coté des 780, etc...


 
Non non ça n'a rien avoir du tout. Le scheduling sur GPU n'est pas lié au support de D3D12 (qui est bien valide sur les GPU Kepler...). Je pense simplement que Nvidia n'a pas vu venir cette possibilité dans le cadre du jeu vidéo et à prévu le scheduling par rapport aux besoins du monde professionnel, monde dans lequel passer par une surcouche logicielle n'est pas incensé ;)

n°9604617
tridam
Profil : Equipe HardWare.fr
Posté le 09-09-2015 à 13:09:36  profilanswer
2Votes positifs
 

devilsan a écrit :


si on se fie juste à ce becnhmark c'est pas juste un rattrapage vu qu'une 290x se rapproche dangereusement dune 980Ti qui coute plus de 2 fois son prix.


 
Attention qu'il y a un bug au niveau du MSAA dans ce bench ce qui rend certains résultats discutables. J'ai pris en exemple les résultats de PCPer parce qu'ils ont désactivé le MSAA.

n°9604619
devilsan
Posté le 09-09-2015 à 13:13:43  profilanswer
3Votes positifs
 

Invite_Surprise a écrit :

Est-ce que cela va aider AMD à vendre des cartes ?
 
edit : merci à Damien pour cet article, ça fait du bien d'avoir un avis totalement hors marketing  :jap:


 
Perso je pense pas que ca va directement aider AMD a vendre plus de carte dans l'imediat si ce n'est dans les technophile super informes cme nous qui representent une minoritè.
On peut par contre esperer que AMD avec la victoire de Mantle depuis GCN en 2012 aie eu le tps de preparer une architechture parfaitement adaptée a DX12 vu lexperience deja acquise qui lui permette detre plus performante que Pascal en 2017.Pour faire un peu de hors sujet AMD a une chance extraordinaire qui soffre a lui en 2016 avec le 14nm et HBM.
immaginez un APU avec CPU Zen 4-8 coeurs du niveau de haswell et un GPU du niveau de perf d'un 970 dans un TDP 150-200W. je pense que ca ferrait un carton.votre avis ?


Message édité par devilsan le 09-09-2015 à 13:24:24
n°9604621
ti-rhum
Posté le 09-09-2015 à 13:14:02  profilanswer
0Votes positifs
 

tridam a écrit :


Mais aussi est-ce que ça valait la peine pour AMD d'investir dans des ACE dès 2011 ? Nvidia est souvent beaucoup plus pragmatique au sujet du retour sur investissements du travail fait sur ses architectures GPU.


 
+1 bon au moins GCN peut enfin s'exprimer !!!
 

n°9604625
tridam
Profil : Equipe HardWare.fr
Posté le 09-09-2015 à 13:17:29  profilanswer
4Votes positifs
 

Tetedepioche a écrit :

L'impression générale qui se dégage pour le profane, est que ce lobbying de technologie va freiner l'exploitation et donc le gain optimal que pourrait fournir la nouvelle API DX12. Quand ont vois certain développeurs sortir encore il y a peu des jeux en DX9, on se dit que c'est pas demain la veille que l'on verra des jeux DX12 exploitant pleinement l'API.


 
Ca rappelle aussi que plus que jamais pour qu'un jeu tire pleinement partie d'une API de bas niveau sur un maximum de GPU, il faudra que les développeurs prévoient un path correctement optimisé pour chaque architecture. Et ça, ce n'est pas gagné... ce qui risque d'amplifier les avantages obtenus lors des partenariats.
 
A ce petit jeu Nvidia a un avantage de taille : ses parts de marché. Oxide par exemple n'a pas trop d'autre choix que de prévoir un path spécial pour les GeForce (même si pour un simple benchmark l'effort à ce niveau n'était peut-être pas total). Pas sûr qu'il en soit de même dans l'autre sens et c'est plutôt AMD qui risque d'en faire les frais malheureusement.
 
Il faudra également voir ce que feront de D3D12 les gros moteurs.

n°9604626
- gab
Posté le 09-09-2015 à 13:17:53  profilanswer
1Votes positifs
 

Merci pour cette mise au point bienvenue sur le sujet :jap:


Message édité par - gab le 09-09-2015 à 13:33:42
n°9604666
cyberfred
Posté le 09-09-2015 à 13:55:58  profilanswer
1Votes positifs
 

kikamaruu a écrit :


 
Ah ouais, la 290x au niveau de la 980TI sur dx12, sympa.
Alors une furyX @_@


 
ouais enfin les benchs en fonction des sites...
http://www.extremetech.com/gaming/ [...] -to-head/2
ici c'est quasi kif kif entre fury x -et 980 ti ( certes avec un petit plus pour la Fury X) donc je ne crierai pas victoire trop vite.
Et puis se taper du 40 fps en full hd que ce soit avec une Fury x ou une 980 Ti , c'est pas la joie non plus
Même si je sais que le jeu est encore en alpha , faut espérer qu'ils optimisent quand même sacrément leur truc.

n°9604675
predator06
Posté le 09-09-2015 à 14:06:17  profilanswer
5Votes positifs
 

MasterDav a écrit :


Ce que t'as pas trop compris dans mon propos et celui de Chelmi, c'est que tous ces avis dignes de Gérard accoudé au comptoir du PMU du coin de la rue avec son verre de jaune et sa gitane maïs au coin du bec, ne valent pas un clou car basés sur du vent et de la fumisterie.
Que de la spéculation et des suppositions, rien de concret, on brasse du vent pour attirer du clic et faire le buzz.

Et les fanboys sont lâchés dans la nature..., la bite à l'air, courant dans le vent avec leur cape de super héros AMD pour sauver le monde.
 
On verra bien quand:
- il y aura plusieurs benchmarks DX12 neutres disponibles
- tant nvidia qu'AMD auront clairement documenté leurs produits
 
En attendant, wait&see.


Je ne suis pas d'accord sur ce que tu dis en gras.
Avec l'article de HFR, on est loin de vagues suppositions. Oui, le thème de base est en lien direct avec le benchmark mais ca dérive rapidement dans du technique et du concret sur D3D12.
 
Après la guerre entre fanboys ce n'est que la conséquence du marketing. Il y aura toujours des dissensions dans les commentaires. Ce n'est pas pour autant de HFR doit s'arrêter de publier des articles comme celui ci car ca va attirer des trolls, ou des commentaires de bas niveau technique. On a pas tous le bagage techn de Tridam ou autre.


---------------
R5 5600X // 6800XT // DDR4 3600 MHz // B550 tomahawk
n°9604697
theangel54​0
Posté le 09-09-2015 à 14:22:22  profilanswer
4Votes positifs
 

...Sinon, vous êtes tous déjà sur windows 10?
J'ai un gros problème: j'aime bien mon seven! (enfin, mes sevens)
 

n°9604706
soulfate
Posté le 09-09-2015 à 14:35:27  profilanswer
1Votes positifs
 

Ces résultats ne sont pas du tout surprenant si l'on considère aussi que ce sont les premières tentatives de développement sur D3D12. Pas besoin d'être ingénieur pour savoir que GCN allait mieux répondre nativement à ces premiers tests que Maxwell. Ces premiers tests s'effectuent sans optimisation de la part d'nVidia qui n'a pas voulu profité de l'expérience Mantle (mais on aurait préféré qu'ils se soient un peu mieux préparés car ça manque un peu de sérieux).
Cependant, si nVidia n'a pas trompé les consommateurs sur les specs de ses derniers GPU, il y a fort à parier que la partie software corrigera les défauts dans un avenir proche.
 
On pourra commencer à rédiger une conclusion lorsque nVidia proposera (ou pas) sa solution technique. Cette même conclusion sera encore plus objective lorsque d'autres développements ( = d'autres jeux) tireront partie de D3D12. J'ai cru voir des benchmarks où les GPU Maxwell tiraient bien profit de D3D12, sans savoir si l'Async Compute était utilisé, cependant...
 
Si, à l'avenir, les performances de cette même R9 390X baisseront mystérieusement, là, on pourra crier au sabotage. Mais quelle firme serait assez bête pour prouver aux consommateurs qu'elle plombe les performances de la concurrence ? C'est le moment ou jamais de ne surtout pas saboter les performances d'AMD, sinon cette réputation leur collera les fesses ad vitam aeternam.
 
J'ajoute qu'il a été clairement inutile de défendre sa marque préférée en ce début 2015 : personne ne pouvait savoir comment ces "nouveaux" GPU allaient se comporter avec D3D12 (et personne n'a encore de conclusion finale à donner). Quand on achète une carte graphique haut-de-gamme, on doit se projeter au minimum de 1 à 2 années dans l'avenir. Sachant que les premiers jeux D3D12 allaient sortir en fin d'année 2015, il était totalement logique d'attendre novembre/décembre avant de se décider d'acheter (ou pas) le dernier GPU haut-de-gamme de sa marque fétiche. Si ce comportement reflète les ventes actuelles d'AMD et d'nVidia, on aurait tendance à conclure que les achats des dernières GTX 900 étaient des achats compulsifs... Je n'irai pas plus loin car je n'ai pas envie qu'on me sorte sorte l'alarme du fanboyisme.
 
Enfin, je ne suis vraiment pas sûr que la vente des GPU d'AMD va augmenter, si ce qui est supposé dans cet article se révèle être très proche de la réalité. Mais, sachant que la génération R9 300 réagira presque de la même manière que la génération R9 200 (avec D3D12), ça signifiera également que ceux possédant la R9 290 n'auront aucune raison de renouveler leur GPU. Au final, il faut attendre plus de résultats, mais du côté des Fury ! C'est le seul moyen de savoir si cette gamme va rencontré un possible succès. M'est d'avis, cependant, que les consommateurs préfèreront des GPU plus matures avec l'arrivée du 16 nm et de l'HBM 2...

n°9604713
CardinalFu​neste
Posté le 09-09-2015 à 14:45:06  profilanswer
0Votes positifs
 

tridam a écrit :


 
Ca rappelle aussi que plus que jamais pour qu'un jeu tire pleinement partie d'une API de bas niveau sur un maximum de GPU, il faudra que les développeurs prévoient un path correctement optimisé pour chaque architecture. Et ça, ce n'est pas gagné... ce qui risque d'amplifier les avantages obtenus lors des partenariats.
 
A ce petit jeu Nvidia a un avantage de taille : ses parts de marché. Oxide par exemple n'a pas trop d'autre choix que de prévoir un path spécial pour les GeForce (même si pour un simple benchmark l'effort à ce niveau n'était peut-être pas total). Pas sûr qu'il en soit de même dans l'autre sens et c'est plutôt AMD qui risque d'en faire les frais malheureusement.
 
Il faudra également voir ce que feront de D3D12 les gros moteurs.


 
AMD est quand même pas mal avantagé aussi par le fait que ses apu se retrouvent dans toutes les consoles récente et la les parts de marché sont tout autre que les 5 pauvres 970/980 vendu a quelques geek

n°9604714
Asthon
Posté le 09-09-2015 à 14:45:54  profilanswer
0Votes positifs
 

soulfate a écrit :

Quand on achète une carte graphique haut-de-gamme, on doit se projeter au minimum de 1 à 2 années dans l'avenir.


 
Aucun Jeu D3D12 n'est disponible...

n°9604721
tridam
Profil : Equipe HardWare.fr
Posté le 09-09-2015 à 14:49:41  profilanswer
2Votes positifs
 

ravenloft a écrit :

Citation :

Bien entendu il est également possible que tout ceci soit lié à un malentendu suite à des pilotes qui ne seraient pas encore au point du côté de Nvidia. Mais cela nous paraît peu probable face au silence de Nvidia et au fait que ce spécialiste du GPU et des techniques de rendu à eu de très nombreux mois pour se préparer et n'ignorait pas que ce point allait prendre un aspect compétitif important.


D'après cette news http://www.dsogaming.com/news/nvid [...] -confirms/, cela serait du à une implémentation alpha sur les drivers

Citation :

“We actually just chatted with Nvidia about Async Compute, indeed the driver hasn’t fully implemented it yet, but it appeared like it was. We are working closely with them as they fully implement Async Compute. We’ll keep everyone posted as we learn more.”



 
C'est une quote que j'ai cité en haut de l'article et qui vient d'overclock.net ;)
 
Difficile de savoir quoi en penser entre réalité et baratin. Le problème c'est que vrai ou pas c'est stratégiquement la meilleure réponse que peut donner Nvidia pour faire disparaître cette histoire ;)

n°9604722
CardinalFu​neste
Posté le 09-09-2015 à 14:49:59  profilanswer
0Votes positifs
 

Asthon a écrit :


 
Aucun Jeu D3D12 n'est disponible...


 
ashes of the singularity est jouable  :o    :whistle:  

n°9604724
soulfate
Posté le 09-09-2015 à 14:51:00  profilanswer
0Votes positifs
 

Asthon a écrit :

Aucun Jeu D3D12 n'est disponible...


C'est exactement pour ça qu'il faut attendre les premiers titres D3D12 avant de se faire un avis sur un éventuel achat ;) Désolé si je me suis mal exprimé.

n°9604728
Asthon
Posté le 09-09-2015 à 14:56:54  profilanswer
1Votes positifs
 

soulfate a écrit :

Asthon a écrit :

Aucun Jeu D3D12 n'est disponible...


C'est exactement pour ça qu'il faut attendre les premiers titres D3D12 avant de se faire un avis sur un éventuel achat ;) Désolé si je me suis mal exprimé.


 
Celui qui voulait une nouvelle carte début 2015 il ne va pas attendre début 2016 pour savoir si ça vaut le coup sur 4-5 nouveaux titres :D
 
Sauf s'il a décidé de pas jouer pendant un An par ce que Microsoft et AMD développaient une nouvelle API...
 
Il faut toujours acheter son Matos pour le besoin Présent, dans le futur il sera peut être obsolète, pas assez puissant pour le nouvel usage, détérioré ou inopérant, supplanté par une solution d'un cout dérisoire etc etc...
 
Après ça peut être "coup de bol" mais en attendant de vrais résultats ça sera de toute façon des guerres de clochers ;)

n°9604730
bjone
Insert booze to continue
Posté le 09-09-2015 à 14:58:16  profilanswer
0Votes positifs
 

Il est possible que nV ait bien loupé un coche.
 
Néanmoins, on est sur les dernières itérations de hardware pré-D3D12.  
(Et les premières itérations de driver D3D12)
 
AMD ayant travaillé sur Mantle parallèlement aux dernières générations de hardware (il me semble qu'il y a un copyright 2011 ou 2012 dans les headers de Mantle), ils ont peut-être été plus sensible que nV à la problématique de l’ordonnancement interne.
 
Bref l'année prochaine va être rigolote.


Message édité par bjone le 09-09-2015 à 14:59:05
n°9604732
soulfate
Posté le 09-09-2015 à 15:02:07  profilanswer
0Votes positifs
 

@Asthon : Ce que vous dites est vrai quand il n'y a pas de réelle innovation dans DirectX. Cependant, l'année 2015 est différente des précédentes, ne serait-ce que pour D3D12 qui vaut réellement le coup d'attendre et de se faire un avis avant tout achat compulsif.
Enfin, je doute que les générations précédentes empêchent de jouer dans d'excellentes conditions... Si le joueur a décidé de ne plus jouer pendant un an, ce n'est certainement pas à cause du matériel de 2013-2014.

n°9604737
bjone
Insert booze to continue
Posté le 09-09-2015 à 15:10:48  profilanswer
0Votes positifs
 

Surtout que le gap de perfs au passage à la HBM2+14nm va être méchant.

n°9604742
Invite_Sur​prise
Racaille de Shanghaï
Posté le 09-09-2015 à 15:15:16  profilanswer
0Votes positifs
 

HS :
 
AMD aurait vendu 20% de ses parts selon Fudzilla --> http://www.fudzilla.com/news/proce [...] ent-of-amd

n°9604744
etiennedup​ont
Posté le 09-09-2015 à 15:16:25  profilanswer
0Votes positifs
 

ATI, c'était du sérieux.
Nvidia, ça a toujours été des roublars.
AMD, c'est un peu entre les deux, avec ce côté "canadien qui se fait entourlouper".
Plus sérieusement, j'ai acheté une des dernière Nvidia parceque ils étaient sensés supporte correctement DX12 ... il faudra qu'ils rendent des compte si ce n'est pas le cas !

n°9604755
mazingerz
Posté le 09-09-2015 à 15:29:27  profilanswer
5Votes positifs
 

etiennedupont a écrit :

ATI, c'était du sérieux.
Nvidia, ça a toujours été des roublars.
AMD, c'est un peu entre les deux, avec ce côté "canadien qui se fait entourlouper".
Plus sérieusement, j'ai acheté une des dernière Nvidia parceque ils étaient sensés supporte correctement DX12 ... il faudra qu'ils rendent des compte si ce n'est pas le cas !


 
bas elle le supporte sauf qu'elle y gagneront pas grand chose
 
les carte AMD sont toujours plus future proof
si tu voulais une carte qui dure longtemps fallait prendre du AMD ça tu ne peut t'en prendre qu'a toi

n°9604761
sasuke87
Posté le 09-09-2015 à 15:34:22  profilanswer
6Votes positifs
 

Cette histoire va finir comme celle de la tesselation. Longtemps promu par AMD mais rarement implanté dans les jeux jusqu'au beau jour où nvidia décide de mettre le paquet et paf AMD se fera ridiculiser sur une techno où ils étaient pourtant en avance. Je regrette l'époque de DX9 où ATI avait su faire de son r300 l'archi de base pour le développement des premiers jeux DX9, on avait connu un véritable bon visuel à l'époque.

n°9604762
mazingerz
Posté le 09-09-2015 à 15:34:47  profilanswer
1Votes positifs
 
n°9604764
mazingerz
Posté le 09-09-2015 à 15:36:13  profilanswer
4Votes positifs
 

sasuke87 a écrit :

Cette histoire va finir comme celle de la tesselation. Longtemps promu par AMD mais rarement implanté dans les jeux jusqu'au beau jour où nvidia décide de mettre le paquet et paf AMD se fera ridiculiser sur une techno où ils étaient pourtant en avance. Je regrette l'époque de DX9 où ATI avait su faire de son r300 l'archi de base pour le développement des premiers jeux DX9, on avait connu un véritable bon visuel à l'époque.


 
oui NVIDA vas faire du bashing pour limiter ces optimisation et quand leur CPU le supportera ils vont revenir en grande pompe s’octroyant tout le mérite  
un classique de l'histoire des GPU

n°9604768
sasuke87
Posté le 09-09-2015 à 15:39:12  profilanswer
2Votes positifs
 

Un classique depuis l'ère AMD, ATI se faisait quand même moins victimiser  :o

n°9604802
Zurkum
Posté le 09-09-2015 à 16:06:51  profilanswer
2Votes positifs
 

lapin a écrit :

nVIDIA paye aussi le fait que comme AMD est nul en Driver, AMD étant obliger question Hardware pour égaler les performances de faire un GPU plus puissant plus programmable et plus GPU Computing et plus parallélisable pour compenser les manquement des Driver AMD CATASTROPHELYSTE, en suite vu que Mantle/Direct3D12/Vulkan passe moins par les driver et force les développeurs à une programmation bas niveau, forcément là c'est AMD qui est avantager.


 :sarcastic:  Franchement ? Les drivers AMD sortent après ceux Nvidia et donc sont mauvais ?

n°9604806
Zurkum
Posté le 09-09-2015 à 16:10:34  profilanswer
2Votes positifs
 

MasterDav a écrit :

Citation :

Oxide, le développeur d'Ashes of the Singularity et qui est par ailleurs plutôt proche d'AMD


Ça commence bien dis donc !
 

Citation :

Nous avons donc questionné Nvidia sur le sujet dès le 31 août, qui nous a indiqué que nous recevrions une réponse dans la journée… tous les jours de la semaine passée. Mais aucune réponse ne nous est parvenue jusqu'ici ce qui signifie qu'il n'est pas simple pour Nvidia d'en rédiger une.


Ou bien qu'ils ont autre chose à faire, ou que les gars à même de répondre correctement sont encore en vacances.
 
Pour résumé, Oxide sort un benchmark alpha pour troller nvidia en disant qu'AMD c'est plus fort que toi, AMD se félicite (cette expression veut tout dire), nVidia temporise pour d'obscures raisons, et pendant ce temps-là ça spécule et ça trolle à qui mieux mieux.
Et c'est tout bénef pour Oxide et AMD qui profitent d'un buzz pour qu'on parle d'eux.
 
On se croirait sur TF1 avec un sempiternel débat majorité/opposition sur un projet de loi que personne ne comprend mais dont tout le monde parle.


 
L'avantage c'est qu'avec un tel parti pris tu ne peux être que objectif  :o  

n°9604812
Zurkum
Posté le 09-09-2015 à 16:17:05  profilanswer
0Votes positifs
 

CardinalFuneste a écrit :


 
AMD est quand même pas mal avantagé aussi par le fait que ses apu se retrouvent dans toutes les consoles récente et la les parts de marché sont tout autre que les 5 pauvres 970/980 vendu a quelques geek


Enfin bon avec quelques pauvres 970/980 ils font 80% des parts de marché  :o  Cela dit AMD va pas faire beaucoup de bénef si ils construisent leurs gpus pour les deux prochaines API à venir  :o

n°9604818
lulu1980
Posté le 09-09-2015 à 16:20:33  profilanswer
0Votes positifs
 

Franchement il n'y a rien d'étonnant dans cette news, c'était prévu et attendu comme tel.
Les acheteurs de Maxwell 2 savaient qu'il s'agissait d'un investissement à relativement court terme.


Message édité par lulu1980 le 09-09-2015 à 16:22:43
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12

Aller à :
Ajouter une réponse
 

Sujets relatifs
Avis Achat GTX 980GTX 960 "fantome"
Résolution écran avec une GeForce GTX 850MAlim assez puissante pour une Asus Strix GTX 960 OC 4GB DDR5?
Gtx 970 vs 780 version 6 gbDemande d'aide sur une config basé sur une GTX 980 TI Phoenix GS
[HFR] Actu : Crono Labs C1, un boitier avec pied VESA pour super AIO[HFR] Actu : Rupture à prévoir sur l'i7-6700K
Plus de sujets relatifs à : [HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR