Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1056 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15
Auteur Sujet :

[HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test

n°9537510
vanloque
Someone broke my AT Field
Posté le 26-06-2015 à 23:44:22  profilanswer
2Votes positifs
 

Reprise du message précédent :

_Mastaba_ a écrit :


Donc en achetant nVidia on ne paie pas pour avoir de meilleures performances sur ses jeux, chez soi; on paie pour que les autres gens qui ont acheté des AMD en aient de moins bonnes?
Super.


C'est horrible mais on peut tout à fait voir ça dans ce sens !   :D  :D


Message édité par vanloque le 26-06-2015 à 23:46:54

---------------
--- https://steamcommunity.com/id/Vanlock ---
mood
Publicité
Posté le 26-06-2015 à 23:44:22  profilanswer
 

n°9537529
lulu1980
Posté le 26-06-2015 à 23:57:55  profilanswer
1Votes positifs
 

C'est vrai que c'est triste comme constat!

n°9537602
Xillendo
Posté le 27-06-2015 à 01:50:02  profilanswer
3Votes positifs
 

Perso entre en 980 Ti et une Fury X, j'achèterai surement la Fury X.
J'ai plus de sympathie pour AMD que pour nvidia, principalement parce que j'ai du mal avec la politique commerciale de nvidia.
J'ai particulièrement horreur de ce qu'ils font avec gameworks. Bizarrement les jeux PC qui ont le plus de problèmes d'optimisation (qui font scandale en tout cas) sont souvent des jeux "gameworks". Coïncidence ? Je ne pense pas.

n°9537607
Zilak
I can't carry anymore !
Posté le 27-06-2015 à 02:13:24  profilanswer
1Votes positifs
 

Faut arrêter la paranoïa aussi.  
Fut un temps les jeux étaient sponsorisé ATI/AMD. Aujourd'hui nvidia a une avance sur AMD du coup ils en profitent.  
 
Ensuite dire que l'entreprise du caméléon est méchante et que les pauvres petits AMD qui sont passionnés et mettent leur âme dans leur travail. Faut juste stopper les inepties. C'est du kifkif chez les deux côtés.  
A moins que l'âme AMD que vous parlez est simplement le cri, la chaleur, le souffle du pov'r rad.

n°9537616
sebfun
Posté le 27-06-2015 à 02:37:10  profilanswer
1Votes positifs
 

je suis sur du nvidia pour le moment (660) mais ma prochaine sera une ati, ne serait ce que pour sa politique opensource pour linux

n°9537621
gils04
le soleil du sud !
Posté le 27-06-2015 à 02:44:53  profilanswer
2Votes positifs
 

Zilak a écrit :

Faut arrêter la paranoïa aussi.  
Fut un temps les jeux étaient sponsorisé ATI/AMD. Aujourd'hui nvidia a une avance sur AMD du coup ils en profitent.  
 
Ensuite dire que l'entreprise du caméléon est méchante et que les pauvres petits AMD qui sont passionnés et mettent leur âme dans leur travail. Faut juste stopper les inepties. C'est du kifkif chez les deux côtés.  
A moins que l'âme AMD que vous parlez est simplement le cri, la chaleur, le souffle du pov'r rad.


 
 :lol:  :lol:  :lol:  
 
le cri ? la chaleur ?  :heink:  
 
chez nV bordel et oeuf au plat !!  :lol:  

n°9537628
Elpriser
Posté le 27-06-2015 à 02:56:17  profilanswer
10Votes positifs
 

Les limitations se situent souvent à la sortie d'un nouveau GPU sur leurs pilotes chez AMD en particulier, cette carte est taillée pour Mantle/Vulkan dx12.0+.
Sa vraie limite est ses 4Go pour le 4K et l'avenir.
D'ici quelques mois j'ose espérer pour eux comme ils l'ont fait pour la 7970 ils gagneront en performance pour égaler la 980Ti, je ne me fais pas trop de soucis à ce sujet, ils sont lents à la détente niveau optimisation architecture ça leur prendra au moins 3 mois au minimum d'ici septembre ça devrait s'améliorer...
 
Le plus préoccupant est le coût de fabrication et la marge minime qu'ils doivent faire pour sortir du rouge financièrement...c'est pas gagné.
Cette carte comme je l'ai déjà dit est un avant goût de la 490X en 14nm: un prototype pour montrer qu'ils s'occupent encore de leur haut de gamme.
Excellent test je vous félicite comme toujours.


Message édité par Elpriser le 27-06-2015 à 02:56:55
n°9537688
lulu1980
Posté le 27-06-2015 à 08:35:08  profilanswer
6Votes positifs
 

Tout à fait d'accord!
Et j'ajouterai qu'il est toujours agréable de voir un produit se bonifier avec le temps, je préfère un produit qui affiche 5fps de moins aujourd'hui et 10 de plus dans 6 mois, plutôt qu'un produit à son max aujourd'hui mais jetable dans un an.
 
Pour répondre à Zilak, les fanboys Nvidia vous avez un gros problème avec la chaleur, pourtant vous vivez dans un pays où l'hiver dure au moins 8 mois ça ne devrait donc pas être un problème.
Perso ma R9 290 est sous eau et est plus froide que ne le sera jamais ta Carte Nvidia (sachant que la carte + le WaterBlock m'ont couté moins chère que la simple carte équivalente Nvidia à l'époque).

n°9537814
Keser
Posté le 27-06-2015 à 11:56:57  profilanswer
1Votes positifs
 

Je vois pas mal de fan AMD sur ce thread.
Vous trouvez pas ca "malsain" d'acheter un produit juste pour soutenir le fabriquant et de délaisser d'autres aspects qui a mes yeux me paraisse plus important tel que le rapport qualité/prix ?
 
Par exemple entre une Sapphire Fury X à 700€ et une Zotac 980Ti AMP Extrem à 830€, la Zotac est 20/25% plus perf en 1440p, et pour ceux qui overclockent ce gain augmente encore.
Je trouve cette 980Ti custom bien plus intéressante que la Fury X pour le jeux. Et avec les 6Go de vram elle devrait durer plus longtemps que la Fury.
 
lulu, est ce que t'as des exemples de ce que tu avance sur la longévité des cartes nvidia plus courtes que les AMD ? Est ce que ca concerne une génération en particulier ou plusieurs générations de GPU ?
 
Car depuis les 7970 AMD utilise la même architecture, elle a subit beaucoup moins de modification que celle de nvidia.
Ca permet à AMD d'avoir un coût en R&D plus faible pour le GPU (mais pas forcément pour le PCB ou l'interposer) et de ne pas optimiser leurs drivers pour plusieurs type d'archi...

Message cité 4 fois
Message édité par Keser le 27-06-2015 à 12:08:42
n°9537823
Keser
Posté le 27-06-2015 à 12:03:11  profilanswer
0Votes positifs
 

sebfun a écrit :

je suis sur du nvidia pour le moment (660) mais ma prochaine sera une ati, ne serait ce que pour sa politique opensource pour linux


D'après le retours que j'ai eu t'auras de meilleur perf avec les drivers proprio nvidia qu'avec les AMD.
 
Dans dota 2 avec ma 290 j'ai une baisse de 30/40FPS (~120->80) en passant de DirectX à OpenGL, alors qu'un pote n'a pas ce problème avec sa 770.

Message cité 1 fois
Message édité par Keser le 27-06-2015 à 12:03:25
mood
Publicité
Posté le 27-06-2015 à 12:03:11  profilanswer
 

n°9537839
Zurkum
Posté le 27-06-2015 à 12:07:46  profilanswer
1Votes positifs
 

Keser a écrit :

Je vois pas mal de fan AMD sur ce thread.
Vous trouvez pas ca "malsain" d'acheter un produit juste pour soutenir le fabriquant et de délaisser d'autres aspects qui a mes yeux me paraisse plus important tel que le rapport qualité/prix ?

 

Par exemple entre une Sapphire Fury X à 700€ et une Zotac 980Ti AMP Extrem à 830€, la Zotac est +20/+25% plus perf en 1440p et pour ceux qui overclockent ce gain augmente encore.
Je trouve cette 980Ti bien plus intéressante que la Fury X pour le jeux. Et avec les 6Go de vram elle devrait durer plus longtemps que la Fury.

 

lulu, est ce que t'as des exemples de ce que tu avance sur la longévité des cartes nvidia plus courtes que les AMD ? Est ce que ca concerne une génération en particulier ou plusieurs générations de GPU ?

 

Car depuis les 7970 AMD utilise la même architecture, elle a subit beaucoup moins de modification que celle de nvidia.
Ca permet à AMD d'avoir un coût en R&D plus faible pour le GPU (mais pas forcément pour le PCB ou l'interposer) et de ne pas optimiser leurs drivers pour plusieurs type d'archi...

 

Le HDG chez Nvidia ça dure dans le temps bien sûr ( pour pas citer la 780Ti ) alors que finalement les AMD tiennent la marée ( Hawaî chauffe / consomme mais il envoie du bois sans être trop cher ) et le rapport perf / prix est mauvais pour la Fury mais pour le reste de la gamme ça s'inverse facilement .


Message édité par Zurkum le 27-06-2015 à 12:08:05
n°9537852
Z Machine
Fusion is future
Posté le 27-06-2015 à 12:14:15  profilanswer
1Votes positifs
 

Pour le sujet de la "durée de vie" des archis, il serait intéressant d'avoir quelques retours sur le maj drivers concernant Fermi (par exemple) coté Nvidia, et coté Amd Cypress/Cayman (par exemple bis).
 
Et de préférence, des retours objectifs !
 


---------------
http://fr.wikipedia.org/wiki/Z_machine
n°9537854
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 27-06-2015 à 12:14:21  profilanswer
3Votes positifs
 

Keser a écrit :


D'après le retours que j'ai eu t'auras de meilleur perf avec les drivers proprio nvidia qu'avec les AMD.
 
Dans dota 2 avec ma 290 j'ai une baisse de 30/40FPS (~120->80) en passant de DirectX à OpenGL, alors qu'un pote n'a pas ce problème avec sa 770.


 
Il a parlé de politique opensource, pas de performance sous linux avec les drivers propriétaires (et donc non opensource)


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°9537865
Keser
Posté le 27-06-2015 à 12:21:07  profilanswer
0Votes positifs
 

darkstalker a écrit :

Il a parlé de politique opensource, pas de performance sous linux avec les drivers propriétaires (et donc non opensource)


Quand on achète une carte graphique dédié c'est généralement pour jouer, sinon autant utiliser l'IGP.
 
Et dans le cas de jeux vidéo (qui sont eux même pour la plupart des logiciel proprio), pourquoi ne pas utiliser le driver proprio qui apporte de bien meilleur perf ?


Message édité par Keser le 27-06-2015 à 12:21:20
n°9537866
xvince1
Ma question préférée
Posté le 27-06-2015 à 12:21:41  profilanswer
4Votes positifs
 

Keser a écrit :

Je vois pas mal de fan AMD sur ce thread.
Vous trouvez pas ca "malsain" d'acheter un produit juste pour soutenir le fabriquant et de délaisser d'autres aspects qui a mes yeux me paraisse plus important tel que le rapport qualité/prix ?
 
Par exemple entre une Sapphire Fury X à 700€ et une Zotac 980Ti AMP Extrem à 830€, la Zotac est 20/25% plus perf en 1440p, et pour ceux qui overclockent ce gain augmente encore.
Je trouve cette 980Ti custom bien plus intéressante que la Fury X pour le jeux. Et avec les 6Go de vram elle devrait durer plus longtemps que la Fury.
 
lulu, est ce que t'as des exemples de ce que tu avance sur la longévité des cartes nvidia plus courtes que les AMD ? Est ce que ca concerne une génération en particulier ou plusieurs générations de GPU ?
 
Car depuis les 7970 AMD utilise la même architecture, elle a subit beaucoup moins de modification que celle de nvidia.
Ca permet à AMD d'avoir un coût en R&D plus faible pour le GPU (mais pas forcément pour le PCB ou l'interposer) et de ne pas optimiser leurs drivers pour plusieurs type d'archi...


 
Perso, ce que je trouve malsain, c'est surtout la recrudescence des saloperies propriétaires Nvidia qui infestent un marché qui n'avait pas vraiment besoin de ça. Encore une fois, quand on voit les sorties des derniers titres AAA, avec comme fer de lance la sortie du dernier Batman, je me dis que ça serait peut-être intéressant que les dév envisagent de passer du temps en béta test, plutôt que de passer ce temps pour intégrer des "trucs" aussi fondamentaux que l'hairwork, dont personnellement je n'ai rien à foutre vu que ça plombe ma carte, et surtout pour voir ce résultat esthétique pathétique...
 
Après, en ce qui me consterne, je suis assez étonné par la bêtise des justifications des prix que pratique NV, par les propres acheteurs et ces niaiseries de segmentation premium me semble tellement surréalistes que j'évite même de rentrer en polémique dessus. Encore une fois, perso, je ne suis pas spécialement fan d'AMD, mais vu que je trouve les pratiques NV assez nauséabondes, je fini par ne prendre que des radeons. Et Dieu sait que j'ai eu du NV avant...   [:babonnguida:4]


Message édité par xvince1 le 27-06-2015 à 12:30:54

---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°9537880
Keser
Posté le 27-06-2015 à 12:35:46  profilanswer
0Votes positifs
 

xvince1 a écrit :

Perso, ce que je trouve malsain, c'est surtout la recrudescence des saloperies propriétaires Nvidia qui infestent un marché qui n'avait pas vraiment besoin de ça. Après, ce qui me consterne, c'est la bêtise des justifications des prix que pratique NV par les acheteurs. Encore une fois, perso, je ne suis pas spécialement fan d'AMD, mais vu que je trouve les pratiques NV assez nauséabondes, je fini par ne prendre que des radeons. Et Dieu sait que j'ai eu du NV avant...   [:babonnguida:4]  


Dans ce cas t'as plus une attitude de hater que je peux comprendre que de fanboy.
Je n'aime pas également le fait que nvidia nous sorte du proprio à tout va pour améliorer sa position.
 
Mais ca reste du business et ca leur coûte de l'argent de faire ce genre techno, donc si les gens choisisse leur carte sur le rapport perf/prix et non sur la compatibilité avec telle techno propio àlacon, nvidia sera perdant dans l'histoire.
 
Sinon ce genre de pratique ne m'empêchera pas d'acheter du nvidia s'ils proposent une carte avec un meilleur rapport perf/prix qu'AMD. Je tiens plus à mon portefeuille que de choisir un camp dans une guéguerre entre deux entreprises qui ont pour seul but de faire un max de profit...

n°9537928
gils04
le soleil du sud !
Posté le 27-06-2015 à 13:23:45  profilanswer
2Votes positifs
 

Keser a écrit :

Je vois pas mal de fan AMD sur ce thread.
Vous trouvez pas ca "malsain" d'acheter un produit juste pour soutenir le fabriquant et de délaisser d'autres aspects qui a mes yeux me paraisse plus important tel que le rapport qualité/prix ?
 
Par exemple entre une Sapphire Fury X à 700€ et une Zotac 980Ti AMP Extrem à 830€, la Zotac est 20/25% plus perf en 1440p, et pour ceux qui overclockent ce gain augmente encore.
Je trouve cette 980Ti custom bien plus intéressante que la Fury X pour le jeux. Et avec les 6Go de vram elle devrait durer plus longtemps que la Fury.
 
lulu, est ce que t'as des exemples de ce que tu avance sur la longévité des cartes nvidia plus courtes que les AMD ? Est ce que ca concerne une génération en particulier ou plusieurs générations de GPU ?
 
Car depuis les 7970 AMD utilise la même architecture, elle a subit beaucoup moins de modification que celle de nvidia.
Ca permet à AMD d'avoir un coût en R&D plus faible pour le GPU (mais pas forcément pour le PCB ou l'interposer) et de ne pas optimiser leurs drivers pour plusieurs type d'archi...


 
ahahahaha !!!   :lol:  
 
tu diminues la taille de la sardine et j'éteins la lumière ;)  

n°9537994
Gigathlon
Quad-neurones natif
Posté le 27-06-2015 à 14:21:32  profilanswer
1Votes positifs
 

Z Machine a écrit :

Pour le sujet de la "durée de vie" des archis, il serait intéressant d'avoir quelques retours sur le maj drivers concernant Fermi (par exemple) coté Nvidia, et coté Amd Cypress/Cayman (par exemple bis).
 
Et de préférence, des retours objectifs !


Les drivers sont un aspect mineur dans l'obsolescence des GPU, c'est en premier lieu les jeux qui requièrent un équilibre qui évolue au fil du temps qui sont responsables de l'évolution dans le temps.

n°9538001
Keser
Posté le 27-06-2015 à 14:29:23  profilanswer
0Votes positifs
 

gils04 a écrit :


ahahahaha !!!   :lol:  
 
tu diminues la taille de la sardine et j'éteins la lumière ;)  


 
La EVGA 980Ti SC+ testé dans l'article est déjà 20.9% plus perf que la Fury X en 1440p.
La EVGA tourne à 1282MHz en moyenne pour le GPU et 1752MHz pour la mémoire.
La Zotac 980Ti AMP Extreme tourne à au moins 1355MHz pour le GPU (+5.7%) et 1805MHz pour la mémoire (+3%).
 
Donc oui, la Zotac 980Ti AMP Extreme est bien 20/25% plus perf que la Fury X en 1440p aux fréquence stock.
 
En overclocking la Zotac peut monter à ~1.5GHz pour le GPU (+11%) et ~2GHz pour la ram (+11%), alors que la Fury X se limite à 1125MHz pour le GPU (+7%) et l'oc de la mémoire n'est pas encore possible (+0%). Donc une fois oc, la Zotac creuse encore plus l'écart avec la Fury X (~30%).

Message cité 2 fois
Message édité par Keser le 27-06-2015 à 14:30:55
n°9538008
lapin
Posté le 27-06-2015 à 14:32:33  profilanswer
1Votes positifs
 

20% plus chère ça fait 840€, ça tombe bien elle est 20 à 25% plus performantes que la FURY X.

n°9538016
darkandy
?
Posté le 27-06-2015 à 14:38:12  profilanswer
2Votes positifs
 

Keser a écrit :

gils04 a écrit :


ahahahaha !!!   :lol:  
 
tu diminues la taille de la sardine et j'éteins la lumière ;)  


 
La EVGA 980Ti SC+ testé dans l'article est déjà 20.9% plus perf que la Fury X en 1440p.
La EVGA tourne à 1282MHz en moyenne pour le GPU et 1752MHz pour la mémoire.
La Zotac 980Ti AMP Extreme tourne à au moins 1355MHz pour le GPU (+5.7%) et 1805MHz pour la mémoire (+3%).
 
Donc oui, la Zotac 980Ti AMP Extreme est bien 20/25% plus perf que la Fury X en 1440p aux fréquence stock.
 
En overclocking la Zotac peut monter à ~1.5GHz pour le GPU (+11%) et ~2GHz pour la ram (+11%), alors que la Fury X se limite à 1125MHz pour le GPU (+7%) et l'oc de la mémoire n'est pas encore possible (+0%). Donc une fois oc, la Zotac creuse encore plus l'écart avec la Fury X (~30%).


 
Je veut le même chapeau magique que toi pour les chiffres :D

n°9538029
Keser
Posté le 27-06-2015 à 14:44:04  profilanswer
0Votes positifs
 

lapin a écrit :

20% plus chère ça fait 840€, ça tombe bien elle est 20 à 25% plus performantes que la FURY X.


Sur le hdg chaque pourcent de perf en plus se paie plus cher.
Par exemple à leur sortie, le passage d'une 290 à une 290X coûtait 140€ (+39% du prix de la 290) pour 15% de perf en plus.
 
Pareille pour le passage d'une 970 à une 980, on avait un gain de perf de 17% pour une hausse des prix de 67% (330€ à 550&euro;).
 
Donc sur des cartes à 700€, avoir une hausse des perf de 25% pour un prix seulement 19% supérieur est exceptionnel. Surtout quand il faut passer d'une carte AMD à une carte nvidia, car en général ce sont les cartes AMD qui propose le meilleur rapport perf/prix.

n°9538030
Keser
Posté le 27-06-2015 à 14:45:56  profilanswer
0Votes positifs
 

darkandy a écrit :

Je veut le même chapeau magique que toi pour les chiffres :D


Bah quand t'auras ton brevet des collèges ca devrait mieux aller. T'auras appris à lire et ce que veux dire un pourcentage. ;)

Message cité 1 fois
Message édité par Keser le 27-06-2015 à 14:46:44
n°9538036
gils04
le soleil du sud !
Posté le 27-06-2015 à 14:54:41  profilanswer
2Votes positifs
 

Keser a écrit :


 
La EVGA 980Ti SC+ testé dans l'article est déjà 20.9% plus perf que la Fury X en 1440p.
La EVGA tourne à 1282MHz en moyenne pour le GPU et 1752MHz pour la mémoire.
La Zotac 980Ti AMP Extreme tourne à au moins 1355MHz pour le GPU (+5.7%) et 1805MHz pour la mémoire (+3%).
 
Donc oui, la Zotac 980Ti AMP Extreme est bien 20/25% plus perf que la Fury X en 1440p aux fréquence stock.
 
En overclocking la Zotac peut monter à ~1.5GHz pour le GPU (+11%) et ~2GHz pour la ram (+11%), alors que la Fury X se limite à 1125MHz pour le GPU (+7%) et l'oc de la mémoire n'est pas encore possible (+0%). Donc une fois oc, la Zotac creuse encore plus l'écart avec la Fury X (~30%).


 
tu sais qu'un FX 8350 monte à 8 Ghz !!!  :heink:  et ? quesqu'on peut lire comme connerie !! et franchement en 1440p , quelle différence tu vas voir entre 60 i/s et 350 i/s !!??  :heink: , il faut choisir la CG adapté !! et en 4k c'est 50 % ??  :hello:  

n°9538054
Keser
Posté le 27-06-2015 à 15:26:33  profilanswer
1Votes positifs
 

gils04 a écrit :

tu sais qu'un FX 8350 monte à 8 Ghz !!!  :heink:


Un FX 8350 ne monte pas à 8GHz avec le refroidissement d'origine et encore moins en utilisation quotidienne.
Enfin bon, je vois pas le rapport avec le message que t'as cité.
 

gils04 a écrit :

quesqu'on peut lire comme connerie !! et franchement en 1440p , quelle différence tu vas voir entre 60 i/s et 350 i/s !!??  :heink: , il faut choisir la CG adapté !! et en 4k c'est 50 % ??  :hello:


Je vois que t'es un fanboy qui accepte mal les produits concurrent. N'importe quel joueur trouvera un intérêt à une hausse de perf... mais c'est pas le cas des gens endoctriné dans ton genre.


Message édité par Keser le 27-06-2015 à 15:28:03
n°9538059
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 15:33:23  profilanswer
6Votes positifs
 

Comment afficher une ligne bleue sur un moniteur à partir d'une application...

 

Code de l'application -> GameEngine -> Direct3D -> Driver -> Hardware

 

En tout, il se peut que 5000 lignes de code soit nécessaire. Peut-être même plus.
C'est à dire que le CPU et le GPU devront traiter 5000 instructions avant que la ligne bleue ne soit affichée.

 

Dans mon jeune temps, une trentaine de lignes de code en ASM était suffisant pour faire la même chose.
J'écrivais directement dans la mémoire et les registres, sans passer par Windows, par un API, ou par des drivers.
Le rectangle vert de la 1ère ligne du graphique ci-dessous représente justement cela.

 

http://asawicki.info/files/New%20Gen%20Graphics%20API.png

 

Les lignes suivants montrent l'apparition des drivers, puis de l'API, et ensuite du GameEngine.
La 4e ligne représente ce qui se fait actuellement.
Et la 5e ligne représente le futur proche: DirectX 12 / Mantle.

 


Imaginez maintenant le futur...

 

Code de l'application -> GameEngine -> nVidia GameWorks -> Direct3D -> Driver -> Hardware

 

Imaginez un monde où 80% des moteurs de jeux 3D intégreraient les fonctions graphiques offertes par nVidia.
Imaginez que ces moteurs de jeux utiliseraient les fonctions développées par nVidia autant pour les GeForce que les Radeon.
Imaginez ensuite que les fonctions offertes par nVidia avec son GameWorks sont hermétiques, c-à-d que leur code source n'est pas disponible.

 

Vous comprendrez assez facilement qu'une fois que cela sera devenu réalité, les chances qu'AMD puissent repasser devant nVidia seront nulles.

 

Et bien, tout cela n'est pas de la science fiction.
C'est exactement ce qui est en train de se passer.

 

D'ici quelques années, lorsque nVidia aura peaufiné son GameWorks, quadruplé ses fonctions, et qu'ils auront offert leur GameWorks gratuitement à toutes les grosses boîtes de jeux (Ubi, EA, Square-Enix, Activision Blizzard, ArenaNet, ...) en plus de l'aide de leurs techniciens, les seules cartes graphiques qui offriront des performances acceptables seront celles offertes par nVidia... à fort prix.

 


Lorsqu'AMD a empoché les contats de toutes les consoles en 2013, nVidia a dû réagir, et ils ont lancé le projet GameWorks en 2014. Le but étant de parvenir à prendre le contrôle des jeux qui seront maintenant développés sur des puces crées par AMD. Sans GameWorks les jeux auraient finis par être optimisés pour les Radeon, et cela aurait pu mettre fin au contrôle du marché par nVidia.

 

GameWorks est un cheval de Troie.
C'est un truc offert gratuitement et qui semble inoffensif.
Mais qui, une fois accepté par les devs, détruira son adversaire de l'intérieur.

 

http://www.alghadeer.tv/media/cache/d4/36/d4365a500bb35cd7db1ef66ca5903b05.jpg

 

On peut dire ce que l'ont veut, mais la machine marketing de nVidia est l'une des plus brillantes du marché. Malheureusement.

 

Message cité 1 fois
Message édité par Wirmish le 27-06-2015 à 15:34:52
n°9538070
xvince1
Ma question préférée
Posté le 27-06-2015 à 15:53:07  profilanswer
3Votes positifs
 

Keser a écrit :


Dans ce cas t'as plus une attitude de hater que je peux comprendre que de fanboy.
Je n'aime pas également le fait que nvidia nous sorte du proprio à tout va pour améliorer sa position.
 
Mais ca reste du business et ca leur coûte de l'argent de faire ce genre techno, donc si les gens choisisse leur carte sur le rapport perf/prix et non sur la compatibilité avec telle techno propio àlacon, nvidia sera perdant dans l'histoire.
 
Sinon ce genre de pratique ne m'empêchera pas d'acheter du nvidia s'ils proposent une carte avec un meilleur rapport perf/prix qu'AMD. Je tiens plus à mon portefeuille que de choisir un camp dans une guéguerre entre deux entreprises qui ont pour seul but de faire un max de profit...


 
En l'occurence, ça fait à peu près 10 ans qu'AMD est contraint d'avoir le meilleur rapport perf-prix. Et si tu es un peu malin, tu aura vite compris que ton calcul de porte feuille n'est bien entendu qu'à court terme, si il ne reste plus qu'un seul fabricant. Evidemment que je m'en contre-branle du déficit des fonds de pensions qui sont cachés derrières AMD, mais si j'ai a choisir, je préfère alimenter une firme qui joue le jeu, plutôt que ce gros tas de ##### d'Nvidia...
 


---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°9538071
lulu1980
Posté le 27-06-2015 à 15:59:00  profilanswer
2Votes positifs
 

Keser a écrit :

Je vois pas mal de fan AMD sur ce thread.
Vous trouvez pas ca "malsain" d'acheter un produit juste pour soutenir le fabriquant et de délaisser d'autres aspects qui a mes yeux me paraisse plus important tel que le rapport qualité/prix ?
 
Par exemple entre une Sapphire Fury X à 700€ et une Zotac 980Ti AMP Extrem à 830€, la Zotac est 20/25% plus perf en 1440p, et pour ceux qui overclockent ce gain augmente encore.
Je trouve cette 980Ti custom bien plus intéressante que la Fury X pour le jeux. Et avec les 6Go de vram elle devrait durer plus longtemps que la Fury.
 
lulu, est ce que t'as des exemples de ce que tu avance sur la longévité des cartes nvidia plus courtes que les AMD ? Est ce que ca concerne une génération en particulier ou plusieurs générations de GPU ?
 
Car depuis les 7970 AMD utilise la même architecture, elle a subit beaucoup moins de modification que celle de nvidia.
Ca permet à AMD d'avoir un coût en R&D plus faible pour le GPU (mais pas forcément pour le PCB ou l'interposer) et de ne pas optimiser leurs drivers pour plusieurs type d'archi...


 
Déjà que payer 700€ pour une carte me rend malade mais 830!!!!!!!!!!!!! c'est juste une aberration j'ai failli faire un coma en lisant ça. Et le pire c'est que si je rachète une seconde 290 j'exploserai ta 980ti pour 550€....

n°9538079
Keser
Posté le 27-06-2015 à 16:06:55  profilanswer
0Votes positifs
 

lulu1980 a écrit :

Déjà que payer 700€ pour une carte me rend malade mais 830!!!!!!!!!!!!! c'est juste une aberration j'ai failli faire un coma en lisant ça.


Faudrait que tu consulte un médecin, si de simple chiffre te font cet effet...  :D

 

Tous le monde n'as pas le même salaire, j'ai jamais mis plus de 350€ dans une cg, mais si je gagnais 5000€ par mois je n'aurais aucun problème à mettre 800€ dedans.

 

Edit :

 
lulu1980 a écrit :

Et le pire c'est que si je rachète une seconde 290 j'exploserai ta 980ti pour 550€....


Le CF ou le SLI ne donne pas les même résultat que le mono gpu. Je préfère m'acheter une bonne carte monogpu qu'un sli de qui donnera de bonne perf dans les jeux optimisé mais qui dépendra trop des drivers...
Et ce n'est pas "ma 980ti", je n'ai pas les moyens de m'acheter une telle carte... et je ne suis pas actionnaire nvidia.

Message cité 1 fois
Message édité par Keser le 27-06-2015 à 16:13:59
n°9538081
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 16:08:14  profilanswer
6Votes positifs
 

Keser a écrit :

...une guéguerre entre deux entreprises qui ont pour seul but de faire un max de profit...


AMD innove GDDRx, HBM, ... nVidia attend qu'AMD ait innové.
AMD offre le FreeSync... nVidia fait payer son G-Sync.
AMD a toujours offert le CF gratuitement... nVidia a obligé Intel à mettre une puce sur ses cartes mère pour offrir le SLI.
AMD a créé Mantle, ce qui a obligé Microsoft à se sortir les doigts du cul. nVidia a créé GameWorks... pour nuire à AMD.
 
AMD a toujours été plus généreux envers ses clients que le caméléon.

n°9538114
Yeagermach​42
Posté le 27-06-2015 à 16:48:14  profilanswer
1Votes positifs
 

Wirmish a écrit :


AMD innove GDDRx, HBM, ... nVidia attend qu'AMD ait innové.
AMD offre le FreeSync... nVidia fait payer son G-Sync.
AMD a toujours offert le CF gratuitement... nVidia a obligé Intel à mettre une puce sur ses cartes mère pour offrir le SLI.
AMD a créé Mantle, ce qui a obligé Microsoft à se sortir les doigts du cul. nVidia a créé GameWorks... pour nuire à AMD.
 
AMD a toujours été plus généreux envers ses clients que le caméléon.


C'est marrant mais on pourrait dire :
Nvidia innove avec le Gsync, AMD fait une pale copie avec FreeSync
 
Mais tu as pas choisi cette version qui pour l'instant correspond plus aux faits.
 
Et ce que tu reproches a Gameworks dans ton précédent post, tu considères que c'est une innovation pour AMD (parce que Mantle c'est bien plus le rajout d'une nouvelle couche dans le process que gameworks).
 
AMD innove sur la HBM mais oublie de palier a un gros défaut de ces cartes la tessalisation.
 
Donc bon AMD le messie vs Nvidia le diable, c'est que dans ton esprit de fanboy AMD.

n°9538118
Gigathlon
Quad-neurones natif
Posté le 27-06-2015 à 16:56:02  profilanswer
1Votes positifs
 

Yeagermach42 a écrit :

C'est marrant mais on pourrait dire :
Nvidia innove avec le Gsync, AMD fait une pale copie avec FreeSync

 

Mais tu as pas choisi cette version qui pour l'instant correspond plus aux faits.


Les faits, c'est que le VESA a standardisé le VFR (qui existait déjà avant) en 2009, nVidia a fait un coup de comm en prétendant innover en 2013 alors qu'ils ont juste eu la bonne idée de considérer le temps plutôt que la fréquence pour améliorer le profil de transmission dans le cas des jeux, AMD a répliqué quasi instantanément, le VESA a normalisé la proposition et nVidia n'a jamais fait valoir les brevets sur lesquels G-Sync reposait, prouvant l'escroquerie de cette "innovation".


Message édité par Gigathlon le 27-06-2015 à 16:56:49
n°9538124
gils04
le soleil du sud !
Posté le 27-06-2015 à 17:07:35  profilanswer
1Votes positifs
 

Keser a écrit :


Faudrait que tu consulte un médecin, si de simple chiffre te font cet effet...  :D  
 
Tous le monde n'as pas le même salaire, j'ai jamais mis plus de 350€ dans une cg, mais si je gagnais 5000€ par mois je n'aurais aucun problème à mettre 800€ dedans.
 
Edit :
 


 

Keser a écrit :


Le CF ou le SLI ne donne pas les même résultat que le mono gpu. Je préfère m'acheter une bonne carte monogpu qu'un sli de qui donnera de bonne perf dans les jeux optimisé mais qui dépendra trop des drivers...
Et ce n'est pas "ma 980ti", je n'ai pas les moyens de m'acheter une telle carte... et je ne suis pas actionnaire nvidia.


 
euh ? mais sur 80 % des jeux le CF ou SLi castagnent  n'importe quelle mono GPU si puissant qui soit ;) une CG à 830 € qui se fait démolir par un sli à 700 ou CF à 600 € n'a aucun intérêt et que même ce mono GPU tout puissant n'est même pas capable de faire tourner en 4k correctement .   :lol:  :lol:  :lol:  

n°9538128
gils04
le soleil du sud !
Posté le 27-06-2015 à 17:11:09  profilanswer
2Votes positifs
 

Yeagermach42 a écrit :


C'est marrant mais on pourrait dire :
Nvidia innove avec le Gsync, AMD fait une pale copie avec FreeSync
 
Mais tu as pas choisi cette version qui pour l'instant correspond plus aux faits.
 
Et ce que tu reproches a Gameworks dans ton précédent post, tu considères que c'est une innovation pour AMD (parce que Mantle c'est bien plus le rajout d'une nouvelle couche dans le process que gameworks).
 
AMD innove sur la HBM mais oublie de palier a un gros défaut de ces cartes la tessalisation.
 
Donc bon AMD le messie vs Nvidia le diable, c'est que dans ton esprit de fanboy AMD.


 
clairement pourriture !! et encore tout n'est pas cité dans ce qu'AMD à réaliser tout au long sa carrière , AMD à tout le temps innové ;)  

n°9538140
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 17:25:22  profilanswer
4Votes positifs
 

Yeagermach42 a écrit :

C'est marrant mais on pourrait dire :
Nvidia innove avec le Gsync, AMD fait une pale copie avec FreeSync
 
Mais tu as pas choisi cette version qui pour l'instant correspond plus aux faits.


Gigathlon a bien répondu.
nVidia n'a fait qu'ajouter du hardware coûteux à un standard déjà en place.
 

Yeagermach42 a écrit :

Et ce que tu reproches a Gameworks dans ton précédent post, tu considères que c'est une innovation pour AMD (parce que Mantle c'est bien plus le rajout d'une nouvelle couche dans le process que gameworks).


GameWorks ajoute une couche: Jeu -> Moteur3D -> GameWorks -> API -> Drivers -> Hardware
Mantle remplace l'API. Y'a aucune couche qui s'ajoute.
 

Yeagermach42 a écrit :

AMD innove sur la HBM mais oublie de palier a un gros défaut de ces cartes la tessalisation.


AMD a bien implémenté la tesselation. Il a fait en sorte que son hardware supporte des scènes formées de triangles ayant la taille de 6 pixels, ce qui est parfaitement raisonnable.
 
nVidia a choisi de remplir une scène de triangles ayant la taille d'un seul pixel. Ce qui est totalement ridicule et improductif. Mais comme leur archi a été créée après celle d'AMD, nVidia a conçu leur archi de façon à écraser AMD. Évidemment, pour que ça fonctionne il fallait que le caméléon paye les développeurs pour qu'ils utilisent la tesselation à outrance... ce qui fut fait grâce aux dons généreux de nVidia. Sans cet argent, jamais un développeurs n'aurait oser utiliser des "triangles" d'un seul pixel.
 
http://www.extremetech.com/wp-content/uploads/2013/12/BatmanAO-Ground-640x360.jpg
http://www.extremetech.com/wp-content/uploads/2013/12/BenchmarkWireframe-Ground-640x360.jpg <-- Regarde les jolis triangles... heu pixels.
 

Yeagermach42 a écrit :

Donc bon AMD le messie vs Nvidia le diable, c'est que dans ton esprit de fanboy AMD.


Non, c'est la réalité.
 
Mais je dirais plutôt: AMD le bon, Intel la brute, et nVidia le truant.

Message cité 1 fois
Message édité par Wirmish le 27-06-2015 à 17:32:02
n°9538158
Invite_Sur​prise
Racaille de Shanghaï
Posté le 27-06-2015 à 17:52:48  profilanswer
3Votes positifs
 

Ça y est, les chialeuses Amayday re-débarquent  [:roxelay]

n°9538164
gils04
le soleil du sud !
Posté le 27-06-2015 à 17:58:55  profilanswer
2Votes positifs
 

Wirmish a écrit :


Gigathlon a bien répondu.
nVidia n'a fait qu'ajouter du hardware coûteux à un standard déjà en place.
 


 

Wirmish a écrit :


GameWorks ajoute une couche: Jeu -> Moteur3D -> GameWorks -> API -> Drivers -> Hardware
Mantle remplace l'API. Y'a aucune couche qui s'ajoute.
 


 

Wirmish a écrit :


AMD a bien implémenté la tesselation. Il a fait en sorte que son hardware supporte des scènes formées de triangles ayant la taille de 6 pixels, ce qui est parfaitement raisonnable.
 
nVidia a choisi de remplir une scène de triangles ayant la taille d'un seul pixel. Ce qui est totalement ridicule et improductif. Mais comme leur archi a été créée après celle d'AMD, nVidia a conçu leur archi de façon à écraser AMD. Évidemment, pour que ça fonctionne il fallait que le caméléon paye les développeurs pour qu'ils utilisent la tesselation à outrance... ce qui fut fait grâce aux dons généreux de nVidia. Sans cet argent, jamais un développeurs n'aurait oser utiliser des "triangles" d'un seul pixel.
 
http://www.extremetech.com/wp-cont [...] 40x360.jpg
http://www.extremetech.com/wp-cont [...] 40x360.jpg <-- Regarde les jolis triangles... heu pixels.
 


 

Wirmish a écrit :


Non, c'est la réalité.
 
Mais je dirais plutôt: AMD le bon, Intel la brute, et nVidia le truant.


 
ça me plais bien  :D mais Intel a beaucoup innové aussi , donc bonne brute pour Intel :) , SB fut la révolution et la gravure 3D n'est pas mal non plus :D

n°9538176
loustic
Posté le 27-06-2015 à 18:08:02  profilanswer
0Votes positifs
 

lulu1980 a écrit :


Bah alors 700boules c'est rien pour toi le bosseur.

Non mais si j'en suis arrivé la ce n'est pas en achetant un produit trop cher pour ce qu'il est. :D

n°9538177
xvince1
Ma question préférée
Posté le 27-06-2015 à 18:08:20  profilanswer
5Votes positifs
 

C'est assez lourdingue ces petites relances pour remettre le débat au niveau collégien : ceux qui critiquent nvidia sont des fanboy d'AMD jaloux...

 

AMD n'est pas une ONG caritative, par contre, comme 99% des acteurs de la plateforme PC, elle a toujours joué l'ouverture pour éviter justement la plaie des monopoles et la stagnation du marché. Par comparaison, Nvidia qui a pourtant bien profité de la standardisation commune de la plateforme a ses débuts, s'amuse à faire comme toutes les salopes qui commencent a avoir un peu de pouvoir, c-a-d en abuser pour flinguer la concurrence.

 

Mais si on y réfléchit bien c'est assez drôle, parce qu'au final, moi ça m'irait bien d'avoir un monopole Nvidia: les développeurs seraient les bons toutous à nvidia et obligés de s'arracher le derche à optimiser le code pour compenser la pauvre montée en puissance du hard.

 

D'un certain point de vue, le monopole d'Intel m'a permis de garder un bloomfield quasiment 6 ans, soit plus que mon Amiga à l'époque. En gros j'ai pu claquer du fric dans autre chose que ces merdes technologiques...  :love:


Message édité par xvince1 le 27-06-2015 à 18:09:46

---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°9538180
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 18:11:52  profilanswer
3Votes positifs
 

C'est une façon de voir les choses...

n°9538208
Awaer
Posté le 27-06-2015 à 18:48:48  profilanswer
0Votes positifs
 

Est-ce qu'un monopole en hardware c'est viable pour une entreprise comme intel ? S'il ne reste plus qu'eux et qu'ils continuent de nous pondre +10% par an, ça ne va pas inciter les gens à renouveler leur matos ???  
 
Avec une bonne concurrence, on est poussé à changer ce CPU tous les 2/3 ans max, non ?
 
 :heink:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15

Aller à :
Ajouter une réponse
 

Sujets relatifs
sapphire r9 380 nitro sous alimenté?question GPU
[HFR] Focus : MSI Radeon R9 390X Gaming 8 Go en testOptimisation AMD sapphire radeon Hd 7950 3gb OC with boost Batman AK
[HFR] Actu : AMD Catalyst 15.6 Beta pour Batman AK 
Plus de sujets relatifs à : [HFR] Dossier : AMD Radeon R9 Fury X : le GPU Fiji et sa mémoire HBM en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR