Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1871 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6
Auteur Sujet :

[HFR] Actu : Marché GPU : Nvidia 82%, AMD 18%

n°9588292
Xav03
Posté le 20-08-2015 à 20:19:18  profilanswer
1Votes positifs
 

Reprise du message précédent :

rexlewarrior a écrit :


Nvidia fait du renommage hein et pas qu'un peu surtout sur le Mobile.


 
là dessus on est d'accord. Les gpu mobiles, c'est la jungle pour s'y retrouver de toute façon. C'est bien pour ça que depuis des années le marketing insiste pour que les gens achètent des laptops plus que des desktop même si le portable reste collé au bureau sans bouger.

mood
Publicité
Posté le 20-08-2015 à 20:19:18  profilanswer
 

n°9588297
Xillendo
Posté le 20-08-2015 à 20:27:56  profilanswer
0Votes positifs
 

Tellement pour les GPU mobiles, je regardais ça pour conseiller un pote, et je me suis rendu compte que sur la même désignation, GTX 860M, on pouvait avoir un GPU Maxwell ou un GPU Kepler, et bien sur c'est impossible de savoir lequel c'est sur la fiche du PC.

n°9588311
Xav03
Posté le 20-08-2015 à 20:41:43  profilanswer
0Votes positifs
 

Xillendo a écrit :

Tellement pour les GPU mobiles, je regardais ça pour conseiller un pote, et je me suis rendu compte que sur la même désignation, GTX 860M, on pouvait avoir un GPU Maxwell ou un GPU Kepler, et bien sur c'est impossible de savoir lequel c'est sur la fiche du PC.

 

[:nucl3arfl0:4]  [:ruf86]


Message édité par Xav03 le 20-08-2015 à 20:42:33
n°9588404
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-08-2015 à 22:26:06  profilanswer
11Votes positifs
 

Imaginons qu'AMD meurt dans pas longtemps... ce qui risque bien d'être le cas.
 
 
nVidia va tout de suite imposer son G-Sync à 150€ et on va dire adieu au FreeSync.
[:atom1ck]
 
nVidia va ensuite imposer sa technologie 3D Vision à l'ensemble des gamers... et vu qu'ils sont seuls, le coût va être dans les 3 chiffres.
[:client du commensal]
 
nVidia va poursuivre en imposant son SLI aux fabricants de cartes mère, contre une "taxe" de 50€.
[:cisco1:1]
 
nVidia va en mettre plus dans sa poche en demandant une ristourne de 1€ pour chaque jeux utilisant PhysX.
[:dovakor loves you:2]
 
nVidia ne va pas s'arrêter dans sa quête d'argent et va créer son propre casque virtuel. Ce sera le seul casque du marché à être compatible avec les GeForce... qui seront les seules cartes du marché.
[:yakari35]
 
nVidia, étant seul au monde, va pouvoir demander aux développeurs de jeu de payer pour utiliser GameWorks. Celui-ci est présentement gratuit car il sert d'arme contre AMD, mais si AMD disparait du paysage, la gratuité n'a plus raison d'être. Au final, les développeurs devront refiler la facture aux con-sommateurs.
[:tee steewood:5]
 
nVidia va continuer dans ce sens au cours des années suivants. Empochant de plus en plus de fric. Augmentant le prix de vente de ses cartes à chaque révisions/générations. Il va ralentir la cadence, histoire de récolter les fruits de leur du labeur sur une plus longue période. Ce qui va leur permettre de diminuer le budget de R&D, et faire encore plus de profit.
[:leupha:1]
 
Mais pourquoi se priver ? [:docteur g:5]
 
 
nVidia demande plus de fric pour ses cartes que son concurrent, et les acheteurs font la file.
[:loeki:5]
 
nVidia fait 3 fois plus de profit par carte qu'AMD, et les clients se bousculent aux portes du caméléon.
[:vilvatox]
 
nVidia impose un tas de trucs propriétaire, à gros prix, et les gamers rampent aux pieds du Huang.
[:tartineauxcrevettes:5]
 
 
Les gens n'ont que ce qu'ils méritent. [:lothiek:5]

Message cité 1 fois
Message édité par Wirmish le 20-08-2015 à 22:43:42
n°9588412
jumbaii
Posté le 20-08-2015 à 22:32:57  profilanswer
2Votes positifs
 

Wirmish a écrit :

Imaginons qu'AMD meurt dans pas longtemps...
 
nVidia va tout de suite imposer son G-Sync à 150€ et on va dire adieu au FreeSync.
 
nVidia va ensuite imposer sa technologie 3D Vision à l'ensemble des gamers... et vu qu'ils sont seuls, le coût va être dans les 3 chiffres.
 
nVidia va poursuivre en imposant son SLI aux fabricants de cartes mère, contre une "taxe" de 50€.
 
nVidia va en mettre plus dans sa poche en demandant une ristourne de 1€ pour chaque jeux utilisant PhysX.
 
nVidia ne va pas s'arrêter sa quête d'argent et va créer son propre casque virtuel... qui sera le seul casque du marché à être compatible avec les GeForce... qui seront les seules cartes du marché.
 
nVidia, étant seul au monde, va pouvoir demander aux développeurs de jeu de payer pour utiliser GameWorks. Celui-ci est présentement gratuit car il sert d'arme contre AMD, mais si AMD disparait du paysage, la gratuité n'a plus raison d'être. Au final, les développeurs devront refiler la facture aux con-sommateurs.
 
nVidia va continuer dans ce sens au cours des années suivants. Empochant de plus en plus de fric. Augmentant le prix de vente de ses cartes à chaque révisions/générations. Il va ralentir la cadence, histoire de récolter les fruits de leur du labeur sur une plus longue période. Ce qui va leur permettre de diminuer le budget de R&D, et faire encore plus de profit.
 
Mais pourquoi se priver?
 
nVidia demande plus de fric pour ses cartes, et les acheteurs font la file.
 
nVidia fait 3 fois plus de profit par carte qu'AMD, et les clients se bousculent aux portes du caméléon.
 
nVidia impose un tas de trucs propriétaire, à gros prix, et les gamers rampent aux pieds du Huang.
 
Pourquoi se priver, en effet?
 
Le gens n'ont que ce qu'ils méritent.


 
Un monde sans concurrence n'est pas possible, soyons sérieux une minute...


---------------
GT : jumbaii7
n°9588417
testo06
B.net : KahMi#21448
Posté le 20-08-2015 à 22:38:24  profilanswer
0Votes positifs
 

Merci Wirmish, toujours une bonne tranche de rigolade de te lire [:ezekiel-:4]  

n°9588420
Xav03
Posté le 20-08-2015 à 22:39:56  profilanswer
0Votes positifs
 

jumbaii a écrit :


 
Un monde sans concurrence n'est pas possible, soyons sérieux une minute...


 
pourtant un monde sans capitalisme est souhaitable  :sol:  
 
Effectivement, les régulateurs européens et américains noteront la constitution d'un monopole et interviendront. Ils l'ont déjà fait avec Intel et AMD pour abus de position dominante. Pour rappel -> http://www.macg.co/ailleurs/2014/0 [...] rope-82605

n°9588428
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-08-2015 à 22:48:46  profilanswer
1Votes positifs
 

testo06 a écrit :

Merci Wirmish, toujours une bonne tranche de rigolade de te lire [:ezekiel-:4]  


En fait c'est même pas drôle.
C'est le futur que Huang nous réserve.
 
Et pendant ce temps, Lisa T. Su, la CEO d'AMD, vient de recevoir un salaire plus avantages équivalant à 6 millions de dollars.
 
Monde de merde.

n°9588435
Invite_Sur​prise
Racaille de Shanghaï
Posté le 20-08-2015 à 22:53:25  profilanswer
0Votes positifs
 

Et il nous rajoute un spam de smileys pour se faire plez en + [:fogarino:5]

n°9588451
Xillendo
Posté le 20-08-2015 à 23:07:22  profilanswer
1Votes positifs
 

Dans l'idéal faudrait qu'une grosse boite avec beaucoup de moyens achète la division GPU d'AMD (Microsoft ?).
Avec ces nouveaux moyen tu relance une grosse R&D.
 
Ou alors faut qu'Intel se lance dans le discret GPU. Avec des meilleurs drivers évidemment, parce que c'est pas top en ce moment.

mood
Publicité
Posté le 20-08-2015 à 23:07:22  profilanswer
 

n°9588456
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 20-08-2015 à 23:15:55  profilanswer
0Votes positifs
 

Xillendo a écrit :

Dans l'idéal faudrait qu'une grosse boite avec beaucoup de moyens achète la division GPU d'AMD (Microsoft ?).
Avec ces nouveaux moyen tu relance une grosse R&D.


Intel pourrait très bien acheter la division GPU d'AMD.
Ils ont déjà 75% du marché grâce à leurs APU.
Ça ne changerait pas grand chose.
 
C'est soit [Intel+Radeon] vs [nVidia], soit [nVidia tout seul].
 
À moins qu'AMD parviennent à concevoir une Radeon Artic Islands supérieure à nVidia Volta, tant en performance, qu'en consommation, et qu'en qualité des drivers. Mais vu le niveau du budget de R&D je ne vois pas comment AMD pourrait y parvenir.

n°9588465
Xillendo
Posté le 20-08-2015 à 23:28:22  profilanswer
1Votes positifs
 

C'est pas impossible, en tout cas en DX12 il y a pas de raison qu'AMD n'ait pas d'aussi bon drivers que Nvidia. D'ailleurs en ce moment ils sont même meilleurs.
Après pour DX11, c'est sans espoirs je pense.

n°9588494
mazingerz
Posté le 21-08-2015 à 00:18:57  profilanswer
1Votes positifs
 

en attendant AMD a 100% du marché console
 
face au nombre de carte graphique pour geek franchement ...
 
sinon le plus gros vendeur de GPU c'est peut être PowerVR ... et personne n'en parle
mais en quantité de produit powerVR vendu par ans je pense qu'ils dominent le débat en fait

n°9588550
Xillendo
Posté le 21-08-2015 à 01:46:25  profilanswer
1Votes positifs
 

Hmmm, Qualcomm avec ses Adreno doit avoir de belles parts lui aussi.

n°9588645
Carlitosau​re
Posté le 21-08-2015 à 09:18:29  profilanswer
0Votes positifs
 

Admettons qu'ils vendent beaucoup de GPU grâce aux consoles Sony et Microsoft. Sur le prix de la console ils ne gagnent pas grand chose. Si AMD veut de l'argent, il faut aller chercher la marge sur du haut de gamme. L'exemple même est Apple, 50% de la valeur du marché avec des PDM à 15% sur le mobile.

n°9588669
Xav03
Posté le 21-08-2015 à 09:43:52  profilanswer
0Votes positifs
 

Carlitosaure a écrit :

L'exemple même est Apple, 50% de la valeur du marché avec des PDM à 15% sur le mobile.

 

et.encore chez appel c'est encore du untel qui fait.tourner leur pc machine

n°9588671
loustic
Posté le 21-08-2015 à 09:44:17  profilanswer
0Votes positifs
 

Bof en parlant de mobile, on peut pas dire que faire du haut de gamme marche bien pour Samsung. AMD faire du haut de gamme? c'est une plaisanterie, renault aussi pendant qu'on y est.
 
En plus avec les guignols aux dents longues qui dirigent AMD en ce moment...

n°9588735
FCBarca74
Aymen
Posté le 21-08-2015 à 10:39:18  profilanswer
0Votes positifs
 

Xillendo a écrit :

C'est pas impossible, en tout cas en DX12 il y a pas de raison qu'AMD n'ait pas d'aussi bon drivers que Nvidia. D'ailleurs en ce moment ils sont même meilleurs.
Après pour DX11, c'est sans espoirs je pense.


Je pense qu'il joue la carte de DX12, si les jeux qui en tirent profit arriveront rapidement, il y a moyen qu'AMD survive :o
Un lien d'un article qui explique en quoi l'architecture Maxwell est pas si bonne pour DX12 et qu'AMD arrive avec de bons résultats (encore heureux vu que c'est les précurseurs de cette hype low level graphics API avec Mantle)
Explication d'un "insider" avec les récents résultats de benchmark sur le prochain jeu Ashes Of The Singularity
http://www.overclock.net/t/1569897 [...] t_24321843

n°9588743
boultan
Posté le 21-08-2015 à 10:44:43  profilanswer
0Votes positifs
 

Carlitosaure a écrit :

Admettons qu'ils vendent beaucoup de GPU grâce aux consoles Sony et Microsoft. Sur le prix de la console ils ne gagnent pas grand chose. Si AMD veut de l'argent, il faut aller chercher la marge sur du haut de gamme.


 
C'est déjà ce qu'ils font, en ayant recentré toute leur R&D sur l'embarqué (ie pas le PC). Quand tu discutes avec des gens d'AMD aujourd'hui, ils te parlent de leur GPU vendus à Airbus ou à Google pour faire du calcul et des processeurs pour consoles, pas tellement du monde PC, où ils font de la figuration depuis mille ans pour qu'Intel ne soit pas en monopole, ce dernier leur laissant juste assez de parts de marché pour survivre péniblement. Mais avec ses deux ou trois générations de gravure de retard, il est juste impossible pour AMD d'être compétitif vis-à-vis d'Intel.
La force d'AMD aujourd'hui, c'est qu'ils sont les seuls à maitriser les trois architectures GPU, x86 et ARM. Leur faiblesse, c'est qu'ils ne savent pas trop comment capitaliser là-dessus, et qu'ils n'ont pas les moyens financiers de faire du développement de pointe sur tous les fronts. Le processeur PC, c'est plus un marché d'avenir, même Intel le sait ; le GPU PC non plus, à mon avis, maintenant que la foule s'éclate davantage en jouant à Angry Birds sur son téléphone ; le processeur basse consommation pour smartphone, tablette ou notebook, ils ont beaucoup trop de retard sur les meilleurs, c'est pas leur créneau ; restent les processeurs pour consoles, histoire d'alimenter les lignes de production, et certains marchés de niche dans les serveurs ou l'embarqué. En tout cas, il est vraiment temps qu'ils arrêtent de sortir des processeurs fourre-tout et d'en chercher des applications après coup. Leur avenir, c'est peut-être de se concentrer juste sur la conception de circuits spécifiques (à un client ou à une application, s'entend) en revendant leur activité "processeurs x86 pour PC" et "processeurs graphiques pour PC" à des asiatiques. Virer les usines restantes, réduire la voilure, ne garder que les équipes de R&D. Après tout, quand Mediatek a racheté les circuits pour téléphones d'Analog Devices, ils ont réussi à en faire quelque chose.
 
 

n°9588781
vladobar
J'aime pas quand ça rame…
Posté le 21-08-2015 à 11:21:50  profilanswer
3Votes positifs
 

Ca fait peur cette courbe…
 
Sinon la justification de cela, c’est a 80% l’image de marque pour moi. C’est vrai qu’en général sur ce forum que l’on soit d’un bord ou de l’autre, on argumente toujours ses choix (avec une pointe de mauvaise foi :D), grand classique : conso et bruit pour NVidia, rapport prix/perf pour AMD.
Mais dans la vie vrai, les gens ne suivent pas le hardware en détail, et ils achètent principalement NVidia car ça a une meilleure image, j’ai vu un copain de mon petit frère lui soutenir que sa 750Ti était mieux pour jouer qu’une 380 car « tout le monde sait que pour le jeu, NVidia c’est le mieux », et ce mec a 18-19 ans et joue pas mal. Dans la même veine, un des vendeurs de la FNAC de mon coin ne conseille que des PC avec des carte NVidia quand les gens cherchent des PC gaming sans meme regarder ceux avec les carte AMD. Et il y a un vendeur au Saturn qui fait la même chose.
 
La conso ? Faux argument, la pluparts des gens qui achète un PC sont incapable de dire combien un PC consomme et encore moins un carte graphique individuellement. Les perf ? Pareil, peu de gens sont capable de donner les cartes concourantes NVidia/AMD.


Message édité par vladobar le 21-08-2015 à 11:22:39
n°9588784
shaq46
Posté le 21-08-2015 à 11:25:42  profilanswer
0Votes positifs
 

La partie software qui est aussi à l'avantage de Nvidia. Le fait qu'il y ait globalement plus de jeux opti pour les cartes nvidia. Moins de bruit/chauffe. Une meilleure robustesse. Je fais des généralités mais globalement c'est ça.
Le prix est en faveur de AMD ok mais parfois sur le milieu de gamme ça se joue à 20-30 euros près. Moi pour 30e j'hésite pas une seconde.

Message cité 2 fois
Message édité par shaq46 le 21-08-2015 à 11:27:36
n°9588793
vladobar
J'aime pas quand ça rame…
Posté le 21-08-2015 à 11:39:54  profilanswer
0Votes positifs
 

shaq46 a écrit :

La partie software qui est aussi à l'avantage de Nvidia. Le fait qu'il y ait globalement plus de jeux opti pour les cartes nvidia. Moins de bruit/chauffe. Une meilleure robustesse. Je fais des généralités mais globalement c'est ça.
Le prix est en faveur de AMD ok mais parfois sur le milieu de gamme ça se joue à 20-30 euros près. Moi pour 30e j'hésite pas une seconde.


Je chipote mais la robustesse d’un GPU est plus lié au fabriquant qu’a l’archi :D. D’ailleurs (je touche du bois) mais la seule carte qui m’a lâché dans ma config principale c’était une NVidia (une 5900, ça commence à remonter :p ). Sinon, sans vouloir discuter les arguments que tu avances, je maintien que pour la plupart des gens ça n’entre absolument pas en compte quand il achète une carte graphique.  
 
Et 20€ sur un GPU a 200€ c'est 10% du prix, c'est pas négligeable je trouve.

n°9588818
boultan
Posté le 21-08-2015 à 11:58:47  profilanswer
0Votes positifs
 

vladobar a écrit :


Je chipote mais la robustesse d’un GPU est plus lié au fabriquant qu’a l’archi :D. D’ailleurs (je touche du bois) mais la seule carte qui m’a lâché dans ma config principale c’était une NVidia (une 5900, ça commence à remonter :p ). Sinon, sans vouloir discuter les arguments que tu avances, je maintien que pour la plupart des gens ça n’entre absolument pas en compte quand il achète une carte graphique.  
 
Et 20€ sur un GPU a 200€ c'est 10% du prix, c'est pas négligeable je trouve.


 
De toute façon, les ventes au détail de cartes graphiques pour joueurs, ça doit représenter que dalle sur les volumes de vente d'un AMD ou d'un nVidia par rapport aux contrats passés avec les grandes marques de PC. L'immense majorité de leurs ventes, ce sont des cartes "M" intégrées dans des ordinateurs portables et d'autres cartes bas de gamme installées dans des ordis de bureau, le tout négocié directement avec Dell, Acer, Asus, Lenovo ou HP. Et si AMD se gaufre à ce niveau-là, ça peut venir de pleins de raisons différentes qui n'ont, sans doute, que peu à voir avec le nombre de shaders triphasés à double piston inversé de la puce.

n°9588822
akkro79
Posté le 21-08-2015 à 12:03:02  profilanswer
1Votes positifs
 

shaq46 a écrit :

La partie software qui est aussi à l'avantage de Nvidia. Le fait qu'il y ait globalement plus de jeux opti pour les cartes nvidia. Moins de bruit/chauffe. Une meilleure robustesse. Je fais des généralités mais globalement c'est ça.
Le prix est en faveur de AMD ok mais parfois sur le milieu de gamme ça se joue à 20-30 euros près. Moi pour 30e j'hésite pas une seconde.


 
Les "optimisations" des jeux pour une marque c'est plus du marketing qu'autre chose, beaucoup de jeux soi disant optimisés nvidia tournent mieux sur les cartes graphiques amd équivalente  et inversement. Par exemple BF4 optimisé AMD tournera mieux avec une 970 qu'avec une 290X par contre sur FC4 optimisé Nvidia tournera mieux avec une 290X qu'avec une 970
 
Pour la robustesse et le rapport bruit/chauffe ça dépend surtout du constructeur. Une R9 Fury est une carte qui consomme beaucoup donc qui dégage beaucoup de chaleur cependant le modèle Tri-X de chez Sapphire est le modèle le plus silencieux tout en faisant parti des cartes les mieux refroidies sur le test d'HFR :
http://www.hardware.fr/articles/93 [...] tures.html


Message édité par akkro79 le 21-08-2015 à 16:48:28
n°9588832
shaq46
Posté le 21-08-2015 à 12:14:32  profilanswer
0Votes positifs
 

Ben écoute j'en sais rien pour tous les nouvelles cartes que j'ai choisi à chaque fois sur le test d'hfr la carte AMD chauffait/consommait plus et avait une sonorité plus importante, et la différence de prix devait était dans les 20-30 euros sur une carte à 250-300 euros. Elle avait aussi des perfs légèrement supérieures.
Après il y a l'expérience subjective. Et de ce côté là pour ma part je mets l'avantage à Nvidia.

n°9588838
saruhada
Legendary X58
Posté le 21-08-2015 à 12:23:44  profilanswer
0Votes positifs
 

Le truc c'est déjà qu'il faut savoir de quoi on parle.
Soit on compare un modèle de ref NV face a un modèle de ref AMD, soit on compare les modèle custom entre eux.
 
Mais forcément si on compare un modèle de ref face a un modèle custom, ba sa n'a rien a voir...
 
Et AMD a fait des efforts apparemment sur les Fury(X), d’après le test HFR elles sont silencieuse en charge (le modèle de ref je parle).
 
http://www.hardware.fr/getgraphimg.php?id=208&n=1


Message édité par saruhada le 21-08-2015 à 12:24:19

---------------
Achats & Ventes
n°9588843
shaq46
Posté le 21-08-2015 à 12:32:29  profilanswer
0Votes positifs
 

Les fury sont bien les cartes avoisinant les 650-700 euros ?

n°9588999
Nono0000
Posté le 21-08-2015 à 15:18:54  profilanswer
1Votes positifs
 

FCBarca74 a écrit :

Xillendo a écrit :

C'est pas impossible, en tout cas en DX12 il y a pas de raison qu'AMD n'ait pas d'aussi bon drivers que Nvidia. D'ailleurs en ce moment ils sont même meilleurs.
 
Après pour DX11, c'est sans espoirs je pense.


Je pense qu'il joue la carte de DX12, si les jeux qui en tirent profit arriveront rapidement, il y a moyen qu'AMD survive :o
Un lien d'un article qui explique en quoi l'architecture Maxwell est pas si bonne pour DX12 et qu'AMD arrive avec de bons résultats (encore heureux vu que c'est les précurseurs de cette hype low level graphics API avec Mantle)
Explication d'un "insider" avec les récents résultats de benchmark sur le prochain jeu Ashes Of The Singularity
http://www.overclock.net/t/1569897 [...] t_24321843


 
Personnellement, je fais bien plus confiance en l'impartialité de l'équipe de HW.fr pour ce genre de test/explication.
Cette personne mentionne clairement qu'il ne faut pas attendre d'optimisation des drivers Nvidia car pour DX12 les accès sont bas niveau et que donc les cartes montrent leur plein potentiel. Soit, mais il oublie de dire que maintenant ce travail incombe aux développeurs du jeu et que, si une optimisation doit être faite, c'est bien par eux.  Ashes of the singularity a bien été développé pour Mantle dans un premier temps puis migré vers DX12. Puisqu'il s'agit d'une alpha, je n'ai aucun doute sur le type d'optimisations faites…...


Message édité par Nono0000 le 21-08-2015 à 15:22:29
n°9589068
Xillendo
Posté le 21-08-2015 à 16:39:23  profilanswer
0Votes positifs
 

Il explique aussi que l'architecture GCN semble plus adaptée à ce genre d'API, grâce aux ACE qui rendent ces GPU très adaptées aux taches parallèles, ce que tu aurais pu lire aussi sur hw.fr dans leur focus sur les optimisations gpu en dx12.

n°9589112
vladobar
J'aime pas quand ça rame…
Posté le 21-08-2015 à 17:30:27  profilanswer
4Votes positifs
 

drey19 a écrit :


Si ca n'évolue plus, aucune raison pour les gens de changer... donc d'acheter. Ce qu'aucune boite ne souhaite.


Ah oui ? Et si les nouveaux pilotes ne sont disponibles que pour la nouvelle version de GPU, tu fais comment ? Et bien même si ces GPU n’apportent rien de plus en perf, tu finiras par changer pour pouvoir jouer.
C’est un peu la même chose avec DX12, on te laisse pas le choix : tu veux en profiter ? Et bien tu passes sur W10

Message cité 2 fois
Message édité par vladobar le 21-08-2015 à 17:34:53
n°9589124
Xav03
Posté le 21-08-2015 à 17:51:47  profilanswer
0Votes positifs
 

vladobar a écrit :


Ah oui ? Et si les nouveaux pilotes ne sont disponibles que pour la nouvelle version de GPU, tu fais comment ? Et bien même si ces GPU n’apportent rien de plus en perf, tu finiras par changer pour pouvoir jouer.
C’est un peu la même chose avec DX12, on te laisse pas le choix : tu veux en profiter ? Et bien tu passes sur W10

 

c'est clair. les studios ou les éditeurs de jeu (pardonnez ma mémoire je ne sais plus trop) ont clairement dit que pour que DX12 soit intéressant pour eux, il faudrait qu'il soit disponible via un service pack sur windows 7, sinon ils se feraient pas chier à coder un jeu pour 3 tondus qui tournent avec le 10 et la majorité des joueurs encore sur le 7 ou le 8. Microsoft a d'abord dit oui avant de se rendre compte qu'il n'allait pas raté une occaz de faire plus de fric en l'implementznt uniquement sur W10. D'où la solution intermédiaire pour pas que ça gueule de trop avec l'update gratuite pendant 1 an


Message édité par Xav03 le 21-08-2015 à 17:53:30
n°9589371
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-08-2015 à 23:06:11  profilanswer
0Votes positifs
 

On peut pas plaire à tout le monde...

n°9589373
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-08-2015 à 23:09:31  profilanswer
1Votes positifs
 

Xillendo a écrit :

Hmmm, Qualcomm avec ses Adreno doit avoir de belles parts lui aussi.


Ah oui... les Adreno... Nodrea... Drenoa... Redona... Radeon !
 
Un cadeau d'AMD lors de la vente, à perte, de sa division mobile.

n°9589409
gils04
le soleil du sud !
Posté le 21-08-2015 à 23:52:07  profilanswer
0Votes positifs
 

de toute manière nV c'est de la "merde" enrobé de chocolat , achète qui veut … chez moi , il n'y a que du AMD , seul toléré est Intel (sandy/ivy) le reste n'est que du pale remake .  
 
Pour revenir à nV , je voulais partir sur une 950 pas pour ses piètres performances jeu vidéo mais pour son potentiel H265 calé dans un port PCIE sans moniteur . bref , quand j'ai vu le prix du "merdier" à 180 € !!!  :heink:  et sa copine 960 aussi minable à 190 € !!  :lol:  :lol:  je suis tombé le cul par terre "aille mes hémo" si c'est pas du foutage de gueule ça ?  
 
dans tout les cas j'ai fait le stock de CG AMD au cas où AMD disparaitrait et je souhaite bon courages aux futurs gamers conditionné à la sauce verte et bleu ;)  :lol:  
 
ps : je vais certainement commander une Fury avant l'extinction massive d'AMD :(

Message cité 1 fois
Message édité par gils04 le 21-08-2015 à 23:52:48
n°9589411
wissal75
Oswat is on the way
Posté le 21-08-2015 à 23:53:45  profilanswer
0Votes positifs
 

Wirmish a écrit :


Ah oui... les Adreno... Nodrea... Drenoa... Redona... Radeon !
 
Un cadeau d'AMD lors de la vente, à perte, de sa division mobile.


 
 
tu as oublié Norade  :D

n°9589576
Zilak
I can't carry anymore !
Posté le 22-08-2015 à 10:59:14  profilanswer
0Votes positifs
 

gils04 a écrit :

de toute manière nV c'est de la "merde" enrobé de chocolat , achète qui veut … chez moi , il n'y a que du AMD , seul toléré est Intel (sandy/ivy) le reste n'est que du pale remake .  
 
Pour revenir à nV , je voulais partir sur une 950 pas pour ses piètres performances jeu vidéo mais pour son potentiel H265 calé dans un port PCIE sans moniteur . bref , quand j'ai vu le prix du "merdier" à 180 € !!!  :heink:  et sa copine 960 aussi minable à 190 € !!  :lol:  :lol:  je suis tombé le cul par terre "aille mes hémo" si c'est pas du foutage de gueule ça ?  
 
dans tout les cas j'ai fait le stock de CG AMD au cas où AMD disparaitrait et je souhaite bon courages aux futurs gamers conditionné à la sauce verte et bleu ;)  :lol:  
 
ps : je vais certainement commander une Fury avant l'extinction massive d'AMD :(


 
Ta tro rézon frair, tro dé boulé nV [:shit hahat:3]
 
Mais tu comptes acheter la Fury X à 800€ ou celle ventirad à 600€ pour finir ?

n°9589582
Black_Eagl​e
Posté le 22-08-2015 à 11:15:00  profilanswer
0Votes positifs
 

Comme y dit tu risques de trouver ça cher... Me demande même, si les cartes de Nvidia ne sont pas mieux à ce niveau de prix.

n°9589635
gils04
le soleil du sud !
Posté le 22-08-2015 à 12:24:45  profilanswer
0Votes positifs
 

Zilak a écrit :


 
 
 
Mais tu comptes acheter la Fury X à 800€ ou celle ventirad à 600€ pour finir ?


 
http://www.rueducommerce.fr/Compos [...] 0M30693812
 
http://www.materiel.net/carte-grap [...] AnA_8P8HAQ
 
http://www.pixmania.fr/carte-graph [...] qsM8P8HAQ#
 
http://www.cdiscount.com/informati [...] AhqW8P8HAQ
 
 
tu parles pour la 980 TI !!!   :lol:  :lol:  :lol: , cela dit , le prix est aléatoire (n'est pas une barrière pour moi) , je regarde toujours prix/perf (GPU/CPU confondu) et puis les jeux , je m'en tape , je veux une belle image bien fluide , avec nV s'est compliqué et de plus l'image est pourri (les couleurs sont minables) , ensuite je veux l'équilibre dans les marchés pas de monopole par 2 marques pourries qui sont portées par des moutons de Panurge .
 
je pense m'acheter une FuryX quand elle sera en dessous des 600 €  :D  
 

n°9589801
Zilak
I can't carry anymore !
Posté le 22-08-2015 à 15:33:18  profilanswer
0Votes positifs
 

La 980 Ti prise sur Matos.net en version MSI gaming et la Fury X prise sur Pixmania (site au rabais) en version locuste radeon.
Franchement fais un effort. (même si je sais que le prix sera en faveur d'AMD)

 
Citation :

je veux une belle image bien fluide , avec nV s'est compliqué et de plus l'image est pourri (les couleurs sont minables)


Change d'écran [:hansaplast]

 
Citation :

ensuite je veux l'équilibre dans les marchés pas de monopole par marques pourries qui sont portées par des moutons de Panurge


Bientôt ca va ce réaliser, AMD coule. [:guarana2:1]


Message édité par Zilak le 22-08-2015 à 15:38:39
n°9589827
gils04
le soleil du sud !
Posté le 22-08-2015 à 16:15:53  profilanswer
0Votes positifs
 


Citation :

je veux une belle image bien fluide , avec nV s'est compliqué et de plus l'image est pourri (les couleurs sont minables)


Change d'écran [:hansaplast]
 
je ne vais pas changer d'écran pour du merdouillou nV , avec ATI/AMD , l'image est magnifique .  :lol:  :lol:  

n°9590238
docdino2
Posté le 23-08-2015 à 09:11:48  profilanswer
0Votes positifs
 

Attention ces chiffres prennent uniquement en compte les "gpu dédiés" et non les APU d'AMD avec "GPU intégré" pourtant prévu spécifiquement pour des applications 3d intensives et sont au niveau des gpu dédié d'entré et de moyenne gammes. Ce n'est pas aussi catastrophique pour AMD que ce que Nvidia essais de faire croire. Étonnant que les médias ne soient en général pas assez futés pour soulever ce point.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6

Aller à :
Ajouter une réponse
 

Sujets relatifs
Quel GPU pour un i5 4690S ?[HFR] Actu : IDF: Revodrive 400 chez OCZ
[HFR] Actu : IDF: Quelques infos sur la version DIMM d'Optane[HFR] Actu : IDF: Support de la mémoire DDR3 non L sur Skylake
Config gaming +/- 500€ hors GPU[HFR] Actu : IDF: Des processeurs K pour portables
Plus de sujets relatifs à : [HFR] Actu : Marché GPU : Nvidia 82%, AMD 18%


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR