Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1867 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Résultats Nvidia, +36% pour les GeForce

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

[HFR] Actu : Résultats Nvidia, +36% pour les GeForce

n°9321909
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 07-11-2014 à 18:35:02  profilanswer
0Votes positifs
 

Nvidia vient d'annoncer ses résultats pour son troisième trimestre fiscal qui prenait fin le 26 octobre. Les ventes atteignent 1,225 milliards de $, soit 16% ...
Lire la suite ...

mood
Publicité
Posté le 07-11-2014 à 18:35:02  profilanswer
 

n°9321961
ulukai08
Posté le 07-11-2014 à 19:33:38  profilanswer
2Votes positifs
 

Ironie du sort, AMD rachète ATI pour faire une puce CPU/GPU combinant "le meilleur des deux mondes" mais c'est finalement Nvidia qui réussit le mieux dans les SoC avec le Tegra K1. D'un autre coté y a pas de hasard, Nvidia investit dans les jeux vidéo, investi dans le calcul scientifique, AMD investit dans quoi ? Ah non, ils remboursent toujours leur dette causé par le rachat d'ATI.

n°9321985
Alexko
Posté le 07-11-2014 à 20:08:39  profilanswer
7Votes positifs
 

ulukai08 a écrit :

Ironie du sort, AMD rachète ATI pour faire une puce CPU/GPU combinant "le meilleur des deux mondes" mais c'est finalement Nvidia qui réussit le mieux dans les SoC avec le Tegra K1. D'un autre coté y a pas de hasard, Nvidia investit dans les jeux vidéo, investi dans le calcul scientifique, AMD investit dans quoi ? Ah non, ils remboursent toujours leur dette causé par le rachat d'ATI.


 
Dire que NVIDIA réussit avec Tegra est quelque peu exagéré. Que je sache, la division n'a pour l'instant encaissé que des pertes.

n°9322000
Singman
The Exiled
Posté le 07-11-2014 à 20:23:41  profilanswer
2Votes positifs
 

Alexko a écrit :

Dire que NVIDIA réussit avec Tegra est quelque peu exagéré. Que je sache, la division n'a pour l'instant encaissé que des pertes.


Tu as la vue basse... Le Tegra K1 est salué comme étant la meilleure puce ARM, devant les SoC Apple. Commercialement, ça va se sentir en 2015 ou pas mal de produit vont sortir avec un K1. Google ayant bien aidé avec sa nouvelle Nexus 9, on s'aperçoit que gagner de la puissance CPU sur les SoC est moins valorisant que d'avoir un excellent GPU. Ca promet surtout une bonne baston avec tout les concepteurs de SoC ARM.

n°9322004
taronyu26
Posté le 07-11-2014 à 20:27:45  profilanswer
2Votes positifs
 

Singman a écrit :

ça va se sentir en 2015 ou pas mal de produit vont sortir avec un K1.


 
Rien n'est sorti tant que c'est pas sorti.
Si tu as une boule de cristal qui fonctionne réellement, je te suggère d'en faire don à Marc, il en fera sûrement un meilleur usage que toi.

n°9322011
Singman
The Exiled
Posté le 07-11-2014 à 20:34:38  profilanswer
3Votes positifs
 

taronyu26 a écrit :

Singman a écrit :

ça va se sentir en 2015 ou pas mal de produit vont sortir avec un K1.


Rien n'est sorti tant que c'est pas sorti.
Si tu as une boule de cristal qui fonctionne réellement, je te suggère d'en faire don à Marc, il en fera sûrement un meilleur usage que toi.


Oserais tu prétendre que la Nexus 9 est un vaporware ? Mettrais tu en doute le bilan annoncé par NVidia et les +51% des ventes Tegra ? Ne suis tu pas l'actualité "mobile" pour ignorer les tablettes déjà au stade de prototype apparues sur le net ?

n°9322014
rmartin
Posté le 07-11-2014 à 20:36:51  profilanswer
1Votes positifs
 

Faut dire que nVidia à corrigé son attitude "pigeonnesque" qu'ils se trainent depuis presque 6 ans.
La 970 et 980 sont un vraiment réussies.

n°9322032
taronyu26
Posté le 07-11-2014 à 21:00:28  profilanswer
1Votes positifs
 

drey19 a écrit :

Ça part plutôt dans le bon sens pour eux...


 
Et ça pourrait très bien mal tourner à un moment donné.
Au passage les 970 et 980 semblent avoir une jolie propension à whiner en charge.
 
Et c'est pas du troll contre Nvidia, j'ai une la 770 iChill d'Inno3D dans mon PC. C'est juste que les spéculations ne valent pas les faits.

n°9322046
Try_again_​ it's free
Posté le 07-11-2014 à 21:21:17  profilanswer
0Votes positifs
 

taronyu26 a écrit :


 
Si tu as une boule de cristal qui fonctionne réellement, je te suggère d'en faire don à Marc, il en fera sûrement un meilleur usage que toi.


J'ai comme un doute.  
 

n°9322047
blazkowicz
Posté le 07-11-2014 à 21:22:59  profilanswer
0Votes positifs
 

Alexko a écrit :

ulukai08 a écrit :

Ironie du sort, AMD rachète ATI pour faire une puce CPU/GPU combinant "le meilleur des deux mondes" mais c'est finalement Nvidia qui réussit le mieux dans les SoC avec le Tegra K1. D'un autre coté y a pas de hasard, Nvidia investit dans les jeux vidéo, investi dans le calcul scientifique, AMD investit dans quoi ? Ah non, ils remboursent toujours leur dette causé par le rachat d'ATI.


 
Dire que NVIDIA réussit avec Tegra est quelque peu exagéré. Que je sache, la division n'a pour l'instant encaissé que des pertes.

Singman a écrit :

Alexko a écrit :

Dire que NVIDIA réussit avec Tegra est quelque peu exagéré. Que je sache, la division n'a pour l'instant encaissé que des pertes.


Tu as la vue basse... Le Tegra K1 est salué comme étant la meilleure puce ARM, devant les SoC Apple. Commercialement, ça va se sentir en 2015 ou pas mal de produit vont sortir avec un K1. Google ayant bien aidé avec sa nouvelle Nexus 9, on s'aperçoit que gagner de la puissance CPU sur les SoC est moins valorisant que d'avoir un excellent GPU. Ca promet surtout une bonne baston avec tout les concepteurs de SoC ARM.


 
C'est en particulier sur le marché "automotive" que ça marche, autrement dit dans les bagnoles. Il y a quelques millions de Tegra 3 qui sont passés là-dedans, et il y en a encore beaucoup à fournir.

mood
Publicité
Posté le 07-11-2014 à 21:22:59  profilanswer
 

n°9322180
__ideal__
owned
Posté le 07-11-2014 à 23:33:29  profilanswer
3Votes positifs
 

drey19 a écrit :

rmartin a écrit :

Faut dire que nVidia à corrigé son attitude "pigeonnesque" qu'ils se trainent depuis presque 6 ans.
La 970 et 980 sont un vraiment réussies.


 
En même temps parler du prix uniquement ça n'a pas de sens.
 
Il faut voir ce que ce prix inclus.
 
Sinon tout le monde achèterait de l'eco + uniquement etc...
 
Si des gens sont prêt a y mettre le prix, il y a peut être une raison.


 
T'es le genre de personne qui sont sûr que les rillettes bordeaux chesnel sont un produit de haute qualité tout comme les céréales de marques kellogs ?
Au final le prix que tu payes en plus c'est juste pour remboursé la pub et marketing divers ( et tellement varié que tu n'oserais imaginer )sinon c'est la même daube à quelque 10ème de pourcentage de gras près... lis les ingrédients de plus près pour t'en convaincre.


Message édité par __ideal__ le 07-11-2014 à 23:35:15
n°9322301
fkanker
Posté le 08-11-2014 à 07:59:00  profilanswer
4Votes positifs
 

Singman a écrit :

Tu as la vue basse... Le Tegra K1 est salué comme étant la meilleure puce ARM, devant les SoC Apple.


Tu as lu ça où? Jusqu'ici j'ai vu un GPU au niveau de celui du A8X. Côté CPU, bon en INT, très moyen en FP, et surtout capable du meilleur comme du pire suivant les workloads. Il faudra un firmware plus récent pour juger, en attendant le A8X reste globalement devant.
 
Quoiqu'il en soit, le fonctionnement du CPU semble très intéressant à décortiquer, et je crains de ne voir une analyse approfondie que chez Anand voire Techreport. Un test est prévu sur HFR?

n°9322324
Singman
The Exiled
Posté le 08-11-2014 à 09:18:28  profilanswer
5Votes positifs
 

My god, entre les fan boys AMD et Apple, c'est dur de discuter !

n°9322345
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-11-2014 à 10:20:41  profilanswer
2Votes positifs
 

Des résultats vraiment excellents, nVidia parait vraiment bien gérée.

n°9322346
Tony_capri​ani
Posté le 08-11-2014 à 10:23:34  profilanswer
8Votes positifs
 

De bon résultats mais non mérité, j'aimerais bien qu'ils se retrouvent dans la situation d'AMD, ça leur feraient les pieds à ces arnaqueurs qui se reposent uniquement sur leur image de marque pour vendre.  

n°9322361
sagittaire
Posté le 08-11-2014 à 10:48:14  profilanswer
9Votes positifs
 

Singman a écrit :


Tu as la vue basse... Le Tegra K1 est salué comme étant la meilleure puce ARM, devant les SoC Apple. Commercialement, ça va se sentir en 2015 ou pas mal de produit vont sortir avec un K1. Google ayant bien aidé avec sa nouvelle Nexus 9, on s'aperçoit que gagner de la puissance CPU sur les SoC est moins valorisant que d'avoir un excellent GPU. Ca promet surtout une bonne baston avec tout les concepteurs de SoC ARM.


 
On va vraiment finir par croire que tu bosses pour Nvidia:
 
1) 161 millions de dollars c'est epsilon dans le marché global ARM pour mobile et tablette. Nvidia est en fait quasiment inexistant sur ce marché et le restera car leurs soc sont bien trop cher et avant tout destiné à un marché de niche.
 
2) jamais tu ne verra un soc nvidia dans un produit apple, samsung, LG, Sony ... etc etc ... qui produisent eux-même leurs propres SOC ou se fournissent pour bien moins cher chez qualcomm et consort
 
3) "pas mal de produit Nvidia". Encore une contre-vérité. En 2015, Nvidia cela ne sera même pas, et de très très très très loin, 1% du marché global des soc ARM, que cela soit en volume ou en CA. +51% de zéro et bien ... ça fait toujours zéro.
 
4) Ce qui compte le plus pour un soc ARM, c'est dans l'ordre son coût, ensuite sa consommation, la puissance CPU et enfin seulement la puissance GPU. Nvidia n'est vraiment pas bien placé pour pour les 2 premiers, ce qui l'exclu de fait du marché des mobiles, et le dirige plutôt vers le marché de niche des tablettes destinées aux jeux.
 
Faut vraiment que tu arrêtes le Trolling mon cher Singman


Message édité par sagittaire le 08-11-2014 à 10:57:46
n°9322408
pinpinb
Posté le 08-11-2014 à 11:41:38  profilanswer
8Votes positifs
 

Singman a écrit :

My god, entre les fan boys AMD et Apple, c'est dur de discuter !


L'hôpital qui se fout de la charité...
Tu prends l'exemple des protos sous K1 pour montrer que ça arrive mais d'un autre côté, dès qu'on parlait d'annonce de support mantle sur différents jeux tu considérais ces annonces comme irrecevable et ne permettant pas de valider l'adoption de mantle par les dev/editeur. (je prends mantle en exemple car c'est le plus récent dont je me souviens).
Il s'avère que les annonces concernant mantle se sont vérifié jusqu'à présent (civilisation ???) et que les protos ça ne veut pas dire grand chose : y'a qu'à voir la quantité de proto de smartphone/tablette avec des cpu intel qui n'ont jamais vu le jour.
Mais, personnellement, je laisse le bénéfice du doute au proto en K1 et attend de voir. Je trouverais ça d'ailleurs très bien d'avoir un nouveau fournisseur de soc arm sur le marché.

n°9322454
Gigathlon
Quad-neurones natif
Posté le 08-11-2014 à 12:33:32  profilanswer
2Votes positifs
 

Singman a écrit :

My god, entre les fan boys AMD et Apple, c'est dur de discuter !


Pour Apple, faut bien reconnaitre que l'A8 est une réussite monumentale.
 
Même avis que Flanker sur Denver par contre : ça a pas franchement l'air au point mais l'idée a le mérite d'être intéressante.
 
Par contre, le "défenseur du haut de gamme", on se demande un peu ce qu'il fout à part troller... du bon travail ça se paye (et pas forcément en monnaie sonnante et trébuchante, la confiance elle-même est une énorme récompense et ça quasiment tout le monde l'a oublié... la confiance mène aux responsabilités, qui mènent à leur tour à la prospérité par l'accès à ces personnes de confiance aux moyens d'action), au-delà de ça, le discours n'est qu'une dérive de plus dans une mécanique totalement détraquée. (note : j'ai récemment quitté mon poste au ras des pâquerettes car j'étais plus impliqué dans la boîte que n'importe qui d'autre tout en étant le moins payé ou presque - 1 personne était moins payée, à _mal_ faire le même boulot moins d'heures par semaine - et j'ai été remercié de ça par du harcèlement moral, du dénigrement et l'aveu d'incompétence des dirigeants. Oui, j'ai clairement la rage depuis, car ce boulot, je l'avais accepté pour le faire, pas pour avoir une paye à tout saloper comme tout le monde dans cette boîte.)
 
Pour reprendre l'exemple des rillettes Bordeau Chesnel, c'est pas la marque l'important, on les retrouve sous un paquet d'autres marques avec strictement la même qualité et juste une sérigraphie différente sur le pot. Parfois c'est même encore plus cher car la marque distributeur a réussi par je ne sais quel miracle à avoir de la notoriété... mais quand tu retrouves un morceau de silex qui a tout l'air de venir d'une meule à effilocher la viande dans un pot, peu importe le marquage, tu te dis qu'il y a quand même un petit souci.
 
Et pour pas être totalement HS, ça manque de données pour évaluer ce que veulent dire ces chiffres... dans l'absolu, ils inspirent confiance, mais c'est difficile d'être catégorique sans avoir les postes d'investissement et le détail des dépenses, aussi bien de fonctionnement, de production, d'implication environnementale (soit ici principalement dans les écoles) et sans grand intérêt (marketing principalement).


Message édité par Gigathlon le 08-11-2014 à 14:38:37
n°9322811
Gigathlon
Quad-neurones natif
Posté le 08-11-2014 à 19:51:34  profilanswer
2Votes positifs
 

drey19 a écrit :

Tant que tout le monde y trouve son compte ou est le pb ?


Il est là, le problème.
 
En dehors de quelques produits de niche type Rolls Royce/Ferrari et, forcément, la bijouterie/joaillerie (ne serait-ce que les matières premières, pour la main d'oeuvre ça a l'air bien variable...), le prix n'est justifié par rien de concret.
 
D'ailleurs, à ce sujet, je suis étonné que personne n'ait traîné E.Leclerc devant la justice pour leur campagne, eux qui remplacent les marques producteur par leur marque distributeur mainstream en diminuant la qualité et en ne baissant pas les prix tout en faisant fabriquer au même producteur... (blanquette de veau en portion conserve Marque Repère vs Raynal & Roquelaure, par exemple)


Message édité par Gigathlon le 08-11-2014 à 19:58:56
n°9322950
rmartin
Posté le 08-11-2014 à 23:48:08  profilanswer
4Votes positifs
 

Edit : je m'adresse à drey au cas où ca ne soit pas évident.
Ce que tu ne vois pas, c'est que tout le monde ne s'y connait pas en Hardware, et ceux qui s'y connaissent ont deux choix : acheter ce qu'ils veulent ou faire la meilleure config avec leur budget.
 
Si tu savais le nombre de personnes pour qui j'ai monté un PC ces 5 dernières années et qui voulaient acheter un "Geforce" parce que "GeForce" c'est trop bien et trop puissant, tu serais atteré.
 
Le fait est que le type qui n'y connait rien et n'a pas d'aide, s'achètera une nVidia quoi qu'il arrive. Celui qui s'en fout de sa thune, bah par définition n'a aucune attache vis à vis d'une marque.
 
Reste celui qui se fait conseiller. Celui là ces 5 à 6 dernières années (on va dire globalement depuis les séries 4000 d'ATI), se fait conseiller des ATI s'il a un budget limité, voir même de l'ATI pour le haut de gamme à cause de l'absence de présence de nVidia sur les secteurs des triples écrans "clef en main". Ce n'est que depuis les séries 600 que nVidia est revenu sur le marché du vrai haut de gamme.
Aujourd'hui, nVidia possède toujours son marché "auchan / carrefour" si tu vois ce que je veux dire, et à retrouvé son marché haut de gamme avec ses séries 600.
 
Désormais, nVidia retrouve un poids auprès du reste du marché, c'est à dire des gens qui ont un budget limité. Ils ont longtemps pensé qu'ils pouvaient se la jouer à la Apple et proposer du pseudo haut de gamme à prix d'or. D'où le terme "pigeonnesque" que j'ai utilisé.  
Le contexte n'est pas le même qu'avec un smartphone.
 
Quand tu fais monter un PC par quelqu'un, tu n'a rien de palpable pour argumenter avec lui que ce composant sera mieux qu'un autre. Tu n'a qu'un souhait de confort et d'utilisation.
Un smartphone tu peux le palper, le toucher, utiliser celui de quelqu'un d'autre. C'est là où nVidia s'est viandé. Il ont cru que ça passerais comme de la consommation courante.
 
Aujourd'hui, nVidia revient dans la course car ils ont compris leurs erreurs.  
 
Au passage je n'ai rien contre Apple pour le coté "pigeon". Leur produit ont une clientèle claire : ceux qui ne veulent pas se prendre la tête avec leur smartphone. Apple fourni du tout intégré de bonne qualité et pas un patchwork d'applications diverses. Cependant nombreux sont les gens qui achètent Apple sans savoir pourquoi ils achètent un iPhone. C'est plus leur clientèle (enfin seulement une partie) qui sont des pigeons. Ils suivent juste une mode.
 
 
 
Désolé pour ce pâté, mais j'ai réveillé un animal velu, je tenais à m'expliquer car il a très clairement mal pris le terme "pigeonnesque".
Apple n'a l'intention de pigeonner ses clients, ils surfent simplement sur la vague. nVidia a délibérément pris ses clients pour des cons pendant 5 ans, pour une grosse majorité.


Message édité par rmartin le 08-11-2014 à 23:49:14
n°9323121
Try_again_​ it's free
Posté le 09-11-2014 à 09:23:29  profilanswer
1Votes positifs
 

Ce ne sont pas les gens qui manquent de discernement mais les gens du marketing d'AMD qui sont pathétiques.
 
Toutes les marques ont fait de la merde et ramassé des tôles, que soit Intel, nvidia IBM et autres,  une seule -sans en faire plus- ne s'en remet pas : AMD


Message édité par Try_again_ it's free le 09-11-2014 à 09:24:33
n°9323184
sagittaire
Posté le 09-11-2014 à 10:44:05  profilanswer
4Votes positifs
 

[quotemsg=9323121,29,1050343]Ce ne sont pas les gens qui manquent de discernement mais les gens du marketing d'AMD qui sont pathétiques.
 
Toutes les marques ont fait de la merde et ramassé des tôles, que soit Intel, nvidia IBM et autres,  une seule -sans en faire plus- ne s'en remet pas : AMD[/quotems]
 
Sauf que tu es complètement à côté de la plaque:
 
1) AMD et Nvidia sont des nains si on compare à Intel, IBM, Qualcomm, Apple, Samsung ...
 
2) NVidia ne représente rien du tout dans le monde des soc et il ne faut pas oublier non plus que l'acteur qui domine dans le monde du GPU, c'est intel, très loin devant AMD et NVidia. Si demain Intel sort un APU, qui permet de jouer convenablement en 1080p à des jeux récents, et il en ont les moyens, Nvidia et AMD seront condamné à se disputer un marché de niche sur les GPU.

n°9323192
Try_again_​ it's free
Posté le 09-11-2014 à 10:53:59  profilanswer
0Votes positifs
 

T'es p'tét pas au courant mais AMD et Intel à 1 an près ont été créées en même temps ( 1968 et 69) sans grandes différences dans les capitaux investis. Il n'y a pas à la base un géant Intel et un nain AMD pour relever le challenge.
 
C'est la vie, il y des roxxors et des suxxors. :o  
 

n°9323233
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 09-11-2014 à 11:35:32  profilanswer
2Votes positifs
 

Alexko a écrit :

 

Dire que NVIDIA réussit avec Tegra est quelque peu exagéré. Que je sache, la division n'a pour l'instant encaissé que des pertes.


Concernant la hausse de revenus il faut préciser que NV a lancé sur le troisième trimestre la Shield Tablet mondialement. De fait si le revenu n'avait pas augmenté cela aurait été décevant, d'autant que dans le cas d'une Shield ce qui est comptabilisé en chiffre d'affaires ce n'est pas la vente du SOC mais la vente de la Tablette entière.


Message édité par Marc le 09-11-2014 à 11:36:36
n°9323319
Invite_Sur​prise
Racaille de Shanghaï
Posté le 09-11-2014 à 12:48:45  profilanswer
4Votes positifs
 

Les SOCs Tegra K1 sont de très bonnes puces qui rentrent en concurrence avec le HDG de Apple et Qualcomm ce qui est énorme pour une entreprise dont la spécialisation est les cartes graphiques et qui pèse énormémément moins lourd que ces deux mastodontes.
Contrairement à ce que certains disaient vers la sortie de Fermi, nVidia est vraiment loin de la faillite et ne s'est jamais porté aussi bien. Une vraie petite leçon de stratégie et une petite piqûre de rappel pour eux.

n°9323412
LeiR3@G
Toupie or not toupie ?
Posté le 09-11-2014 à 15:13:09  profilanswer
3Votes positifs
 

Je pige pas l'intérêt de comparer avec la situation d'AMD : d'un côté on a une boîte spécialisée dans les GPU et depuis peu dans les SOC mobiles, profitable depuis longtemps avec un bilan sain depuis sa création, qui investi massivement en R&D et dans ses départements software et dont les architecture se montrent de plus en plus efficaces. De l'autre une entreprise en déclin perpétuel trimestre après trimestre, qui réduit ses dépenses en R&D et ses départements logiciels, qui voit ses dirigeants et ses meilleurs ingés fuir le navire depuis plus de 3 ans, qui a vendu ses fonderies et son département GPU mobile (Radeon --> Adreno) alors que c'était justement ses deux atouts d'avenir (c'est ça de remplacer un PDG ingénieur par un financier, doté d'une "vision d'avenir" toute à lui), et dont le dernier trimestre bénéficiaire était du à une amende payée par INtel...
 
Faut se réveiller, AMD c'est fini. A la limite il y a 2-3 ans on pouvait se poser la question d'un rachat par un Samsung, Qualcomm ou autre, mais là ça tient plus du cadavre en décomposition, avec quelques vautours qui  viendront récupérer les miettes lors d'une liquidation plus ou moins organisée...

n°9323496
akab
Posté le 09-11-2014 à 16:58:17  profilanswer
2Votes positifs
 

Comme dirait Marc
 
On se calme les garçons ^^


Message édité par akab le 09-11-2014 à 16:58:37
n°9323750
Singman
The Exiled
Posté le 09-11-2014 à 21:03:47  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

Les SOCs Tegra K1 sont de très bonnes puces qui rentrent en concurrence avec le HDG de Apple et Qualcomm ce qui est énorme pour une entreprise dont la spécialisation est les cartes graphiques et qui pèse énormémément moins lourd que ces deux mastodontes.
Contrairement à ce que certains disaient vers la sortie de Fermi, nVidia est vraiment loin de la faillite et ne s'est jamais porté aussi bien. Une vraie petite leçon de stratégie et une petite piqûre de rappel pour eux.


Je te souhaite bien du courage pour défendre cette opinion ici.

n°9323989
theangel54​0
Posté le 10-11-2014 à 09:12:05  profilanswer
0Votes positifs
 

Elle serait bien triste la vie de certains avec des GPUs "noname"

n°9324115
bluedragon​38
Posté le 10-11-2014 à 12:25:57  profilanswer
1Votes positifs
 

Merci GTX970/980 :D
 
LeiR3@G : déjà grosse connerie de fusionner ATI/AMD , j'étais contre dès le départ et au final ils se sont enlisé...

Message cité 1 fois
Message édité par bluedragon38 le 10-11-2014 à 12:27:31
n°9324182
LeiR3@G
Toupie or not toupie ?
Posté le 10-11-2014 à 14:09:10  profilanswer
4Votes positifs
 

bluedragon38 a écrit :

LeiR3@G : déjà grosse connerie de fusionner ATI/AMD , j'étais contre dès le départ et au final ils se sont enlisé...


Et encore, cette fusion au moins elle faisait du sens, c'était un gros pari vu les finances d'AMD à l'époque mais c'était cohérent.

 

C'est les décisions ultérieures qui sont incompréhensibles : au lieux de vendre leurs fonderies ils auraient du investir dedans et les ouvrir aux concepteurs de SOC mobiles. Des fonderies performantes aujourd'hui c'est stratégique, le besoin est juste gigantesque. Et puis vendre la division GPU mobiles (en 2009 ou 2010 je crois), no comment quoi, faut vraiment n'avoir aucune vision à moyen/long-terme. Quand on voit le carton des Adreno depuis quelques années ça donne une idée du gâchis...


Message édité par LeiR3@G le 10-11-2014 à 14:10:06

---------------
Mon Feed . Et n'oubliez pas que le QI n'est pas proportionnel au nombre de messages postés...
n°9324196
LePcFou
Delinquant textuel
Posté le 10-11-2014 à 14:28:37  profilanswer
1Votes positifs
 

Le problème c'est que beaucoup de gens disent intel nvidia c'est le top et amd c'est pourri comme si c'était une évidence, alors qu'ils y connaissent rien.
C'est ça qui est en train de tuer amd.

n°9324223
Singman
The Exiled
Posté le 10-11-2014 à 14:55:12  profilanswer
3Votes positifs
 

J'adore les donneurs de leçons, ceux qui "avaient vu qu'AMD se plantait", "moi j'aurai pas fait comme ça"...
Déjà, excusez moi si on demande pas l'avis du mec au coin de la rue avant de réaliser une fusion comme celle d'AMD avec ATI, mais vu l'armée de conseillers de l'époque, je pense que vous ne connaissez même pas le 10ème des tractations et des difficultés de l'époque. Il y a 8 ans, ATI était une très grosse société, de mémoire quasiment le même poids qu'AMD, plus de 2 milliards de CA.
L'idée était excellente : un fondeur spécialiste du CPU et un concepteur "fabless" de GPU qui se regroupent, tout le monde sans exception était d'accord pour dire que c'était une excellent opération. Mais à priori, AMD a eu du mal a digérer ATI, l'inverse se serait peut être mieux passé, les charges financières ont été au delà du supportable.
Garder les usines ? Ils ne pouvaient plus ! Intel investit des milliards dans ces fabs, TSMC et GF aussi, AMD n'a simplement plus les fonds pour le faire, c'est un choix stratégique qu'ils ont du envisager lors du rachat d'ATI. C'était soit l'un, soit l'autre. Mais honnêtement, je ne vois pas dans la perte du statut de fondeur la raison du déclin d'AMD, puisque c'est de ça que vous voulez parler (sur une news NVidia, encore une fois). Leur contrat avec TSMC ne doit pas être si pénalisant que ça, au contraire des investissements qu'ils auraient du consentir pour arriver a faire du 20nm s'ils avaient gardé leurs usines.
Non, je vois plutôt de grosses difficultés a intégrer les technologies ATI, pas assez exploité les synergies possibles entre les deux sociétés (quel délai il a fallu attendre pour voir un APU correct !), et une charge financière trop lourde au final qui a coupé beaucoup de moyens.
AMD ne va pas si mal, mais quand on voit la réussite technique et financière de ses concurrents (Intel et NVidia), on se dit qu'ils ont raté quelque chose à un moment.
 
Edit : a priori mes souvenirs ne sont pas si bons, AMD devait peser $5.2 milliards en 2006 lors du rachat d'ATI (et $2.2 pour ATI). Mais acquérir une société qui fait la moitié de son poids est simplement imprudent.


Message édité par Singman le 10-11-2014 à 15:07:21
n°9324236
Singman
The Exiled
Posté le 10-11-2014 à 15:10:52  profilanswer
5Votes positifs
 

LePcFou a écrit :

Le problème c'est que beaucoup de gens disent intel nvidia c'est le top et amd c'est pourri comme si c'était une évidence, alors qu'ils y connaissent rien.
C'est ça qui est en train de tuer amd.


Au contraire, je suis d'avis opposé : les fanboys AMD se souviennent du temps ou les Athlons rivalisaient avec les meilleurs CPU d'Intel, ou les Radeon qui se tiraient la bourre avec les GeForce.
Actuellement, NVidia proposent des cartes aussi rapides que celles d'AMD mais consommant deux fois moins, et Intel fait la même chose avec ses CPU. C'est ça qui tue AMD.


---------------
Graphe de controle : http://singman.zapto.org/
n°9324297
rmartin
Posté le 10-11-2014 à 16:16:19  profilanswer
1Votes positifs
 

Euh ouais, niveau conso c'est quand même carrément l'inverse pour les GPU...
Je suis désolé mais la techno GCN à juste démoli les fours nVidia. C'était les 480 je crois  qui avaient le record de consommation. A coté ATI consommais deux fois moins.
 
Par contre je suis ok pour Intel. A performances égales, ils ont rapidement mis une grosse claque à AMD.
 
Edit : il s'agit plutot des séries 500 (même si je crois que les séries 400 n'étaient pas épargnées)
http://www.techpowerup.com/reviews [...] Ti/25.html
 
Une 770 consomme autant qu'une 560 Ti...

Message cité 2 fois
Message édité par rmartin le 10-11-2014 à 17:44:43
n°9324305
kyllik
Posté le 10-11-2014 à 16:33:35  profilanswer
1Votes positifs
 

Singman a écrit :

J'adore les donneurs de leçons, ceux qui "avaient vu qu'AMD se plantait", "moi j'aurai pas fait comme ça"...
Déjà, excusez moi si on demande pas l'avis du mec au coin de la rue avant de réaliser une fusion comme celle d'AMD avec ATI, mais vu l'armée de conseillers de l'époque, je pense que vous ne connaissez même pas le 10ème des tractations et des difficultés de l'époque.


Bon alors déjà là, j'suis pas vraiment d'accord avec toi. C'est pas parce qu'on est pas financier, qu'on peut pas remettre en doute les décisions prises, surtout quand on voit ce que cela a donné.  
 

Singman a écrit :

Mais acquérir une société qui fait la moitié de son poids est simplement imprudent.


 
Niveau donneur de leçon, tu te poses là quand même ...

n°9324306
LeiR3@G
Toupie or not toupie ?
Posté le 10-11-2014 à 16:33:41  profilanswer
3Votes positifs
 

rmartin a écrit :

Euh ouais, niveau conso c'est quand même carrément l'inverse pour les GPU...
Je suis désolé mais la techno GCN à juste démoli les fours nVidia. C'était les 480 je crois  qui avaient le record de consommation. A coté ATI consommais deux fois moins.


 :lol:  
 
A ce niveau c'est même plus de la mémoire sélective... La conso d'une GTX 470 se situait entre une HD 5870 1Go et une 2Go, pour 5% de perf en moins. Et la GTX 480 consommait 30% de plus pour 15% de perf en plus. Arrête de caricaturer.
 
D'autant que depuis, architecture GCN ou pas, AMD prend raclée sur raclée, autant sur la conso que sur les perfs...


---------------
Mon Feed . Et n'oubliez pas que le QI n'est pas proportionnel au nombre de messages postés...
n°9324370
Ploufplouf​972
Posté le 10-11-2014 à 17:52:03  profilanswer
2Votes positifs
 

Singman a écrit :


Au contraire, je suis d'avis opposé : les fanboys AMD se souviennent du temps ou les Athlons rivalisaient avec les meilleurs CPU d'Intel, ou les Radeon qui se tiraient la bourre avec les GeForce.
Actuellement, NVidia proposent des cartes aussi rapides que celles d'AMD mais consommant deux fois moins, et Intel fait la même chose avec ses CPU. C'est ça qui tue AMD.


Le singman nouveau n'aura pas tenu longtemps te voilà reparti dans tes travers...
 

rmartin a écrit :

Euh ouais, niveau conso c'est quand même carrément l'inverse pour les GPU...
Je suis désolé mais la techno GCN à juste démoli les fours nVidia. C'était les 480 je crois  qui avaient le record de consommation. A coté ATI consommais deux fois moins.
 
Par contre je suis ok pour Intel. A performances égales, ils ont rapidement mis une grosse claque à AMD.
 
Edit : il s'agit plutot des séries 500 (même si je crois que les séries 400 n'étaient pas épargnées)
http://www.techpowerup.com/reviews [...] Ti/25.html
 
Une 770 consomme autant qu'une 560 Ti...


GCN n'existait pas à l'époque...
 

LeiR3@G a écrit :


 :lol:  
 
A ce niveau c'est même plus de la mémoire sélective... La conso d'une GTX 470 se situait entre une HD 5870 1Go et une 2Go, pour 5% de perf en moins. Et la GTX 480 consommait 30% de plus pour 15% de perf en plus. Arrête de caricaturer.
 
D'autant que depuis, architecture GCN ou pas, AMD prend raclée sur raclée, autant sur la conso que sur les perfs...


Si tu commençais par le faire ça serait un bon exemple.

n°9324437
grosnabot
Posté le 10-11-2014 à 18:56:26  profilanswer
3Votes positifs
 

http://www.hardware.fr/medias/photos_news/00/35/IMG0035378.gif
 
Tu disais ? Qui c'est qui s'est pris une raclée ?
 
GCN a obligé nvidia à se sortir les doigts.


Message édité par grosnabot le 10-11-2014 à 19:02:40
n°9324493
Ploufplouf​972
Posté le 10-11-2014 à 19:40:32  profilanswer
0Votes positifs
 

Il faut remettre les choses dans l'ordre.
 
GTX 480 (40nm) vs radeon 5870 (40nm) archi VC5
 
GTX 580 (40nm) vs radeon 6970 (40nm) archi VC4
 
GTX 680 (28nm) vs radeon 7970 (28nm) archi GNC
 
Merci de comparer les bonnes générations entre elles.
 
http://www.hardware.fr/medias/photos_news/00/36/IMG0036546.gif

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Résultats Nvidia, +36% pour les GeForce

 

Sujets relatifs
[HFR] Focus : be quiet! Pure Rock en test[HFR] Actu : 8 Go sur R9 290X chez Sapphire et XFX
Geforce 750ti low profile single slot ITX Gamer[HFR] Actu : R9 290X Gaming 8 Go chez MSI
[HFR] Dossier : Les taux de retour des composants (11)[HFR] Actu : Civ Beyond Earth offert avec les GPU Hawaii
[HFR] Actu : Zalman en cessation de paiement 
Plus de sujets relatifs à : [HFR] Actu : Résultats Nvidia, +36% pour les GeForce


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR