Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1833 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Suivante
Auteur Sujet :

[HFR] Actu : Pascal sera produit en 16nm chez TSMC

n°9612034
bjone
Insert booze to continue
Posté le 18-09-2015 à 15:33:14  profilanswer
2Votes positifs
 

Reprise du message précédent :
Entre TSMC et Samsung:
- Les ingés nV savent bosser avec les ingés TSMC
- TSMC doit pas être loin de Samsung
- Samsung utilise des GPUs sous licence pour ses SoC, et pourrait être tenté de dev ses propres GPU
- nV et Samsung sont en concurrence sur les SoC
- Samsung lorgne sur AMD ou pas ?
 
L'un dans l'autre, nV la joue safe en terme de mise en prod et de protection d'IP (surtout sur une itération majeure en termes de savoir-faire)


Message édité par bjone le 18-09-2015 à 15:33:45
mood
Publicité
Posté le 18-09-2015 à 15:33:14  profilanswer
 

n°9612048
C_Wiz
Profil : Equipe HardWare.fr
Posté le 18-09-2015 à 15:58:42  profilanswer
2Votes positifs
 

D'accord avec la majorité mais :
 

bjone a écrit :


- Samsung utilise des GPUs sous licence pour ses SoC, et pourrait être tenté de dev ses propres GPU


Samsung ne developpe pas d'architecture CPU, ils utilisent l'IP ARM (Cortex A57 & co). Je ne suis pas certain que commencer par GPU est une bonne idée si ils devaient se lancer dans des archis custom.
 
Même Apple qui fait des archis custom utilise des IP GPU externes (PowerVR/ImgTech). Alors même qu'ils ont débauché l'équipe GCN d'AMD il y a quelques années...
 

bjone a écrit :

- nV et Samsung sont en concurrence sur les SoC

C'est généreux pour Nvidia :p Après si ils peuvent fabriquer pour Apple avec qui ils sont largement plus exposés en concurrence, je doute que le fait que Nvidia ait une présence sur les SoC entre en considération.  
 

bjone a écrit :

- Samsung lorgne sur AMD ou pas ?

Ca je ne pense pas, non.
 
Samsung Foundry est un business relativement indépendant qui cherchait clairement pour le 14/16 a être présent avec d'autres clients qu'Apple (avoir un seul client, c'est génant). Je pense que les besoins des GPU n'en font pas le choix rêvé pour un nouveau client pour Samsung, même si tout est toujours possible, ils auront probablement d'autres clients sur des SoC (Qualcomm) ou autres puces plus adaptés a leur savoir faire/process.

n°9612139
mounch
WTF
Posté le 18-09-2015 à 18:09:46  profilanswer
3Votes positifs
 

Pascal une possible architecture supportant enfin directx 12 ?? Avec ces mythos de vert et son maxwell qui fail en dx12 faut se méfier


Message édité par mounch le 18-09-2015 à 18:24:05
n°9612236
Zilak
I can't carry anymore !
Posté le 18-09-2015 à 21:21:05  profilanswer
0Votes positifs
 

Ce n'est pas des "mythos". C'est des prévisions qui n'ont pas le rendu souhaitées. Les DX12 n'étant pas encore sortie à cette époque c'était de la spéculation. Il y en a autant chez nVidia qu'AMD d'ailleurs le monde ce porte sur ce système.


Message édité par Zilak le 18-09-2015 à 21:21:21
n°9612535
belloir74
Posté le 19-09-2015 à 12:33:41  profilanswer
0Votes positifs
 

Zilak a écrit :

Ce n'est pas des "mythos". C'est des prévisions qui n'ont pas le rendu souhaitées. Les DX12 n'étant pas encore sortie à cette époque c'était de la spéculation. Il y en a autant chez nVidia qu'AMD d'ailleurs le monde ce porte sur ce système.


Non, AMD savait très bien quels fonctionalités ils pourrront supporter grâce à Mantel.

n°9612923
Zilak
I can't carry anymore !
Posté le 20-09-2015 à 00:17:28  profilanswer
0Votes positifs
 

Nan mais ca n'a rien avoir. Mantle est une API de AMD, encore heureux qu'ils ont connaissances de ce qu'ils fabriquent, alors que DirectX est une API de Microsoft.  

n°9612927
Yeagermach​42
Posté le 20-09-2015 à 00:25:49  profilanswer
0Votes positifs
 

Zilak a écrit :

Nan mais ca n'a rien avoir. Mantle est une API de AMD, encore heureux qu'ils ont connaissances de ce qu'ils fabriquent, alors que DirectX est une API de Microsoft.  


Vu que DX12 est plutôt pas mal (voir énormément à totalement) basé sur Mantle, les cartes AMD ont un léger avantage a ce niveau. C'est un beau cadeau de la part de MS a AMD.
 
Tout comme AMD qui a fait Mantle grâce a son expérience en tant que constructeur des chips console.
 
C'est ce qui explique aujourd'hui que AMD a une légère avance a ce niveau.
 
Nvidia a du retard non par un manque de vision du futur mais juste parce qu'ils avaient pas de raisons de penser que cela allait évoluer dans ce sens. Il y a encore peu, les devs PC ne voulaient pas des masses d'un système plus bas niveau. Ils trouvaient cela sympa mais trouvaient aussi que cela apportait pas mal de complications pour un gain pas exceptionnel.

n°9613120
C_Wiz
Profil : Equipe HardWare.fr
Posté le 20-09-2015 à 12:52:46  profilanswer
1Votes positifs
 

Yeagermach42 a écrit :

Il y a encore peu, les devs PC ne voulaient pas des masses d'un système plus bas niveau.


C'était peut être le cas de certains, mais la majorité de ceux a qui on a parlé *voulaient* une API bas level, bien au contraire. Tous les portages de titres AAA console ont pati de DX pré 12.
 
Dire que le futur n'allait pas dans le sens du bas level alors que l'on a vu se succéder des initiatives comme OpenGL AZDO, Mantle chez AMD, Metal chez Apple, Vulkan...  
 
Il n'y avait aucun doute que DX pré 12 était une mauvaise API qui posait problème et qu'il fallait remplacer, et même si Nvidia peut avoir trainé les pieds dans la forme de sa communication, je n'ai aucun doute sur le fait qu'ils étaient conscient que l'avenir allait au bas level !

Message cité 1 fois
Message édité par C_Wiz le 20-09-2015 à 12:53:25
n°9613168
Yeagermach​42
Posté le 20-09-2015 à 14:07:35  profilanswer
1Votes positifs
 

C_Wiz a écrit :


C'était peut être le cas de certains, mais la majorité de ceux a qui on a parlé *voulaient* une API bas level, bien au contraire. Tous les portages de titres AAA console ont pati de DX pré 12.
 
Dire que le futur n'allait pas dans le sens du bas level alors que l'on a vu se succéder des initiatives comme OpenGL AZDO, Mantle chez AMD, Metal chez Apple, Vulkan...
 
Il n'y avait aucun doute que DX pré 12 était une mauvaise API qui posait problème et qu'il fallait remplacer, et même si Nvidia peut avoir trainé les pieds dans la forme de sa communication, je n'ai aucun doute sur le fait qu'ils étaient conscient que l'avenir allait au bas level !


Quand je parle du futur, je me met au lancement de l'architecture actuelle chez les deux constructeurs. Début des années 2010, AMD fait le choix du GCN et donc des API Low Level et Nvidia fait le choix de la réduction de la consommation avec Fermi. Est-ce que a ce moment la, AMD a fait un choix plus futur proof que Nvidia, c'est impossible a dire. Aujourd'hui on peut le dire. Pas a l'époque.

n°9613289
5imon
Posté le 20-09-2015 à 17:14:54  profilanswer
0Votes positifs
 

Yeagermach42 a écrit :

Est-ce que a ce moment la, AMD a fait un choix plus futur proof que Nvidia, c'est impossible a dire. Aujourd'hui on peut le dire. Pas a l'époque.


Trop dur d'admettre que AMD a fait le bon choix et en tire les bénéfices ...
"Nooon c'est du hasard si toute l'industrie se rallie aux APIs bas niveau !!!"

mood
Publicité
Posté le 20-09-2015 à 17:14:54  profilanswer
 

n°9613291
Yeagermach​42
Posté le 20-09-2015 à 17:18:49  profilanswer
0Votes positifs
 

5imon a écrit :


Trop dur d'admettre que AMD a fait le bon choix et en tire les bénéfices ...
"Nooon c'est du hasard si toute l'industrie se rallie aux APIs bas niveau !!!"


Je l'admet totalement aujourd'hui. Mon propos est de dire qu'a l'époque, c'était pas si certain que cela.

n°9613646
cocto81
Posté le 21-09-2015 à 02:48:44  profilanswer
2Votes positifs
 

Halte au n'importe quoi !  
 

ravenloft a écrit :


Aux vues des parts de marchés, je ne sais pas si se jeter autant de temsp  à l'avance dedans était le meilleur choix niveau argent gagné.
Est-ce qu'ils vont maintenant en tirer des bénéfices? ça reste à voir car faudra attendre les perfs dans les jeux pour le savoir. Le problème est qu'AMD a abandonné mantle qui pouvait donner un avantage car mantle était spécialement optimisé pour l'archi d'AMD... blabla bla


On s'en fout des chiffres commerciaux de la boîte (toute manière ces chiffres sont souvent bidonnés). Ce qui est sûr, c'est qu'une carte AMD de 3 ans va poutrer sur DirectX12 alors que Nvidia se gamelle avec leur nouvelle archi Maxwell de moins d'1 an.
Nvidia a surtout été fort en roublardise...
 

Citation :


Avec dx12 tout le monde est à égalité...


Ben non, justement. AMD revient à égalité dans les jeux, à condition de désactiver des fonctionaliéts DX12 pour les cartes Nvidia Maxwell (ça la fout mal), mais conserve allègrement son avance dans le domaine pro (plus de deux fois la puissance dans le cas le moins défavorable à Nvidia). Argument pour continuer à acheter Nvidia, deux fois plus cher, pour n'avoir la parité que dans les jeux : 0.

Citation :

Si AMD gagne des parts de marché...


C'est que les gens auront compris qu'ils se sont fait avoir un n-ième fois par une nouveau coup d’esbroufe à la génération FX, par Nvidia. Ce sont des spécialistes dans le genre...
 
Le pire pour le choix Nvidia, c'est que dans le domaine pro, il y a désormais un basculement massif sur OpenCL, Direct Compute ou autres archi non propriétaire à Nvidia (Cuda). Nvidia ne pourra compter que sur eux-mêmes pour les développements de jeux ou les moteurs de rendu 3D favorisant ou ne supportant que son architecture, moins performante. On ne peut que remarquer que toute l'architecture Maxwell fait désormais l'impasse sur les circuits flottants double précision (même sur les cartes pro).
 
Maintenant, pour information, quand on entend gravure 16nm et gravure 14nm, il ne faut pas croire que parce que c'est annoncé 14nm c'est plus petit, dense et performant...
C'est la même génération, en 16nm chez TSMC ou 14nm chez GF/Samsung.


Message édité par cocto81 le 21-09-2015 à 02:52:10
n°9613683
ockiller
Posté le 21-09-2015 à 08:59:14  profilanswer
2Votes positifs
 

cocto81 a écrit :

On s'en fout des chiffres commerciaux de la boîte (toute manière ces chiffres sont souvent bidonnés).


Je sais pas ce que t'insinues là, mais LOL :D ! Même le plus gros troll pro-AMD oserait pas...
 

cocto81 a écrit :

Ben non, justement. AMD revient à égalité dans les jeux, à condition de désactiver des fonctionaliéts DX12 pour les cartes Nvidia Maxwell (ça la fout mal), mais conserve allègrement son avance dans le domaine pro (plus de deux fois la puissance dans le cas le moins défavorable à Nvidia).


...cas le moins défavorable parmi un panel de cas choisi par tes soins, qui comprends un rendu d'hôtel sous LuxRender 3, un rendu d'hôtel sous LuxRender 3, et un rendu d'hôtel sous LuxRender 3 (vu comme tu te répètes on n'a pas l'impression que tu connaisses autre chose...). Quand on utilise PLUSIEURS applis pros, on peut remarquer que la différence de perfs d'une marque à l'autre, et même d'une génération à l'autre est bien plus variable que dans les jeux.
 
Bon, et euh... sinon, je ne crois pas que le problème soit du même niveau que pour les Geforce FX. À l'époque les nouveautés mal supportées par les Geforce FX étaient incontournables, c'était la seule manière de faire évoluer les techniques de rendu. Aujourd'hui ce dont il est question c'est d'offrir un nouveau moyen aux développeurs de maximiser l'utilisation des ressources. L'architecture de nVidia n'a pas été prévue pour en tirer partie, ceci dit faut quand même reconnaître que de base elle est plutôt efficace :).

n°9614530
lulu1980
Posté le 22-09-2015 à 09:02:02  profilanswer
1Votes positifs
 

Ah bon la double précision ça sert à rien : donc à la sortie de la Titan on nous disait elle a "quand même" un intérêt pour la double précision et maintenant quand la double précision disparait de la nouvelle Titan, ah bah de toute façon c'était en grande partie inutile.
Va falloir apprendre à avoir un discours cohérent.
Ou alors On peut se demander qui est le véritable troll....

n°9614565
lulu1980
Posté le 22-09-2015 à 09:50:25  profilanswer
1Votes positifs
 

Justement je trouve que depuis un certain temps HFR passe de la pommade à Nvidia quand il remue le couteau dans le plaie d'AMD (je ne sais pas si c'est volontaire ou pas) :
 
Dès qu'Nvidia fait quelque chose de moyen (ex: double précision) HFR trouve des excuses, idem des événements 3,5go qui ne sont jamais cités (alors même que l'on met en doute le choix de 4go chez AMD).
 
Et quid des optimisations contre productives (je parle pour le consommateur) que pratique Nvidia, jamais un mot la dessus.

n°9614573
bjone
Insert booze to continue
Posté le 22-09-2015 à 09:58:40  profilanswer
0Votes positifs
 

Quelles optimisations contre-productives ?
 
Quand à la double précision, je ne connais pas de renderer temps réel en production qui s'en sert, ou de technique de rendu qui le requiert absolument.
Le seul jeu (de mémoire) qui utilise un scenegraph en double précision est StarCitizen, et ça ne se propage pas au renderer (enfin jusqu'aux shaders : une fois en espace caméra le pipe reste en float). (C'est plus pour la broadphase de la physique, et côté gameplay).
 
Ce qui ne veut pas dire que ce sera jamais le cas, mais pour gérer de la géométrie locale ou des énergies issues d'éclairage, le float est toujours capable.
 
Donc le double est côté utilisation pro effectivement ;)
Après c'est toujours mieux de l'avoir pour le principe. Mais c'est toujours une histoire de compromis :/


Message édité par bjone le 22-09-2015 à 11:54:30
n°9614686
bjone
Insert booze to continue
Posté le 22-09-2015 à 11:56:48  profilanswer
0Votes positifs
 

Disons que dans la pratique le trick 3.5Go de la 970 n'est pas mesurable sur les jeux actuels. Mais l'ordre de grandeur étant préservé (On a vraiment 4Go de vram, ie le code shader et autre ressources "froides" peut parfaitement être dans le pool lent de 512Mo), ça devrait pas être mesurable à moyen terme.

Message cité 1 fois
Message édité par bjone le 22-09-2015 à 11:58:06
n°9614706
lulu1980
Posté le 22-09-2015 à 12:20:08  profilanswer
0Votes positifs
 

ravenloft a écrit :

HFR a assez parlé de l'attitude d'nvidia avec l'affaire gsync, l'affaire des 3.5go et dernièrement les perfs dx12 pour qu'accuser HFR de passer de la pommade à nvidia relève du troll. Idem pour remuer le couteau dans la plaie d'AMD.
 

lulu1980 a écrit :


 idem des événements 3,5go qui ne sont jamais cités  
 


Faux car HFR en a parlé. Si tu suis pas les news, ça va pas le faire.
  La seule critique valable qui a en plus été faite par HFr est la communication ratée d'nvidia sur les specs de la gtx970. Cela a été démontré que ça ne pénalisait pas les perfs et donc que c'était une tempête dans un verre d'eau uniquement issu de la bêtise de certains qui ont voulu faire croire qu'on achetait une cartes en fonction de ses specs et pas de ses perfs.
 
 

Citation :

(alors même que l'on met en doute le choix de 4go chez AMD)


Ah bon, ou ça?
 

lulu1980 a écrit :


 idem des événements 3,5go qui ne sont jamais cités (alors même que l'on met en doute le choix de 4go chez AMD)
Et quid des optimisations contre productives (je parle pour le consommateur) que pratique Nvidia, jamais un mot la dessus.


Il faudrait déjà commencer par les donner ces optimisations contre productives avant de critiquer. Je suis curieux.


 
Bien sur qu'ils en parlent, ils n'ont pas le choix sinon plus personne ne viendrait sur le site.
Mais juste pour ta mémoire lors du test de la Fury X ils ont parlé et reparlé des 4go acceptables mais à la limite mais aucun parallèle avec les 3,5go de nvidia. (sympa pour les gens qui en feront un SLI).
 
Pour les optimisations merci d'observer tous le panel de jeux Dx11 porté fièrement par Nvidia et optimisés avec les pieds (et encore je suis gentil). Et si on écoutait Nvidia on y resterait encore des années, sympa pour les joueurs, pour moi c'est contre productif d'agir ainsi.  
 
Pour la double précision je critique le fait que c'était l'argument de la Titan pour la plébisciter et quand ça a disparu bah c'était pas grave ça servait plus à rien... Étrange

n°9614713
bjone
Insert booze to continue
Posté le 22-09-2015 à 12:29:00  profilanswer
0Votes positifs
 

Je crois pas que c'était que le seul argument de la Titan.
 
La double précision n'est globalement pas super-utile pour du rendu, mais elle peut être critique pour une application pro.
Donc au niveau marketting, tu va dire tout et le contraire, suivant -qui- tu cibles.  
(Pour les joueurs trasher la dp permet de récupérer des transistors pour le reste, pour une utilisation pro ne pas avoir la dp peut être un show-stopper)
 
Idéalement il vaut mieux l'avoir, même à faible efficacité, si jamais une toute petite passe dans le pipe de rendu en a besoin.  
 
Après merci de pas analyser le passage de D3D11 à Mantle/D3D12/Vulkan à postériori.  
nV a pas été le moteur de l'évolution certes, mais ils sont absolument pas un frein : on est pas du tout dans un conservatisme technologique catastrophique comme ce qui s'est passé avec l'OpenGl, on a juste la génération de carte pré-basculement au D3D12 qui est probablement pas top (en attendant de voir comment les drivers vont évoluer).


Message édité par bjone le 22-09-2015 à 12:33:55
n°9614755
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-09-2015 à 13:32:19  profilanswer
1Votes positifs
 

bjone a écrit :

Disons que dans la pratique le trick 3.5Go de la 970 n'est pas mesurable sur les jeux actuels. Mais l'ordre de grandeur étant préservé (On a vraiment 4Go de vram, ie le code shader et autre ressources "froides" peut parfaitement être dans le pool lent de 512Mo), ça devrait pas être mesurable à moyen terme.

Le truc que semble oublier lulu1980 c'est qu'une Fury / Fury X est un cran au-dessus en terme de perf qu'une GTX 970, ce qui lui permet de viser potentiellement settings plus haut (AMD met notamment en avant la 4K) qui sont plus gourmands en VRAM ...

n°9614777
lulu1980
Posté le 22-09-2015 à 14:04:47  profilanswer
0Votes positifs
 

Enfin la 970 est souvent utilisée en SLI il serait bon de le faire remarquer aussi dans ce cas et c'est justement ce qui me gène, il y a un manque de neutralité (ce qui vaut pour une marque ne vaut pas pour l'autre) et c'est de cette façon que les esprits ont une image moins bonne pour telle ou telle marque.

n°9614788
ockiller
Posté le 22-09-2015 à 14:16:47  profilanswer
1Votes positifs
 

Ouais enfin le vrai problème qui a été pointé du doigt c'est la "nouvelle" génération R9 300 où AMD se sert des 8 Go de VRAM pour justifier une hausse des prix, alors que sur son nouveau haut de gamme on est à 4 Go max, et qu'en 4K en SLI ça devient limitant. Il n'a pas été mention du fait que 4 Go de VRAM était problématique dans des réglages moins poussés tels que ceux supportés par un SLI de GTX 970 par exemple, mais je vais paraphraser Marc...

n°9614812
makso94
Posté le 22-09-2015 à 14:45:16  profilanswer
0Votes positifs
 

stop du mono gpu  c est pas assez puissant faite du bi gpu

n°9615073
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-09-2015 à 20:03:00  profilanswer
0Votes positifs
 

Plutôt mourir  :o  
 
Je doute qu'AMD passe chez GloFo pour les GPUs.
Lors du lancement de Tahiti, Eric Demers, avait indiqué être très satisfait d'utiliser les mêmes technos de lithographie qu'nVidia chez TSMC.
Du temps a certes passé (Demers est passé chez Qualcomm depuis) et Samsung a grossi également, mais TSMC parait incontournable sur les process HP en ce qui concerne les cartes graphiques.
Il faut bien avouer que le 28nm a été une franche réussite et j'espère que le 16nm sera dans la même veine.
En tout cas, je suis plutôt impatient de voir ce que cela va donner avec Artic Islands et Pascal  :D


Message édité par Invite_Surprise le 22-09-2015 à 20:11:39
n°9661135
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-11-2015 à 09:26:54  profilanswer
0Votes positifs
 

La source est
 
http://vrworld.com/2015/11/16/nvid [...] bandwidth/
 
Qui dit se baser sur une conf au japon d'il y'a un mois et demi
 
https://www.youtube.com/watch?v=rg3iQS2amvg
 
Mais il n'est pas fait mention de précision concernant la mémoire si ce n'est qu'il s'agit de "3D Memory".
 
Bref... :o
 
 
 

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : ASRock B150M Combo-G, DDR3 ou DDR4 au choix ![HFR] Actu : Adaptateur M.2 vers U.2 chez MSI
La gtx pascal est elle compatible avec les cartes z87 ?[HFR] Dossier : AMD Radeon R9 Nano, la carte Fiji compacte en test
[HFR] Actu : Du retard pour Broadwell-E[HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?
Plus de sujets relatifs à : [HFR] Actu : Pascal sera produit en 16nm chez TSMC


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR