Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3774 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  23  24  25  ..  1033  1034  1035  1036  1037  1038
Auteur Sujet :

[Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)

n°9762877
mat33000
Posté le 17-03-2016 à 14:37:16  profilanswer
 

Reprise du message précédent :
Etant donnée le gros pourcentage de vente de 970 s'est surtout la 1070 niveau perf qu'il faudra surveiller ,pour ceux qui ont prit comme moi des 970 dernièrement (sur les 3-4 derniers mois) .Est-ce qu'on va regretter ou pas de ne pas avoir attendu une 1070 suivant la diff de perf ... :(  
Affaire a suivre

mood
Publicité
Posté le 17-03-2016 à 14:37:16  profilanswer
 

n°9762879
Bouvman
You fuck my wife ?
Posté le 17-03-2016 à 14:38:53  profilanswer
 


On va tous regretter mais c'est le jeu ma pauvre Lucette... après que fait-on ? on reste pendant 4 mois avec l'IGP ?
 

n°9762880
jln2
Posté le 17-03-2016 à 14:39:15  profilanswer
 

- gab a écrit :

Non, à te noyer dans les jeux pour oublier le prix que tu l'as payée :o
 


 
Sauf si la 1080 coute 800-900€ :o

n°9762885
jln2
Posté le 17-03-2016 à 14:43:02  profilanswer
 

mat33000 a écrit :

Etant donnée le gros pourcentage de vente de 970 s'est surtout la 1070 niveau perf qu'il faudra surveiller ,pour ceux qui ont prit comme moi des 970 dernièrement (sur les 3-4 derniers mois) .Est-ce qu'on va regretter ou pas de ne pas avoir attendu une 1070 suivant la diff de perf ... :(  
Affaire a suivre


 
Dans l'absolue, une 970 gardera quand même un bon niveau de performance.
En admettant qu'elle soit au niveau d'une future 1060, ça restera un bon GPU pour du 1080p medium/High pour les 1.5-2 ans a venir pour des nouveaux titres :jap:
 
Puis la 1070 n'est pas encore dispo, et les premières versions éventuellement buggées encore moins


Message édité par jln2 le 17-03-2016 à 14:44:09
n°9762888
qhyron90
Soyez pas vache adoptez un cha
Posté le 17-03-2016 à 14:44:52  profilanswer
 

jln2 a écrit :


 
Sauf si la 1080 coute 800-900€ :o


 
 
non mais faut arrêter le délirium...
 
Pourquoi la 1080 serait à 900€ alors que cette gamme n'a jamais dépassé les 500/650€ ?
La 1080 Ti sera à 1200€ et la Titan à 1500€ ? :)
la 1070 à 600€ ? ;)

n°9762889
mat33000
Posté le 17-03-2016 à 14:44:54  profilanswer
 

Il est évident que si l'on attend toujours ,nous n'avons jamais rien .Mais parfois on peut regretter de ne pas avoir attendu 2-3 mois pour 25-30% de perf en + et peut etre 50 euros de plus.C'est la où je veux en venir. :)
 
@jln : oui effectivement on peut voir ca comme ca .Nous verrons bien avec les futurs jeux  ;)

Message cité 1 fois
Message édité par mat33000 le 17-03-2016 à 14:51:20
n°9762898
ssx99harlo​ck
Posté le 17-03-2016 à 15:00:56  profilanswer
 

mat33000 a écrit :

Il est évident que si l'on attend toujours ,nous n'avons jamais rien .Mais parfois on peut regretter de ne pas avoir attendu 2-3 mois pour 25-30% de perf en + et peut etre 50 euros de plus.C'est la où je veux en venir. :)
 
@jln : oui effectivement on peut voir ca comme ca .Nous verrons bien avec les futurs jeux  ;)


 
Boarf moi je patiente avec une 660 Ti....mais supaire cloquaide  :o J'ai laissé tomber GTA5 je refait du TF2...   [:casediscute]
 
Par contre quand je changerais la carte graphique (je vise une 1070 custom...) il me faudra changer d'écran avec (Iiyama B2403WS de 8 ans d'âge...[:transparency]...) et là pour le coup je sais pas quoi prendre  :??:  
 
 

n°9762899
mat33000
Posté le 17-03-2016 à 15:03:12  profilanswer
 

benq xl2430t si tu as les moyens ... :)  (mais on s'écarte du sujet la)


Message édité par mat33000 le 17-03-2016 à 15:05:48
n°9762925
Keriam
Espion infiltré rue-montgallet
Posté le 17-03-2016 à 15:32:35  profilanswer
 

Sinon je ne sais pas si vous avez vu cette News : http://www.generation-nt.com/nvidi [...] 26092.html
 
Reste à connaître perfs, date de sortie et prix ! :jap:

Message cité 1 fois
Message édité par Keriam le 17-03-2016 à 15:33:02

---------------
Ma config : i7 4790K / MSI Gaming 5 / 8 Go G-skill 1600Mhz CL9 / Gigabyte Gaming G1 980 Ti/ SSD Crucial M500 480 Go / Alim Seasonic g-550+/ Fractal R4 / Ecran Asus PG279Q
n°9762935
qhyron90
Soyez pas vache adoptez un cha
Posté le 17-03-2016 à 15:41:03  profilanswer
 

source: Nvidia confidential!
 
c'est du solide :o

mood
Publicité
Posté le 17-03-2016 à 15:41:03  profilanswer
 

n°9762938
Bouvman
You fuck my wife ?
Posté le 17-03-2016 à 15:43:56  profilanswer
 


Sincèrement je ne passe pas d'une 980 ti à une X80 pour seulement 2,5 Tflops de plus est un tdp inférieur de 75 watts. Ça attendra pour moi la X80 ti...

Message cité 1 fois
Message édité par Bouvman le 17-03-2016 à 15:45:11
n°9762944
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-03-2016 à 15:47:30  profilanswer
 

moi je veux la titan direct !


---------------
FeedBack
n°9762958
- gab
Posté le 17-03-2016 à 16:01:25  profilanswer
 

Keriam a écrit :

Sinon je ne sais pas si vous avez vu cette News : http://www.generation-nt.com/nvidi [...] 26092.html
 
Reste à connaître perfs, date de sortie et prix ! :jap:


"fuites leaks rumeurs actualités" dans le lien :D


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9762968
qhyron90
Soyez pas vache adoptez un cha
Posté le 17-03-2016 à 16:11:22  profilanswer
 

Bouvman a écrit :


Sincèrement je ne passe pas d'une 980 ti à une X80 pour seulement 2,5 Tflops de plus est un tdp inférieur de 75 watts. Ça attendra pour moi la X80 ti...


 
 
 
si le tableau était juste ça ferait 2.5x ma GTX 970 :lol:

n°9762985
cocto81
Posté le 17-03-2016 à 16:32:24  profilanswer
 

- gab a écrit :

De toute manière si nvidia sort son Pascal milieu de gamme en premier (en supposant qu'ils attendent la dispo de mémoire plus perf au troisième trimestre pour lancer le haut de gamme) il y a peu de chances que ça ridiculise la 980 ti. Si c'est comme pour Maxwell 2, ça sera au même niveau avec un meilleur rendement énergétique, pas de quoi rendre le hdg actuel obsolète.


En fait AMD et Nvidia auront un problème de passage de la gamme 28nm à 14/16nm. Le saut est tellement grand qu'un GPU basé sur une puce de même taille ira 4x plus vite à conso équivalente, pour un même coût de fabrication (hors charges de développement et investissement). Donc, en gros, à prix de production équivalent, à terme, on a le très haut de gamme 28nm qui sera dépassé par le très bas de gamme 14/16nm.
Donc 2 solution :
- la plus coûteuse : remplacer toute la gamme d'un coup à taille de puce identique. Investissement massifs, grosses pertes sur les gros GPU (car maîtrise imparfaite de la gravure).
- moins coûteuse : on remplace tranche par tranche le 28nm par du 14nm en commençant par un bout (bas ou milieu de gamme 14nm contre bas/milieu ou haut de gamme 28nm) avec des puces deux fois moins grandes que le 28nm mais tout de même avec 2x plus de circuits et consommant sensiblement moins.
 
A noter que Nvidia a laissé entendre que la partie calculs flottants déficiente sur Maxwell allait revenir dopée en 14nm (et cette partie va occuper un bon bout de la puce). Ce sera vrai au moins sur le GP100.
Les news qui parlent de sortie de carte HBM2 ppur avril me paraissent soit erronées sur la date soit pipeau. Samsung a à peine annoncé commencer en produire en début d'année et prévoire la prod de masse en automne 2016. SK Hynix parle de 2017 pour cause de problèmes de mise au point et se rabat sur la HBM1 avec plus de couches entre temps (pour AMD).
Pour moi le lancement d'avril va correspondre à un GP104 avec 8Go de GDDR5 et 4Go en version GPU castré. Et ça devrait être optimisé DX12 (ce qui est déjà mieux qu'une Titan Maxwell), peut-être pas encore accompagné des unités calculs flottants supplémentaires notamment double précision. Ils annonceront certainement les cartes HBM2 mais qui sortiront en fin d'année, au mieux durant l'automne. Aucun intérêt de faire un effort supplémentaire très coûteux qui va rien leur apporter.
Cette carte remplacera bien sûr à terme le segment des GTX 970/980, mais pas tout de suite, quand le 16nm remplaçant les GTX 950/960 sortira.
 
Wait and see au mois d'avril.

n°9762987
olakeen
Posté le 17-03-2016 à 16:34:12  profilanswer
 

Corrigez moi si je me trompe mais j'ai l'impression que tout le monde attend cette nouvelle génération comme le Saint Graal, que les gains vont être de +50%, etc...

 

Mais si on regarde les générations précédentes, on aurait :

 
  • 1080 = 980Ti
  • 1070 = 980 O/C
  • 1060 = 970


avec une consommation moindre et un prix plus "doux".

 

Je ne vois pas pourquoi Nvidia sortirait une génération miracle qui enterrerait la précédente.

 

Soit j'ai loupé un épisode, soit beaucoup de gens vont tomber de haut...

Message cité 3 fois
Message édité par olakeen le 17-03-2016 à 16:34:32
n°9762990
chaced
Posté le 17-03-2016 à 16:42:22  profilanswer
 

ils ont fait un saut énorme quand meme en passant de 28 à 16nm...
 
La génération précédente était en 32nm il me semble soit un saut ridicule a coté.


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°9762991
- gab
Posté le 17-03-2016 à 16:42:36  profilanswer
 

Avec Maxwell qui se vend comme des petits pains sur un process amorti depuis longtemps et le manque de concurrence, c'est clair qu'il ne faut pas s'attendre à ce qu'ils balancent tout ce qu'ils ont d'entrée de jeu.

 
cocto81 a écrit :

En fait AMD et Nvidia auront un problème de passage de la gamme 28nm à 14/16nm. Le saut est tellement grand qu'un GPU basé sur une puce de même taille ira 4x plus vite à conso équivalente, pour un même coût de fabrication (hors charges de développement et investissement).


Non mais ça c'est du fantasme théorique :D

 

Déjà le 14/16 nm est plus gros que ce que la désignation laisse penser, le process est moins mature que le 28 nm très bien maîtrisé sur Maxwell 2 (et les règles de design moins maîtrisées j'imagine), et surtout même si nvidia pouvait faire un truc 4 fois plus puissant pour le même prix que leurs GPU du moment ils n'ont aucun intérêt à faire une croix sur des marges de progression artificielles que des nouveaux GPU délibérément moins puissant leur offriraient.

 

Bref, aucune raison qu'ils fassent +100% de perfs si +30% suffisent à rendre leurs nouveaux GPU attractifs et à dépasser le concurrence (chiffres au pif).

 

Entre ce que la théorie permet de supposer et ce que la pratique permet de mettre en œuvre, il y a déjà une marge. Et entre ce qui peut être fait en pratique et ce que les décisions commerciales de nvidia dicteront, il y en a une de plus.

Message cité 1 fois
Message édité par - gab le 17-03-2016 à 16:45:35

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9763015
cocto81
Posté le 17-03-2016 à 17:14:06  profilanswer
 

- gab a écrit :

Avec Maxwell qui se vend comme des petits pains sur un process amorti depuis longtemps et le manque de concurrence, c'est clair qu'il ne faut pas s'attendre à ce qu'ils balancent tout ce qu'ils ont d'entrée de jeu.
 


 

- gab a écrit :


Non mais ça c'est du fantasme théorique :D
 
Déjà le 14/16 nm est plus gros que ce que la désignation laisse penser, le process est moins mature que le 28 nm très bien maîtrisé sur Maxwell 2 (et les règles de design moins maîtrisées j'imagine), et surtout même si nvidia pouvait faire un truc 4 fois plus puissant pour le même prix que leurs GPU du moment ils n'ont aucun intérêt à faire une croix sur des marges de progression artificielles que des nouveaux GPU délibérément moins puissant leur offriraient.
 
Bref, aucune raison qu'ils fassent +100% de perfs si +30% suffisent à rendre leurs nouveaux GPU attractifs et à dépasser le concurrence (chiffres au pif).
 
Entre ce que la théorie permet de supposer et ce que la pratique permet de mettre en œuvre, il y a déjà une marge. Et entre ce qui peut être fait en pratique et ce que les décisions commerciales de nvidia dicteront, il y en a une de plus.


J'ai pas dit tout de suite, mais à terme, en théorie, le 14/16nm aura à peu près un densité qu'on peut estimer proportionnelle. Disons qu'à la 3e gen en 2018 ça sera le cas, si c'est encore du 14 et 16nm, ce dont je doute. Mais ça ne veut pas dire qu'on en est loin. Il semblerait que TSMC utilisera déjà une techno 10nm sur le futur A10 d'Apple de cet automne.
De plus les fabricants GPU vont vouloir profiter de cette durée de remplacement pour ne pas sortir un GPU de même taille en remplacement de l'ancienne gamme. Je suis certain que Nvidia ne le fera pas, s'ils sortent un GPU de la taille du Titan Maxwell. Ils l'utiliseront d'abord comme du ultra-haut de gamme, très surfacturé (penser en milliers d'euros). Et AMD va vouloir produire pas cher et vendre à un prix décent pour se refaire. C'est pourquoi je dis que ceux qui rêvent d'un GP100 sous HBM2 remplaçant leur Titan Maxwell à bon prix rêvent debout. Mais leur Titan Maxwell est facile à doubler avec un GPU "modeste" en 16nm, et Nvidia va pas se faire d'illusion sur ce qu'il doit faire pour rester dans la course, parce qu'AMD peut sortir un GPU moyen qui bat la Titan dans tous les domaines, et pour un coût de prod ridicule en comparaison. Et il faut se rendre compte que si Nvidia doit changer d'architecture pour DX12, AMD n'en a même pas besoin. De plus AMD a une gamme 28nm qui se bonifie sous DX12, Nvidia non.
Tout ça indique que forcément Nvidia devra agir ainsi et sortir le GP104 tel que je l'ai décrit au plus vite. Et c'est visiblement ce qu'ils font (les samples - tout comme le bas de gamme AMD - ont déjà été repérés et ce ne sont pas des spéculations).
A noter qu'il ne semble pas qu'on ait vu de sample du moyen gamme AMD encore, alors qu'AMD était très confiant d'avoir sa gamme 2016 prête pour la rentrée.
 
Donc en résumé, les périodes de sortie prévues :
-Nvidia sort son moyen/haut de gamme GP104 en Avril (su moins le présente et le commercialise dans la foulée donc sous 1 mois au plus tard), au moins aussi performant qu'un Titan Maxwell.
-AMD sortirait son GPU Polaris bas de gamme en été (devrait remplacer le bas de gamme jusqu'on ne sait où - probablement leur R7 260/360)
-AMD sortira son GPU Polaris milieu de gamme (devrait remplacer les GPU AMD sous Fidji, voire Fidji mono-GPU) au début de l'automne au plus tard selon eux, pourrait être monté de HBM1 ou de GDDR5 (à suivre)
Entre temps AMD devrait monter au moins sur ses Fidji 8Go de RAM HBM1.
-Nvidia sortira courant automne/fin d'année le GP100 sous HBM 2 (32Go) en version très professionnelle (prix délirant) en GPU Quadro et GPGPU pur, et version gamer très haut de gamme (penser 2/3000 euros) avec un peu moins de HBM 2 (16Go). Le GP100 devrait être dans les 3x plus puissant que Fidji en mono-GPU.
-AMD sortira courant 2017 (plutôt 1ere moitié) un GPU haut de gamme sous HBM2 comparable au GP100.

Message cité 1 fois
Message édité par cocto81 le 17-03-2016 à 17:29:38
n°9763022
- gab
Posté le 17-03-2016 à 17:26:26  profilanswer
 

cocto81 a écrit :

C'est pourquoi je dis que ceux qui rêvent d'un GP100 sous HBM2 remplaçant leur Titan Maxwell à bon prix rêvent debout. Mais leur Titan Maxwell est facile à doubler avec un GPU "modeste" en 16nm, et Nvidia va pas se faire d'illusion sur ce qu'il doit faire pour rester dans la course, parce qu'AMD peut sortir un GPU moyen qui bat la Titan dans tous les domaines, et pour un coût de prod ridicule en comparaison.


Je suis d'accord avec le premier point (du mois dans les prochains mois). Par contre sur le deuxième, dans l'immédiat c'est hors de propos, il n'y a aucune chance que Polaris (prévu pour les portables cet été) tape une Titan dans tous les domaines, pour ça il faudra sans doute attendre Vega en 2017.
 
Dit autrement : oui, AMD peut sortir un GPU moyen qui bat la Titan dans tous les domaines, mais pas maintenant, ils ont d'autres objectifs à court terme pour faire rentrer de l'argent (portables & entrée/milieu de gamme — et 16 nm ou pas, c'est pas sur ce segment que déboulera le tueur de Titan). Donc c'est à eux de s'inquiéter de pouvoir rester dans la course, pas à nvidia qui pour l'instant a probablement toutes les cartes en main.
 

cocto81 a écrit :

Et il faut se rendre compte que si Nvidia doit changer d'architecture pour DX12, AMD n'en a même pas besoin.


AMD a quand même sacrément besoin de revoir son architecture pour remonter la pente niveau efficacité énergétique, au stade où ils en sont ils vont sans doute devoir la retravailler fondamentalement s'ils veulent pouvoir concurrencer Pascal sans continuer à faire exploser la conso (je serais curieux de voir ce que donnerait un die shrink de Fiji). Donc au moins autant de boulot d'un côté que de l'autre.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9763030
havoc_28
Posté le 17-03-2016 à 17:39:26  profilanswer
 

- gab a écrit :


AMD a quand même sacrément besoin de revoir son architecture pour remonter la pente niveau efficacité énergétique, au stade où ils en sont ils vont sans doute devoir la retravailler fondamentalement s'ils veulent pouvoir concurrencer Pascal sans continuer à faire exploser la conso (je serais curieux de voir ce que donnerait un die shrink de Fiji). Donc au moins autant de boulot d'un côté que de l'autre.


 
Personne ne voudrais d'un Die Shrink de Fidji vu qu'il est mal équilibré , ou alors dans ton "die shrink" tu rééquilibrerais la puce en ajoutant des ROPs , mais ça serait plus tout à fait un "die shrink" :D
 

n°9763032
- gab
Posté le 17-03-2016 à 17:40:24  profilanswer
 

Je ne dis pas que ça serait une bonne solution pour AMD, juste que je serais curieux de voir ce que ça donnerait :D
 
Mais c'est clair qu'ils ont besoin de plus que ça pour servir de base à leur prochaine gamme :jap:


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9763044
cocto81
Posté le 17-03-2016 à 17:55:43  profilanswer
 

- gab a écrit :


Je suis d'accord avec le premier point (du mois dans les prochains mois). Par contre sur le deuxième, dans l'immédiat c'est hors de propos, il n'y a aucune chance que Polaris (prévu pour les portables cet été) tape une Titan dans tous les domaines, pour ça il faudra sans doute attendre Vega en 2017.
 
Dit autrement : oui, AMD peut sortir un GPU moyen qui bat la Titan dans tous les domaines, mais pas maintenant, ils ont d'autres objectifs à court terme pour faire rentrer de l'argent (portables & entrée/milieu de gamme — et 16 nm ou pas, c'est pas sur ce segment que déboulera le tueur de Titan). Donc c'est à eux de s'inquiéter de pouvoir rester dans la course, pas à nvidia qui pour l'instant a probablement toutes les cartes en main.
 


En fait on parle milieu de gamme 14nm pas 28nm quand on parle de GPU AMD qui doivent sortir.
Tu sous-estimes très largement le passage de 28nm à 14/16nm. On n'est pas dans les CPU. On double les unités à largeur de bus et bande passante doublée, ça double les perfs automatiquement. Pas besoin de se stresser au niveau des perfs par unité, on peut même perdre en perf par unité, c'est pas grave.
AMD passe, en plus, à du 14nm optimisé. C'est un poil mieux que le 16nm de TSMC en densité, ce qui a été remarqué sur la A9 qui utilisait cependant du 14nm non optimisé contre du 16nm optimisé (d'où une légèrement meilleure conso sur le 16nm). le seul problème AMD : ne pas écraser la gamme Fidji par le bas. On peut même s'attendre pendant l'existence de Fidji à des limitation volontaire du GPU 14nm comme ils l'ont pratiqué sur les R9 285/380.

- gab a écrit :


AMD a quand même sacrément besoin de revoir son architecture pour remonter la pente niveau efficacité énergétique, au stade où ils en sont ils vont sans doute devoir la retravailler fondamentalement s'ils veulent pouvoir concurrencer Pascal sans continuer à faire exploser la conso (je serais curieux de voir ce que donnerait un die shrink de Fiji). Donc au moins autant de boulot d'un côté que de l'autre.


Ils n'en ont au contraire pas énormément besoin et c'est Nvidia qui va faire le chemin inverse et c'est la gravure va permettre ce gain.
La longue limitation du 28nm a stressé les 2 fabricants vers une augmentation permanente des perfs à l'unité de calcul, parce que l'usage des siliciums n'est pas extensible sans contrepartie.
AMD a décidé garder ses GPU, avec des caractéristiques de calculs pas intéressantes et spécifiquement optimisées dans les jeux, notamment jusqu'à DX11. Donc avec les années et nouvelles cartes AMD a juste permis de monter en fréquence sur ses cartes utilisant le même GPU (possiblement retouché), alors que Nvidia a simplement supprimé ses parties "inutiles" pour jeu tout en orientant toute l'optimisation vers le jeu (traitement des faces cachées qui autrement peuvent servir etc). Ces "optimisations", il ne faut pas se faire d'illusion, Nvidia va revenir dessus et remettre tout ce qu'ils on retiré, parce que dans le domaine pro, leur architecture Maxwell n'est plus vue comme une aubaine. Maxwell est juste une architecture opportuniste pour un moment de stagnation dans la gravure du silicium.
Donc sous 14/16nm on retrouvera une parité de conso AMD et Nvidia, tout naturellement.

n°9763059
Invite_Sur​prise
Racaille de Shanghaï
Posté le 17-03-2016 à 18:20:51  profilanswer
 

olakeen a écrit :

Je ne vois pas pourquoi Nvidia sortirait une génération miracle qui enterrerait la précédente.


Maxwell enterre complétement Kepler, si ce n'est au niveau DP, et on était toujours sur du 28nm.

n°9763076
havoc_28
Posté le 17-03-2016 à 18:39:57  profilanswer
 

Invite_Surprise a écrit :


Maxwell enterre complètement Kepler, si ce n'est au niveau DP, et on était toujours sur du 28nm.


 
Hum enterrer ?  
 
GK104 = 3.5 milliards de transistors pour 294 mm²  
GM204 = 5.2 milliard de transistors pour 398 mm²  
 
+48.5% de transistor pour seulement une surface augmentée de 35.5%
 
 
Je vois surtout que Maxwell a bénéficié d'un 28 nm plus mure , moins de courant de fuites et densité plus élevé et simplification de l'architecture . Mais à nombre de transistor égal entre Maxwell et Kepler à fréquence égale doit y avoir 15 à 20% d'écart en faveur de maxwell en plus d'en rendement énergétique meilleur ce qui est loin d'être négligeable ... (j'exclus volontairement le GK110 avec ses unités DP) .
 
Nvidia aurait même pu se contenter de faire un Kepler V2 au vu de ce qu'a produit AMD  :whistle:  , mais ils n'ont pris aucun risque et ont été pragmatique afin de maximiser leurs chances de dominer le marché ^^ .
 
Donc qu'est ce ça sera Pascal ? un Mix de Kepler et Maxwell , reprendre le multi engine de kepler , le flexibiliser et l'améliorer pour qu'il soit utilisable à la fois en "compute" et "graphic" , reprendre les unités de Maxwell en ajoutant encore une petite couche d'améliorations + l'explosion niveau transistor permis par le 16 nm et une version GP100 avec des unités DP et voila ?


Message édité par havoc_28 le 17-03-2016 à 18:47:16
n°9763081
cocto81
Posté le 17-03-2016 à 18:47:54  profilanswer
 

chaced a écrit :

ils ont fait un saut énorme quand meme en passant de 28 à 16nm...
 
La génération précédente était en 32nm il me semble soit un saut ridicule a coté.


Si je me rappelle bien :
ça a été de 40nm planaire à 28nm planaire Bulk chez AMD comme Nvidia sur les GPU, et après le 65nm avant. AMD a fait un passage de 40nm à 32nm PDSOI pour ses CPU et APU. Ils ont aussi aligné les séries d'APU en PDSOI avant de passer au 28nm Bulk, moins puissant mais plus économe.
 
Donc là on passe du 28nm planaire Bulk au 16 ou 14nm finfet Bulk. Le finfet permet, en plus, une diminution de la conso avec moins de fuites.
Ca a failli passer par le 20nm planaire (sans grand intérêt) alors qu'Intel est passé du 32nm planaire (Intel avait un planaire qui lui était déjà spécifique consommant moins), au 22nm Finfet et 14nm Finfet.
On estime que Samsung arrive à la même densité qu'Intel sur des circuits équivalents sur ce que Samsung appelle du 10nm par rapport au Intel 14nm. Par contre l'évaluation TSMC 16nm et 14nm Samsung/Glofo semblent se correspondre (voir CPU Arm Apple A9).
GloFO reprenant la techno FDSOI 28nm planaire de STMirco l'a améliorée en 23nm planaire. St Mirco avait aussi étudié la possibilité de passer au FDSOI Finfet 14/10/7 et 5 nm. La techno Soitec est supérieure au Bulk pour ce qui est de l'efficacité énergétique, mais Intel a massivement sponsorisé le Bulk. La gravure sur support Soitec est nettement moins chère mais demande un redessin complet du circuit. St Micro avec Ericsson ont developpé avec cette techno des CPU Arm, produits en France, particulièrement efficaces (des double coeurs) que Nokia, encore fabricant de smartphones indépendant, et leader du marché à l'époque, avait déjà choisi pour ses smartphones à venir (sous Symbian et Meego) mais Microsft a exigé l'abandon de ces CPU pour le passage sur des CPU Qualcomm, faisant d'une pierre deux coups : tuer la production européenne de CPU Arm et les circuits qui allaient avec, renflouer Qualcomm suite au règlement en sa faveur d'un conflit de longue date avec Nokia, et disparition de la base de développement du FD-SOI basé sur Soitec (société Française). Il est à noter que la techno FD-Soi pouvait bien se retrouver dans les CPU et GPU AMD via Glofo et IBM, partenaire de StMicro, et en remontant un peu plus loin, avant la revente de Glofo par AMD, à AMD tout court, leur donnant une avantage net en performances non plus par rapport à Nvidia mais Intel...
 
Comme quoi cette histoire de gravure n'est pas toute rose, des fondeurs d'un côté et des fabricants de l'autre.
 
Intel semble encore jouer dans une autre cour mais l'avance s'estompe rapidement.
 
Donc l'actuel saut de techno gravure pour les GPU est sans précédent.
 
Je cite ça de mémoire. Me corriger si j'ai faux, mais je ne pense pas.


Message édité par cocto81 le 17-03-2016 à 18:49:01
n°9763094
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-03-2016 à 19:04:19  profilanswer
 

qhyron90 a écrit :

  

si le tableau était juste ça ferait 2.5x ma GTX 970 :lol:


bah déjà une 980ti , ça équivaut + ou - a un sli de 970

 

edit : en tout cas j'ai récupéré une 970 strix en échange de ma 980ti avec wb +e , bah elle envoie bien ! 1500gpu et 2000 la ram avec une ventilation a 50% pour 62° ! J'avais pas encore test ce modèle bah je pense que pour la titan si on a du custom , je partirais la dessus car niveau bruit y a pas photo , c'est mieux que ma 980ti g1 gaming !

Message cité 1 fois
Message édité par B1LouTouF le 17-03-2016 à 19:06:41

---------------
FeedBack
n°9763098
Bouvman
You fuck my wife ?
Posté le 17-03-2016 à 19:12:00  profilanswer
 

ravenloft a écrit :


Je ne syuis pas le seul à souhaiter qu'il y a ait 6000 cuda cores sur le hdg.  
Certains m'ont dit ici que le gp100 n'en aurait que 4000 car 6000 c'était pas raisonnable donc on verra bien.


 
Non mais le GP100 il va claquer grave. On va tous se prendre la X80ti...
 
 

n°9763100
havoc_28
Posté le 17-03-2016 à 19:14:15  profilanswer
 

Bouvman a écrit :


 
Non mais le GP100 il va claquer grave. On va tous se prendre la X80ti...
 
 


 
 
Et 1 ans plus tard il sorte la version "light" sans unité DP et encore plus performante ?  :whistle:

n°9763102
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-03-2016 à 19:17:05  profilanswer
 

a mon avis on est pas la de voir la titan et la ti , on va avoir du truc basique a +20/30% de perf , x80 x70 et 6/7 mois plus tard la titan suivi de 3/4 mois plus tard la fameuse ti , après si ils sortent tout direct , tant mieux , je prends la titan direct si y a du custom ou des wb dispo :D , sinon je partirais sur la ti


---------------
FeedBack
n°9763109
- gab
Posté le 17-03-2016 à 19:25:39  profilanswer
 

Non mais ils sortiront jamais tout direct, ils ont pas la mémoire qu'il faut pour le GP100 déjà :D


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9763116
cocto81
Posté le 17-03-2016 à 19:34:52  profilanswer
 

ravenloft a écrit :


Je ne suis pas le seul à souhaiter qu'il y a ait 6000 cuda cores sur le hdg.  
Certains m'ont dit ici que le gp100 n'en aurait que 4000 car 6000 c'était pas raisonnable donc on verra bien.


Pour moi il aurait pu y en avoir plus, mais 6000 ça va. J'imagine que c'est seulement 6000 parce qu'ils ont ramené les caculs DP. Ca pourrait vouloir dire que le GP104, la version tout public, n'en a pas à l'image de toute la gamme Maxwell. Ca serait pas idiot. Si AMD a excellé sur plusieurs de ses haut de gamme dans le DP c'est qu'il les a gardé alors qu'il sortait un plus haut de gamme sur un chip encore plus imposant. Nvidia n'en a sorti que 2 et aucun sur Maxwell.
La sortie du GP100 n'est pas pour tout de suite, je suis prêt à parier.
Il y aura un déclinaison de GP104 annoncée dès le mois prochain sur laquelle tous les gamers mal équipés, qui étaient en attente, vont se ruer, mais ça sera pas donné, puis un GP100 en automne à des prix et à des perfs qui n'intéresseront que les pro et certains joueurs aux configs insolites.
 
Les fans Nvidia équipés de Titan Maxwell (même achetée récemment) vont certainement revendre à vil prix leur carte d'ici 2 mois, pour acquérir les nouvelles en 14nm à base de GP104. Quand à la GP100, c'est pas la peine d'attendre, il est clair que le prix sera inabordable (pour le simple jeu), et par ailleurs sans intérêt supplémentaire majeur en gaming.

n°9763150
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-03-2016 à 20:24:55  profilanswer
 

sur le coup je pense que je vais attendre et pas me faire entuber a prendre la première sortie !


---------------
FeedBack
n°9763154
FMulderFBI
Posté le 17-03-2016 à 20:30:38  profilanswer
 

Je sais pas si vous êtes au courant mais la puissance de votre carte ne va pas baisser le jour de la sortie de pascal.

n°9763157
blackkaise​r
Borat pour steam
Posté le 17-03-2016 à 20:34:16  profilanswer
 

FMulderFBI a écrit :

Je sais pas si vous êtes au courant mais la puissance de votre carte ne va pas baisser le jour de la sortie de pascal.


 
 
exacte  :D  c'est des ouf

n°9763174
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-03-2016 à 20:54:08  profilanswer
 

surtout son prix de revente , l'année dernière j'avais pris un sli de 980HOF , 3 semaines après annonce de la ti ! Bah ça fait mal aux fesses car après , oué blabla la nouvelle carte vaut 150e de plus blablabla :D


---------------
FeedBack
n°9763191
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 17-03-2016 à 21:21:27  profilanswer
 

je me disais ils annoncent rien blabla , ça sortira pas et bim ! La si ça se trouve ça en parle et ça va pas sortir la mais j'aurais déjà tout revendu :D


---------------
FeedBack
n°9763195
Bouvman
You fuck my wife ?
Posté le 17-03-2016 à 21:24:39  profilanswer
 

B1LouTouF a écrit :

je me disais ils annoncent rien blabla , ça sortira pas et bim ! La si ça se trouve ça en parle et ça va pas sortir la mais j'aurais déjà tout revendu :D


 
La 970 est d'ailleurs sortie comme ça, du jour au lendemain, j'ai speedé ma race pour mettre ma 770 sur le bon coin, heureusement un mec qui ne devait pas être au courant me l'a acheté pour un bon prix...
 
 

n°9763196
dave76
A momentary lapse of reason
Posté le 17-03-2016 à 21:28:51  profilanswer
 

cocto81 a écrit :


Pour moi il aurait pu y en avoir plus, mais 6000 ça va. J'imagine que c'est seulement 6000 parce qu'ils ont ramené les caculs DP. Ca pourrait vouloir dire que le GP104, la version tout public, n'en a pas à l'image de toute la gamme Maxwell. Ca serait pas idiot. Si AMD a excellé sur plusieurs de ses haut de gamme dans le DP c'est qu'il les a gardé alors qu'il sortait un plus haut de gamme sur un chip encore plus imposant. Nvidia n'en a sorti que 2 et aucun sur Maxwell.
La sortie du GP100 n'est pas pour tout de suite, je suis prêt à parier.
Il y aura un déclinaison de GP104 annoncée dès le mois prochain sur laquelle tous les gamers mal équipés, qui étaient en attente, vont se ruer, mais ça sera pas donné, puis un GP100 en automne à des prix et à des perfs qui n'intéresseront que les pro et certains joueurs aux configs insolites.
 
Les fans Nvidia équipés de Titan Maxwell (même achetée récemment) vont certainement revendre à vil prix leur carte d'ici 2 mois, pour acquérir les nouvelles en 14nm à base de GP104. Quand à la GP100, c'est pas la peine d'attendre, il est clair que le prix sera inabordable (pour le simple jeu), et par ailleurs sans intérêt supplémentaire majeur en gaming.


 
Ceux qui croient à une éventuelle sortie du GP100 dès le début ( et ce même si la HBMv2 avait été dispo ) me font bien rire, les sorties ont toujours fonctionné de la même manière  XX70/XX80/titan et ~9/12 mois après le model Ti!


---------------
Celui qui donne ne doit jamais s'en souvenir, celui qui reçoit ne doit jamais l'oublier!
n°9763200
havoc_28
Posté le 17-03-2016 à 21:34:36  profilanswer
 

dave76 a écrit :


 
Ceux qui croient à une éventuelle sortie du GP100 dès le début ( et ce même si la HBMv2 avait été dispo ) me font bien rire, les sorties ont toujours fonctionné de la même manière  XX70/XX80/titan et ~9/12 mois après le model Ti!


 
Toujours ? :D avant kepler ça toujours été le gros GPU qui sortait en premier :o .

n°9763206
Marc
Chasseur de joce & sly
Posté le 17-03-2016 à 21:43:43  profilanswer
 

Toujours depuis 2012 :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  23  24  25  ..  1033  1034  1035  1036  1037  1038

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Rise of the Tomb Raider offert par Nvidia[HFR] Actu : CES: Drive PX 2: Tegra et Pascal au pilotage
Comment reconnaitre le lecteur E:\ "Nvidia Geforce Experience"Nvidia comme pilote
Windows 10: Code 43 sur CG Nvidia 750mLunette 3D nvidia vision 2
nvidia shield proInstallation carte graphique NVIDIA NVS 510 sur PC tour HP Pavilion P6
[HFR] Actu : Pilotes Nvidia 361.43 WHQLNvidia GTX (960 ou 760 ou 660)?
Plus de sujets relatifs à : [Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)