Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2868 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GTC: N'attendez pas de GeForce en GP100

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[HFR] Actu : GTC: N'attendez pas de GeForce en GP100

n°9776385
tridam
Profil : Equipe HardWare.fr
Posté le 06-04-2016 à 10:14:00  profilanswer
1Votes positifs
 

Si le GP100 a fait les gros titres de la GTC, il est désormais à peu près certain en ce qui nous concerne qu'il n'y aura pas de GeForce l'utilisant, hormis ...
Lire la suite ...

mood
Publicité
Posté le 06-04-2016 à 10:14:00  profilanswer
 

n°9776389
petit-tigr​e
miaou
Posté le 06-04-2016 à 10:30:13  profilanswer
1Votes positifs
 

Eh bien wait & see alors.... les Maxwell ont encore de beaux jours devant elles.


---------------
mIaOuUuUuUuUuUu
n°9776400
Invite_Sur​prise
Racaille de Shanghaï
Posté le 06-04-2016 à 10:40:26  profilanswer
1Votes positifs
 

Peut-être le fameux GP102 associé à la GDDR5X.

n°9776401
taronyu26
Posté le 06-04-2016 à 10:40:47  profilanswer
0Votes positifs
 

Dommage... ça nous intéressait bien pour le boulot. :(

n°9776402
ockiller
Posté le 06-04-2016 à 10:41:24  profilanswer
0Votes positifs
 

Intéressant, le GP100 semblait moins approprié pour les jeux que les Maxwell

n°9776405
neurotoxic
Posté le 06-04-2016 à 10:45:47  profilanswer
2Votes positifs
 

"Nvidia aurait fait le choix pragmatique de développer deux solutions haut de gamme en parallèle."  
C'est surtout qu'ils peuvent se le permettre !
 

n°9776411
taronyu26
Posté le 06-04-2016 à 10:55:37  profilanswer
1Votes positifs
 

neurotoxic a écrit :

"Nvidia aurait fait le choix pragmatique de développer deux solutions haut de gamme en parallèle."  
C'est surtout qu'ils peuvent se le permettre !
 


 
Bah en même temps imagine s'il n'y avait pas de Tesla, Quadro et GTX mais une seule gamme, et qu'elle devait répondre aux besoins de tous (jeu, applications accélérées, computing pur et dur)...
Ce serait n'importe quoi. Tout le monde n'y trouverait pas son compte.

n°9776415
Invite_Sur​prise
Racaille de Shanghaï
Posté le 06-04-2016 à 11:02:15  profilanswer
2Votes positifs
 

Une solution pour concurrencer Intel en HPC et une autre à destination d'AMD pour la partie gaming.

n°9776422
floppytoo
Membre Hardware.fr depuis 2001
Posté le 06-04-2016 à 11:07:45  profilanswer
0Votes positifs
 

Vous dites :  
C'est par exemple le cas de la double précision ou encore des liens NVLink.
 
Et c'est le seul bench que vous n'annoncez pas dans l'autre article... :(

n°9776436
bluedragon​38
Posté le 06-04-2016 à 11:14:57  profilanswer
1Votes positifs
 

En faite ils se sont touché chez nvidia pendant 2 ans c'est ça ?

mood
Publicité
Posté le 06-04-2016 à 11:14:57  profilanswer
 

n°9776440
lulunico06
Posté le 06-04-2016 à 11:17:05  profilanswer
0Votes positifs
 

Si nvidia fait un très gros die jeu il aura une puissance de calcul supérieur au gp100.
Du coup il faudra énormément de bande passante.
Sans hbm 2 gddr5x en bus 512 bits.
Soit 768 go/s.
Pas sûr que ça suffit.
Et ça aura un coût en terme de taille.
AMD a dit que le bus hbm de fiji est plus petit que le bus 512 bits de Hawaï.
Hawaï à un petit bus 512 bits car basse fréquence.
La il sera haute fréquence donc encore plus gros.
Il y aura un coût niveau consommation aussi même si c'est mieux que la gddr5.

n°9776445
neurotoxic
Posté le 06-04-2016 à 11:22:01  profilanswer
0Votes positifs
 

taronyu26 a écrit :

neurotoxic a écrit :

"Nvidia aurait fait le choix pragmatique de développer deux solutions haut de gamme en parallèle."  
C'est surtout qu'ils peuvent se le permettre !
 


 
Bah en même temps imagine s'il n'y avait pas de Tesla, Quadro et GTX mais une seule gamme, et qu'elle devait répondre aux besoins de tous (jeu, applications accélérées, computing pur et dur)...
Ce serait n'importe quoi. Tout le monde n'y trouverait pas son compte.


 
Bah c'est ce qu'ils faisaient ! Il déclinaient une architecture GPU efficace et souple, c'était d'ailleurs ça le changement des archi GPU à partir de la 8800GTX. Parallélisable, souple ... Donc du coup je réitère, c'est surtout parce qu'ils ont les moyens de développer une archi dédiée au GPU computing.

n°9776459
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-04-2016 à 11:33:13  profilanswer
0Votes positifs
 

floppytoo a écrit :

Vous dites :  
C'est par exemple le cas de la double précision ou encore des liens NVLink.
 
Et c'est le seul bench que vous n'annoncez pas dans l'autre article... :(


?

n°9776460
ever_over
Posté le 06-04-2016 à 11:34:17  profilanswer
1Votes positifs
 

neurotoxic a écrit :


Bah c'est ce qu'ils faisaient ! Il déclinaient une architecture GPU efficace et souple, c'était d'ailleurs ça le changement des archi GPU à partir de la 8800GTX. Parallélisable, souple ... Donc du coup je réitère, c'est surtout parce qu'ils ont les moyens de développer une archi dédiée au GPU computing.


Ils ont les moyens et surtout ils considèrent que ce sera rentable. Si le deep Learning est aussi utile que ce qu'on prévoit aujourd'hui et si NVidia arrive à prendre une position dominante dans ce secteur, ils pourront facilement doubler ou tripler leur chiffre d'affaire dans les années qui viennent. C'est suffisant pour motiver la création d'un gpu dédié.


Message édité par ever_over le 06-04-2016 à 11:34:54
n°9776466
taronyu26
Posté le 06-04-2016 à 11:41:24  profilanswer
1Votes positifs
 

Citation :

Bah c'est ce qu'ils faisaient ! Il déclinaient une architecture GPU efficace et souple, c'était d'ailleurs ça le changement des archi GPU à partir de la 8800GTX. Parallélisable, souple ... Donc du coup je réitère, c'est surtout parce qu'ils ont les moyens de développer une archi dédiée au GPU computing.


Citation :

Ils ont les moyens et surtout ils considèrent que ce sera rentable. Si le deep Learning est aussi utile que ce qu'on prévoit aujourd'hui et si NVidia arrive à prendre une position dominante dans ce secteur, ils pourront facilement doubler ou tripler leur chiffre d'affaire dans les années qui viennent. C'est suffisant pour motiver la création d'un gpu dédié.


Sans même penser au marketing ou à l'architecture : il y a des besoins différents en termes d'unités sur la puce (le jeu n'a cure du FP64, et je ne pense pas que le FP16 l'intéresse non plus, là où le premier est vital pour le calcul scientifique de simulation et le second très important pour le deep learning qui émerge)...
Ça justifie déjà de proposer deux solutions fondamentalement différentes, à mon sens.

n°9776469
lulunico06
Posté le 06-04-2016 à 11:45:44  profilanswer
1Votes positifs
 

Le fp16 est très utile pour les gpu mobile.

n°9776478
Kenshin011
Posté le 06-04-2016 à 12:01:31  profilanswer
3Votes positifs
 

Ca me parait tellement logique.
On attendait tous un monstre de puissance, et force est de reconnaitre que même si on ne peut pas forcément comparer "nombre de coeur a nombre de coeur", les specs du GP100, compte tenu du passage du 28 au 16nm, n'ont rien d’exceptionnelle. Alors qu'il double le nombre de transistor, et qu'il est énorme.
En regardant juste le nombre de transistor et la surface, je m'attendais a des chiffres coeurs/TMU/ROP plus impressionnante que ça.
Mais la DP et les choix computing prenne énormément de place.
 
Si on pouvait avoir un GPU rien que pour nous, et plus haut de gamme qu'un GP104 (qui ne sacrifierais pas le nombre de transistor ou les coeurs, mais qui utiliserait la même surface uniquement pour le jeu) ça serait toooop


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
n°9776493
bjone
Insert booze to continue
Posté le 06-04-2016 à 12:21:32  profilanswer
2Votes positifs
 

Mmm... AMD a peut-être une fenêtre de tir.

n°9776501
cricrione
Posté le 06-04-2016 à 12:41:24  profilanswer
0Votes positifs
 

par contre avec ibm ils vont construire le plus puissant super calculateur au monde avec ce genre de carte  
http://www.nvidia.fr/object/tesla- [...] 14-fr.html

n°9776503
Xillendo
Posté le 06-04-2016 à 12:44:55  profilanswer
0Votes positifs
 

Ça confirme ce que je pensais après la présentation d'hier : le GP100 n'est pas conçu pour le jeu.
Après on pourrait jouer avec, mais j'imagine que le Perf/W et le Perf/Prix ne serait pas au rendez-vous.
 
Et du coup, Nvidia, comme AMD, va sortir des GPU plus raisonnables en GDDR5(X) cette année, et il faudra attendre 2017 pour des gros GPU avec HBM2 orienté grand public. (Vega chez AMD, ??? chez Nvidia)

n°9776507
Xixou2
Posté le 06-04-2016 à 12:49:13  profilanswer
0Votes positifs
 

En fait les 12 GBytes de la titan x ont été useless car peu de personnes ont la titan x, donc aucun jeu n'exploite les 12 Gbytes (je pense a xcom2 qui lag a cause du chargement des textures mais qui n'utilise que 2 GBytes de vram).
Donc si il y avait dérivé pour une titan x ca serait quand meme useless pour les gamers.


Message édité par Xixou2 le 06-04-2016 à 15:57:17
n°9776519
havoc_28
Posté le 06-04-2016 à 13:00:53  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Si nvidia fait un très gros die jeu il aura une puissance de calcul supérieur au gp100.
Du coup il faudra énormément de bande passante.
Sans hbm 2 gddr5x en bus 512 bits.
Soit 768 go/s.
Pas sûr que ça suffit.
Et ça aura un coût en terme de taille.
AMD a dit que le bus hbm de fiji est plus petit que le bus 512 bits de Hawaï.
Hawaï à un petit bus 512 bits car basse fréquence.
La il sera haute fréquence donc encore plus gros.
Il y aura un coût niveau consommation aussi même si c'est mieux que la gddr5.


 
Tu exagères le besoin en bande passante ...
Le GP100 c'est pour une utilisation très orientée  et donc besoins bien spécifiques , faut pas extrapoler ce dont aura besoin la puce HDG pour le gaming par rapport au GP100 et sa HBM2 , à titre de comparaison le GM200 se contente très bien de 313 go/s .
De plus Hawaï pour rappel , sur R9 390(X) , la fréquence de la GDDR5 à été portée à 1500mhz c'est pas spécialement si "lent" que ça .  
La Fréquence de la GDDR5X ne va pas spécialement augmenter par rapport à la GDDR5 , la GDDR5X ils vont doubler le prefetch ...


Message édité par havoc_28 le 06-04-2016 à 13:44:16
n°9776528
major95
The !!!! Beat
Posté le 06-04-2016 à 13:17:40  profilanswer
1Votes positifs
 

bjone a écrit :

Mmm... AMD a peut-être une fenêtre de tir.


 
Ce serait pas la 1er fois que Nv se plante lorsqu'ils dominent. Se rappeler des Fx avec leurs CineFX  :whistle:

n°9776622
grosnabot
Posté le 06-04-2016 à 14:31:38  profilanswer
2Votes positifs
 

Si le polaris de cette année fait 2x ou pas loin les perfs d'une 7950 pour environ 200eur(disons plage de 170-270 max), ça devrait faire un carton. C'est ça "la fenêtre de tir".
 
Faut arrêter de croire que tous les gens mettent 500-600eur dans une carte vidéo. Même si ça plairait beaucoup à certains.
Qu'nvidia sorte un haut de gamme cette année je crois que la majorité des consommateurs ça ne les intéresse pas trop(faites péter les stats de vente de cartes si vous en avez).
Avoir une vitrine c'est bien, avoir une carte qui se vend c'est mieux.
 
Moi, si la gpu d'amd de cette année fait ce que j'ai dit juste au dessus, j'achète.


Message édité par grosnabot le 06-04-2016 à 14:42:27
n°9776625
major95
The !!!! Beat
Posté le 06-04-2016 à 14:34:00  profilanswer
0Votes positifs
 


Ah effectivement c'est moins glamour  :o

n°9776635
Noim
pwnd
Posté le 06-04-2016 à 14:43:11  profilanswer
3Votes positifs
 

grosnabot a écrit :

Si le polaris de cette année fait 2x ou pas loin les perfs d'une 7950 pour environ 200eur, il devrait faire un carton. C'est ça "la fenêtre de tir".


 
Sur les discrete GPU, c'est le marché des cartes entre 300 et 400€ qui est porteur.  
 
Je pense qu'il est beaucoup trop tôt pour tirer la moindre conclusion, au-delà de la simple évidence qui est qu'Nvidia est prêt, tellement prêt qu'ils seront les premiers à commercialiser non seulement une carte nouvelle archi, mais qui plus est la première carte en HBM2 (ce qui en soit est assez ironique).
 
On ne sait pour ainsi dire rien de Polaris ni de Vega, ni même des modifications qui vont être apportées pour adapter Pascal au secteur gaming. On est même pas sûr que les marques vont sortir des cartes qui seront dans la même gamme, donc concurrentes, en 2016. AMD a évoqué la gamme mid et mobile, si Nvidia sort une carte Pascal/GDDR5(X) gaming/enthusiast, ce sera comme comparer des pommes et des oranges.  
 
Edit : beaucoup de gens retenaient leur achat en espérant que les nouvelles archi + HBM2 sortiraient cette année.


Message édité par Noim le 06-04-2016 à 14:47:00
n°9776637
grosnabot
Posté le 06-04-2016 à 14:46:37  profilanswer
1Votes positifs
 

hmm vrai que la 970 gaming msi a l'air de se vendre bien...à 388eur
 
Et dire que quand j'ai mis 250eur dans ma asus hd4870 512Mo gddr5 je trouvais déjà ça élevé !
 
qui est le vengeur masqué qui a moinssé noim nanmého!

Message cité 1 fois
Message édité par grosnabot le 06-04-2016 à 14:58:54
n°9776645
Noim
pwnd
Posté le 06-04-2016 à 14:52:34  profilanswer
2Votes positifs
 

*Sad Panda*
 
Je sais pas si j'arriverais à surmonter.
 
Ah si, en fait :D

n°9776649
grosnabot
Posté le 06-04-2016 à 14:55:42  profilanswer
0Votes positifs
 

Après "vérification" de 200 à 400eur pour la plus grosse part des ventes avec plus sur 300-400 :)
 
Enfin je ne peux que voir le nombre de retours clients pas les ventes en chiffre mais il y a aussi le "taup des ventes"
 
Mais pour le coup la carte "haut de gamme" dont on parle ne sera probablement pas à 300-400eur donc hors "marché porteur"
nvidia a plus de moyens ils vont probablement mettre en place une gamme "complète" plus rapidement.
 
wait&see


Message édité par grosnabot le 06-04-2016 à 15:08:32
n°9776668
Noim
pwnd
Posté le 06-04-2016 à 15:12:32  profilanswer
1Votes positifs
 

grosnabot a écrit :


Mais pour le coup la carte "haut de gamme" dont on parle ne sera probablement pas à 300-400eur donc hors "marché porteur"
 
wait&see


 
Très juste, mais on peut aussi imaginer un schéma de sortie comme celui des GTX 9XX.  
Sortie simultanée des 980 et 970 avec cette dernière autour de 320€ je crois. On aurait du coup 2 Pascal/GDDR5(X) en 2016.
Ca leur a pas trop mal réussi, donc pourquoi pas?


Message édité par Noim le 06-04-2016 à 15:13:54
n°9776678
Tigrou
Sans accroc
Posté le 06-04-2016 à 15:21:09  profilanswer
0Votes positifs
 


Pour du jeu a-t-on vraiment besoin de tant de bande passante mémoire que de la GDDR5 ou GDDR5X ne puisse l'assurer? Je ne me rends pas bien compte.
Y a-t-il un logiciel genre GPU-Z permettant de visualiser ça?


Message édité par Tigrou le 06-04-2016 à 21:18:35

---------------
Feedback - Stacy's mom
n°9776697
ockiller
Posté le 06-04-2016 à 15:34:58  profilanswer
0Votes positifs
 

Un logiciel comme Afterburner permet de surveiller le "Framebuffer usage", au moins sur les cartes nVidia (c'est des restes de RivaTuner). Je ne sais pas si ça correspond exactement ou pas à l'utilisation de la bande passante mémoire.
 
En tous cas les GTX 900 sont quand même un peu à l'étroit avec leur bande passante mémoire actuelle. Après je ne sais pas si la tendance des jeux à consommer de plus en plus de puissance de calcul vis à vis de la bande passante mémoire est naturelle ou calquée sur l'évolution du matériel, mais je pense qu si on donnait plus de BP aux développeurs ils trouveraient plein de façons de s'en servir...

n°9776698
havoc_28
Posté le 06-04-2016 à 15:36:09  profilanswer
0Votes positifs
 

ockiller a écrit :

Un logiciel comme Afterburner permet de surveiller le "Framebuffer usage", au moins sur les cartes nVidia (c'est des restes de RivaTuner). Je ne sais pas si ça correspond exactement ou pas à l'utilisation de la bande passante mémoire.
 
En tous cas les GTX 900 sont quand même un peu à l'étroit avec leur bande passante mémoire actuelle. Après je ne sais pas si la tendance des jeux à consommer de plus en plus de puissance de calcul vis à vis de la bande passante mémoire est naturelle ou calquée sur l'évolution du matériel, mais je pense qu si on donnait plus de BP aux développeurs ils trouveraient plein de façons de s'en servir...


 
A l'étroit ? Augmenter la fréquence de la GDDR5 sur Maxwell apporte un gain transcendant ? Non .

n°9776718
ockiller
Posté le 06-04-2016 à 15:55:01  profilanswer
0Votes positifs
 

havoc_28 a écrit :

A l'étroit ? Augmenter la fréquence de la GDDR5 sur Maxwell apporte un gain transcendant ? Non .


En même temps désactiver des unités du GPU a un impact bien plus faible que la règle de trois (GTX 970 et 980 Ti), et on suspecte que la fréquence GPU a un impact sur sa capacité à exploiter toute sa bande passante mémoire (HFR a constaté des gains de perfs plus grands que l'augmentation des fréquences, on sait pas tout ce qu'il se passe...).
 
Et la plupart du temps il semble y avoir juste ce qu'il faut si on n'utilise pas le MSAA alors qu'avant il y avait plus de marge pour s'en servir, là ça coûte cher sur les GTX 900.

n°9776793
darkandy
?
Posté le 06-04-2016 à 16:50:15  profilanswer
2Votes positifs
 

grosnabot a écrit :

hmm vrai que la 970 gaming msi a l'air de se vendre bien...à 388eur
 
Et dire que quand j'ai mis 250eur dans ma asus hd4870 512Mo gddr5 je trouvais déjà ça élevé !
 
qui est le vengeur masqué qui a moinssé noim nanmého!


 
 
Oui enfin tu as aussi des 970 OC pour 300 boules, avec un ventirad custom qui fait tout aussi bien (mais sans dragon, ni rouge  :whistle: ).
 
Ce qui me fascine c'est d'acheter une carte avec 3.5Go de ram à pleine fréquence  ( les 512Mo, lents et restant invités à l'improviste ):o


Message édité par darkandy le 06-04-2016 à 16:51:10

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9776797
petit-tigr​e
miaou
Posté le 06-04-2016 à 16:58:34  profilanswer
0Votes positifs
 

Il y a 4 Go sur la 970, tant physiquement qu'exploitables. Les 512 Mo lents, c'est beaucoup de vent et rien de concret.


---------------
mIaOuUuUuUuUuUu
n°9777005
darkandy
?
Posté le 06-04-2016 à 21:44:29  profilanswer
0Votes positifs
 

petit-tigre a écrit :

Il y a 4 Go sur la 970, tant physiquement qu'exploitables. Les 512 Mo lents, c'est beaucoup de vent et rien de concret.


 
[:petoulachi]


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9777131
syl1979
Posté le 07-04-2016 à 03:37:54  profilanswer
1Votes positifs
 

petit-tigre a écrit :

Il y a 4 Go sur la 970, tant physiquement qu'exploitables. Les 512 Mo lents, c'est beaucoup de vent et rien de concret.


 
Disons plutot que c'est tres reel mais qu'il n'y a aucun impact sur les performances au final dans les jeux...

n°9777216
Le Profana​teur
Passéiste désincarné
Posté le 07-04-2016 à 09:58:54  profilanswer
0Votes positifs
 

Si ça force les GCs à respecter le 90 et le 50, je suis pas contre....
Mais si c'est pour les réconforter dans leurs 70/70 «je ne me pose pas de question, je suis un bon conducteur»....


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GTC: N'attendez pas de GeForce en GP100

 

Sujets relatifs
[HFR] Actu : GTC: Nvidia Tesla P100: 10 Tflops, HBM2...[HFR] Actu : Radeon Software 16.4.1 Hotfix
[HFR] Actu : Samsung grave la DRAM en 1xnm[HFR] Actu : GTC: Deep-learning : +70% pour Pascal
Plus de sujets relatifs à : [HFR] Actu : GTC: N'attendez pas de GeForce en GP100


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)