Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1592 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

[HFR] Actu : Nouvelle Nvidia Titan X: GP102, 11 Tflops, 480 Go/s

n°9889797
maxelo
Posté le 22-07-2016 à 22:29:30  profilanswer
2Votes positifs
 

Reprise du message précédent :

diablo_III a écrit :

est-ce utopique d'envisager les perf de 3xGTX980 ou 2x1070?. Si on extrapole les Cuda Core et la bande passante, ca semble jouable... souhaitons que HFR soit servi (la semaine prochaine) par Nvidia.


 
Non c'est logique même
2x970 = titan X  
2x1070 = titan X p
 
Pour ça qu'elle va encore pas se vendre et restera une carte vitrine
 
À 900€ le sli contre 1300€ c'est vite vu (avis personnel)
 
 :jap:  
 

mood
Publicité
Posté le 22-07-2016 à 22:29:30  profilanswer
 

n°9889813
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 22-07-2016 à 22:46:32  profilanswer
1Votes positifs
 

sepiroth a écrit :


Je précise pour les golden boys qui parlent de salaires et de grandes écoles (moi aussi je suis ingé et je manage 40 personnes) que ce n'est pas un problème de moyens, je dépense facilement 6 à 10 titan x par an dans mes bagnoles entre mes sorties circuit, les consommables, les pièces etc ... Je ne suis juste pas d'accord pour acheter du matériel qui ne vaut pas son prix  :jap:  


 
Qui ne vaut pas son prix pour ton utilisation, car la communication d'nVidia ne "conçoit" pas cette carte pour le gamer.
Ne serait-ce que dévoiler cette carte à une "petite" conférence scientifique de Stanford, je ne vois l'impact marketing auprès du gamer en la dévoilant comme ça.
 
Faut croire que cette puissance peut servir à autre chose que d'afficher du jeu et que ça reste "accessible" pour certains pour faire "d'autres choses".

Message cité 1 fois
Message édité par Paul-Hewson le 22-07-2016 à 23:41:54
n°9889854
theangel54​0
Posté le 22-07-2016 à 23:27:20  profilanswer
3Votes positifs
 

340 gflops en dp64 pour de l'opencl!  
MentalRay satellite dépote bien sur de vieilles 7970 qui font 3x mieux en dp64 pour 90€ sur le marché de l'occasion.
Cette Titan est mignonne pour le gamer ... Mais juste pour ça.

n°9889896
mazingerz
Posté le 23-07-2016 à 00:04:32  profilanswer
2Votes positifs
 

ça ressemble plus a une Ti qu'a un Titan au vue de spec pro bridé  
 
je ne vois pas ce que la Ti aura de plus ou de moins?  
 

n°9889899
havoc_28
Posté le 23-07-2016 à 00:08:29  profilanswer
2Votes positifs
 

ravenloft a écrit :


T'as des infos comme quoi le gp102 ne supporte pas la HBM2?  
Ce n'est pas parce qu'elle supporte la gddr5x qu'elle ne supporte pas un autre type de mémoire. Si le gp102 est proche du gp100, perso ça ne m’étonnerait pas qu'elle supporte les 2 types. C'est peut être pas le cas mais la news d'HFr ne le dit pas donc pour le moment je ne vois aucune raison qu'elle ne le supporte pas. Cette titan sortant le 2 aout alors que la HBM2 n'est pas disponible en quantité, c'est normal qu'elle utilise de la gddr5x mais ça ne mt'étonnerait pas qu'elle utilise de la HBM2.


 
Non, mais avoir un double controleur mémoire embarquée = dépense de transistor en plus et nvidia est connu pour être plutôt dans le genre pragmatique . La GDDR5X suffit à alimenter correctement un GPU comme le GP102, pourquoi dépenser plus dans de la HBM2 qui n'apporterait pas vraiment grand chose sur le plan performance pour ce qui est d'une utilisation jeux . Réduire la consommation de la carte ? C'est beaucoup moins critique pour nvidia que ça ne l'est chez AMD ...
 
Que ce soit HBM2 ou GDDR5X, la plus part n'en non cure, ce qui compte c'est les performances finales de la carte .
 

mazingerz a écrit :

ça ressemble plus a une Ti qu'a un Titan au vue de spec pro bridé  
 
je ne vois pas ce que la Ti aura de plus ou de moins?  
 


 
La première Titan du nom était basée sur une version castrée du GK110 ... il y a eut ensuite la GTX780 (encore plus castrée), puis la 780 Ti (puce complète) . Ce qui différenciait la Titan des autres c'était le fait que comme pour les versions Tesla, la double précision n'était pas bridée de façon artificielle .
 
Avec le GM200 nvidia a procédé différemment ... et avec le GP102 pour l'instant on est plus dans le scénario qu'on a vu avec le GK110 .


Message édité par havoc_28 le 23-07-2016 à 00:14:42
n°9889929
tridam
Profil : Equipe HardWare.fr
Posté le 23-07-2016 à 00:35:07  profilanswer
1Votes positifs
 


ravenloft a écrit :


T'as des infos comme quoi le gp102 ne supporte pas la HBM2?  
Ce n'est pas parce qu'elle supporte la gddr5x qu'elle ne supporte pas un autre type de mémoire. Si le gp102 est proche du gp100, perso ça ne m’étonnerait pas qu'elle supporte les 2 types. C'est peut être pas le cas mais la news d'HFr ne le dit pas donc pour le moment je ne vois aucune raison qu'elle ne le supporte pas. Cette titan sortant le 2 aout alors que la HBM2 n'est pas disponible en quantité, c'est normal qu'elle utilise de la gddr5x mais ça ne mt'étonnerait pas qu'elle utilise de la HBM2.
 


 
Le GP102 ne supporte pas la HBM2.

n°9890080
Kanysse12
Posté le 23-07-2016 à 10:22:16  profilanswer
0Votes positifs
 

Sans être custom va t elle approcher les 1900Mhz pour garder ses 30% théoriques de puissance en plus par rapport au 1080 custom les plus performantes.

n°9890087
havoc_28
Posté le 23-07-2016 à 10:32:13  profilanswer
1Votes positifs
 

ravenloft a écrit :


Merci pour la réponse. :jap:  
Comme ça j'ai ma réponse.
 
Sait-on pourquoi ils ont décidé de ne pas mettre la hbm2 sur le GP102? Vouloir le sortir + vite que la dispo en quantité suffisante de la HBM2? une question de coût? HBM2 ne sert à rien pour les perfs sur un gpu gamer de la puissance du gp102 malgré une bande passante doublée?


 
Je pense que tu as une partie de la réponse dans l'article HFR, je cite :
 

Citation :

Un nouveau record au niveau de la puissance de calcul est atteint avec 11 Tflops, c'est 23% de mieux que pour la GeForce GTX 1080 alors que la bande passante augmente de 50%. De quoi laisser espérer une progression des performances de 30% qui va creuser encore un peu plus le fossé qui sépare actuellement les GeForce des Radeon.


 
Qu'est ce qui les pressaient de sortir une nouvelle titan ? Y a toujours une demande pour ce genre de GPU, mais bon c'est pas la concurrence qui les poussent à cela . Pour la non utilisation de la HBM2, c'est sûrement la combinaison de coût plus élevé et d'un gain peu probant pour une utilisation gaming qui les a poussé a utilisé de la GDDR5X sur un bus 384 bits .
 
480 go/s, c'est énorme déjà ... Nvidia sait pertinemment combien de bande passante il faut pour alimenter correctement ces puces . Bref gratter quelques % avec la HBM2, au final n'aurait pas été très intéressant . Oui on aurait d'avantage de watts à consacrer au GPU, mais ils ont du se dire que ce n'est pas vraiment nécessaire non plus .
 
Et pour le Chip complet comme déjà dit pourront utiliser de la GDDR5X à 12 gb/s .


Message édité par havoc_28 le 23-07-2016 à 11:07:43
n°9890098
diablo_III
Posté le 23-07-2016 à 10:43:20  profilanswer
0Votes positifs
 

message special pour HFR, Marc, Damien
 
si vous testez la Titan X, pourriez vous svp faire le test avec de la DDR4 2666/3000 et de la 4000 ? Jusqu'à présent la montée en fréquence de la RAM était utile en SLI uniquement, mais vu la bête possible que cela soit utile en mono gpu cette fois ci...
complement d'info : http://www.techspot.com/article/11 [...] page3.html
 
j'en profites pour vous demander si a l'avenir il serait possible d'inclure lors de vos test les moyennes des fps basses et pas seulement la moyenne général
complément d'info : http://www.gamersnexus.net/site-ne [...] nd-delta-t
 
merci

n°9890123
Nono0000
Posté le 23-07-2016 à 11:14:46  profilanswer
0Votes positifs
 

diablo_III a écrit :

message special pour HFR, Marc, Damien

 

si vous testez la Titan X, pourriez vous svp faire le test avec de la DDR4 2666/3000 et de la 4000 ? Jusqu'à présent la montée en fréquence de la RAM était utile en SLI uniquement, mais vu la bête possible que cela soit utile en mono gpu cette fois ci...
complement d'info : http://www.techspot.com/article/11 [...] page3.html

 

j'en profites pour vous demander si a l'avenir il serait possible d'inclure lors de vos test les moyennes des fps basses et pas seulement la moyenne général
complément d'info : http://www.gamersnexus.net/site-ne [...] nd-delta-t

 

merci

 

La plateforme x99 utilisée par HFR ne supporte pas la 4000Mhz à moins d'avoir beaucoup de chance.
3200/3333Mhz est généralement le max sur cette plateforme...

 

Mais cela est également à comparer avec le quad channel de celle-ci alors que c'est seulement du dual sur la z170...
Il n'est pas fait mention de la fréquence de l'uncore du 5960X de la plateforme de test... mais cela a un impact direct sur la bande passante mémoire qui augmente beaucoup avec (cf thread x99 OC: http://forum.hardware.fr/forum2.ph [...] #t2440239)


Message édité par Nono0000 le 23-07-2016 à 11:16:42

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
mood
Publicité
Posté le 23-07-2016 à 11:14:46  profilanswer
 

n°9890134
petit-tigr​e
miaou
Posté le 23-07-2016 à 11:26:04  profilanswer
1Votes positifs
 

theangel540 a écrit :

340 gflops en dp64 pour de l'opencl!  
MentalRay satellite dépote bien sur de vieilles 7970 qui font 3x mieux en dp64 pour 90€ sur le marché de l'occasion.
Cette Titan est mignonne pour le gamer ... Mais juste pour ça.


Elle est faite POUR le gamer, comment faut-il le dire  ?


---------------
mIaOuUuUuUuUuUu
n°9890152
Roms56
Posté le 23-07-2016 à 11:42:55  profilanswer
0Votes positifs
 

ravenloft a écrit :


 
Mon message au départ n'allait pas dans ton sens vu que je me moquais de toi donc t'as pas compris son véritable sens si tu penses que j'allais dans ton sens.  :D

 

Sisis, je suis bien au courant de cela, c'est justement pour ça que je poster mon premier message (cela en découlais...) (tu n'as pas compris on dirait ?) Bref, chut.


Message édité par Roms56 le 23-07-2016 à 11:44:43
n°9890195
Invite_Sur​prise
Racaille de Shanghaï
Posté le 23-07-2016 à 12:19:49  profilanswer
0Votes positifs
 

Quid de la taille du GP102 ? nVidia a t'il communiqué là-dessus ?
 
edit : L'avance de nVidia est incroyable sur cette génération
 
GP100
GP102
GP104
GP106
 
Là où a juste le PLS10 de sorti, c'est complètement dingue.


Message édité par Invite_Surprise le 23-07-2016 à 12:39:11
n°9890342
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 23-07-2016 à 14:24:43  profilanswer
2Votes positifs
 

petit-tigre a écrit :

theangel540 a écrit :

340 gflops en dp64 pour de l'opencl!  
MentalRay satellite dépote bien sur de vieilles 7970 qui font 3x mieux en dp64 pour 90€ sur le marché de l'occasion.
Cette Titan est mignonne pour le gamer ... Mais juste pour ça.


Elle est faite POUR le gamer, comment faut-il le dire  ?


 
Elle est faite pour le deep learning, même si tu ne t'y intéresses pas personnellement.


Message édité par Paul-Hewson le 23-07-2016 à 14:25:27
n°9890858
neurotoxic
Posté le 24-07-2016 à 00:47:42  profilanswer
1Votes positifs
 

Paul-Hewson a écrit :

petit-tigre a écrit :

[quotemsg=9889854,137,727745]340 gflops en dp64 pour de l'opencl!  
MentalRay satellite dépote bien sur de vieilles 7970 qui font 3x mieux en dp64 pour 90€ sur le marché de l'occasion.
Cette Titan est mignonne pour le gamer ... Mais juste pour ça.


Elle est faite POUR le gamer, comment faut-il le dire  ?


 
Elle est faite pour le deep learning, même si tu ne t'y intéresses pas personnellement.[/quotemsg]
 
exactement sinon 1300€ pour que du gaming ça fait quand même âchement mal au cul ! C'est le prix de bien des configs.


Message édité par neurotoxic le 24-07-2016 à 00:48:27
n°9891668
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 24-07-2016 à 23:41:14  profilanswer
1Votes positifs
 

Et vla maintenant des rumeurs concernant la sortie de Volta pour Mai 2017. On arrête pas le progrès !
Si c'est vrai, la 1080Ti devrait sortir en septembre ou octobre (s'ils prévoient une "ti"tan un peu plus abordable) et le multi engine pourrait peut-être débarqué assez "tôt" pour venir se frotter à Vega 10 & 11 d'AMD.

n°9891762
nicolas_ya​d
Spoons made me fat
Posté le 25-07-2016 à 08:02:36  profilanswer
1Votes positifs
 

Paul-Hewson a écrit :

Et vla maintenant des rumeurs concernant la sortie de Volta pour Mai 2017. On arrête pas le progrès !
Si c'est vrai, la 1080Ti devrait sortir en septembre ou octobre (s'ils prévoient une "ti"tan un peu plus abordable) et le multi engine pourrait peut-être débarqué assez "tôt" pour venir se frotter à Vega 10 & 11 d'AMD.


Après le but d'une Titan n'a jamais été d'être abordable  [:spamafote]  
 
Si elle coutait moins chère, elle n'aurait plus ce côté "objet de luxe" qui fait vendre, et redeviendrait une banale carte graphique horriblement chère.
 
Tandis que là, c'est un truc élitiste et relativement exclusif pour à peine plus de 1000$ (et qui fait aussi tourner des jeux, il parait. )

n°9892171
beenouze
Valar Morghulis
Posté le 25-07-2016 à 14:16:00  profilanswer
0Votes positifs
 

Paul-Hewson a écrit :

Qui ne vaut pas son prix pour ton utilisation, car la communication d'nVidia ne "conçoit" pas cette carte pour le gamer.


Yep, je confirme, pour mes calculs GPU, il m'en faudrait 2 surtout pour les 12Go embarqués et les 1000 cuda cores supplémentaires par rapport à la 1080.
2x Titan XP : 7160 cores VS 4x 1080 : 10240 cores : budget sensiblement identique mais conso moindre et 2 places de libres pour plus tard... ou attendre l'hypothétique Ti...


Message édité par beenouze le 25-07-2016 à 14:18:09

---------------
Topic ACH/VDS | Everything you can imagine is real - Pablo Picasso
n°9892193
propulus
Posté le 25-07-2016 à 14:33:12  profilanswer
0Votes positifs
 

Fin d'AMD? Je pense pas, au contraire je pense qu' AMD va mettre une bonne leçon à NVIDIA. Attendez, il faut se méfier du loup qui dort!
NVIDIA est entrain de devancer AMD sur le marché PC. Mais AMD n'est pas un mauvais concurant pour autant. AMD va sortir une bonne carte... de toute manière AMD est au dessus de NVIDIA dans d'autres secteurs malgré que NVIDIA à le monopole sur le marché informatique.

n°9892200
propulus
Posté le 25-07-2016 à 14:35:17  profilanswer
0Votes positifs
 

propulus a écrit :

Fin d'AMD? Je pense pas, au contraire je pense qu' AMD va mettre une bonne leçon à NVIDIA. Attendez, il faut se méfier du loup qui dort!
NVIDIA est entrain de devancer AMD sur le marché PC. Mais AMD n'est pas un mauvais concurant pour autant. AMD va sortir une bonne carte... de toute manière AMD est au dessus de NVIDIA dans d'autres secteurs malgré que NVIDIA à le monopole sur le marché informatique.


 
J'ajouterai aussi que NVIDIA avec ces prix démesurés font une énorme erreur. Les gens commencent à réfléchir à leur sous... La titan X pascal est une carte castrée comme la première TITAN. 90% des gens vont se tourner sur de l'occasion ou la prochaine gtx 70 ou chez AMD. Qui joue en 4k ? 10% des joueurs?

n°9892211
propulus
Posté le 25-07-2016 à 14:45:04  profilanswer
1Votes positifs
 

On nous conditionne vraiment avec des bêtises aujourd'hui... Je me souviens de la gtx d'il y a 10 ans c'était aussi la carte la plus puissante du monde!

n°9892214
propulus
Posté le 25-07-2016 à 14:46:11  profilanswer
1Votes positifs
 

ravenloft: tagueule merci! Fait toi un tatouage geforce titan sur le front et fou nous la paix !

n°9892318
Krutors
Posté le 25-07-2016 à 16:16:05  profilanswer
2Votes positifs
 

propulus a écrit :


 
J'ajouterai aussi que NVIDIA avec ces prix démesurés font une énorme erreur. Les gens commencent à réfléchir à leur sous... La titan X pascal est une carte castrée comme la première TITAN. 90% des gens vont se tourner sur de l'occasion ou la prochaine gtx 70 ou chez AMD. Qui joue en 4k ? 10% des joueurs?


 
Réfléchir à leur sous...oui, mais pas là. Tu oublie de prendre en compte le facteur "passion", une carte à ce prix et ce niveau de performance, c'est avant tout une affaire de passion, tout comme une Ferrari à un demi-million est autant un objet "d'art" qu'une voiture. Tu peux critiquer le type qui en achète une si ça te défoule (et entre nous, je suis presque sûr que tu est le genre de type a sortir des "mais quel connard friqué" bien assis dans ta bagnole, lorsque tu croise une Porsche ou une Lambo) mais je peut te garantir que le type, bien assis dans sa caisse, il vis simplement sa passion, et se fiche du reste.
 
Ici c'est pareil, ceux pour qui mettre autant d'argent dans une carte graphique est impensable, ne sont de toutes façons pas la cible visée par ce produit.


---------------
Ryzen 5 5600X -  Asus Strix B450-F - 2x PNY CS3060 2 To - Sapphire 6950XT Nitro+ - EVGA Supernova GT 1000W - Bequiet Silent Base 802
n°9892333
mum1989
Posté le 25-07-2016 à 16:26:59  profilanswer
0Votes positifs
 

Krutors a écrit :


 
Réfléchir à leur sous...oui, mais pas là. Tu oublie de prendre en compte le facteur "passion", une carte à ce prix et ce niveau de performance, c'est avant tout une affaire de passion, tout comme une Ferrari à un demi-million est autant un objet "d'art" qu'une voiture. Tu peux critiquer le type qui en achète une si ça te défoule (et entre nous, je suis presque sûr que tu est le genre de type a sortir des "mais quel connard friqué" bien assis dans ta bagnole, lorsque tu croise une Porsche ou une Lambo) mais je peut te garantir que le type, bien assis dans sa caisse, il vis simplement sa passion, et se fiche du reste.
 
Ici c'est pareil, ceux pour qui mettre autant d'argent dans une carte graphique est impensable, ne sont de toutes façons pas la cible visée par ce produit.


Le facteur passion et le facteur "je veux avoir la plus puissante quelqu'en soit le prix".
 
Le problème qu'à la différence de l'automobile,
 il n'y a qu'AMD en concurent et pour l'instant son polaris est largué de presque 2 génération en efficacité énergétique(plus pourri qu'une 980 en 28nm).
Au final, les pauvres comme moi ne pourront plus s'acheter du haut de gamme,  
et même en entrée de gamme les prix vont augmenter ...

n°9892353
nicolas_ya​d
Spoons made me fat
Posté le 25-07-2016 à 16:39:39  profilanswer
1Votes positifs
 

mum1989 a écrit :

Au final, les pauvres comme moi ne pourront plus s'acheter du haut de gamme,  
et même en entrée de gamme les prix vont augmenter ...


 
D'un autre côté, c'est clairement pas les "pauvres" qui sont visés sur n'importe quel marché de "haut de gamme". C'est même pour ça qu'il y a une gamme :lol:
 

n°9892405
Krutors
Posté le 25-07-2016 à 17:14:19  profilanswer
1Votes positifs
 

mum1989 a écrit :


Le facteur passion et le facteur "je veux avoir la plus puissante quelqu'en soit le prix".
 
Le problème qu'à la différence de l'automobile,
 il n'y a qu'AMD en concurent et pour l'instant son polaris est largué de presque 2 génération en efficacité énergétique(plus pourri qu'une 980 en 28nm).
Au final, les pauvres comme moi ne pourront plus s'acheter du haut de gamme,  
et même en entrée de gamme les prix vont augmenter ...


 
Je te rejoins là dessus, AMD est largué en terme d'efficacité energétique. Après, c'est vrai qu'en terme de consommation, il faut beaucoup de temps pour que le surcoût de Pascal par rapport à Polaris se ressente, mais en ce qui me concerne, ca n'augure rien de très bon pour Vega. Certes, on sent bien sur le design de réf que AMD a simplement couru dans tous les sens quand ils ont vu les perfs de Pascal, et ont fait de gros chamboulements pour lesquels la distribution électrique de la carte n'était pas taillée, mais 100W de plus à la prise pour une configuration équipée de RX480 face à une 1060, ce n'est pas rien (source : http://www.eteknix.com/sapphire-ni [...] review/11/).
 
Je veux dire, AMD frappera encore fort niveau tarif, donc on peux raisonnablement s'attendre à un prix en dessous des 600USD HT pour l'équivalent au GTX 1080
Cependant, si on garde le même delta de consommation entre les deux HDG, une configuration équipée de Vega consommerait autour de 375W -si équipée d'un CPU Intel- (une équipée de Pascal consomme 274W en charge). Cela paraitra anodin pour les personnes ayant deja investi dans une alimentation pouvant délivrer beaucoup de puissance, cependant, pour les joueurs n'ayant qu'une 500W a disposition et souhaitant garder un peu de marge, changer d'alimentation sera nécessaire, et ça pourrais rendre l'achat d'un GPU Vega moins intéressant.
 
Ce dernier paragraphe est mon avis strictement personnel, il n'engage que moi  :D  
 
Concernant le glissement des prix opéré par nVidia, je n'ai pas grand chose a ajouter, ca a été dis maintes et maintes fois, ils le font car ils le peuvent, ils écrasent le marché des GPU dédiés.
 
Edit : Ortho


Message édité par Krutors le 25-07-2016 à 17:21:02

---------------
Ryzen 5 5600X -  Asus Strix B450-F - 2x PNY CS3060 2 To - Sapphire 6950XT Nitro+ - EVGA Supernova GT 1000W - Bequiet Silent Base 802
n°9892418
mum1989
Posté le 25-07-2016 à 17:22:29  profilanswer
0Votes positifs
 

nicolas_yad a écrit :


 
D'un autre côté, c'est clairement pas les "pauvres" qui sont visés sur n'importe quel marché de "haut de gamme". C'est même pour ça qu'il y a une gamme :lol:
 


la 4870 pouvait être achetée par les "pauvres" (250€ au lancement), certes, il faudrait prendre en compte l'inflation), mais bon, maintenant ça va être 1300€ pour du haut de gamme mono-GPU, c'est prometteur :)

n°9892433
Krutors
Posté le 25-07-2016 à 17:33:39  profilanswer
0Votes positifs
 

mum1989 a écrit :


la 4870 pouvait être achetée par les "pauvres" (250€ au lancement), certes, il faudrait prendre en compte l'inflation), mais bon, maintenant ça va être 1300€ pour du haut de gamme mono-GPU, c'est prometteur :)


 
Après, la notion de gamme, c'est aussi vachement flottant... pour le moment, la 1080 c'est le haut de gamme...mais est-ce que la sortie de la nouvelle Titan rends la 1080 moins performante ? Après, si pour toi le haut d'une gamme de produit ne représente que le plus performant de toute la gamme (ce qui est envisageable, ce n'est pas un jugement péjoratif) alors oui...tu finiras par avoir des mono-GPU HDG à 1300€...tu en à même déjà avec la nouvelle Titan Justement, et peut-être même la Radeon Pro Duo (Carte "pro" je sais, mais comme elle peux être utilisée avec les pilotes de la gamme "pour joueurs"...  :D
 
Edit : Ortho + ajout Radeon Pro Duo

Message cité 1 fois
Message édité par Krutors le 25-07-2016 à 17:37:42

---------------
Ryzen 5 5600X -  Asus Strix B450-F - 2x PNY CS3060 2 To - Sapphire 6950XT Nitro+ - EVGA Supernova GT 1000W - Bequiet Silent Base 802
n°9892436
ever_over
Posté le 25-07-2016 à 17:36:20  profilanswer
0Votes positifs
 

mum1989 a écrit :


la 4870 pouvait être achetée par les "pauvres" (250€ au lancement), certes, il faudrait prendre en compte l'inflation), mais bon, maintenant ça va être 1300€ pour du haut de gamme mono-GPU, c'est prometteur :)


Tant mieux pour nous si le marché est plus dynamique. C'est pas forcément mauvais si il y a de nouvelles gammes plus chères. Faut pas perdre de vue que dans un monde où les gens acceptent de payer 500€ un gpu, les gpu seront "mieux" que dans un monde où les gens acceptent de payer 250€.
Bien sur, il ne faut pas voir ça comme du capitalisme naïf. Il peut y avoir des gammes qui profitent moins de ce changement, et on peut trouver tout un tas de contre exemples ou d'exceptions à ce que je dis. Mais globalement, plus c'est une industrie qui génère du chiffre, plus il y a de monde qui y travaille, et meilleur est le résultat. Pas grave de pas pouvoir acheter le plus haut de gamme, c'est un détail psychologique.

n°9892443
mum1989
Posté le 25-07-2016 à 17:41:47  profilanswer
0Votes positifs
 

Krutors a écrit :

 

Après, la notion de gamme, c'est aussi vachement flottant... pour le moment, la 1080 c'est le haut de gamme...mais est-ce que la sortie de la nouvelle Titan rends la 1080 moins performante ? Après, si pour toi le haut d'une gamme de produit ne représente que le plus performant de toute la gamme (ce qui est envisageable, ce n'est pas un jugement péjoratif) alors oui...tu finiras par avoir des mono-GPU HDG à 1300€...tu en à même déjà avec la nouvelle Titan Justement, et peut-être même la Radeon Pro Duo (Carte "pro" je sais, mais comme elle peux être utilisée avec les pilotes de la gamme "pour joueurs"...  :D

 

Edit : Ortho + ajout Radeon Pro Duo


Avec l'augmentation généralisée des prix,
pour un budget donné admettons 250€ (avec l'inflation), les performances d'une  nouvelle carte sera forcément inférieur.

  


ever_over a écrit :


Tant mieux pour nous si le marché est plus dynamique. C'est pas forcément mauvais si il y a de nouvelles gammes plus chères. Faut pas perdre de vue que dans un monde où les gens acceptent de payer 500€ un gpu, les gpu seront "mieux" que dans un monde où les gens acceptent de payer 250€.
Bien sur, il ne faut pas voir ça comme du capitalisme naïf. Il peut y avoir des gammes qui profitent moins de ce changement, et on peut trouver tout un tas de contre exemples ou d'exceptions à ce que je dis. Mais globalement, plus c'est une industrie qui génère du chiffre, plus il y a de monde qui y travaille, et meilleur est le résultat. Pas grave de pas pouvoir acheter le plus haut de gamme, c'est un détail psychologique.


Moui peut être d'un certain coté,
mais sans concurrence réelle, si AMD ne revient pas rapidement avec Vega,
 NVIDIA pourrait s'assoupir comme intel, et au final le consommateur y perdra même en haut de gamme.


Message édité par mum1989 le 25-07-2016 à 17:44:45
n°9892451
nicolas_ya​d
Spoons made me fat
Posté le 25-07-2016 à 17:51:13  profilanswer
0Votes positifs
 

mum1989 a écrit :


la 4870 pouvait être achetée par les "pauvres" (250€ au lancement), certes, il faudrait prendre en compte l'inflation), mais bon, maintenant ça va être 1300€ pour du haut de gamme mono-GPU, c'est prometteur :)


A noter qu'à l'époque, on était dans une situation "semblable", Nvidia qui dominait l'offre haut de gamme avec la GTX 280  - qui coutait déjà 500 boules - , et AMD qui a du réagir en proposant une carte performante à prix d'or pour regagner des parts de marché.

 

Un peu comme maintenant avec la RX 480 :d (sauf que le rapport performances / prix était nettement meilleur sur la 4870).

 
mum1989 a écrit :


Moui peut être d'un certain coté,
mais sans concurrence réelle, si AMD ne revient pas rapidement avec Vega,
 NVIDIA pourrait s'assoupir comme intel, et au final le consommateur y perdra même en haut de gamme.


Tout à fait, ou alors on aura des nouveautés... toujours plus chères et moins accessible.

 

Message cité 1 fois
Message édité par nicolas_yad le 25-07-2016 à 17:52:35
n°9892507
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 25-07-2016 à 18:26:40  profilanswer
0Votes positifs
 

nicolas_yad a écrit :


Après le but d'une Titan n'a jamais été d'être abordable  [:spamafote]  
 
Si elle coutait moins chère, elle n'aurait plus ce côté "objet de luxe" qui fait vendre, et redeviendrait une banale carte graphique horriblement chère.
 
Tandis que là, c'est un truc élitiste et relativement exclusif pour à peine plus de 1000$ (et qui fait aussi tourner des jeux, il parait. )


 
Il y a toujours eu 2 titan, un modèle gamer "accessible" et un modèle semi-pro plus cher. La Titan X "Pascal" c'est pas le modèle gamer, donc la 1080Ti n'est pas encore sortie/annoncée.

ravenloft a écrit :


Source?
Officiellement c'est prévu pour 2018 et j'ai jamais vu une archi venir avec un an d'avance. Volta qui devait sortie en 2016 initailement a été retardé à 2018 avec l'introduction de pascal en 2016.
 
Les pascal supportent le multi engine.
Vega 10 et 11, Tu sors ça d'où?


 
Source : Bah internet qui commence à avoir 2 sources qui recoupent une information sur une màj de la roadmap nVidia (j'ai écrit rumeur dans mon texte, une rumeur officielle ça n'existe pas !)
 
Je dirais plutôt que Pascal (une mise à jour de Maxwell avec des fonctionnalités VR) est venu combler un trou dans la roadmap d'nVidia parce que les technologies utilisées dans Volta ne pouvaient pas être prête pour 2016.
 
Pascal supporte le multi engine mais pas le gain qu'on peut en attendre, donc c'est supporter la concomittance (je les vois mal continuer sans pour le futur proche vu le mouvement qui s'engage en 2016, même si pour l'instant c'est relativement minoritaire en terme de jeux)
 
Vega 10, c'est le nom de leur prochain GPU haut de gamme (est-ce qu'il y aura une différence architecturale, va savoir..). Pourquoi rajouter le chiffre 10, si ça n'est pour suivre la nouvelle nomenclature que l'on voit avec Polaris. Ce qui peut laisser sous entendre que Vega 10 c'est au moins 2 GPU, comme le GP104 correspond au GTX 1080/1070
Pas de raison qu'il n'y ai pas en 2017 un refresh de Polaris 11 sous la dénommination Vega 11 (le contraire serait étonnant vu qu'AMD, tout comme nVidia passent leurs années à rebadger un certain nombre de GPU milieu/bas de gamme)
 
Vega "10" -> http://images.google.fr/imgres?img [...] 3&biw=1239


Message édité par Paul-Hewson le 25-07-2016 à 18:28:57
n°9892525
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 25-07-2016 à 18:37:48  profilanswer
0Votes positifs
 

Krutors a écrit :


 
Je te rejoins là dessus, AMD est largué en terme d'efficacité energétique.


 
Je ne dirais pas qu'ils sont largués, mais qu'en fonction du support du multi engine, leur performance varie et ça doit bien affecter l'efficacité énergétique.
Je ne sais pas si HFR a comparé les performances avec/sans multi engine sur un même jeu et l'impact sur la consommation que ça entraine d'un côté et l'autre ? Car le test d'efficacité énergétique actuel se fait sur des jeux DX11 où l'architecture d'AMD n'est pas adapté et où une partie de la carte se tourne les pouces pendant que le reste travaille.
 
Est-ce que même avec des "unités" (shader par exemple) en "idle" la carte consomme autant que si elle travaille au maximum de son potentiel sous DX12/Vulkan ?

Message cité 1 fois
Message édité par Paul-Hewson le 25-07-2016 à 18:38:40
n°9892573
havoc_28
Posté le 25-07-2016 à 19:09:49  profilanswer
0Votes positifs
 

nicolas_yad a écrit :


A noter qu'à l'époque, on était dans une situation "semblable", Nvidia qui dominait l'offre haut de gamme avec la GTX 280  - qui coutait déjà 500 boules - , et AMD qui a du réagir en proposant une carte performante à prix d'or pour regagner des parts de marché.
 
Un peu comme maintenant avec la RX 480 :d (sauf que le rapport performances / prix était nettement meilleur sur la 4870).
 


 
Sauf que la HD4870 elle était en moyenne 10 à 15% derrière une GTX280 ... et elle a démarré sa carrière à 250 € contre 550 € pour la GTX280  :whistle:  
 
Donc non c'est pas du tout comparable .

n°9892604
tridam
Profil : Equipe HardWare.fr
Posté le 25-07-2016 à 19:27:48  profilanswer
1Votes positifs
 

Paul-Hewson a écrit :


 
Je ne dirais pas qu'ils sont largués, mais qu'en fonction du support du multi engine, leur performance varie et ça doit bien affecter l'efficacité énergétique.
Je ne sais pas si HFR a comparé les performances avec/sans multi engine sur un même jeu et l'impact sur la consommation que ça entraine d'un côté et l'autre ? Car le test d'efficacité énergétique actuel se fait sur des jeux DX11 où l'architecture d'AMD n'est pas adapté et où une partie de la carte se tourne les pouces pendant que le reste travaille.
 
Est-ce que même avec des "unités" (shader par exemple) en "idle" la carte consomme autant que si elle travaille au maximum de son potentiel sous DX12/Vulkan ?


 
Faut arrêter d'exagérer tous les arguments :o Sinon tu es en train d'affirmer que les ingénieurs d'AMD sont des branques qui pendant 5 ans ont fait une archi pas adaptée aux API des jeux vidéo ? :o Et c'est correct de dire qu'AMD est largué niveau efficacité énergétique, il faut ouvrir les yeux quand même ;)
 
C'est normal qu'une partie du GPU se tourne les pouces à chaque instant. Ca reste le cas avec exécution concomitante. Elle permet d'augmenter le taux d'occupation mais le but n'est pas de maximiser l'utilisation de tout le GPU. Ce qui s'en rapproche le plus c'est ce qu'AMD déclare être un power virus : Furmark.
 
Sinon on avait observé tout ça plus en détail avec AotS ici http://www.hardware.fr/focus/117/a [...] vidia.html

n°9892621
tridam
Profil : Equipe HardWare.fr
Posté le 25-07-2016 à 19:36:20  profilanswer
1Votes positifs
 

Pour info, lors d'une présentation qui s'est tenue en fin d'après-midi, Nvidia a donné quelques détails de plus.
 
- Le GP102 mesure 471mm², vs 610mm² pour le GP100.
 
- Les instructions INT8 rapides pour le deep learning seraient réservées à certains dérivés Pascal, par exemple les Titan/Quadro et ne seraient pas actives sur les GeForce. Mais Nvidia n'est pas d'une clarté extrême sur tout ça.

n°9892663
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 25-07-2016 à 20:16:04  profilanswer
0Votes positifs
 

Ok une architecture "moins adapté" si tu préfères un terme moins "choquant". En attendant on a vu ce que ça a donné sur environ 4 ans d'hégémonie nVidia.
 
Leur GCN est depuis plusieurs générations apte à faire de la gestion concomitante. Pourtant ni DX12, ni Vulkan n'était encore disponible au tout début (HD 7970 ?).
Mantle en a peut-être profité à très petite échelle (nombre de jeux) mais il est apparu bien après la première carte qui introduisait leur "ACE".
Donc il y a bien quelque part une perte de transistor, de temps, d'argent à proposer des technologies qui "ne servent à rien" à l'utilisateur final. (un peu comme le support de la tesselation avant-gardiste chez AMD)
À moins que les ACE servaient à autre chose à l'époque ? Vu que les jeux n'étaient pas développé avec un contrôle (par le développeur) aussi fin du GPU que ce qui est permis depuis peu.
 
Je ne remet pas en cause ce qu'AMD a apporté/peut apporter avec sa nouvelle approche. Reste que ça leur a été préjudiciable pendant plusieurs années de les mettre sur les cartes grand public.
Après il y a probablement quelque chose qui m'échappe, je ne suis pas un ingénieur et encore moins un spécialiste de l'informatique.

Message cité 1 fois
Message édité par Paul-Hewson le 25-07-2016 à 20:59:32
n°9892714
martyx
Posté le 25-07-2016 à 20:59:19  profilanswer
0Votes positifs
 

C'est clair est net qu'AMD a pu perdre du temps, mais les heureux acheteur de ces cartes (surtout la 290/X) sont déjà bien placé pour toutes les nouvelles API. AMD a souvent innové (CF sans pont, avoir réussi à imposé les API bas niveau, GDDR5 je crois aussi).
 
Peut être que très peu réagisse comme moi, mais je préfère me faire avoir avec un produit AMD (bien que ce n'est pas le cas je trouve) qu'avec Nvidia et ses prix affolant et leur diverses problèmes (3.5Gb + 0.5 pour la 970).
 
Mais ce n'est pas le sujet, belle carte pour la démonstration de force.

n°9892776
nicolas_ya​d
Spoons made me fat
Posté le 25-07-2016 à 22:06:39  profilanswer
1Votes positifs
 

havoc_28 a écrit :


 
Sauf que la HD4870 elle était en moyenne 10 à 15% derrière une GTX280 ... et elle a démarré sa carrière à 250 € contre 550 € pour la GTX280  :whistle:  
 
Donc non c'est pas du tout comparable .


Je vois pas en quoi.  :??:  
 
On trouve des rx480 pas bien loin des 1060 pour moins cher,  on trouve des fury pas bien loin des 1070 pour 200€ de moins...  Je trouve ça plutôt comparable.  
 
La seule différence c'est que les cartes les plus performantes chez Nvidia sont très loin d'être à portée d'amd pour l'instant. Alors effectivement si on examine les cartes au top, AMD n'est même plus sur le podium en mono gpu.

n°9892842
martyx
Posté le 25-07-2016 à 23:00:27  profilanswer
0Votes positifs
 

ravenloft a écrit :


Il faut relativiser dans le sens où les amd ont un fort gain car elles partent de perfs dx11 largement en retrait du concurrent. PAs certain qu'avec des drivers dx11 aussi optimisé que ceux d'nvidia, le saut soit grand aussi chez amd avec ces apis bas niveau.


 
Oui certainement, mais (arrétez moi si je me trompe) je trouve que AMD a des cartes avec une puissance brute plus importante avec des drivers sous développé. D'où l'avantage en mining

n°9892952
havoc_28
Posté le 26-07-2016 à 01:11:25  profilanswer
1Votes positifs
 

nicolas_yad a écrit :


Je vois pas en quoi.  :??:  
 
On trouve des rx480 pas bien loin des 1060 pour moins cher,  on trouve des fury pas bien loin des 1070 pour 200€ de moins...  Je trouve ça plutôt comparable.  
 
La seule différence c'est que les cartes les plus performantes chez Nvidia sont très loin d'être à portée d'amd pour l'instant. Alors effectivement si on examine les cartes au top, AMD n'est même plus sur le podium en mono gpu.


 
Encore une fois la HD4870 coûtait plus de deux fois moins chère que la GTX280 pour à peine 10 à 15% de performance en moins . La RX480 elle est quoi ? 20 à 40 € moins chère que les GTX1060 les moins coûteuses et derrière d'un peu moins 10 % environ .
 
Niveau consommation ... le RV770 était plus économe et compacte en comparaison du GT200 .
 
Fidji c'est des cartes en promotion en fin de vie ...
 
Entre une GTX 1080/1070 et Polaris 10 y a quand même un sacré écart, AMD n'a même pas encore sorti les RX460/470 qu'nvidia annonce déjà un GP102 et qu'il y aura sûrement une déclinaison du GP106 voir un GP107/108 dans pas trop longtemps .
 
Vega c'est au mieux Q1 2017 : / .

Message cité 1 fois
Message édité par havoc_28 le 26-07-2016 à 01:19:16
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
Retourner la RX 480 de référence ?[HFR] Actu : Seagate décline le 10 To en 3 gammes
[HFR] Actu : Les Sapphire RX 480 Nitro+ en approche[HFR] Actu : Résultats Intel en demi-teinte
GeForce Poseidon GTX 980 - 4 Go 
Plus de sujets relatifs à : [HFR] Actu : Nouvelle Nvidia Titan X: GP102, 11 Tflops, 480 Go/s


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR