Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1405 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  45  46  47  ..  52  53  54  55  56  57
Auteur Sujet :

[Topic Unique] Nvidia Volta ("12nm" FFN)

n°10389816
genom
urinam non decolor unda
Posté le 02-07-2018 à 19:45:16  profilanswer
 

Reprise du message précédent :
 
seulement un tout petit peu  [:dust]  :o
 
allez je vend la mèche..
tu mélange une conchita avec une wurstel, je sais c'est péjoratif  :o  
 
https://i2.cdscdn.com/pdt2/9/6/5/1/ [...] c-robe.jpg  
 +
https://www.cucinarefacile.com/uplo [...] 00x602.jpg  
= Herbert lekonar
http://www.rusdialog.ru/images/new [...] fefb2b.jpg


Message édité par genom le 02-07-2018 à 20:02:42
mood
Publicité
Posté le 02-07-2018 à 19:45:16  profilanswer
 

n°10389826
Profil sup​primé
Posté le 02-07-2018 à 20:02:14  answer
 

:lol:  
 
je crois pas que ce soit le sujet du topic  
 
on peut passer à autre chose ?  :D


Message édité par Profil supprimé le 02-07-2018 à 20:03:11
n°10389999
genom
urinam non decolor unda
Posté le 03-07-2018 à 10:08:20  profilanswer
 

havoc_28 a écrit :


 
13% en 1080p :o. Qui était plus le cœur de cible à l'époque :p. Le GK110 malgré qu'il ne disposait pas d'algorithme aussi avancé niveau compression des couleurs avait quand même bien plus de bande passante vs le GM204 ce qui aidait en haute résolution, avec la GDDR6, même avec un bus 256 bits la différence niveau bande passante entre un GP102 et un un GX 104 sera moindre qu'à l'époque.


 
A moins qu'ils cadencent les puces 14gb/s, pour autant qu'ils choisissent ces puces-là, à une fréquence bien plus élevée que la gddr5x, mais c'est vrai que sur un bus 256bit, pour concurrencer les TI/XP, va falloir qu'elles montent bien en fréquence, de plus j'ai lu quelque part, que le gain de la gddr6 n'est pas non plus une révolution, latence réduite et double channels (mix gddr5-gddr5x) consommant moins pour le duo mem/contoller, de plus c'est bien d'avoir de la BP dispo avec l'apport du nouveau controller fournissant un BP de 16gb/s, mais si les shaders ne suivent pas, c'est sûr, c'est pas la peine donc il y aura une augmentation aussi de ce côté. De toute façon ça risque de coûter cher, nouvelles puces, nouveau controller + 20% de coût et shaders en adéquation... allez la carte à un msrp 799$ c’est pas déconnant :D  
 

Citation :

When it comes to specifications, SK Hynix’s GDDR6 memory controller is said to feature a bandwidth speed of 16Gbps and it comes in two capacity variants: 8Gb and 16Gb. The improvements that will come with GDDR6 will indeed make it significantly better than the older GDDR5 memory controller – especially in terms of efficiency.
 
That said, Gamers Nexus has also mentioned that GDDR6 will be 20% more expensive to produce compared to GDDR5. Logically, this will most probably mean that upcoming Nvidia graphics cards that feature the next generation memory controller will be priced slightly higher than normal, or not. Either way, it’ll be interesting to see just how much of a performance bump GDDR6 will contribute onto upcoming graphics cards.


 
 
https://images.anandtech.com/doci/12345/sk_hynix_graphics_dram_2_575px.png
 
Il y a ce tableau d'anandtech sur un calcul des puces 18gb/s qui montre le potentiel gain de BP, ce qui es intéressant... va savoir quelle puces NV va employer sur le GXX04, si c'est les 14gb/s, t'arrives à une BP théorique de 448gb/s sur des puces de 8gb de densité sur module 1gb sur bus 256bit. Curieux de voir ce que va apporter le double channel et latence réduite.
 
https://i.imgur.com/F5mJiFz.png

Message cité 1 fois
Message édité par genom le 03-07-2018 à 11:06:07
n°10390039
havoc_28
Posté le 03-07-2018 à 12:03:07  profilanswer
 

genom a écrit :

A moins qu'ils cadencent les puces 14gb/s, pour autant qu'ils choisissent ces puces-là, à une fréquence bien plus élevée que la gddr5x, mais c'est vrai que sur un bus 256bit, pour concurrencer les TI/XP, va falloir qu'elles montent bien en fréquence, de plus j'ai lu quelque part, que le gain de la gddr6 n'est pas non plus une révolution, latence réduite et double channels (mix gddr5-gddr5x) consommant moins pour le duo mem/contoller, de plus c'est bien d'avoir de la BP dispo avec l'apport du nouveau controller fournissant un BP de 16gb/s, mais si les shaders ne suivent pas, c'est sûr, c'est pas la peine donc il y aura une augmentation aussi de ce côté. De toute façon ça risque de coûter cher, nouvelles puces, nouveau controller + 20% de coût et shaders en adéquation... allez la carte à un msrp 799$ c’est pas déconnant :D


 
La GDDR6 n'est qu'une évolution des mémoires types GDDR, ce n'est pas une tech de rupture loin de la oui, de même niveau contrôleur mémoire ça va pas non plus demander de réinventer la roue, oui il faut un nouveau contrôleur mémoire, mais on reste toujours sur de la GDDR :o.  Pour la consommation du contrôleur mémoire, je ne sais pas si celui ci consommera moins, y a plus de débit à gérer au final, même si on augmente le nombre de canaux.
 
Faut juste retenir la bande passante offerte, le reste c'est marginal, latence VRAM tout ça, en jeu ça n'a pas une grande influence ...  
 
Ce qui compte c'est les 448 gb/s, soit quand même 40 % de bp en plus vs une GTX 1080 vanilla et à peine 7.5% de bp en moins vs la 1080 Ti. Nouvelle architecture, nouveau caches, peut être nouveau algorithme de compression,  bref y a pas de soucis coté bande passante avec la GDDR6. La 14 gb/s elle est produite par les trois fabricants.  
 
Pour le tarif faut voir ... finesse de gravure utilisée, taille de la puce, niveau de performance ...


Message édité par havoc_28 le 03-07-2018 à 12:04:34
n°10390047
Activation
21:9 kill Surround Gaming
Posté le 03-07-2018 à 12:14:28  profilanswer
 

c'est pas aux shader de suivre, pour ce qui nous concerne ça se passe en amont
 
sinon point de vu BP c'est surtout BP par chip et non global qu'il faut regarder
en mono GPU si  
1/ tu claque du HDR dolby vision de ouf plein pot (aucun ecran ou TV grand public ne permet ce jour d'en profiter... quand je dit plein pot je parle carrément 16bits par composante, avec un écran UltraHD le top du top s'atteind déjà en 12bits, en super hivision 13bits .... en 16bits truc de ouf tu dois même pas pouvoir en profiter dans la meilleur salle imax numerique du monde)
2/ UltraHD
3/ 120fps
 
normalement du 60GB/s par chip font le taff sans avoir recours à aucun algo de compression qui jouerait sur luminescence ou que sais je  
 
et si je parle de la BP par chip, c'est pour se mettre dans la situation la plus extreme ou tout ce dont le jeu aurait besoin ne serait stocké que dans 1 seule des puces présente sur le pcb (par rapport à la polémique sur le double bus sur la gtx970 qui fait qu'elle est une 3.5Go + 512Mo)
 
après à ce niveau c'est aux éditeurs de moteur de jeu de se bouger le cul
y a des editeurs qui utilise des moteurs ou la gestion de la mémoire video a pas bougé depuis directx9 voir directx8  [:buggy]  
(et de ce point de vu dans les benchs on les voit toujours un peu en mode "clou qui dépasse" quand on compare sur des GPU avec une BP à la différence très marqué :o )
 
> Axe d'amélioration possible chez nvidia: Niveau texturing doubler les perf en 128bits à voir ce qu'il en sera (si gpu 12nm je pense pas qu'ils auront amélio ça ptet sur volta mais sur un gpu gaming pas le plus urgent, ptet plus sur un gpu 7nm)
c'est d'ailleurs assé dommage, il me semble pas qu'il y ai eu d'info texturing dans l'article des VEGA sur Hfr (et comme y aura pas d article sur les prochains GPU)
Maintenant de ce point de vu là, on compte sur PS5 et xbox next pour tirer vers le bas la frénésie des graphistes sur les textures, donc de se point de vu rien qu'avec un gpu pascal on est dans les clous facile pour encore 4ans :o (bah oui gpu AMD il y aura dans ses consoles, pour les 3 dans le fond qui espère qu'il y aura du nvidia dans la prochaine xbox bouah ah ah)

Message cité 1 fois
Message édité par Activation le 03-07-2018 à 12:24:56
n°10390057
havoc_28
Posté le 03-07-2018 à 12:28:59  profilanswer
 

Activation a écrit :

c'est pas aux shader de suivre, pour ce qui nous concerne ça se passe en amont
sinon point de vu BP c'est surtout BP par chip et non global qu'il faut regarder
en mono GPU si


 
Non. C'est bien la BP global qui compte.  
 

Activation a écrit :

et si je parle de la BP par chip, c'est pour se mettre dans la situation la plus extreme ou tout ce dont le jeu aurait besoin ne serait stocké que dans 1 seule des puces présente sur le pcb (par rapport à la polémique sur le double bus sur la gtx970 qui fait qu'elle est une 3.5Go + 512Mo)


 
Ton jeu il fait 1 mo à afficher ? :D. C'est quoi le rapport avec la GTX 970 ?

Message cité 1 fois
Message édité par havoc_28 le 03-07-2018 à 12:29:37
n°10390060
Activation
21:9 kill Surround Gaming
Posté le 03-07-2018 à 12:31:44  profilanswer
 

havoc_28 a écrit :


 
Non. C'est bien la BP global qui compte.  
 


 

havoc_28 a écrit :


 
Ton jeu il fait 1 mo à afficher ? :D. C'est quoi le rapport avec la GTX 970 ?


 
 
tu me rappelle la capacité de chaque puce mémoire sur une carte graphique
 
t'es resté bloqué en 1992  
 
 [:mistersid3]
 
et j'ai dit le cas le plus extreme (tu sais celui ou d'un coup ton framerate se pète la gueule :o )

Message cité 1 fois
Message édité par Activation le 03-07-2018 à 12:32:48
n°10390065
havoc_28
Posté le 03-07-2018 à 12:35:58  profilanswer
 

Activation a écrit :


 
 
tu me rappelle la capacité de chaque puce mémoire sur une carte graphique
 
t'es resté bloqué en 1992  
 
 [:mistersid3]


 
 
Les informations elles sont dispatchés sur les différents contrôleurs mémoires 64 bits qui eux même dispatchent ça sur 2 puces de 32 bits.  Je vois pas trop ou tu veux en venir avec la GTX 970 avec son contrôleur mémoire en partie castré avec les derniers 512 mo qui se retrouvaient uniquement sur 32 bits.
 
Ton cas extrême, ça ressemble plus à quand la VRAM est saturée.

Message cité 1 fois
Message édité par havoc_28 le 03-07-2018 à 12:39:40
n°10390069
Invite_Sur​prise
Racaille de Shanghaï
Posté le 03-07-2018 à 12:42:23  profilanswer
 

On reste sur ce topic ou je fais un topic Turing ?

n°10390071
Activation
21:9 kill Surround Gaming
Posté le 03-07-2018 à 12:43:59  profilanswer
 

havoc_28 a écrit :


 
 
Les informations elles sont dispatchés sur les différents contrôleurs mémoires 64 bits qui eux même dispatchent ça sur 2 puces de 32 bits.  Je vois pas trop ou tu veux en venir avec la GTX 970 avec son contrôleur mémoire en partie castré avec les derniers 512 mo qui se retrouvaient uniquement sur 32 bits.
 
Ton cas extrême, ça ressemble plus à quand la VRAM est saturée.


 
 
dit le Mr qui joue avec une 3D rage pro 2Mo :o
 
je sais pas moi j'imagine très bien des cas en VR ou ça ne serais pas un pb de mémoire saturé

Message cité 1 fois
Message édité par Activation le 03-07-2018 à 12:47:50
mood
Publicité
Posté le 03-07-2018 à 12:43:59  profilanswer
 

n°10390073
Activation
21:9 kill Surround Gaming
Posté le 03-07-2018 à 12:45:22  profilanswer
 

Invite_Surprise a écrit :

On reste sur ce topic ou je fais un topic Turing ?


 
 
fait un topic turing, en prévoyant le coup si au final ça s'appel pas turing de pouvoir changer rapidement le nom :D

n°10390077
aliss
Rhyme the Rhyme Well
Posté le 03-07-2018 à 12:49:29  profilanswer
 

Invite_Surprise a écrit :

On reste sur ce topic ou je fais un topic Turing ?


 
Ca serait peut-être mieux d'attendre la confirmation que les cartes à venir ne sont pas au final qu'un dérivé gaming du GV100.

n°10390078
havoc_28
Posté le 03-07-2018 à 12:50:36  profilanswer
 

Activation a écrit :

dit le Mr qui joue avec une 3D rage pro 2Mo :o


 
S3 Virge 4 mo :o. C'est ce qui avait dans le premier pc de la maison :o. Et quand j'ai vraiment commencé à m'intéresser aux cartes graphiques, ATI en était à la RAGE 128  :whistle:, on avait quand même déjà un peu plus de Vram que la Rage Pro 2 mo :p.  
 

n°10390096
genom
urinam non decolor unda
Posté le 03-07-2018 à 13:44:07  profilanswer
 

donc on en revient au même point, pascal refresh ? ou dérivé de volta ?  :lol:
 
En tout cas NV ne va pas convier/inviter la presse (seulement ceux sous NDA) en Allemagne juste pour parler des futurs jeux RTX hein :o ça sens le launch à plein nez  :D Turin ou Juventus  :lol:  
 

Activation a écrit :

c'est pas aux shader de suivre, pour ce qui nous concerne ça se passe en amont


 
oui bien sûr j'entendais de l'agencement du GTengine, mybad


Message édité par genom le 03-07-2018 à 15:15:32
n°10390136
Activation
21:9 kill Surround Gaming
Posté le 03-07-2018 à 15:21:37  profilanswer
 

c'est pas un bete pascal refresh car faut amelioration substantiel de ce qu'il y a en amont des GPC/SM
et ce gpu sera aussi plus dx12/vulkan 1.1 compliant
 
cependant de grande chance qu on hérite d'un schema GPC/SM plus proche de volta, car les gpu vont aussi servir aux gamme quadro/tesla (et tu peux pas laisser la dernière version de cuda juste avec le gv100)
cependant avec tensor core en nombre moindre que sur le gv100
 
page 18/58 de
http://images.nvidia.com/content/v [...] epaper.pdf
 
quand à la supposé archi "ampere" j'ai plus l'impression que c'est lié à un produit type Tegra gpu+cpu
une volonté de proposer une solution moins x86 genre pour serveur/supercalculateur ou autre (un après plateforme DGX quoi :o )
 
 
maintenant mon plus gros kiff à moi sera de voir si le sli enfin jeté aux chiottes et si on va voir le bout d'un nvlink sur gamme geforce, tellement j'ai eu une désillusion à la sortie de geforce pascal sans NVlink  [:fegafobobos:2]
je dis pas qu'on s'en servira (surtout au prix des pont nvlink :o )
mais juste histoire de acter le truc quoi :o
 
t as bien des ports nvlink sur gv100 non utilisable  [:haha dopi]  [:vizera]  [:0nick_aj:2]

Message cité 1 fois
Message édité par Activation le 03-07-2018 à 15:55:51
n°10390185
havoc_28
Posté le 03-07-2018 à 17:09:34  profilanswer
 

Activation a écrit :

cependant de grande chance qu on hérite d'un schema GPC/SM plus proche de volta, car les gpu vont aussi servir aux gamme quadro/tesla (et tu peux pas laisser la dernière version de cuda juste avec le gv100)
cependant avec tensor core en nombre moindre que sur le gv100


 
GP100/GV100 c'est 64 unités par SM, donc c'est pas ce qu'on aura pour la gamme joueur/Quadro (en excluant le top de gamme Quadro). Peu importe d'où est dérivé la future génération pour joueur (et une grande partie de la future gamme Quadro), mais on aura pas une organisation des SM type GP100/GV100 qui sont avant tout optimisé pour le compute / AI. bref ça peut être proche de Volta mais ça sera une autre variante, avec une organisation interne des SM proche de ce qu'on a sur Maxwell / Pascal : 128 unités par SM.


Message édité par havoc_28 le 03-07-2018 à 17:13:14
n°10390190
Darkblade6​666
Posté le 03-07-2018 à 17:21:01  profilanswer
 

havoc_28 a écrit :


 
S3 Virge 4 mo :o. C'est ce qui avait dans le premier pc de la maison :o. Et quand j'ai vraiment commencé à m'intéresser aux cartes graphiques, ATI en était à la RAGE 128  :whistle:, on avait quand même déjà un peu plus de Vram que la Rage Pro 2 mo :p.  
 


 
OAK 512Ko ISA 16bits  
On joué a doom, mortal kombat,les indy
=) sur warcraft 2 Pb de vesa :cry:

n°10390342
Invite_Sur​prise
Racaille de Shanghaï
Posté le 03-07-2018 à 22:00:32  profilanswer
 

Une review complètement orientée DL chez AnandTech de la Titan V :
 
http://www.anandtech.com/show/1267 [...] -deep-dive

n°10390449
aliss
Rhyme the Rhyme Well
Posté le 04-07-2018 à 09:30:00  profilanswer
 

Merci, enfin une review de Volta qui n'est pas générique.  :jap:

n°10390480
Invite_Sur​prise
Racaille de Shanghaï
Posté le 04-07-2018 à 10:42:12  profilanswer
 

Ouais, c'est très complet et ça montre bien que l'utilisation des tensor cores peut apporter un gain massif.
Mais cela demande un développement en conséquénce pour en tirer les fruits.
L'auteur spécule sur le fait que la prochaine génération grand public devrait en être équipée mais dans une moindre mesure que le gros GV100.

n°10390492
havoc_28
Posté le 04-07-2018 à 11:03:14  profilanswer
 

Le gain massif il est la dans tous ce qui est deeplearning, etc, ce pour quoi les tensor cores ont été développé.  
 
L'unique utilisation de ces tensors cores dans le domaine qui nous intéresse ça été un denoise avec RTX sur certains rayons ...  C'est quand même ultra limité pour l'instant.  Et est ce que ça sera utilisable au final pour le joueur hum ... ils font la comparaison avec les FP64, qui pour nous joueur ne sert à rien au final.

n°10390529
Invite_Sur​prise
Racaille de Shanghaï
Posté le 04-07-2018 à 12:00:10  profilanswer
 

Il faudra voir mais les ingénieurs de chez NV sont loin d'être des manches et, ce que souligne également la review, NV est très fort pour imposer son écosystème avec une partie software très poussée.
Les investissements qu'ils ont fait dans ce domaine depuis pas mal d'années payent et ils sont désormais la référence dans le secteur du DL et ML.
On verra bien ce qu'il en sera pour nous pauvres pêcheurs de FPS :o

n°10390538
Amonchakai
Posté le 04-07-2018 à 12:07:34  profilanswer
 

Faut aussi voir, qu'ils font pas mal d'abus avec leur position: genre les distributions de GPU à toutes les grosse conf de computer vision.
Je pense que dans 70% des papiers que je lis tu as "merci NVidia pour le don de GPUs".

 

Du coup, tu as énormément de truc en Cuda. Quasiment tous les framework de ML sont Cuda seulement.

 

AMD doit être à la lutte :O

Message cité 1 fois
Message édité par Amonchakai le 04-07-2018 à 12:18:46
n°10390570
Activation
21:9 kill Surround Gaming
Posté le 04-07-2018 à 13:00:14  profilanswer
 

admettons qu on parte sur des gpc/sm proche de volta
 
en 12nm
un G'T'104
aurait 4GPCs (au lieu de 6 sur gv100)
soit 56SMs (au lieu de 84 sur gv100 qui n'en a que 80 d'activé)
 
tout ça en pleinement actif
soit 3584 Cores
(là ou une gtx1080Ti à 28 SM actif sur 30 reparti sur 6 GPC   soit 3584 d'actif sur 3840)
 
 
allé soyons fou, nvidia aurais encore un peu plus poussé sur un G'T'104 et au lieu de 14SM géré par GPC (preque 3x plus que sur pascal quand même  :whistle: ) allez il aurait été jusqu'à 16SMs par GPC (et pi ça fait un beau puissance de 2 :o plutôt que 14 :o )
ça ferait 64 SMs soit 4096 cores
 
bon bien sur au lieu de 8 tensor core par SM on en claque plus que 4 faut pas déconner  :o  
par contre on a tellement cassé les couilles avec notre rtx qu'au lieu de 32 FP64 par SM dans gv100 on en claque que 16 sur G'T104
soit 4x plus que sur pascal
et comme on passe de 20SM à 56SM (en plus pessimiste, 60 en plus optimiste) on multiplie par plus de 11 la puissance en flottant entre gp104 et g't'104
 
 
ouap pop pop ça c'est matériellement, mais on va gentiment brider les geforce car faut bien vendre des quadro et tesla :o
 
Allez comme on est sympa sur geforce sur les 16 FP64 présente par SM on ne vous en rend actif que 8 (et 2 tensor core sur 4 :p ), oh ehhh t es déjà un peu plus de 5x plus puissant en flottant que ta gtx1080 non Ti ... tu va pas chialer non plus, faut bien vendre notre Titan T à 1699$  :o
 
 
voilà t as une idée de ton G'T'104 le truc c'est juste de savoir si le nb de SM par GPC a augmenté depuis (ce qui n'est pas une impossibilité)
 
maintenant RTX j'y crois moyennement pour le gaming pour le moment (si t as 5 AAA qui l'utilise par an moueh)
par contre dans le secteur FX/image de synthese cinema, architecture, ....
quand tu vois des disney (donc pixar, marvel, star wars... ) partenaire, c'est pas pour juste avoir un logo :o

Message cité 1 fois
Message édité par Activation le 04-07-2018 à 13:22:26
n°10390685
Invite_Sur​prise
Racaille de Shanghaï
Posté le 04-07-2018 à 16:33:39  profilanswer
 

Amonchakai a écrit :

AMD doit être à la lutte :O


 
AMD est aux fraises surtout...
 
Sinon,
 

Citation :

As you may have already mentioned, LaptopMedia is the first website in which you can read a detailed review of the new Lenovo Legion Y530. We have one additional surprise for you though – In addition to the GTX 1050 and GTX 1050 Ti variants at the end of this year (November / December), the model will be released with the next-gen NVIDIA GeForce GTX 1160!


 
http://laptopmedia.com/highlights/ [...] -gtx-1160/

n°10390710
thomser
Posté le 04-07-2018 à 17:49:07  profilanswer
 

https://wccftech.com/nvidia-geforce [...] nch-rumor/
Je sais pas si vous avez vu mais le 1160 est attendu sur des portables Legion Lenovo, ainsi que d'autres marques bien sûr.
Avec un bus mémoire 192 bits et des puces à 14GBps ça nous fait 336Gbps pour le 1160 soit plus que les 320Gbps du 1080.  
Si ils arrivent à sortir un ultrabook de 1,5 - 1,7kg avec le 1160 je suis client ou à défaut le 1150ti.

n°10390943
havoc_28
Posté le 05-07-2018 à 10:04:54  profilanswer
 

Activation a écrit :

admettons qu on parte sur des gpc/sm proche de volta
 
en 12nm
un G'T'104
aurait 4GPCs (au lieu de 6 sur gv100)
soit 56SMs (au lieu de 84 sur gv100 qui n'en a que 80 d'activé)
 
tout ça en pleinement actif
soit 3584 Cores
(là ou une gtx1080Ti à 28 SM actif sur 30 reparti sur 6 GPC   soit 3584 d'actif sur 3840)
 
[...]


 
Non, 64 unités par SM, ça ne sera pas utiliser pour du jeu, enlèves toi cette idée de la tête. Le GP100 utilise également cette configuration, pourtant le reste de la gamme Pascal ne l'utilise pas, cette configuration est moins bonnes pour le jeu et autres applications classiques.
 
Et des unités FP64 pour le jeu et autres applications classiques  ? Non sérieusement là tu racontes n'importe quoi.


Message édité par havoc_28 le 05-07-2018 à 10:10:44
n°10391003
genom
urinam non decolor unda
Posté le 05-07-2018 à 12:06:20  profilanswer
 

Si tu regarde le TitanV c'est 6 GPCs, 14SMs par GPC, 4 unités par SM soit 84SMs mais seulement 80SMs activés, 4 unités de texture par SM, 32FP32 et 32FP64, soit 64 CUDA coeurs et 8 Tensors Cores, donc une puce à 5120 coeurs et 640 Tensors Cores, 96 ROPs un cache L2 4608K.
 
 
Si ils partent sur un dérivé gaming de Volta, on pourrait spéculer pour le GXX04, out les FP64 on rajoute des FP32 à la place et on augmente les unité de textures à 8 par SM, on pourrait voir quelque chose comme 4GPCs, 24 28SMs, 8 unités de textures et 128 CUDA coeurs par SM, donc une puce à 3584 coeurs, 320 Tensors Cores pour RTX ? avec 64 ROPs et un cache L2 de 2048k. Donc des SMs agencés comme Pascal 2 unités au lieu de 4 (Titan V) et l'ajout de 4 Tensors cores au total.
 
Sinon autre cas de figure possible (moins probable):
 
4GPC, 42 56SMs, 4 unités de textures et 64 CUDA coeurs par SM, donc une puce à 2688 3584 coeurs, Tensors Cores ? avec 64 ROPs et un cache L2 de 2048k.

Message cité 1 fois
Message édité par genom le 05-07-2018 à 14:20:54
n°10391014
havoc_28
Posté le 05-07-2018 à 12:34:00  profilanswer
 

genom a écrit :

4GPC, 42SMs, 4 unités de textures et 64 CUDA coeurs par SM, donc une puce à 2688 coeurs, Tensors Cores ? avec 64 ROPs et un cache L2 de 2048k.

 
 
Avec ça tu te retrouves dans les eaux d'un GP104 ... A moins d'une progression au niveau des fréquences GPUs.
 
Et les tensors cores pour l'instant il y a eut aucune démonstration de leurs utilités réelles en jeu. Améliorer le bruit de quelques rayons en RayTracing ... Il en faut beaucoup plus pour que ces unités aient une réelle utilité en jeu, pour l'instant j'ai toujours rien vu de flagrant.

Message cité 1 fois
Message édité par havoc_28 le 05-07-2018 à 12:38:14
n°10391015
genom
urinam non decolor unda
Posté le 05-07-2018 à 12:37:11  profilanswer
 

havoc_28 a écrit :

 
 
Avec ça tu te retrouves dans les eaux d'un GP104 ... A moins d'une progression au niveau des fréquences GPUs.


à moins qu'ils conservent 4 unités par SMs. Mais seulement 16 coeurs FP32 par unité, c'est trop peu, comme tu disais je pense aussi plutôt 128 CUDA et 8 textures au total, donc 32 par unités et 2 de textures pour ce cas de figure, mais seulement 24 28SMs, 7 par GPC, donc 3584 coeurs. En gros pour rester dans l'archi Volta, ils cutent 7 SMs par GPCs et 2 GPCs, gardent les unités des SMs à 4 ou ils restent à 2 comme Pascal ?
 
De ce que j'ai lu, tous les cores sont solicités pour RTX mais t'aurais les Tensors Cores dédiés en renfort, donc 3584 + 320. Un algorithme mix raster / Real time pour un pipe dédié. Après ce n'est que pure spéculation.

Message cité 1 fois
Message édité par genom le 05-07-2018 à 14:04:10
n°10391070
havoc_28
Posté le 05-07-2018 à 14:48:03  profilanswer
 

genom a écrit :


à moins qu'ils conservent 4 unités par SMs. Mais seulement 16 coeurs FP32 par unité, c'est trop peu, comme tu disais je pense aussi plutôt 128 CUDA et 8 textures au total, donc 32 par unités et 2 de textures pour ce cas de figure, mais seulement 24 28SMs, 7 par GPC, donc 3584 coeurs. En gros pour rester dans l'archi Volta, ils cutent 7 SMs par GPCs et 2 GPCs, gardent les unités des SMs à 4 ou ils restent à 2 comme Pascal ?
 
De ce que j'ai lu, tous les cores sont solicités pour RTX mais t'aurais les Tensors Cores dédiés en renfort, donc 3584 + 320. Un algorithme mix raster / Real time pour un pipe dédié. Après ce n'est que pure spéculation.


 
Oublie le Volta du GV100, ça sert à rien de se baser dessus, c'est comme comparer le GP100 et les autres puces Pascal. De même vu l'utilité actuelle des Tensors cores pour le jeu ou les autres tâches classiques, y a de grandes chances qu'ils ne soient pas inclus dans cette génération, à nouveau les tensors cores pour le jeu, y a eut aucune démonstration probante jusque là, à nouveau la réduction de bruit dans l'utilisation du Ray Tracing ... c'est vraiment trop limité pour que les tensors cores soient utilisés à grande échelle dans le monde du jeu, jusqu'à preuve du contraire.  
 
On devrait avoir une organisation identique à ce qu'il y a avec Maxwell / Pascal + quelques amélioration incrémentale, Volta reprend l'organisation du GP100 (en augmentant le nombres d'unités au passage), quelques améliorations incrémentales (caches tout ça), instructions supplémentaires, et surtout les tensors cores, mais ces tensors comme dit plus haut, pour le jeu et application graphiques habituelles ...


Message édité par havoc_28 le 05-07-2018 à 14:59:25
n°10391072
Activation
21:9 kill Surround Gaming
Posté le 05-07-2018 à 14:48:39  profilanswer
 

de toute façon on restera à 4GPC sur un 104
donc soit tu reduit le nb de SM, mais il faut que tu augmente le nombre de CU par SM
mais du coup pour les texture unit tu les augmente aussi par SM ?
 
Inversement on peut dire pourquoi mettre autant de texture unit dans un gv100
et si c'est vraiment "turing" cette nouvelle gen, ça laisse quand même supposé au nom que tu lui donne plus de pêche pour cuda
et ptet plus d'effet waouh pour gamework (car on est d'accord c'est surtout à gamework que ça servirait d'un point de vu gamer)
 
maintenant un autre truc qu'il faut ptet voir... c'est que intel à revendu havok à microsoft
donc y voir des discussions pour que dans un prochaine itération de directx un havok devienne une patte directPhysic à directx, et nvidia voudrait prendre plus les devant avec son gamework auprès des devs PC et du coup influencé un peu MS pour que cette "physic" directx convienne à l'archi plus nvidienne, alors qu'à la base havok avant même d'être racheté par intel, était très opti cpu, ce qui nous arrange bien avec la hausse des cores cpus suite ou coup de pied au cul de ryzen au popotin de intel  
 
On verra le résultat mais perso si ce g"t"104 arrive je le vois pas comme un gros gap de perf
 
en tout cas moi je l'imagine comme ça, ptet un gain de 15-20% face à une 1080Ti (donc pas mieux que le gros gv100)
mais l'occasion pour nvidia d'être plus dx12 et vulkan 1.1 compliant (donc ça va couter des transistors sans reel gain de perf sur les jeux actuel)
se remettre à niveau HDR, dolby vision, hdmi 2.1 tout ça (bref toute la chaine I/O au moins 12bits actuellement surtout 10bits sur pascal)
pour aller dans le sens veux vendre mon "RTX" au pro
je refout une couche avec du Ansel HDR, et du ShadowPlay HDR :o (prend ça dans les dent xbox et playstation :o )
et du je prépare mon gamework pour qu'il soit encore assé waouuuuh en vu de PS5, xbox "next"  :o  
 
enfin perso avec un gpu 12nm et l'avance profonde face au radeon d'en face
je claque début 2019 (genre fevrier) juste pour la grosse vague de AAA mars-avril de la GTX1160 à prix ajusté face au machin que vendra AMD [:moonzoid:5]  
 
Et pendant ce temps dans le feutrer une G"après T"102 se prépare en bus 384bits et j'inverse la vapeur avec pour les GTX1280 d'abord sortir la plus maousse 7nm possible un peu comme l'époque 8800gtx/ultra  
(Bref genre je la balance octobre 2019 pour dans la foulé cassé les couilles à un lancement de PS5 car franchement la PS5 au plus tard je la vois mars2020 dans les boutique fonction du pays ou tu te trouve)
(et pour sécuriser si intel fait qqchose de bien en 2020 avec le ptit père raja...  [:afrojojo] oueh quand tu vois les drivers intel c'est pas gagné   [:striker eureka:1]  )
Et même dans la foulé paf je change la nomenclature pour marquer le coup  [:pdbzombifiay:3] (donc pas gtx1280 en fait)
 
Comment ça je suis en mode Huang je tiend tout le monde par les couilles [:micheline_tchoutchou1:3]
 
En tout cas voilà ce gpu je le vois plus comme pérenniser ce que nvidia est en train de changer niveau middleware, sans perte de performance par rapport à la précédente gen, se lancer dans gddr6 qui tiendra plus d'une gen contrairement à gddr5x donc des contrats à plus long terme, rester sur une finesse moins couteuse que du 7nm le temps que le marché se restabilise après le délire des cryptomerde et d'avoir un peu plus de clarté sur la concurrence
 
après y a d'autre truc bien inconnu chez nvidia
1/ abandon total du sli ? (limité a 2 carte sur pascal) déjà que nvidia arrête le support des OS 32bits
2/ suite à ça un version allégé des drivers sans sli ?
3/ gsync va t'il pouvoir vraiment perdurer ? nvidia s'attaque au marché TV avec des TV gsync, mais en face va monter vesa avec le hdmi 2.1 et des solutions free face à gsync
qui ne manqueront pas d'être utilisé par les prochaine console AMD
4/ nvlink cette arlésienne hors serveurs ?
5/ PCIe 4/5 ?
6/ ketchup ou moutarde ?
7/ geforce now ? je pense pas que nvidia monte des ferme de serveur juste pour des joueurs, donc ces serveurs doivent aussi bien servir à un abonnement de game streaming, qu'un abonnement de computing destiné aux entreprises, donc faudra bien que les gpu dans ces serveur tourne aussi bien pour le gpgpu que pour le gaming
8/ la VR fait du surplace ou nvidia va annoncé des nouveauté ? (à mon avis du surplace :o )
9/ allé un truc dingo nvidia supporterait plus de 4 ecrans en surround gaming :o (nan j'rigOle)
10/ premiere CG à avoir un port "USB C" pour le hdmi 2.1
 
bref nvidia oui en solution de force niveau hard, mais qui se fait pas mal attaqué sur le "soft" par des alternative qui monte en puissance, donc je dirais que oui désolé nvidia doit renforcer sont middleware pour pas se faire rattraper, donc pour renforcer le middleware moi ce g"t"104 je le vois comme pas mal de transistors qui n auront pas d'impact day one sur les jeux actuels en prévision de ce que veux vendre nvidia aux dev dans les 2ans à venir, et pour ça faut un parc hard installé compatible
(on rappelera que dans le monde pro pas mal de soft basé sur cuda on rencontré des bug avec des gv100 et qu il a fallut patché tout ça)

Message cité 1 fois
Message édité par Activation le 05-07-2018 à 15:44:53
n°10391074
Monsieur L​ocke
ex Locke Cole
Posté le 05-07-2018 à 14:55:38  profilanswer
 

Les pavés s'enchaînent j'arrive plus à suivre :D


---------------
TU Transport Fever 2
n°10391110
Activation
21:9 kill Surround Gaming
Posté le 05-07-2018 à 15:45:34  profilanswer
 

Monsieur Locke a écrit :

Les pavés s'enchaînent j'arrive plus à suivre :D


 
pour t'embeter j ai du facile modifier 6x mon pavé

n°10391200
NewChallen​ger
Chubby lover
Posté le 05-07-2018 à 19:02:16  profilanswer
 

Activation a écrit :

 

pour t'embeter j ai du facile modifier 6x mon pavé

 

À la 7ème tu inclues la ponctuation ?  [:fdiedler]


---------------
"Je rirai uniquement si t'as un accident de bagnole". N. Maria, 2018.
n°10391212
Profil sup​primé
Posté le 05-07-2018 à 19:32:51  answer
 

c'est plus un pavé, là  
 
c'est un parpaing   :o

Message cité 1 fois
Message édité par Profil supprimé le 05-07-2018 à 19:34:36
n°10391215
Activation
21:9 kill Surround Gaming
Posté le 05-07-2018 à 19:49:02  profilanswer
 

NewChallenger a écrit :


 
À la 7ème tu inclues la ponctuation ?  [:fdiedler]


 
C est priceless ça
J en met jamais  :o
m'embête pas ou je balance le tout en binaire  [:somberlainvi:3]  
 
 
 
Bah non un parpaing c'est creux, ça casse comme un rien si je le lance
Un pavé reste un pavé ... C'est juste un pavé inca, c'est plus gros qu'un pavé romain  :o


Message édité par Activation le 05-07-2018 à 19:57:14
n°10391344
aliss
Rhyme the Rhyme Well
Posté le 06-07-2018 à 09:29:23  profilanswer
 

Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.
 
https://www.digitimes.com/news/a20180629PD204.html
 
Si c'est vrai, nV risque de se contenter de présenter son architecture prochainement.

Message cité 2 fois
Message édité par aliss le 06-07-2018 à 09:34:38
n°10391366
havoc_28
Posté le 06-07-2018 à 10:27:12  profilanswer
 

aliss a écrit :

Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.
 
https://www.digitimes.com/news/a20180629PD204.html
 
Si c'est vrai, nV risque de se contenter de présenter son architecture prochainement.


 
Au moins ils auront de quoi présenter une vrai carte, pas une maquette en bois :o.

n°10391374
overclockp​ro
Posté le 06-07-2018 à 10:50:44  profilanswer
 

aliss a écrit :

Nvidia's next-generation GPUs made using TSMC's 12nm and 7nm processes are also expected to be postponed to late fourth-quarter 2018 until after inventory returns to safe levels, the sources said.
 
https://www.digitimes.com/news/a20180629PD204.html
 
Si c'est vrai, nV risque de se contenter de présenter son architecture prochainement.


 
Etrange : je pensais que les prochains GPUs sortant cette année allaient être gravés avec une seule finesse de gravure. Si le 7 nm est prêt, pourquoi Nvidia présenterait-il du 12 nm ?

n°10391376
havoc_28
Posté le 06-07-2018 à 10:53:08  profilanswer
 

overclockpro a écrit :


 
Etrange : je pensais que les prochains GPUs sortant cette année allaient être gravés avec une seule finesse de gravure. Si le 7 nm est prêt, pourquoi Nvidia présenterait-il du 12 nm ?


 
Rendement ? Si ça se peut le 7nm ne sera utiliser que sur l'entrée de gamme / mobile dans un premier temps, sur de très petites puces histoire de se roder avec le process et ensuite proposer plus tard nouvelle gen avec puces plus grosses en 7nm ?
 
Le 7nm il peut être ready pour des puces de la taille des SOCs de smartphone et faible conso, et avoir encore un rendement trop faible avec les grosses puces, par exemple le V20 d'AMD en 7nm pour l'instant c'est phase d'échantillonnage qui va arriver en fin d'année avec une prod importante courant de l'année prochaine.

Message cité 2 fois
Message édité par havoc_28 le 06-07-2018 à 10:58:04
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  45  46  47  ..  52  53  54  55  56  57

Aller à :
Ajouter une réponse
 

Sujets relatifs
Nvidia Shield débit PC GamestreamReboot en boucle GIGABYTE nVIDIA GTX970
Crash de l'ordinateur en lien avec la carte graphique NVIDIA .Remplacer ventirad carte graphique nvidia gts240
nvidia geforce gtx 950m et 3840 x 2160Problème driver nvidia / Kernel mode
Problème carte graphique nvidia.[HFR] Actu : Pilotes Nvidia GeForce 378.92 WHQL
[Topic Unique] Asus ROG Crosshair VI Hero X370 (AMD Ryzen AM4)T1500 et carte Gigabyte N750TOC-2GI Carte Graphique Nvidia GeForce GT
Plus de sujets relatifs à : [Topic Unique] Nvidia Volta ("12nm" FFN)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR