Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2942 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  14  15  16  ..  52  53  54  55  56  57
Auteur Sujet :

[Topic Unique] Nvidia Volta ("12nm" FFN)

n°10295149
Bouvman
You fuck my wife ?
Posté le 19-12-2017 à 22:15:39  profilanswer
 

Reprise du message précédent :

kusanagibzh a écrit :

peut-être que ça fait 5/6 ans qu'ils bossent en grand secret sur une nouvelle archi qui va poutrer Nvidia du jour au lendemain, comme à l'époque de la 7970, ça serait si beau...
Ne nous leurrons pas AMD sont encore enlisé dans le marais pendant que Nvidia court sur le bitume...


Bon qu'ils se dépêchent alors...


Message édité par Bouvman le 19-12-2017 à 22:15:45
mood
Publicité
Posté le 19-12-2017 à 22:15:39  profilanswer
 

n°10295155
B00lay Ier
Posté le 19-12-2017 à 22:21:48  profilanswer
 

kusanagibzh a écrit :

peut-être que ça fait 5/6 ans qu'ils bossent en grand secret sur une nouvelle archi qui va poutrer Nvidia du jour au lendemain, comme à l'époque de la 7970, ça serait si beau...


Tout le budget est parti dans Zeppelin.
 
Ce qui est assez dingue, c'est qu'il n'y a aucune cohésion entre les 2 entités puisque les axes qui ont été suivis pour Zeppelin sont précisément ceux qui devraient être suivis depuis que GCN a débarqué.

n°10295185
Activation
21:9 kill Surround Gaming
Posté le 19-12-2017 à 23:41:30  profilanswer
 

kusanagibzh a écrit :

peut-être que ça fait 5/6 ans qu'ils bossent en grand secret sur une nouvelle archi qui va poutrer Nvidia du jour au lendemain, comme à l'époque de la 7970, ça serait si beau...
 
Ne nous leurrons pas AMD sont encore enlisé dans le marais pendant que Nvidia court sur le bitume...


 
Le pb qui a toujours été depuis la hd2900 (et même encore avant sur gpu dx9 chez ATI)
vliw5, vliw4 et maintenant il appel ça "gcn"
C est qu'en soit ils ont toujours pensé leur unité de calcul "compute"
À toujours nous casser les noix à nous étaler des gros chiffre en unité "flops" bien compute
Même encore pour la xbox one X encore en train de nous souler avec leur "flops"
Sauf que voilà pour une utilisation gaming [:sombrero67]  
 
Même pour la physique, combien il aura fallut de temps à un nvidia pour avoir assé de puissance pour qu un gpu aloue assé de ressource pour qu un jeu puisse afficher des phenomene de physique dans un jeu pour un grand nb de consommateur sans que le dit gpu soit saturé pour faire son taff premier, afficher la 3d, les textures, calcul des eclairages, etc...
 
C'est pas si vieux, en gros gtx970.. Alors qu on nous a soulé avec depuis bien la gtx480
 
Bref t a un peu 2 strategie d'un coté t as nvidia qui au fil de l'eau a transformé ses gpu en spu avec mise en avant de cuda
De l'autre chez amd (cher ati c'était assé la strategie de nvidia)
T'a l impression qu ils sont parti d un design de cpu et le rendre gpu en ajoutant des brique un peu comme intel t'as foutu des brique mmx, avx
 
Tu prend la hd2900 on a l impression qu ils ont prit le cahier des charges dx10 sans regarder de quoi il venait avec le rachat d ATI (souvent l impression qu ils ont racheté ati plus pour les chipset mobo pour ne plus passé par la case mobo avec puce nforce)
 
La hd3xxx à mince vous vouliez de l'AA  
La HD4xxx en voilà et cahier des charge dx10.1
La hd5xxx cahier des charge dx11 (mais les perf bof)
La hd6xxx ça y est youpi le eyefinity marche vraiment et on vous fait beta testeur payant pour vliw5 vs vliw4
La hd7970, hd78x0 yeees par coup de bol pour une fois ce qu'on fait ça convient aux dev de jeux
... Cahier des charges dx12... Mince on sait plus nager... C'est quoi un gpu déjà
 
Après c'est sur comparé aux igp d intel y a pas photo
M'enfin d'un point de vu gamer, comparé à ATI, chez AMD ça sera surtout la hd4890 (franchement la hd4870 bof comparé à la 8800gtx) et la hd7970 que je retiend


Message édité par Activation le 20-12-2017 à 00:14:40
n°10295187
aliss
Rhyme the Rhyme Well
Posté le 19-12-2017 à 23:54:01  profilanswer
 

Invite_Surprise a écrit :


Oui en 4K vs une 980Ti FE ultra conservatrice et dans une résolution dans laquelle la carte ne permettait pas de jouer sans baisser les détails.
En 1080p et en 1440p, elle ne faisait pas vraiment mieux qu'une 980 custom costaud comme la G1 de Gigabyte.
Un chip bien plus petit et sorti 9 mois auparavant. Avec la Fury, le vers était déjà dans le fruit mais c'est vrai qu'avec Vega c'est encore pire.

 

C'est bien là ou je voulais en venir, avec Fiji AMD réussissait tant bien que mal à proposer quelque chose dans le segment du GM200.

 

Avec Vega, on se retrouve avec un gpu plus gros que le GP102 et qui doit lutter contre le GP104, la situation actuelle est bien plus inquiétante.


Message édité par aliss le 19-12-2017 à 23:54:27
n°10295415
Invite_Sur​prise
Racaille de Shanghaï
Posté le 20-12-2017 à 12:42:29  profilanswer
 

On sort la salière, encore une fois !
 
Nvidia will have two big GPUs in 2018
 

Citation :

There have been many reports that Nvidia’s next generation technology will be codenamed Ampere and we want to set one thing straight. The successor of Volta is an AI/ML chip and not a GPU - just like Volta never was.


 

Citation :

Nvidia will have a GPU that will come in 2018 to replace the Pascal based GTX 1000 series and won’t be a cut down version of Volta. It will be a brand new unit designed from  scratch.


 

Citation :

Our colleagues around the globe are speculating the release date and most likely the Volta successor will be announced at Nvidia’s GPU technology conference between March 26 - March 29 2018. It will most likely ship much later than that, but hey, at least Nvidia can announce  things to come.


 

Citation :

It is hard to imagine that the successor of Volta or Nvidia GPU can be manufactured at 7nm simply as 7nm won’t be available for GPUs in 2018. Nvidia will most likely stick with the reliable 12nm.


 
Donc Ampere successeur de Volta et le successeur de Pascal sera une nouvelle architecture "build from scratch"
 
[:dok38:4]

n°10295426
Activation
21:9 kill Surround Gaming
Posté le 20-12-2017 à 13:12:35  profilanswer
 

toute façon pour le gaming franchement si on regarde les specif theorique c'est pas doubler les unité de calcul dans les SMs ou doubler les SMs qui va offrir de vrai gain, la vérité est ailleurs dans le design du gpu
 
bon par contre péter des effets plus ouf sur la physique des particules, de l'herbe avec toujours plus de brin, des fourrure avec plus de poils oui à la limite
 
mais c'est pas vraiment la priorité pour les jeux actuels  
là le gamer il veut soit ultrahd à minima 60fps  
du 1440p à vitesse de taré 144Hz à minima :o
de la VR en en 1600p 90fps :o  
 
pour avoir 4x plus de brin d'herbes qui bouge en fonction d'effet météo dans le jeu
je pense que la masse de gamer veux bien attendre plus
 
m'enfin même là  
et quand tu vois ce qu'un "vieux" tegra peut faire dans un zelda
qqpart tu te dit putain nop sans déconner ça doit pas être 3600SP qui bride mon framerate en 8K :o
 
bref la verité doit être dans la partie des "schema de puce" que amd et nvidia nous montre et qui sont jamais détaillé (raster engine et autre truc en amont)
 
qqpart va ptet y avoir un boost des vitesse d'horloge à ce niveau ? (vu que nvidia il en est pas à son premier gpu ou tout tourne pas à la même vitesse dedans )

Message cité 1 fois
Message édité par Activation le 20-12-2017 à 13:20:17
n°10295491
Bouvman
You fuck my wife ?
Posté le 20-12-2017 à 14:44:11  profilanswer
 

Activation a écrit :

toute façon pour le gaming franchement si on regarde les specif theorique c'est pas doubler les unité de calcul dans les SMs ou doubler les SMs qui va offrir de vrai gain, la vérité est ailleurs dans le design du gpu
bon par contre péter des effets plus ouf sur la physique des particules, de l'herbe avec toujours plus de brin, des fourrure avec plus de poils oui à la limite
mais c'est pas vraiment la priorité pour les jeux actuels  
là le gamer il veut soit ultrahd à minima 60fps  
du 1440p à vitesse de taré 144Hz à minima :o
de la VR en en 1600p 90fps :o  
pour avoir 4x plus de brin d'herbes qui bouge en fonction d'effet météo dans le jeu
je pense que la masse de gamer veux bien attendre plus
m'enfin même là  
et quand tu vois ce qu'un "vieux" tegra peut faire dans un zelda
qqpart tu te dit putain nop sans déconner ça doit pas être 3600SP qui bride mon framerate en 8K :o
bref la verité doit être dans la partie des "schema de puce" que amd et nvidia nous montre et qui sont jamais détaillé (raster engine et autre truc en amont)
qqpart va ptet y avoir un boost des vitesse d'horloge à ce niveau ? (vu que nvidia il en est pas à son premier gpu ou tout tourne pas à la même vitesse dedans )


Tu as raison, tous les jeux sortis cette année bien programmés, une 1080 ou une 1080ti suffit amplement à les faire tourner à fond.
À part des élites qui vont vouloir de la 4K à 100 hrz, je ne vois pas l'intérêt d'une nouvelle génération de cartes...


Message édité par Bouvman le 20-12-2017 à 14:49:52
n°10295735
ever_over
Posté le 20-12-2017 à 21:40:02  profilanswer
 

Le test Anandtech de la Titan V en compute et jeux, avec de nombreux détails sur l'architecture : https://www.anandtech.com/show/1217 [...] itanomachy. Un test orienté deep learning devrait arriver.
 

B00lay Ier a écrit :

Volta est tellement proche de Pascwell que côté drivers doit pas trop y avoir de soucis...
 
Il y a d'ailleurs fort à parier qu'Ampère sera une 3e itération de Maxwell, autrement dit Volta sans tout le bagage HPC.


Je n'avais rien dit sur ce message trollesque sur le coup, mais je me permets de le déterrer avec une réponse d'Anandtech :

Citation :

Volta is a brand new architecture for NVIDIA in almost every sense of the word. While the logical organization is the same much of the time, it's not Pascal at 12nm with Tensor Cores. Rather it's a significantly different architecture in terms of thread execution, thread scheduling, core layout, memory controllers, ISA, and more. And these are just the things NVIDIA is willing to talk about right now, never mind the ample secrets they still keep.


Voir l'article pour les détails sur ces changements, qui semblent motivés par des besoins HPC.
 
Cet article d'Anandtech a aussi le mérite de répondre à une question quasi existentielle pour un gamer : https://www.anandtech.com/show/1217 [...] anomachy/8

Message cité 1 fois
Message édité par ever_over le 20-12-2017 à 21:44:02
n°10295768
B00lay Ier
Posté le 20-12-2017 à 22:33:35  profilanswer
 

ever_over a écrit :

Je n'avais rien dit sur ce message trollesque sur le coup, mais je me permets de le déterrer avec une réponse d'Anandtech :

Citation :

Volta is a brand new architecture for NVIDIA in almost every sense of the word. While the logical organization is the same much of the time, it's not Pascal at 12nm with Tensor Cores. Rather it's a significantly different architecture in terms of thread execution, thread scheduling, core layout, memory controllers, ISA, and more. And these are just the things NVIDIA is willing to talk about right now, never mind the ample secrets they still keep.


Voir l'article pour les détails sur ces changements, qui semblent motivés par des besoins HPC.

 

Cet article d'Anandtech a aussi le mérite de répondre à une question quasi existentielle pour un gamer : https://www.anandtech.com/show/1217 [...] anomachy/8


Ce à quoi je répondrai tout simplement :
http://www.hardware.fr/medias/photos_news/00/49/IMG0049077.jpg

 

Mettre des gommettes "New!" partout ne signifie pas que tout a changé... il est fréquent que la comparaison soit faite par rapport à un truc déjà obsolète (sans le dire évidemment) quand on cherche à meubler la présentation d'un produit.

 

Edit : concernant le duo PC/pile, c'est écrit en page 18 du document source... "The per-thread program counter (PC) that forms part of the improved SIMT model typically requires two of the register slots per thread", je suis pas sûr que ça soit bien différent de ce qu'on avait jusque là. Concernant le layout, c'était évident avec les tensor cores.


Message édité par B00lay Ier le 20-12-2017 à 22:54:16
n°10295804
mogana
Posté le 20-12-2017 à 23:19:02  profilanswer
 

belle bête quand même, cher mais un monstre

mood
Publicité
Posté le 20-12-2017 à 23:19:02  profilanswer
 

n°10295982
Activation
21:9 kill Surround Gaming
Posté le 21-12-2017 à 13:00:27  profilanswer
 

bah un monstre pensé compute donc c'est pour les pro
un pro répercutera le prix de son outil de travail sur la facture du client final

n°10296007
aliss
Rhyme the Rhyme Well
Posté le 21-12-2017 à 13:49:24  profilanswer
 

Il n'est pas exclu que la castration de 25% des Rop's du GV100 soit préjudiciable en jeu pour cette Titan.

 

Je me demande encore pour quelle raison nV ne déclinerait pas une version gaming de son architecture.

 

C'est en tout cas ce qu'ils ont toujours fait jusqu'à présent.

Message cité 1 fois
Message édité par aliss le 21-12-2017 à 13:49:43
n°10296036
Activation
21:9 kill Surround Gaming
Posté le 21-12-2017 à 14:44:52  profilanswer
 

bah déjà suis loin d'être sur que pour un usage gaming tout les thread aient besoin d'être traité de façon indépendante dans le sheduler
 
partant de là ça doit avoir un coût en terme transistors sur volta, ça à en a un chez amd  
en usage "compute" je dirais normal
en usage "gamework" ça doit trouver utilité, mais à mon avis de façon moindre  
 
faut pas non plus oublier que en usage "compute" ça vise aussi à travailler avec d'autres gpus, donc le thread n'est pas forcément un rapport avec un autre traité par le même gpu, donc que chaque thread soit traité indépendamment au niveau de chaque gpu doit permettre de s'enlever des contraintes quand plusieurs gpu travaille ensemble
 
rappel qu'en sli, c'est toujours l' "AFR" qui a été privilégié par nvidia (chaque gpu s'occupe d'une image) pas le "SFR"
je peux dire une connerie mais la nouvelle archi volta j'ai l'impression qu'elle aurait tellement été mieux dans la logique "SFR"
 
mais là vu que visiblement on va vers la mort du multigpu pour le gaming (même si pour moi y a toujours qqchose de faisable dans une logique "SFR" et sans recourir à un intermediaire de profil spé pour chaque jeu)
 
après oui de toute façon y aura forcément des nouveautés sur le prochain gpu nvidia
support plus complet de dx12
un "presupport" pour anticiper vulkan 1.1 ? (on commence à se demander si il va arriver un jour, c'est une espèce d'arlésienne)
hdmi 2.1 ?  
* avec le "QFT"  
* mais surtout monde des bisounours le VRR et qu'on n'ai plus cette obligation de G-Sync  bref qu'enfin ça se généralise dans les téléviseurs et dans les écrans
* support du HDR dolby vision (12bits)
car franchement dans les pilotes nvidia actuel, les gtx10X0 sont dites compatible HDR et sensé être hdmi 2.0b... ça ressort pas vraiment dans les réglages  :sweat:  
 
une refonte ENFIN des drivers nvidia serait pas du luxe aussi, car bon ce truc bencale geforce expérience d'un coté et les reglages AA, vsync et etc... de l'autre dans une interface austère qui date de Win95
 
améliorer le processeur de commande dans le gpu doit surement permettre aussi des gain en jeu sans forcément toucher aux SMs que l'on a déjà dans un pascal
 
maintenant c'est sur qu'améliorer le sheduler et le processeur de commande c'est bien plus compliquer que bêtement augmenter les SMs ou les SP
 
Après il y a peut être d'autre implication hors gaming
2018 étant censé être l arrivée de windows arm
est ce que c'est pas une volonté de MS que directx pousse plus le compute pour contrebalancer l'absence de avx, mmx, .... dans les apu arm/dx1X  pour windows arm
 
et donc peut être qu'au final le gpu gaming nouveau de nvidia sera tout de même plus "compute" ... mystère, y a qqun qui taff chez MS ici  [:clooney2]


Message édité par Activation le 21-12-2017 à 15:09:14
n°10296059
B00lay Ier
Posté le 21-12-2017 à 15:28:59  profilanswer
 

aliss a écrit :

Il n'est pas exclu que la castration de 25% des Rop's du GV100 soit préjudiciable en jeu pour cette Titan.

 

Je me demande encore pour quelle raison nV ne déclinerait pas une version gaming de son architecture.

 

C'est en tout cas ce qu'ils ont toujours fait jusqu'à présent.


Si tu intègres le fait que Volta n'est rien d'autre qu'un Maxwell à peine bricolé en 14nm mature auquel on a profité pour ajouter des unités spécialisées dans les matrices 4x4 qui ne servent à rien pour le domaine ludique, c'est au contraire parfaitement limpide...

 

A noter d'ailleurs qu'il me semble bien que ces tensor cores ne savent faire que des MAD, ce qui pourrait avoir pour conséquence de n'accélérer que des benchmarks.

Message cité 1 fois
Message édité par B00lay Ier le 21-12-2017 à 15:30:01
n°10296174
ever_over
Posté le 21-12-2017 à 19:49:52  profilanswer
 

Un test de la Titan V en deep learning, par PCPerspective : https://www.pcper.com/reviews/Graph [...] erformance
 
Comme attendu, ça marche fort. Le prix de la carte prend tout son sens, comme précisé dans la conclusion de l'article :

Citation :

Even at $3000, this card is a no-brainer for a researcher or scientist who is on a smaller scale than needing the $150,000 NVIDIA DGX-1 server with 8 V100 GPUs in it, but still wants the ability to iterate quickly on their models or train a multitude of large datasets.


On peut comprendre que NVidia cherche à diffuser un maximum son architecture Volta pour qu'un écosystème logiciel se constitue autour de ses fonctionnalités (tensorcore, cuda...). La prime va au premier.

n°10296226
Invite_Sur​prise
Racaille de Shanghaï
Posté le 21-12-2017 à 22:00:23  profilanswer
 

Merci à toi.
Je rajoute le test d'AT  :jap:

n°10296342
mogana
Posté le 22-12-2017 à 08:15:04  profilanswer
 

B00lay Ier a écrit :


Si tu intègres le fait que Volta n'est rien d'autre qu'un Maxwell à peine bricolé en 14nm mature auquel on a profité pour ajouter des unités spécialisées dans les matrices 4x4 qui ne servent à rien pour le domaine ludique, c'est au contraire parfaitement limpide...
 
A noter d'ailleurs qu'il me semble bien que ces tensor cores ne savent faire que des MAD, ce qui pourrait avoir pour conséquence de n'accélérer que des benchmarks.


 
selon anandtech, ce n'est pas qu'un maxwell bricolé, c'est une nouvelle archi dédiée compute mais qui permet quand même de jouer en 4K sans difficulté après une bonne séance d'entraînement de neurones :o

Message cité 1 fois
Message édité par mogana le 22-12-2017 à 08:18:19
n°10296414
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-12-2017 à 10:49:00  profilanswer
 

Tiens et puis c'est bizarre, ils parlent de drivers qui paraissent non optimisés pour le jeu...  [:nedurb]

n°10296528
B00lay Ier
Posté le 22-12-2017 à 13:43:16  profilanswer
 

mogana a écrit :

selon anandtech, ce n'est pas qu'un maxwell bricolé


Sauf que pour le coup AT ne fait que citer la brochure (et ne s'en cache pas vraiment), or tu peux te référer à la magnifique illustration de Polaris à peine plus haut pour ce qu'on doit en penser...

n°10296533
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-12-2017 à 13:48:35  profilanswer
 

C'est pas du tout ce qui en ressort à la lecture de l'article.
Le fait est que tu as tort et qu'entre AT et B00lay, le choix est vite fait.

Message cité 1 fois
Message édité par Invite_Surprise le 22-12-2017 à 13:48:58
n°10296543
B00lay Ier
Posté le 22-12-2017 à 13:56:49  profilanswer
 

Invite_Surprise a écrit :

C'est pas du tout ce qui en ressort à la lecture de l'article.
Le fait est que tu as tort et qu'entre AT et B00lay, le choix est vite fait.


Si tu veux, mais tu as vu comme tout le monde les ravages du marketing :o  
 
J'ai essayé de remonter dans l'historique sans retrouver, mais le SIMT "amélioré" est louche aussi dans son genre, je suis persuadé d'avoir déjà vu cet argument bien avant Volta (GT200? GF100?) et la tournure est volontairement floue : est-ce que CUDA (y compris les workarounds de tiers) ne permettrait pas de trancher à ce sujet précis?

n°10296637
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-12-2017 à 16:01:45  profilanswer
 

Micron évoque la venue de la GDDR6 pour l'année prochaine dans un ticket de blog, comme nous avions pu le voir par le passé avec la GDDR5X :
 

Citation :

In June of this year, we mentioned that our GDDR6 program was on track and progressing well. Since that time, our Graphics teams in Munich and Boise have been hard at work, and both design and device qualification are complete.


 

Citation :

Like G5X, we see a path for GDDR6 to offer a 16 Gb/s bin over time, with initial mass production bins of 12 and 14 Gb/s. With developments like these on the horizon, 2018 is going to be another big year for anyone who loves graphics tech.


 
http://www.micron.com/about/blogs/ [...] t-for-2018

n°10296640
Yo80
SERIOUS SHARK :D
Posté le 22-12-2017 à 16:04:09  profilanswer
 

a quand volta grand public? :o :cry:
je vais quand même pas racheter de la 1080Ti 9 mois après sa sortie :/


---------------
Mon Feed  /  Mes Ventes
n°10296656
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-12-2017 à 16:29:55  profilanswer
 

Q2'18 dans le meilleur des cas et à priori ce serait une nouvelle archi et non quelque chose basé sur Volta.
On en saura plus l'année prochaine, notamment lors de la GDC en mars 2018.

n°10296787
ZzDazzleZz
Bencheur Oufff
Posté le 22-12-2017 à 20:47:12  profilanswer
 

Invite_Surprise a écrit :

Q2'18 dans le meilleur des cas et à priori ce serait une nouvelle archi et non quelque chose basé sur Volta.
On en saura plus l'année prochaine, notamment lors de la GDC en mars 2018.


 
J'espère des news avant la GDC au moins quelques fuites crédibles :)

n°10296836
Activation
21:9 kill Surround Gaming
Posté le 22-12-2017 à 22:16:28  profilanswer
 

En general à la gdc c'est des trucs sous nda
Des fois tu peux lire des trucs entre les lignes avec les nouveauté de gamework presenté aux dev de façon public
 
Après ça fait qqs années quand meme que c est un event dédié  
 
Ensuite faut se dire que les fab les 4-5 premiers mois de l année sont plus occupé avec les commandes de composants lié aux smartphone
Et visiblement ça semble s orienter vers un "jamais entendre parler de la nouvelle gamme geforce avant juin"

Message cité 1 fois
Message édité par Activation le 22-12-2017 à 22:20:42
n°10296888
ZzDazzleZz
Bencheur Oufff
Posté le 22-12-2017 à 23:35:25  profilanswer
 

Activation a écrit :

En general à la gdc c'est des trucs sous nda
Des fois tu peux lire des trucs entre les lignes avec les nouveauté de gamework presenté aux dev de façon public
 
Après ça fait qqs années quand meme que c est un event dédié  
 
Ensuite faut se dire que les fab les 4-5 premiers mois de l année sont plus occupé avec les commandes de composants lié aux smartphone
Et visiblement ça semble s orienter vers un "jamais entendre parler de la nouvelle gamme geforce avant juin"


 
VADE RETRO SATANAS !!! déjà ça va être chiant d'attendre fin mars pour avoir des nouvelles alors si tu recules à juin je te livre en pâture sur JV.com :p

n°10297119
Activation
21:9 kill Surround Gaming
Posté le 23-12-2017 à 14:32:16  profilanswer
 

bah je t'expose des faits
va sur wiki regarder les dates de sortie de tout les gpu nvidia
 
ceux qui sortent jusqu'à avril
c'est soit un modèle bien souvent "bas de gamme"  
soit une déclinaison du gros gpu... sauf que t aura pas de geforce basé sur un gv100
 
compte pas sur une remplacante des 1070/1070ti/1080/1080ti avant fin mai  Tu te fera moins de mal à ne rien voir en mars :o  
 
si nvidia devait sortir qqchose entre janvier/avril, pour moi ça serait un nouveau tegra pour être dans l'actualité windows arm (et préparer des billes chez nintendo pour sortir une new revision de la switch en 2019, bref comme les DSi, 3DS, new3DS...)
 
surtout que  
1/ les geforce pascal se vendent encore bien et font encore le taff
2/ et si la nouvelle gamme ne sort pas en gddr6, le prix de la gddr5x est loin d'être génial non plus
3/ si nvidia avait une volonté de foutre une baffe au monde console et dire nvidia sur PC c'est mieux, c'est au mieux sept 2019 en face d'une PS5 (car bon la xbox one X... c'est un peut foutre une RX580 en face d'une gtx1080 non Ti :o pour des jeux ultrahd 30i/s même la gtx1070 le fait)
4/ la concurrence direct ... dans l'état actuelle pour amd qui doit patoger dans une mini restructuration dans l'équipe en charge des gpu (départ de Mr fume un havane :o ) on imagine AMD ne revenir au mieux qu'avec le 9-10nm en 2019
(au moins proposer un qqchose genre rx680 256bits vers octobre 2018 :o )  
5/ star citizen sort pas avant 2072 :o
6/ cyberpunk 2077 visiblement ça va plus glisser sur 2019 avec un trailer à l'E3 2018
 
Après oui pour moi les "gtx1180/1170" ? "180/170gtx" ? sont "prête"  
tournent elles sur gddr6 ou gddr5x, moi je dit probable sur gddr6 (ça serait dommage qui a payer cher de la gddr de se limiter pour la vie de cette gen à moins de fournisseur en repartant sur la gddr5x)
après quand je dit prête ... faut comprendre presample, pas encore prod pour commercialisation
 
 [:michaeldell:1] voilà ça fera 500 euros la consulte :o


Message édité par Activation le 23-12-2017 à 15:03:18
n°10297214
ZzDazzleZz
Bencheur Oufff
Posté le 23-12-2017 à 17:17:54  profilanswer
 

Bon allez c'est noël file moi ton rib j'te fais un virement ^^
Sinon plus sérieusement une 1080 sera déjà capable de torcher une PS5 ^^  
Et une remplaçante de la 1080 simple ce sera probablement une présentation en Mars pour une sortie effective vers avri / mai !!! au pire juin :)
Donc ma boule de cristal m'indique des fuites début mars :o
 
[:aaaaze:3][:ric lechic]


Message édité par ZzDazzleZz le 23-12-2017 à 17:18:40
n°10297221
Activation
21:9 kill Surround Gaming
Posté le 23-12-2017 à 17:34:50  profilanswer
 

une PS5 pour moi ça sort 4eme trimestre 2019, donc avec un gros contrat chez un fondeur potentiellement la finesse de gravure top
j'ose espérer qu'en 2019 pour une "PS5" amd saurait faire un "APU"  
basé sur ryzen 2 et l'après vega cap de faire mieux qu'un gp104 16nm
 
( [:machina of god:2]  [:framboize:1]  [:- mr white -] [:clooney8]  )

n°10300162
Dark Schne​iderr
⭐⭐
Posté le 29-12-2017 à 12:39:10  profilanswer
 

Si la 2070 est, en perfs, dans les parages de la 1080 Ti, je la prendrai sachant que cette dernière est 2,25 plus puissante que ma petite Zotac 1060.
 
La 1080 Ti est à plus de 80 fps en 2560x1440 filtres à fond et à foison.
 
Sinon, ce sera la génération d'après. Pas envie de mettre + de 450 balles dans une CG.
 
 
 

n°10300167
le_prez
Posté le 29-12-2017 à 12:47:00  profilanswer
 

Il me semble qu'à la sortie de Pascal, c'était plutôt la 1080 qui était proche de la 980Ti, logiquement ce sera donc plutôt la 2080. Non?

Message cité 2 fois
Message édité par le_prez le 29-12-2017 à 12:47:13

---------------
Mon topic vente/achat: http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°10300179
Bouvman
You fuck my wife ?
Posté le 29-12-2017 à 13:00:21  profilanswer
 

le_prez a écrit :

Il me semble qu'à la sortie de Pascal, c'était plutôt la 1080 qui était proche de la 980Ti, logiquement ce sera donc plutôt la 2080. Non?


Non, la 1070 plus ou moins aussi puissante que la 980 ti...


Message édité par Bouvman le 29-12-2017 à 13:00:26
n°10300181
ZzDazzleZz
Bencheur Oufff
Posté le 29-12-2017 à 13:01:07  profilanswer
 

le_prez a écrit :

Il me semble qu'à la sortie de Pascal, c'était plutôt la 1080 qui était proche de la 980Ti, logiquement ce sera donc plutôt la 2080. Non?


 
Oui logiquement la 2070 devrait taper au minium les perfs de la 1080 voir légèrement au dessus mais quid du tarif  :sweat:


Message édité par ZzDazzleZz le 29-12-2017 à 13:03:00
n°10300182
le_prez
Posté le 29-12-2017 à 13:01:07  profilanswer
 

Ah ok! C'est bon à savoir :)


---------------
Mon topic vente/achat: http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°10300218
Activation
21:9 kill Surround Gaming
Posté le 29-12-2017 à 13:49:31  profilanswer
 

perso pour me
ma prochaine CG devra avoir le double de perf d'une 1070
donc y a des chance que je zap la "170gtx" "gtx1170"
pour attendre une "270gtx" "gtx1270"  
sauf si des feature interessante se pointe
 
bref ça voudrait dire 20% de perf de plus que la 1080Ti
 
et dans un monde de bisounours faudrait qu'elle ai 45% de perf de plus que la 1080ti
 
maintenant j'ai un peu peur que la prochaine geforce soit un peu la gen "sacrifié"
bref en gros qu'effectivement la "180gtx" ne fasse qu'égaler la gtx1080ti
 
pourquoi ? pour les feature
 
j'espère
* hdmi 2.1
* support complet de dx12 12_1 Tier 3 partout (là je rêve tout haut ... même volta le fait pas)
* encodage video en HDR 12bits et plus bridé 10bits
* une entrée hdmi ( :D ) pour en faire une carte de capture (  :whistle: )
* un vrai support des  (VRR)(QMS)(QFT) et pas un truc salopé pour te forcer la main à préféré qsync
*amelio du sheduler
* un mode SMPE mono écran pour les ecran 21:9 et 32:9
* une fonctionnalité de eye tracking (qui a passer dans un premier temps par des webcam certifié... aspect basse lumi, focus, ...)
 
 
les 2 derniers trucs c'est dans le but de booster le framerate en dégradant l'image là ou on ne regarde pas
 
ce que je n'attend pas spécialement:
encore plus d'unité de calcul
car à mon sens ça n'a d'interet que pour gamework (bref effet de particules tout ça)  
du coup je me dit que ça sera pas avant le 9/10nm
 
 
du coup ouaip probable que je zap la prochaine geforce, ou au pire que je n'achète qu'une "gtx160" pour le PC de ma chambre qui n'a qu'un igp intel pourri :o
 
 [:michaeldell:1]

Message cité 1 fois
Message édité par Activation le 29-12-2017 à 14:00:27
n°10300230
le_prez
Posté le 29-12-2017 à 14:01:11  profilanswer
 

Activation a écrit :

du coup ouaip probable que je zap la prochaine geforce, ou au pire que je n'achète qu'une "gtx160" pour le PC de ma chambre qui n'a qu'un igp intel pourri :o
 
 [:michaeldell:1]


 
Idem, c'est pour ça que j'ai pris une 1080ti, pour sauter une génération mais d'ici à ce que je me dise " :love:  :love:  :love:  la 2080Ti!! Où est ma CB???" il n'y a qu'un pas...


---------------
Mon topic vente/achat: http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°10300253
Bouvman
You fuck my wife ?
Posté le 29-12-2017 à 14:20:30  profilanswer
 

le_prez a écrit :


Idem, c'est pour ça que j'ai pris une 1080ti, pour sauter une génération mais d'ici à ce que je me dise " :love:  :love:  :love:  la 2080Ti!! Où est ma CB???" il n'y a qu'un pas...


 [:bighead:1]  
Exactement la même pour moi, je fais le daron en me disant que j'en ai aucunement besoin, mais dès qu'ils vont nous balancer les screens sur internet avec les niveaux designs de CG, je vais dégainer la CB...

Message cité 1 fois
Message édité par Bouvman le 29-12-2017 à 14:20:35
n°10305209
Wilfried28​_2
Posté le 06-01-2018 à 00:53:00  profilanswer
 

Bon alors quelle prix pour la GTX-2080 ? 850 boules ? :D


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°10305211
ZzDazzleZz
Bencheur Oufff
Posté le 06-01-2018 à 00:57:15  profilanswer
 

Wilfried28_2 a écrit :

Bon alors quelle prix pour la GTX-2080 ? 850 boules ? :D


 
avec 25% de perfs en plus qu'une Ti c'est possible le tarif :)

n°10305439
reflex69
Posté le 06-01-2018 à 14:09:52  profilanswer
 

ZzDazzleZz a écrit :


 
avec 25% de perfs en plus qu'une Ti c'est possible le tarif :)


Elle serait plus perf que la récente Titan V à 3000€ pour le quart du prix ?!

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  14  15  16  ..  52  53  54  55  56  57

Aller à :
Ajouter une réponse
 

Sujets relatifs
Nvidia Shield débit PC GamestreamReboot en boucle GIGABYTE nVIDIA GTX970
Crash de l'ordinateur en lien avec la carte graphique NVIDIA .Remplacer ventirad carte graphique nvidia gts240
nvidia geforce gtx 950m et 3840 x 2160Problème driver nvidia / Kernel mode
Problème carte graphique nvidia.[HFR] Actu : Pilotes Nvidia GeForce 378.92 WHQL
[Topic Unique] Asus ROG Crosshair VI Hero X370 (AMD Ryzen AM4)T1500 et carte Gigabyte N750TOC-2GI Carte Graphique Nvidia GeForce GT
Plus de sujets relatifs à : [Topic Unique] Nvidia Volta ("12nm" FFN)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR