Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2625 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  22  23  24  ..  1872  1873  1874  1875  1876  1877
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10709874
Activation
21:9 kill Surround Gaming
Posté le 07-03-2020 à 18:31:38  profilanswer
 

Reprise du message précédent :

havoc_28 a écrit :


 
Si on se base sur la mise à échelle entre V10 et V20 heu ... XD.
 


 

havoc_28 a écrit :


 
De la HBM2E pour une carte grand publique ? Puis quoi encore ? Surtout chez Nvidia :D, tes 1000 € si ça se fait tu les transforment en 1750 € ouais.


 
depuis quand des rtx2080ti à tellement souvent 1500 boules la custom tu considère ça grand public
pro gamer ok, mais pas grand public
 
tant que "ça se vend" un marketeux augmentera le prix sur la plus grosse (sauf si un concurrent te défonce)
si arrive un seuil les pro gamer achète plus, facile de baisser un peu le prix pour que le pro gamer assoiffé de fps achète, le pro gamer il oublie vite qu'il est une vache à lait :o
(et pour peu qu'il soit faible et se fasse influencé par qqs youtubber connu qui expose leur carte offerte par nvidia ou pc offert par intel...... ah la faiblesse de la volonté :D

Message cité 2 fois
Message édité par Activation le 07-03-2020 à 18:35:28
mood
Publicité
Posté le 07-03-2020 à 18:31:38  profilanswer
 

n°10709876
havoc_28
Posté le 07-03-2020 à 18:37:00  profilanswer
 

Activation a écrit :


 
depuis quand des rtx2080ti à tellement souvent 1500 boules la custom tu considère ça grand public
pro gamer ok, mais pas grand public
 
tant que "ça se vend" un marketeux augmentera le prix sur la plus grosse (sauf si un concurrent te défonce)
si arrive un seuil les pro gamer achète plus, facile de baisser un peu le prix pour que le pro gamer assoiffé de fps achète, le pro gamer il oublie vite qu'il est une vache à lait :o
(et pour peu qu'il soit faible et se fasse influencé par qqs youtubber connu qui expose leur carte offerte par nvidia ou pc offert par intel...... ah la faiblesse de la volonté :D


 
C'est quoi l’intérêt de Nvidia de mettre de la coûteuse HBM2E s'ils peuvent faire à peu près pareil avec de la GDDR6 bien moins chère ?  Autant maximiser les marges avec la GDDR6 ...
 
Tes deux empilements de HBM2E c'est quoi ? 820 Gb/s, vs les 768 Gb/s de la GDDR6 @ 16 Gb/s sur un bus 384 bits c'est pas un énorme avantage pour la HBM2E (après il y a le bonus de la consommation inhérente à la HBM2E, mais Nvidia maîtrisant bien cet aspect là  ...) , donc bon si j'étais Nvidia je partirai sur la GDDR6 bien moins chère pour la plus part des Quadro / Geforce, et je laisserais la HBM2E pour les datacenter et les top de gamme niveau quadro.


Message édité par havoc_28 le 07-03-2020 à 19:12:14
n°10709887
obduction
Posté le 07-03-2020 à 19:24:40  profilanswer
 

Activation a écrit :


 
depuis quand des rtx2080ti à tellement souvent 1500 boules la custom tu considère ça grand public
pro gamer ok, mais pas grand public


Grand public ou pas, cela reste des cartes pour particuliers et la hbm2e n'est pas une mémoire pour particulier car coute très chère et il y a la gddr6 en face bien moins chère et très performante.

n°10709889
obduction
Posté le 07-03-2020 à 19:28:47  profilanswer
 

Activation a écrit :

Apres mm si ce n est que la version pro
La version gaming devrait facile avoir au moins 6500 cores
 
De toute façon si on ne devait se basé que sur le chiffre de 8000 cores
Ça fait un gpu 7nm 2 fois plus petit que le tu102 qui en a dans les 4500


La 2080ti a 4352 cores et la gv100 5120 soit 85% des cores de la gv100. Si la 3080ti a 85% de la GA100 à 8192, cela fait 6900 cores ce qui fait 60% de cores en plus vs la 2080ti.
Ce serait déjà énorme et un gros bond en performance sans parler des optimisation de la nouvelle archi derrière.
 
Quand des rumeurs parlaient de 50% de perfs en plus, peut être qu'on pourrait être à bien plus que 50 % de perfs en + mais cela dépendra avant tout de la véracité de ces rumeurs et des caracs des gpus gaming.
 
Plus qu'à espérer que ce soit au computex et pas à la gamescom ou plus tard encore.

n°10710098
Activation
21:9 kill Surround Gaming
Posté le 08-03-2020 à 14:53:52  profilanswer
 

les prix ça se négocie
la hbm2e le quasi seul client qui existe c'est nvidia , alors qu'il y a 2 vendeurs  
bon amd va s'y remettre, y a qu'à voir le prochain supercalculateur qu ils doivent construire
 
en plus nvidia devrait produire certains gpu chez samsung (les plus premier prix ? )
moi j'ai envie de dire que la marge de manoeuvre de négo de prix de la hbm2e est énorme .... niveau technologique on est quoi, du multicouche tel les puce de tlc de merde
me ferez pas croire que la hbm2e vaut sont prix catalogue non négocié :o

Message cité 1 fois
Message édité par Activation le 08-03-2020 à 14:57:56
n°10710106
havoc_28
Posté le 08-03-2020 à 15:35:48  profilanswer
 

Activation a écrit :

les prix ça se négocie
la hbm2e le quasi seul client qui existe c'est nvidia , alors qu'il y a 2 vendeurs  
bon amd va s'y remettre, y a qu'à voir le prochain supercalculateur qu ils doivent construire
 
en plus nvidia devrait produire certains gpu chez samsung (les plus premier prix ? )
moi j'ai envie de dire que la marge de manoeuvre de négo de prix de la hbm2e est énorme .... niveau technologique on est quoi, du multicouche tel les puce de tlc de merde
me ferez pas croire que la hbm2e vaut sont prix catalogue non négocié :o


 
La GDDR6 ça se négocie pas non plus ? Et la GDDR6 y a pas 2 fournisseurs, mais 3 fournisseurs dont Samsung :o, et y a pas d'interposer à payer. Nvidia utilisera de la HBM2E, mais pour le successeur du GV100 (peut négocier aussi avec Samsung pour ça  :sarcastic: ), c'est là ou les marges sont les plus importantes, et que les besoins de la HBM2E sont les plus criants, pas pour le jeu vidéo.  
A quoi ça sert à nouveau la HBM2E pour un GPU pour le grand publique ? Il est où le besoin ?  Explique moi en quoi d'après ton exemple avec deux empilements de HBM2 E (820 Gb/s) , avoir 7 % de bande passante mémoire  vs la GDDR6 et ses 768 Gb/s (16 Gb/s sur 384 bits) ça va changer grand chose sur le plan performance ? Nvidia a des soucis niveau consommation pour devoir utiliser de la HBM2E et avoir ainsi plus de marge niveau courant pour ses GPU ?  
 
Et AMD que tu cites en exemples, la HBM2E qu'ils utiliseront c'est pour CDNA, une architecture totalement orientée COMPUTE, pour les supercalculateurs, pas pour le grand publique, datacenter et compagnie, tout comme le successeur du GV100.
 

obduction a écrit :


La 2080ti a 4352 cores et la gv100 5120 soit 85% des cores de la gv100. Si la 3080ti a 85% de la GA100 à 8192, cela fait 6900 cores ce qui fait 60% de cores en plus vs la 2080ti.
Ce serait déjà énorme et un gros bond en performance sans parler des optimisation de la nouvelle archi derrière.
 
Quand des rumeurs parlaient de 50% de perfs en plus, peut être qu'on pourrait être à bien plus que 50 % de perfs en + mais cela dépendra avant tout de la véracité de ces rumeurs et des caracs des gpus gaming.
 
Plus qu'à espérer que ce soit au computex et pas à la gamescom ou plus tard encore.


 
L'augmentation des unités, ça pose pas spécialement problème pour une utilisation compute, en jeu vidéo en fonction de l'architecture, arrive un moment où il devient de plus en plus difficile d'obtenir des gains en augmentant le nombres d'unités, car on n'arrive plus à alimenter correctement toutes ces unités.
On peut le voir avec GCN, ou même Turing, ou le gain entre le RTX 2080 (s) et la RTX 2080 TI malgré l'augmentation du nombre d'unités et de la bande passante, est somme toute limité, ce qui montre qu'on arrive peu à peu à des limites à ce niveau.  
 
Donc soit Nvidia améliore la façon d'alimenter ses unités, et là oui on peut prévoir une augmentation importante du nombres d'unités, soit pour l'architecture jeu vidéo, on va pas tant que ça augmenter le nombre d'unités, mais maximiser leurs efficacités, augmenter leurs fréquences, les réorganiser etc (CF le passage de Kepler à Maxwell).

Message cité 2 fois
Message édité par havoc_28 le 08-03-2020 à 15:51:25
n°10710168
obduction
Posté le 08-03-2020 à 19:02:47  profilanswer
 

havoc_28 a écrit :

 

L'augmentation des unités, ça pose pas spécialement problème pour une utilisation compute, en jeu vidéo en fonction de l'architecture, arrive un moment où il devient de plus en plus difficile d'obtenir des gains en augmentant le nombres d'unités, car on n'arrive plus à alimenter correctement toutes ces unités.
On peut le voir avec GCN, ou même Turing, ou le gain entre le RTX 2080 (s) et la RTX 2080 TI malgré l'augmentation du nombre d'unités et de la bande passante, est somme toute limité, ce qui montre qu'on arrive peu à peu à des limites à ce niveau.


Tu dois te tromper parce que la 2080ti a 4352 unités de calcul et la 1080ti 3584 unités ce qui fait 21% d'unités en plus. La 2080ti offre bien plus que 21% de perf en plus.
La 2080 possède 2944 unités de calcul soit 80% des unités de la 1080ti pour des perfs au moins égales si ce n'est légèrement supérieures.

 

Turing ne montre pas qu'on n'arrive plus  à alimenter correctement. Turing montre au contraire qu'on arrive à les alimenter correctement et qu'en plus nvidia optimise ces unités pour offrir plus de perfs.

 

Si turing n'a pas beaucoup augmenté le nombre d'unités de calcul voir a diminué le nombre tout en les optimisant, c'est avant tout qu'il fallait faire de la place aux RT cores tout en gardant du 14nm.

 

Concernant GCN, je ne sais pas mais GCN étant une vieille architecture, si tant est que ce que tu dis soit vrai, cela est peut être du à la vieille architecture limitant l'alimentation correcte des unités de calculs.

Message cité 1 fois
Message édité par obduction le 08-03-2020 à 19:04:03
n°10710203
havoc_28
Posté le 08-03-2020 à 20:22:39  profilanswer
 

obduction a écrit :

Tu dois te tromper parce que la 2080ti a 4352 unités de calcul et la 1080ti 3584 unités ce qui fait 21% d'unités en plus. La 2080ti offre bien plus que 21% de perf en plus.


 
C'est la même architecture ? Car bon le calcul des unités flottantes / entières en parallèle, l'ordonnanceur matériel etc ...  
 

obduction a écrit :

La 2080 possède 2944 unités de calcul soit 80% des unités de la 1080ti pour des perfs au moins égales si ce n'est légèrement supérieures.


 
Compare plutôt une RTX 2080 (S) et une RTX 2080 Ti en nombres d'unités / bande passante, et le gain final niveau performance entre les deux.  
Une RTX 2080 stock c'est 2944 unités, une RTX 2080 Ti c'est bien 4352 unités, donc dans les 47.5 % d'unités en plus, 37.5 % de bande passante mémoire etc, on se retrouve avec quoi ? 20 %  de gain (après  y a les limites de consommations etc, mais même ainsi ...)
Entre une RTX 2070 / 2080, la RTX 2080 a 28 % d'unités en plus et 0 % de bande passante en plus, on se retrouve avec aussi environ 20 % de gain ...
 
Les architectures ça monte pas à l'infini niveau nombres d'unités sans que ça finisse par devenir problématique.  
 
Je dis simplement qu'augmenter fortement le nombres d'unités dans le compute, ça me semble pas déconnant, mais que ça sera pas forcément le cas pour les Geforces, sans changement coté architecture, ne sachant pas qu'est ce que Nvidia va faire ...

Message cité 1 fois
Message édité par havoc_28 le 08-03-2020 à 20:28:41
n°10710255
obduction
Posté le 08-03-2020 à 22:32:24  profilanswer
 

Citation :

Compare plutôt une RTX 2080 (S) et une RTX 2080 Ti en nombres d'unités / bande passante, et le gain final niveau performance entre les deux.  
Une RTX 2080 stock c'est 2944 unités, une RTX 2080 Ti c'est bien 4352 unités, donc dans les 47.5 % d'unités en plus, 37.5 % de bande passante mémoire etc, on se retrouve avec quoi ? 20 %  de gain (après  y a les limites de consommations etc, mais même ainsi ...)
Entre une RTX 2070 / 2080, la RTX 2080 a 28 % d'unités en plus et 0 % de bande passante en plus, on se retrouve avec aussi environ 20 % de gain ...


Si ma comparaison entre 2 archis différentes n'est pas valable ce genre de comparaison ne l'est pas plus car les puces sont différentes, les fréquences aussi, le bus aussi etc...

 

De plus, le TU102 n'est pas utilisé que dans les cartes gaming donc on ne sait pas son degré optimisation pour le gaming versus celui pour les pros. Idem pour le TU104 et le TU106.

 

De ces comparaisons, on ne peut rien en conclure non plus.

 

Pour une comparaison valable et encore vu qu'on ne connait pas l'efficacité de l'archi à utiliser correctement les unités de calculs et à partir de quel seuil cela n'est plus efficace, il faudrait avoir 2 cartes dont la seule différence serait le changement du nombre d'unités de calcul. Cela n'existe pas. Seul nvidia connait l'efficacité mais ils ne donneront jamais ce genre de détail.

 
havoc_28 a écrit :

Les architectures ça monte pas à l'infini niveau nombres d'unités sans que ça finisse par devenir problématique.


On est très très loin de l'infini et savoir à quel moment l'augmentation ne va plus être linéaire avec les perfs en jeu, on en sait rien du tout.

 
havoc_28 a écrit :


Je dis simplement qu'augmenter fortement le nombres d'unités dans le compute, ça me semble pas déconnant, mais que ça sera pas forcément le cas pour les Geforces, sans changement coté architecture, ne sachant pas qu'est ce que Nvidia va faire ...


Ampère est une nouvelle architecture et on ne sait rien d'elle.

 

Message cité 1 fois
Message édité par obduction le 08-03-2020 à 22:33:16
n°10710272
havoc_28
Posté le 09-03-2020 à 00:10:54  profilanswer
 

obduction a écrit :

De plus, le TU102 n'est pas utilisé que dans les cartes gaming donc on ne sait pas son degré optimisation pour le gaming versus celui pour les pros. Idem pour le TU104 et le TU106.


 
? C'est la même architecture pour ces 3 puces, et les gains sont à peu près constants en fonction des pilotes etc ?  C'est pas comme si le TU102 ne gagnait rien avec un pilote alors que les deux autres avaient des gains.  
 

obduction a écrit :


Pour une comparaison valable et encore vu qu'on ne connait pas l'efficacité de l'archi à utiliser correctement les unités de calculs et à partir de quel seuil cela n'est plus efficace, il faudrait avoir 2 cartes dont la seule différence serait le changement du nombre d'unités de calcul. Cela n'existe pas. Seul nvidia connait l'efficacité mais ils ne donneront jamais ce genre de détail.
 
On est très très loin de l'infini et savoir à quel moment l'augmentation ne va plus être linéaire avec les perfs en jeu, on en sait rien du tout.


 
 
Turing sauce TU102/104/106 c'est bien la même architecture, et on constate bien que les gains ne sont pas linéaire avec l'augmentation des unités, à nouveau le TU102 n'apporte pas autant de performance que ce qu'il y a entre le TU104 et TU106, alors que le TU102 bénéficie d'un gap plus important niveau unités de calcul, augmentation du nombres de ROPS, bande passante ...  
 
A nouveau ça se voit bien que le gain de performance diminue entre le TU102 / TU104 vs TU104/TU106, par rapports aux différences configurations de ces puces ...
 

obduction a écrit :

Ampère est une nouvelle architecture et on ne sait rien d'elle.


 
Oui c'est une nouvelle architecture et on ne sait rien d'elle, quel est le problème de partir du postula qu'on pourrait avoir soit une augmentation des unités, de façon massive avec quelques arrangement niveau architecture pour avoir un meilleur scaling, soit une augmentation plus mesurée du nombres d'unités avec une réorganisation / refonte de l'architecture ?  
En quoi cette seconde hypothèse n'est pas valable, vu qu'elle a déjà été employé par Nvidia dans le passé ?

Message cité 1 fois
Message édité par havoc_28 le 09-03-2020 à 12:31:13
mood
Publicité
Posté le 09-03-2020 à 00:10:54  profilanswer
 

n°10710303
demosys61
Posté le 09-03-2020 à 08:17:28  profilanswer
 

Drapal
 
( j'ai en-tête de passer d'une 1080 à une 3070 voir 3080 )


Message édité par demosys61 le 09-03-2020 à 08:18:11
n°10710413
ppn7
Posté le 09-03-2020 à 11:44:04  profilanswer
 

Donnez-moi juste une RTX 3050 avec 8GB et non pas 6, à 250€, ça ira pour moi.

n°10710417
PicouzeMan
Posté le 09-03-2020 à 11:49:50  profilanswer
 

ppn7 a écrit :

Donnez-moi juste une RTX 3050 avec 8GB et non pas 6, à 250€, ça ira pour moi.


8GB pour jouer en 4K ?
sur une 3050 ?

n°10710428
ppn7
Posté le 09-03-2020 à 12:20:37  profilanswer
 

PicouzeMan a écrit :


8GB pour jouer en 4K ?
sur une 3050 ?


 
Plutôt du 1440p, possiblement avec ray tracing. Et surtout des jeux moddés, et quand c’est possible avec DLSS sur les futurs titres.  
J’arrive pas à retrouver la vidéo ou l’article qui montrait les limites de la RTX 2060 face à la super potentiellement dû aux 6Gb

n°10710543
obduction
Posté le 09-03-2020 à 17:54:26  profilanswer
 

ppn7 a écrit :


 
Plutôt du 1440p, possiblement avec ray tracing. Et surtout des jeux moddés, et quand c’est possible avec DLSS sur les futurs titres.  
J’arrive pas à retrouver la vidéo ou l’article qui montrait les limites de la RTX 2060 face à la super potentiellement dû aux 6Gb


Il y a que le dernier wolfenstein qui demande plus de 6go en ray tracing mais en baissant une option de streaming  du max au cran en dessous, cela passe sans problème.
 

n°10710545
obduction
Posté le 09-03-2020 à 17:55:41  profilanswer
 

havoc_28 a écrit :


 
? C'est la même architecture pour ces 3 puces, et les gains sont à peu près constants en fonction des pilotes etc ?  C'est pas comme si le TU102 ne gagnait rien avec un pilote alors que les deux autres avaient des gains.  
 


 

havoc_28 a écrit :


 
 
Turing sauce TU102/104/106 c'est bien la même architecture, et on constate bien que les gains ne sont pas linéaire avec l'augmentation des unités, à nouveau le TU102 n'apporte pas autant de performance que ce qu'il y a entre le TU104 et TU106, alors que le TU102 bénéficie d'un gap plus important niveau unités de calcul, augmentation du nombres de ROPS, bande passante ...  
 
A nouveau ça se voit bien que le gain de performance diminue entre le TU102 / TU104 vs TU104/TU106, par rapports aux différences configurations de ces puces ...
 


La comparaison entre différentes archis ou au sein de la même arch, n'est pas plus valable car pour comparer, faut faire varier un seul critère et il n'existe pas 2 cartes qui permettent cela.
 
 

n°10710549
havoc_28
Posté le 09-03-2020 à 18:12:24  profilanswer
 

obduction a écrit :

La comparaison entre différentes archis ou au sein de la même arch, n'est pas plus valable car pour comparer, faut faire varier un seul critère et il n'existe pas 2 cartes qui permettent cela.


 
Quelque soit l'architecture, y a toujours un moment ou l'on constate que le gain en augmentant les unités que ce soit les unités de base, ROPs, TMU, la bande passante etc fini toujours par diminuer jusqu'à un point ou l'augmentation niveau transistor ne vos plus le coûts par rapport au gain en performance obtenu. C'est empirique et ça se voit régulièrement.
 
Si tu n'es pas d'accord, tant pis, mais moi c'est ce que je crois constaté avec Turing (peut être aussi un peu de limitation niveau enveloppe thermique), GCN etc en observant le gain dégressif en performance coté jeu par rapport à l'augmentation d'unités / transistors / bandes passantes  etc etc.
 
Nvidia va soit augmenter encore à nouveau fortement le nombres d'unités, mais faire quelques ajustement niveau architecture etc pour pouvoir alimenter au mieux toutes ces unités, soit assez peu augmenter le nombres d'unités, mais maximiser leurs efficacités, gains architecturaux, montée en fréquence etc. 2 Ans après Turing on peut quand même imaginer que Nvidia va apporter quelques améliorations à son architecture d'une manière ou d'une autre.
 
On dirait que ça te pose problème l’hypothèse que Nvidia n'augmenterait pas fortement le nombres d'unités pour sa future architecture orienté Jeu ? Encore une fois ce n'est qu'une hypothèse, mais ce n'est pas comme si on avait jamais vu ce cas par le passé ... à nouveau Kepler => Maxwell, ou même entre Maxwell et Pascal, où l'on a pas fortement augmenté le nombres d'unités, mais y a eut un travail sur la montée en fréquence etc

Message cité 1 fois
Message édité par havoc_28 le 09-03-2020 à 18:32:20
n°10710553
obduction
Posté le 09-03-2020 à 18:47:08  profilanswer
 

havoc_28 a écrit :

 

Quelque soit l'architecture, y a toujours un moment ou l'on constate que le gain en augmentant les unités que ce soit les unités de base, ROPs, TMU, la bande passante etc fini toujours par diminuer jusqu'à un point ou l'augmentation niveau transistor ne vos plus le coûts par rapport au gain en performance obtenu. C'est empirique et ça se voit régulièrement.

 

Si tu n'es pas d'accord, tant pis, mais moi c'est ce que je crois constaté avec Turing (peut être aussi un peu de limitation niveau enveloppe thermique), GCN etc en observant le gain dégressif en performance coté jeu par rapport à l'augmentation d'unités / transistors / bandes passantes  etc etc.

 

Nvidia va soit augmenter encore à nouveau fortement le nombres d'unités, mais faire quelques ajustement niveau architecture etc pour pouvoir alimenter au mieux toutes ces unités, soit assez peu augmenter le nombres d'unités, mais maximiser leurs efficacités, gains architecturaux, montée en fréquence etc. 2 Ans après Turing on peut quand même imaginer que Nvidia va apporter quelques améliorations à son architecture d'une manière ou d'une autre.

 

On dirait que ça te pose problème l’hypothèse que Nvidia n'augmenterait pas fortement le nombres d'unités pour sa future architecture orienté Jeu ? Encore une fois ce n'est qu'une hypothèse, mais ce n'est pas comme si on avait jamais vu ce cas par le passé ... à nouveau Kepler => Maxwell, ou même entre Maxwell et Pascal, où l'on a pas fortement augmenté le nombres d'unités, mais y a eut un travail sur la montée en fréquence etc


Rien ne me pose problème parce que je m'en fous surtout et que parler sur du vide sans aucune possibilité de vérifier ne sert pas à grand chose. Par contre, le fait que tu te bases sur des arguments invérifiables quoi que tu en penses pour essayer de me convaincre, me dérange un peu.

 

Cela n'a pas grand chose à voir en plus avec ce dont je parlais au départ. Je parlais des rumeurs récentes du plus de 8000 unités de calculs sur le GA 100 et une comparaison avec le TU102 vs GV100 pour leur nombre qu'on pourrait avoir si nvidia faisait pareil. Rien d'autre.

 

Si nvidia met 7000 unités de calculs dans ses gpus gaming, c'est que cela aura un intérêt. Si nvidia en met moins, c'est qu'ils estimeront que ce n'est pas nécessaires pour leur architecture niveau gaming ou qu'ils ont fait d'autres choix style privilégier les coeurs RT.

Message cité 1 fois
Message édité par obduction le 09-03-2020 à 18:47:39
n°10710558
havoc_28
Posté le 09-03-2020 à 19:06:10  profilanswer
 

obduction a écrit :

Rien ne me pose problème parce que je m'en fous surtout et que parler sur du vide sans aucune possibilité de vérifier ne sert pas à grand chose. Par contre, le fait que tu te bases sur des arguments invérifiables quoi que tu en penses pour essayer de me convaincre, me dérange un peu.


 
Pourtant on a le niveau de performance des TU102/104/106 et leurs caractéristiques, nombres d'unités de base, TPU, ROPs, la bande passante mémoire etc, si avec ça on ne peut dégager une tendance ... alors rien n'est constatable dans cette industrie hormis pour les concepteurs de ces architectures ? :o.
 

obduction a écrit :


Cela n'a pas grand chose à voir en plus avec ce dont je parlais au départ. Je parlais des rumeurs récentes du plus de 8000 unités de calculs sur le GA 100 et une comparaison avec le TU102 vs GV100 pour leur nombre qu'on pourrait avoir si nvidia faisait pareil. Rien d'autre.
 
Si nvidia met 7000 unités de calculs dans ses gpus gaming, c'est que cela aura un intérêt. Si nvidia en met moins, c'est qu'ils estimeront que ce n'est pas nécessaires pour leur architecture niveau gaming ou qu'ils ont fait d'autres choix style privilégier les coeurs RT.


 
J'ai simplement dit que la grosse puce à 8000 unité avait vocation à remplacé le GV100, et que l'on ne pouvait pas spécialement en déduire que l'on aurait une augmentation importante du nombres d'unités pour le segment jeu, vu que le compute et le jeu, c'est pas tout à fait la même chose, et que dans Turing le gain en performance n'est pas linéaire avec l'augmentation des transistors, surtout dans le cas du TU102, et que ce phénomène ce produit régulièrement.

Message cité 1 fois
Message édité par havoc_28 le 09-03-2020 à 19:10:32
n°10710564
ppn7
Posté le 09-03-2020 à 19:27:22  profilanswer
 

obduction a écrit :


Il y a que le dernier wolfenstein qui demande plus de 6go en ray tracing mais en baissant une option de streaming  du max au cran en dessous, cela passe sans problème.
 


 
Ah c’etait Peut-être une vidéo sur ce jeu justement. Je n’ai pas encore retrouvé.  
Mais toujours est-il que je n’aime pas être à la limite de l’acceptable en terme de vRam, surtout que je compte garder longtemps le GPU. C’est un peu comme les produits Apple. Ça marche toujours bien au début. Mais là mon iPad 4 avec ses 1Go de ram c’est plus possible. Ça s’est vite fait sentir à l’usage et ça aurait pu être tellement mieux avec 2 ou plus.
 

n°10710614
obduction
Posté le 09-03-2020 à 22:46:37  profilanswer
 

havoc_28 a écrit :

 

Pourtant on a le niveau de performance des TU102/104/106 et leurs caractéristiques, nombres d'unités de base, TPU, ROPs, la bande passante mémoire etc, si avec ça on ne peut dégager une tendance ... alors rien n'est constatable dans cette industrie hormis pour les concepteurs de ces architectures ? :o.


Si tu es scientifique, tu dois savoir qu'une comparaison n'est valable que si tu modifies un seul facteur. Il n'existe pas 2 cartes dans le portfolio de 'nvidia qui ne modifie que le nombre d'untiés de calculs donc c'est donc impossible d'en déduire quoi que ce soit vu que ce que tu constates peut provenir des autres changements.
Le reste n'est qu'extrapolation qui ne vaut pas grand chose. Je me garderais d'extrapoler.

 
havoc_28 a écrit :


J'ai simplement dit que la grosse puce à 8000 unité avait vocation à remplacé le GV100, et que l'on ne pouvait pas spécialement en déduire que l'on aurait une augmentation importante du nombres d'unités pour le segment jeu, vu que le compute et le jeu, c'est pas tout à fait la même chose, .


Une question qui me taraude. Est-ce que tu lis vraiment en entier les messages que tu cites?
Je me le demande car si c'est ça que tu dis, qu'est-ce que ça vient faire avec ce que j'ai dis?

 

Je n'ai jamais rien déduit en ce sens , j'ai juste fait une comparaison avec turing pour donner un hypothétique nombre d'unités si tant est qu'nvidia fasse pareil avec ampère. Juste une supposition qui ne déduisait rien de ce que va faire nvidia.

Message cité 1 fois
Message édité par obduction le 09-03-2020 à 22:51:27
n°10710615
obduction
Posté le 09-03-2020 à 22:49:47  profilanswer
 

ppn7 a écrit :


 
Ah c’etait Peut-être une vidéo sur ce jeu justement. Je n’ai pas encore retrouvé.  
Mais toujours est-il que je n’aime pas être à la limite de l’acceptable en terme de vRam, surtout que je compte garder longtemps le GPU.  


Si tu aimes garder longtemps le gpu, pas certains qu'une 3500 soit la carte la plus appropriée surtout si tu veux profiter du ray tracing car sur wolf c'est avec le ray tracing que 6go n'était plus assez suffisant.
Je pense aussi que la puissance d'une 3500 sera plus facteur limitant avec du ray tracing que les 6go mais à voir lors des tests car pour le moment on ne sait pas quelle sera les perfs d'une 3500.

n°10710625
max022
Posté le 10-03-2020 à 00:02:17  profilanswer
 

Ben surtout que c'est en 1440p.  
La RTX 3070 sera sans doute bien mieux pour être un minimum tranquil (+de100fps/ultra/RT/jeux qui demande de + en + de perf...).

Message cité 1 fois
Message édité par max022 le 10-03-2020 à 00:03:03
n°10710632
pimentroug​e
Posté le 10-03-2020 à 01:48:02  profilanswer
 

Je sais pas si on peut s'attendre à autre chose que :
 
Une 3060 +5/10% comparé à une 2070 + une partie RT plus musclée
Une 3070 +5/10% comparé à une 2080 + une partie RT plus musclée
Une 3080 +5/10% comparé à une 2080ti + une partie RT plus musclée
 
Comme d'hab hein, avec un peu de vram en plus.
Ya pas vraiment à se crêper le chignon.

Message cité 2 fois
Message édité par pimentrouge le 10-03-2020 à 01:49:30
n°10710637
Invite_Sur​prise
Racaille de Shanghaï
Posté le 10-03-2020 à 02:51:56  profilanswer
 

Faut plus s'attendre à une 3070 au niveau de la 2080Ti, comme à chaque changement de node.

n°10710638
ppn7
Posté le 10-03-2020 à 02:52:20  profilanswer
 

obduction a écrit :


Si tu aimes garder longtemps le gpu, pas certains qu'une 3500 soit la carte la plus appropriée surtout si tu veux profiter du ray tracing car sur wolf c'est avec le ray tracing que 6go n'était plus assez suffisant.
Je pense aussi que la puissance d'une 3500 sera plus facteur limitant avec du ray tracing que les 6go mais à voir lors des tests car pour le moment on ne sait pas quelle sera les perfs d'une 3500.


 

max022 a écrit :

Ben surtout que c'est en 1440p.  
La RTX 3070 sera sans doute bien mieux pour être un minimum tranquil (+de100fps/ultra/RT/jeux qui demande de + en + de perf...).


 
Je vais être CPU limited. J’ai encore un i7 2600k que j’ai pas encore envie de changer.
Je ne vise pas plus de 60fps en 1440p ou 4K DLSS.
Les seuls jeux où je cherche plus de 60fps, je les fais déjà avec une R9 280X.
Du moment que je tiens 40fps sur les gros titres ça ira

n°10710639
havoc_28
Posté le 10-03-2020 à 03:08:31  profilanswer
 

obduction a écrit :


Si tu es scientifique, tu dois savoir qu'une comparaison n'est valable que si tu modifies un seul facteur. Il n'existe pas 2 cartes dans le portfolio de 'nvidia qui ne modifie que le nombre d'untiés de calculs donc c'est donc impossible d'en déduire quoi que ce soit vu que ce que tu constates peut provenir des autres changements.
Le reste n'est qu'extrapolation qui ne vaut pas grand chose. Je me garderais d'extrapoler.


 
TU 102 (sauce RTX 2080 Ti)  SU: 4352, TMU : 272, ROPs : 88, 616 Gb/s de bande passante  13.45 Tflops en FP32.      
TU 104 (sauce RTX 2080)      SU: 2944, TMU : 184, ROPs : 64, 448 Gb/s de bande passante  10.07 Tflops en FP32  
TU 106 (Sauce RTX 2070)      SU: 2304, TMU : 144, ROPs : 64, 448 Gb/s de bande passante   7.46 Tflops en FP32.  
 
RTX 2080 Ti : 20 % plus performante environ que la RTX 2080 qui elle même est environ 20 % plus rapide que la RTX 2070. On peut strictement rien en tirer donc  à part le classique que sur une même architecture, les Tflops peuvent donner à peu près le niveau de performance de chaque carte ...

Message cité 1 fois
Message édité par havoc_28 le 10-03-2020 à 03:17:54
n°10710660
aliss
Rhyme the Rhyme Well
Posté le 10-03-2020 à 08:58:57  profilanswer
 

NV change une nouvelle fois ses plans, le webcast est reporté.
 
Ca va se résumer à quelques news issues de la Keynote et un "investor call" le 24 mars.
 
https://videocardz.com/newz/nvidia- [...] -a-webcast

n°10710663
cyberfred
Posté le 10-03-2020 à 09:06:08  profilanswer
 

en effet , faut pas s'attendre à de grosses news pour le coup :spamafote:
ca aurait été cool d'avoir des détails sur l'archi mais je pense qu'il va falloir être patient (et probablement encore plus patient pour la sortie des cartes gaming !)

n°10710716
max022
Posté le 10-03-2020 à 11:15:34  profilanswer
 

Citation :

Je vais être CPU limited. J’ai encore un i7 2600k que j’ai pas encore envie de changer.
Je ne vise pas plus de 60fps en 1440p ou 4K DLSS.


 
Ben il y a pire comme cpu pour du 1400p.  
Bon c'est sure il y a mieux aussi mais il n'est pas non plus à la ramasse.  
Il faudra juste ne pas prendre les jeux 6c/12T ou + ... Mais il y a encore plein de jeux en 4C/8T.  
C'est juste que tu n'a pas un cpu futur proof.  
Perso j'essaierais au minimum de prendre la RTX 3060 (on peut s'attendre à l'équivalent d'une 2080 grosso modo)  
et je ne pense pas que tu sera vraiment cpu limited  tant que tu reste sur des jeux 4c/8T vu que c'est du 1400p.
Bon il reste encore une grosse inconnu : le prix ...  
Je dis cela en pensant que les prix seront pas trop cher jusqu'a la RTX 3060 mais c'est possible que je change très vite d'avis.  :lol:  

Message cité 2 fois
Message édité par max022 le 10-03-2020 à 11:20:46
n°10710822
Xantar_Eoz​enn
Posté le 10-03-2020 à 14:55:34  profilanswer
 

havoc_28 a écrit :


 
TU 102 (sauce RTX 2080 Ti)  SU: 4352, TMU : 272, ROPs : 88, 616 Gb/s de bande passante  13.45 Tflops en FP32.      
TU 104 (sauce RTX 2080)      SU: 2944, TMU : 184, ROPs : 64, 448 Gb/s de bande passante  10.07 Tflops en FP32  
TU 106 (Sauce RTX 2070)      SU: 2304, TMU : 144, ROPs : 64, 448 Gb/s de bande passante   7.46 Tflops en FP32.  
 
RTX 2080 Ti : 20 % plus performante environ que la RTX 2080 qui elle même est environ 20 % plus rapide que la RTX 2070. On peut strictement rien en tirer donc  à part le classique que sur une même architecture, les Tflops peuvent donner à peu près le niveau de performance de chaque carte ...


Les Tflops c'est à la fréquence de base des GPU, donc dans les 1400/1500mhz pour le TU102. Mais les cartes tapent les 2ghz in game, donc 1 tier de plus.  
Les autres TU104 / TU106 c'est pareil.

Message cité 1 fois
Message édité par Xantar_Eozenn le 10-03-2020 à 14:57:21
n°10710830
havoc_28
Posté le 10-03-2020 à 15:12:51  profilanswer
 

Xantar_Eozenn a écrit :


Les Tflops c'est à la fréquence de base des GPU, donc dans les 1400/1500mhz pour le TU102. Mais les cartes tapent les 2ghz in game, donc 1 tier de plus.  
Les autres TU104 / TU106 c'est pareil.


 
Ils utilisent la fréquence Turbo minimale garantie oui pour les Tflops, 1545mhz pour la RTX 2080 Ti, 1710 mhz coté RTX 2080 et 1620 pour la RTX 2070, après en jeu en fonction des modèles ça varie dans les 1800/2000 mhz oui (un petit peu plus un petit peu moins en fonction de la carte, de la qualité de la puce, et du jeu en question).


Message édité par havoc_28 le 10-03-2020 à 15:17:05
n°10710856
Tigrou
Sans accroc
Posté le 10-03-2020 à 16:51:56  profilanswer
 

max022 a écrit :

Il faudra juste ne pas prendre les jeux 6c/12T ou + ... Mais il y a encore plein de jeux en 4C/8T.


Le jeu s'en fout du nombre de cœurs physiques; il ne "voit" que les cores logiques ;)


---------------
Feedback - Stacy's mom
n°10710861
obduction
Posté le 10-03-2020 à 17:11:05  profilanswer
 

pimentrouge a écrit :

Je sais pas si on peut s'attendre à autre chose que :
 
Une 3060 +5/10% comparé à une 2070 + une partie RT plus musclée
Une 3070 +5/10% comparé à une 2080 + une partie RT plus musclée
Une 3080 +5/10% comparé à une 2080ti + une partie RT plus musclée
 
Comme d'hab hein, avec un peu de vram en plus.
Ya pas vraiment à se crêper le chignon.


N'oublie pas qu'on passe de 14 à 7nm donc il va y avoir la place pour faire bien plus que ça.
A voir si nvidia le fera ou pas.

n°10710867
ppn7
Posté le 10-03-2020 à 17:28:18  profilanswer
 

max022 a écrit :

Citation :

Je vais être CPU limited. J’ai encore un i7 2600k que j’ai pas encore envie de changer.
Je ne vise pas plus de 60fps en 1440p ou 4K DLSS.


 
Ben il y a pire comme cpu pour du 1400p.  
Bon c'est sure il y a mieux aussi mais il n'est pas non plus à la ramasse.  
Il faudra juste ne pas prendre les jeux 6c/12T ou + ... Mais il y a encore plein de jeux en 4C/8T.  
C'est juste que tu n'a pas un cpu futur proof.  
Perso j'essaierais au minimum de prendre la RTX 3060 (on peut s'attendre à l'équivalent d'une 2080 grosso modo)  
et je ne pense pas que tu sera vraiment cpu limited  tant que tu reste sur des jeux 4c/8T vu que c'est du 1400p.
Bon il reste encore une grosse inconnu : le prix ...  
Je dis cela en pensant que les prix seront pas trop cher jusqu'a la RTX 3060 mais c'est possible que je change très vite d'avis.  :lol:  


 
Oui y a pire après disons que je verrais comme tu dis pour les jeux fortement multi-threadé avec l'arrivée des consoles.
Je veux dire si par là je perds 20% de performances c'est pas dramatique, du moment que je tombe pas sous les 40fps pour les jeux en solo.
Par contre la RTX 3060 si c'est minimum 400€ comme à la sortie de la 2060/super, ça sera sans moi, c'est pour ça que je vise plutôt un truc dans les 250/300€ maximum.

n°10710870
Rayaki
Posté le 10-03-2020 à 17:39:03  profilanswer
 

obduction a écrit :


N'oublie pas qu'on passe de 14 à 7nm donc il va y avoir la place pour faire bien plus que ça.
A voir si nvidia le fera ou pas.


 
Si c'est juste 5/10% en raster, soit c'est un fail soit nvidia se moque ouvertement de ses utilisateurs :o


---------------
Clan Torysss.
n°10710875
kaizen59
Posté le 10-03-2020 à 18:23:07  profilanswer
 

pimentrouge a écrit :

Je sais pas si on peut s'attendre à autre chose que :
 
Une 3060 +5/10% comparé à une 2070 + une partie RT plus musclée
Une 3070 +5/10% comparé à une 2080 + une partie RT plus musclée
Une 3080 +5/10% comparé à une 2080ti + une partie RT plus musclée
 
Comme d'hab hein, avec un peu de vram en plus.
Ya pas vraiment à se crêper le chignon.


Salut,
 
Je n'ai pas de boule de crystal, et je dois même avouer que depuis ces derniers mois, je me suis pris une RX5700XT pour mon PC, mais aussi une autre RX5700XT pour celui de mon fils (que je viens de refaire).
Et au passage, je suis très satisfait de cette carte.
Et pourtant, quand je pense à cette prochaine gamme de Nvidia, je me dis qu'il y a de très forte chance que le gain en performance par rapport à la génération actuelle soit relativement conséquent.
Ce qui me fait dire cela, ce n'est pas forcément les fuites de nombre de CU ou de CUDA core qui ont fuité dernièrement.
En fait, ce qui me fait dire cela, c'est que certain jeu ou extension de jeu devienne de plus en plus gourmand en terme de ressource graphique. Dernièrement, j'ai lu une news d'un studio (je ne me souviens plus lequel), mais grosso modo, ils ont annoncés l'extension d'un jeu qui fout à terre une 2080TI. De plus, Nvidia n'ayant pas été retenu comme fournisseur de solution graphique pour les prochaines générations de consoles, je pense que NV va volontairement sortir une techno qui se démarquera nettement en performance des consoles de prochaines générations. Du moins, ils ont tout intérêt à adopter cette stratégie (à quel prix ???). De mon point de vue, et même si je suis très satisfait du RDNA1 de mes 2 cartes RX5700XT, je pense que la prochaine génération NV sera bien plus performante que le RDNA2 d'AMD.  
 
Encore une fois, je n'ai pas de boule de crystal, mais si je me projette dans 2 ans, je pense que la situation actuelle n'aura pas trop changé en terme de marché, c'est à dire qu'AMD va proposer des cartes intéressantes à bas prix (en terme de rapport perf/prix --> du genre une RX5700XT à 200 Euros). Les différentes déclinaisons de RDNA2 (plus performant que RDNA 1) et les entrées de gammes de la prochaine génération NV se trouveront à partir du double du prix (~400Euros à 800Euros). Le haut du panier en terme de perf sera réservé à NV avec une 3080 et une 3080ti (1000€ à 1500€).
 
Au passage si NV sort une gamme très performante (par rapport au RDNA2 d'AMD), avec plus ou moins le même positionnement tarifaire que la gamme NV actuelle, je pense qu'AMD n'aura pas le choix que de revoir son positionnement tarifaire pour vendre des cartes (et au détriment de marges, de la rentabilité, et de l'amortissement en R&D).  
 
Bref tout cela n'est que pure spéculation de ma part, mais c'est comme cela que je le vois aujourd'hui.
 
A+
Kaizen
 
 

n°10710900
Dark Schne​iderr
⭐⭐
Posté le 10-03-2020 à 19:48:28  profilanswer
 

Invite_Surprise a écrit :

Faut plus s'attendre à une 3070 au niveau de la 2080Ti, comme à chaque changement de node.


 
Je pense aussi. Ce qui ferait x3 les perfs de ma 1060  :love:


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°10710905
Iryngael
Awesome, ain't it ?
Posté le 10-03-2020 à 19:56:31  profilanswer
 

Je rêve éveillé mais ce serait le seul gap de perfs acceptable pour que je daigne changer ma 1080 pour une 3080(Ti?)


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°10710906
Dark Schne​iderr
⭐⭐
Posté le 10-03-2020 à 20:00:00  profilanswer
 

Hypothèse : 3070 = 2080 Ti

 

D'une 1080 vers une 3070, ça te ferait du +80%, par conséquent une 3080 ce serait du x2 facile.

Message cité 1 fois
Message édité par Dark Schneiderr le 10-03-2020 à 20:00:22

---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°10710912
Iryngael
Awesome, ain't it ?
Posté le 10-03-2020 à 20:09:18  profilanswer
 

J'ai fait CF de HD4870 -> GTX 660/970/1080.
Je change seulement pour du x1.8-2 mini en perfs :D


Message édité par Iryngael le 10-03-2020 à 20:09:44

---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  22  23  24  ..  1872  1873  1874  1875  1876  1877

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR