Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2651 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  59  60  61  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10412592
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 20:22:57  profilanswer
 

Reprise du message précédent :

cyberfred a écrit :


 
ca n'a pas l'air trop mal tout ça !
maintenant faudra voir en détail , car une 2080 deux fois plus perf (en moyenne) qu'une 1080 , ca fait envie  :love:


 
1,5x plutôt (sans DLSS qui utilise les Tensor Core et plombe le GP104).  ;).
 
Mais ça reste correct comme gap.

Message cité 3 fois
Message édité par aliss le 22-08-2018 à 20:23:32
mood
Publicité
Posté le 22-08-2018 à 20:22:57  profilanswer
 

n°10412595
havoc_28
Posté le 22-08-2018 à 20:26:54  profilanswer
 


 
Comme le dit aliss, sans DLSS on est plutôt dans les 50%  je reste sur 40/50%, sauf s'ils ont été vraiment très très selectif coté paramètre scène.  Le DLSS je sais pas comment ça marche donc je préfère pas me baser sur ça, (j'attends de voir les comparaisons de qualité en détail etc).
 
Mais le gain est très notable dans tous les cas.

Message cité 1 fois
Message édité par havoc_28 le 22-08-2018 à 20:30:08
n°10412597
Activation
21:9 kill Surround Gaming
Posté le 22-08-2018 à 20:27:29  profilanswer
 

Paul-Hewson a écrit :


 
Et ce n'est que la 2080, donc la Ti devrait augmenter ces chiffres d'au moins 30% vu le nombre de SM supplémentaires.
On remarque que la moitié du gain ou plus pourrait venir des tensor core, comme quoi.
 
Ps : reste à voir si avec leur DLSS, on ne perd pas non plus quelques détails graphiques au passage, on ne sait jamais :O


 
 
le dlss c est pas le truc genre dans forza 4 qui reduit la qualité "dans les coins" pour reduire les besoin en bande passante
 
edit: je confond avec un autre truc  :sweat:


Message édité par Activation le 22-08-2018 à 20:30:58
n°10412599
the_bigboo
Posté le 22-08-2018 à 20:30:02  profilanswer
 

Encore un graphique flou de la part d'nVidia...  :sarcastic:  
Encore des chiffres sans contexte...
Je trouve quand même que le "RTX 2080 : 2x1080" est un peu abusé... Un facteur 1.5 aurait été bien plus approprié
Ah le marketing... Cette magie noire des temps modernes...  :pfff:

n°10412602
jeanphi21
Posté le 22-08-2018 à 20:33:43  profilanswer
 

Bon il faut attendre pour en voir plus mais une 2080 pour du 1440p 144fps multi sans RT et 1440p 60 fps avec RT pour du solo ca semble jouable

n°10412603
Activation
21:9 kill Surround Gaming
Posté le 22-08-2018 à 20:34:07  profilanswer
 

the_bigboo a écrit :

Encore un graphique flou de la part d'nVidia...  :sarcastic:  
Encore des chiffres sans contexte...
Je trouve quand même que le "RTX 2080 : 2x1080" est un peu abusé... Un facteur 1.5 aurait été bien plus approprié
Ah le marketing... Cette magie noire des temps modernes...  :pfff:


 
si tu regarde le graph ça varie entre 1.4 et 1.7
donc dans certain cas la 2080 arrive juste 5% au dessus d'une 1080ti  :lol:  
donc en gros selon la situtation ça ferait la 2080 40% plus perf que la 1080 non ti, c'est pas fou quand même, on reste sur une finesse de gravure proche de pascal :o
faut se dire que la 2080 non Ti n'est pas taillé pour l ultrahd :o
 
vivement la 3080 7nm :o


Message édité par Activation le 22-08-2018 à 20:35:14
n°10412606
ZzDazzleZz
Bencheur Oufff
Posté le 22-08-2018 à 20:35:12  profilanswer
 

aliss a écrit :


 
1,5x plutôt (sans DLSS qui utilise les Tensor Core et plombe le GP104).  ;).
 
Mais ça reste correct comme gap.


 
Bon alors lancement réussi pour la gen turing ou fiasco complet ?? ;)
 
Y a plus qu'à attendre la fonte des prix sur les 1080 Ti now  :love:

n°10412607
cyberfred
Posté le 22-08-2018 à 20:35:58  profilanswer
 

aliss a écrit :


 
1,5x plutôt (sans DLSS qui utilise les Tensor Core et plombe le GP104).  ;).
 
Mais ça reste correct comme gap.


 
ouep , si ca se confirme ,ca sera plutôt sympa comme gain ;)

n°10412611
BobMorrisT​heKing
Posté le 22-08-2018 à 20:37:53  profilanswer
 

obduction a écrit :


Si l'intérêt sera que tu seras obligé de payer vu qu'il n'y aura pas d'autres moyens.
Le futur à moyen et long terme c'est qu'il n'y aura plus que du cloud gaming et tout autre forme aura disparu. On ne peut rien y faire, c'est comme ça.
Quand cette époque arrivera, t'inquiètes pas, tu devras payer et chère. Quand les éditeurs se faire des milliards en contenu payant, micro transactions et autres loot boxes et tente même de mettre en fonctionnement les mods payants et que le grand public dit oui, va pas croire qu'ils vont te faire des abonnements à même 20 euros par mois pour tous leurs jeux. Pour ça, il faudrait qu'ils changent totalement de philosophie  mais là ça voudrait dire que le marché du jeu vidéo s'est effondré et que ce ne sont plus des entreprises dont les actionnaires sont les proprios.  
 


 
Tu vois les choses de manière assez sombre et radicale.
Il y a une chose que tu n'as pas intégré dans ton équation...La bande passante Internet. Elle a une limite, celle des câbles entre les continents. Certains prévoient d'ici quelques années une explosion des tarifs de l'abo mensuel, surtout si les pays comme la chine et l'inde, les pays africains décident de monter en gamme et de mettre la fibre/câble partout sur leurs territoires. Disons les choses simplement, y aura pas la place pour tout le monde..
 
Autrement dit, le streaming/cloud, t'oublies, si ça se réalise. A moins d'upgrader l'infrastructure physique du net et rajouter des tuyaux sous marin en pagaille, ça aura un coût énorme, pour nous, les usagers.
 
 

obduction a écrit :


En septembre 96 (q3) est sortit virtua fighter version software en france ( http://download.abandonware.org/ma [...] -09%29.jpg ). En avril (q2), c'était la version uniquement compatible nv1 ( http://download.abandonware.org/ma [...] 996%29.jpg et http://download.abandonware.org/ma [...] 6%29.jpg). Fallait le chip nv1 d'nvidia qui est leur première carte 3D et qui a fait un flop mais c'était dispo si tu l'avais. Dans les 2 cas, forcément pentium et même dans le 1er achat du nv1 qui coutait plus de 1000F.
 
 


 
Bon là j'en sais rien. J'ai acheté à la fnac mon virtua fighter début octobre 96, j'ai du être le premier à l'avoir dans mon groupe de potes.
 

obduction a écrit :


Pourtant, c'est bien le cas et je t'ai donné plusieurs exemples.  Je ne parle même pas d'inflation parce que ce que je dis serait encore plus vrai si on tient compte de l'inflation.  


 
Oui mais tu ne vois que ce que tu veux voir.. Moi aussi d'ailleurs  :)   la 2080ti à elle seule vaut le prix d'une config velue du mid 90's moi c'est ce que je vois.  
 
Au fil des décennies je n'ai pas le sentiment d'avoir dépensé plus ou moins d'argent dans l'informatique... A voir ce que pensent les autres forumeurs de 40 ans et plus...

Message cité 1 fois
Message édité par BobMorrisTheKing le 22-08-2018 à 20:38:48
n°10412613
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 20:38:11  profilanswer
 

ZzDazzleZz a écrit :


 
Bon alors lancement réussi pour la gen turing ou fiasco complet ?? ;)
 
Y a plus qu'à attendre la fonte des prix sur les 1080 Ti now  :love:


 
Le lancement reste foiré, les gpu's non.  :D  
 
50% c'est correct mais pas la panacée non plus vu la débauche de transistors.  ;)  

mood
Publicité
Posté le 22-08-2018 à 20:38:11  profilanswer
 

n°10412614
cyberfred
Posté le 22-08-2018 à 20:39:43  profilanswer
 

disons que que ca mettrait la 2080 un peu au dessus de la 1080 Ti  

Message cité 3 fois
Message édité par cyberfred le 22-08-2018 à 20:40:14
n°10412616
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-08-2018 à 20:41:06  profilanswer
 

aliss a écrit :


 
1,5x plutôt (sans DLSS qui utilise les Tensor Core et plombe le GP104).  ;).
 
Mais ça reste correct comme gap.


 

havoc_28 a écrit :


 
Comme le dit aliss, sans DLSS on est plutôt dans les 50%  je reste sur 40/50%, sauf s'ils ont été vraiment très très selectif coté paramètre scène.  Le DLSS je sais pas comment ça marche donc je préfère pas me baser sur ça, (j'attends de voir les comparaisons de qualité en détail etc).
 
Mais le gain est très notable dans tous les cas.


 
Ça semble du best case avec beaucoup de jeux en HDR mais on verra bien.
Et oui faut attendre de voir tout ça décortiqué pour voir ce que Turing peut offrir.
Si la fonction DLSS est facile à implémenter pour les développeurs et que le rendu est bon, ça peut faire du dégât par contre vu les chiffres avancés.
La 2070 pourrait bien être assez proche de la 1080Ti si l'on suit ce graph également.
Bref, vaut mieux attendre les tests afin de juger réellement et pas trop se fier à ce graph qui parait bien optimiste. W&S.

n°10412617
jeanphi21
Posté le 22-08-2018 à 20:41:17  profilanswer
 

cyberfred a écrit :

disons que que ca mettrait la 2080 un peu au dessus de la 1080 Ti  


 
Ouais donc même performance pour même prix grosso modo... pas foufou sauf quand le RT sera bien maitrisé

n°10412619
cyberfred
Posté le 22-08-2018 à 20:43:25  profilanswer
 

en effet , ca pourrait expliquer le fait que le prix des 1080 Ti ne bougent pas trop pour le moment :D
mais il est clair qu'il vaudra mieux attendre les tests pour se faire une idée précise :jap:


Message édité par cyberfred le 22-08-2018 à 20:44:28
n°10412622
ZzDazzleZz
Bencheur Oufff
Posté le 22-08-2018 à 20:44:51  profilanswer
 

cyberfred a écrit :

disons que que ca mettrait la 2080 un peu au dessus de la 1080 Ti  


 
Oui un peu plus rapide et moins gourmande surtout 215w vs 250 pour la ti ^^
On comprends mieux le silence pour finir les stocks de ces dernières  :D

n°10412623
Profil sup​primé
Posté le 22-08-2018 à 20:46:40  answer
 

aliss a écrit :


 
Le lancement reste foiré, les gpu's non.  :D  
 
50% c'est correct mais pas la panacée non plus vu la débauche de transistors.  ;)  


 
si on mets l'aspect tarifaire de coté  
c'est même pas mal du tout sachant qu'on reste sur la même densité  
 
mais c'est pas maxwell on est d'accord,  les perf/watt ne vont pas beaucoup progresser comparé aux deux dernières gen  :jap:


Message édité par Profil supprimé le 22-08-2018 à 21:33:25
n°10412624
Monsieur L​ocke
Posté le 22-08-2018 à 20:47:17  profilanswer
 

jeanphi21 a écrit :

 

Ouais donc même performance pour même prix grosso modo... pas foufou sauf quand le RT sera bien maitrisé


Du coup les tarifs se tiennent :o
Sinon, maintenant qu'on a les spec, une alim de 550w suffit pour la 2080 et la 2080 ti ?


---------------
TU Transport Fever
n°10412625
sardhaukar
Posté le 22-08-2018 à 20:48:16  profilanswer
 

New gen 50% + perf et 50% plus chère.
 [:alphat]  
 :sweat:

n°10412626
Profil sup​primé
Posté le 22-08-2018 à 20:49:28  answer
 

Invite_Surprise a écrit :


 
Ça semble du best case avec beaucoup de jeux en HDR mais on verra bien.
Et oui faut attendre de voir tout ça décortiqué pour voir ce que Turing peut offrir.
Si la fonction DLSS est facile à implémenter pour les développeurs et que le rendu est bon, ça peut faire du dégât par contre vu les chiffres avancés.
La 2070 pourrait bien être assez proche de la 1080Ti si l'on suit ce graph également.
Bref, vaut mieux attendre les tests afin de juger réellement et pas trop se fier à ce graph qui parait bien optimiste. W&S.


 
attention avec ça  
tu es en train de tomber dans un piège là  :whistle:  
 
 

n°10412628
Activation
21:9 kill Surround Gaming
Posté le 22-08-2018 à 20:51:11  profilanswer
 

aliss a écrit :


 
50% c'est correct mais pas la panacée non plus vu la débauche de transistors.  ;)  


 
voilà quoi, pour les jeux déjà sorti c est très bien... mais pour les jeux à venir: cyberpunk, the division 2 etc... je reste sceptique
 
en fait la 2080Ti sort pas car pas de concurrence, elle sort pour grossir les perf de la famille rtx au launch
 
bref plus qu'à attendre les tests vers fin septembre (sur plus de 4 jeux :o )
mais je reste sur l'idée de juste m acheter une gtx2060, et d'ici que le prix soit trop merdique et me rabatte sur une gtx1060 d'occase (pas neuve pour baiser la gueule aux oem qui se sont fait du gras avec le mining) pour temporiser à moindre coût en attendant le 7nm  :whistle:


Message édité par Activation le 22-08-2018 à 20:52:11
n°10412629
BobMorrisT​heKing
Posté le 22-08-2018 à 20:55:24  profilanswer
 


c'est quoi le piège? (question non ironique)

n°10412630
- gab
Posté le 22-08-2018 à 20:56:18  profilanswer
 

cyberfred a écrit :

disons que que ca mettrait la 2080 un peu au dessus de la 1080 Ti  


Ce qu'on attendait de la 2070 quoi :D (pour rappel la 1070 était un peu au-dessus de la 980 ti)


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°10412631
the_bigboo
Posté le 22-08-2018 à 20:58:14  profilanswer
 

Il y a quand même quelques licences que je vois très bien avec du ray tracing... Un bon Résident Evil ou un Silent Hill...
Pouvoir griller des zombies dans les reflets, ça pourrait avoir un intérêt plus stratégique que "simplement" plus réaliste...

n°10412633
johnny-vul​ture
Wesh wesh ma poule !
Posté le 22-08-2018 à 21:02:20  profilanswer
 

On veut les test Bowdel !


---------------
http://forum.hardware.fr/hfr/Discu [...] 2237_1.htm
n°10412635
BobMorrisT​heKing
Posté le 22-08-2018 à 21:02:51  profilanswer
 

N’empêche...+50% (au max)  c'est suffisant pour en vendre des palettes entières. ça rend leur produit attractif pour ceux qui en ont l'envie/besoin/moyen  de se l'acheter.
Ils ne se sont pas trop viandés, compte tenu de l'innovation RTX, qui elle risque encore de faire rire dans les chaumières pendant des mois ^^...

n°10412640
superallan
Posté le 22-08-2018 à 21:04:47  profilanswer
 
n°10412642
Profil sup​primé
Posté le 22-08-2018 à 21:08:43  answer
 

BobMorrisTheKing a écrit :


c'est quoi le piège? (question non ironique)


 
tous les jeux de la liste utilisent de l'hdr  
et je dirais même quasiment tous les jeux depuis une 10aine d'années  
 
exemple ici ( les deux screenshot dans le spoiler )  
https://forum.hardware.fr/hfr/JeuxV [...] #t10508719
 
l'enb utilisé dans cette version moddé de skyrim applique un HDR  32 bit  
mais reconverti en SDR  
 
 
maintenant que ce format est supporté sur certains écran , ça peut être reconverti dans un format compatible avec ces derniers    
ça change pas grand chose en terme de puissance de calcul , c'est pas pour rien que les consoles le supportent pour certains jeux :jap:
c'est le cas de ces jeux estampillé " HDR"   qu'nvidia semble utiliser comme argument markéting de manière très douteuse  :whistle:

Message cité 3 fois
Message édité par Profil supprimé le 22-08-2018 à 21:14:57
n°10412646
superallan
Posté le 22-08-2018 à 21:11:02  profilanswer
 

live  des  perf   sur  YouTube  les  amis

n°10412647
Mick461
Posté le 22-08-2018 à 21:11:04  profilanswer
 

en gros pour espère voir une vraie différences faut une 2080 ti un écran 4k hdr 144hz.. bordel ça pique l upgrzde la  
 
presque 4000e de matos et dans qq jours on dira qu un 8700k la bride lol

n°10412648
alexreunio​n
Posté le 22-08-2018 à 21:13:54  profilanswer
 

Mick461 a écrit :

en gros pour espère voir une vraie différences faut une 2080 ti un écran 4k hdr 144hz.. bordel ça pique l upgrzde la  
 
presque 4000e de matos et dans qq jours on dira qu un 8700k la bride lol


Faudra un i9 9900K  :o


---------------
Mon feedback
n°10412649
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-08-2018 à 21:14:18  profilanswer
 


 
http://tof.cx/images/2018/08/22/e6746ef880ade241e7dd611a886ca9ff.png
 
http://www.computerbase.de/2018-07 [...] geforce/2/
 
10% d'écart sur une 1080, c'est pas ce qu'on appelle rien.
 
Au passage, la Vega ne perd que 2% dans leurs tests et cela semble beaucoup moins impactant que sur carte NV, d'où mon conseil.

n°10412650
jeanphi21
Posté le 22-08-2018 à 21:14:33  profilanswer
 

alexreunion a écrit :


Faudra un i9 9900K  :o


 
Et 64 Go de RAM :o

n°10412651
django
Posté le 22-08-2018 à 21:14:45  profilanswer
 


osef complet
 
75€ par mois sans compter l'elec?  
 
bref :o

n°10412653
BobMorrisT​heKing
Posté le 22-08-2018 à 21:18:18  profilanswer
 


 
Oki, merci pour l'expli  :jap:  

n°10412654
jumpyman97​2
Posté le 22-08-2018 à 21:20:09  profilanswer
 

Invite_Surprise a écrit :

 

http://tof.cx/images/2018/08/22/e6 [...] 6ca9ff.png

 

http://www.computerbase.de/2018-07 [...] geforce/2/

 

10% d'écart sur une 1080, c'est pas ce qu'on appelle rien.

 

Au passage, la Vega ne perd que 2% dans leurs tests et cela semble beaucoup moins impactant que sur carte NV, d'où mon conseil.

 

et pas mal de jeux dx12/vulkan en sachant que depuis Volta, Nvidia propose asynch compute en hardware contrairement à Pascal ce qui améliore les perfs sur ces jeux le gérant.

 

https://www.computerbase.de/2018-05 [...] -v-test/3/

Message cité 2 fois
Message édité par jumpyman972 le 22-08-2018 à 21:26:01
n°10412655
Profil sup​primé
Posté le 22-08-2018 à 21:20:37  answer
 

Invite_Surprise a écrit :


 
http://tof.cx/images/2018/08/22/e6 [...] 6ca9ff.png
 
http://www.computerbase.de/2018-07 [...] geforce/2/
 
10% d'écart sur une 1080, c'est pas ce qu'on appelle rien.
 
Au passage, la Vega ne perd que 2% dans leurs tests et cela semble beaucoup moins impactant que sur carte NV, d'où mon conseil.


 
c'est une étape post process , donc évidemment que ça a un cout mais light  
 
en amont quand tu utilises du 16 bit vs 32 bit , les perfs chutent de bien plus que 10 %  
 
ce qui m'agace c'est l'amalgame autour de cette techno depuis la sortie des écrans compatible et je suis pas surpris que les fabricants en abuse :/


Message édité par Profil supprimé le 22-08-2018 à 21:27:10
n°10412656
Mick461
Posté le 22-08-2018 à 21:20:48  profilanswer
 

Oui si les consoles le font ça doit pas bouffer tant que ça sinon elle ne  le ferait  pas  
 
sinon t a redshade le hdr du pauvre lol
 

n°10412657
sylvains1
Posté le 22-08-2018 à 21:20:49  profilanswer
 

Dites vous savez si en général les waterblocks de chez EWKB sont réutilisables d'une génération à l'autre, là je sais que ça va pas passer car les dies ont des dimensions vraiment différentes de pascal, mais y'a une chance pour qu'un waterblock sur une 2080 passe sur une 2180 ?

n°10412659
jumpyman97​2
Posté le 22-08-2018 à 21:21:23  profilanswer
 

jumpyman972 a écrit :


 
et pas mal de jeux dx12/vulkan en sachant que depuis Volta, Nvidia propose asynch compute en hardware contrairement à Pascal ce qui améliore les perfs sur ces jeux le gérant.
 
https://www.computerbase.de/2018-05 [...] -v-test/3/


 
Les perfs sont en tout cas bonne. C'est surtout le DLSS qui semble très intéressant.
 
me suis trompé de bouton :whistle:


Message édité par jumpyman972 le 22-08-2018 à 21:26:21
n°10412660
Mick461
Posté le 22-08-2018 à 21:21:48  profilanswer
 

Tu penses déjà à la 2180 attend un peu :)

n°10412665
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 21:24:12  profilanswer
 

sylvains1 a écrit :

Dites vous savez si en général les waterblocks de chez EWKB sont réutilisables d'une génération à l'autre, là je sais que ça va pas passer car les dies ont des dimensions vraiment différentes de pascal, mais y'a une chance pour qu'un waterblock sur une 2080 passe sur une 2180 ?


 
Si on parle de wb full cover, aucune chance.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  59  60  61  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)