Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3575 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  362  363  364  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10468822
stef95000
Posté le 16-11-2018 à 18:52:51  profilanswer
 
mood
Publicité
Posté le 16-11-2018 à 18:52:51  profilanswer
 

n°10468827
Karkrinola​S
Posté le 16-11-2018 à 18:55:43  profilanswer
 
n°10468834
suprememax​payne
Testing spirit
Posté le 16-11-2018 à 18:59:16  profilanswer
 

En attente d'une promo pour une 2070 non-blower à moins de 500€ pour remplacer ma... 680, qui tient encore le choc


---------------
Top Gear Topic, VO only§§ *** Im in ur sea, layin ur internetz!!1! *** SΩΩN *** Soyez plus Pacifiques :o *** a.k.a. WoBuLaToR
n°10468837
hamon6
PSN: HaMoNeR
Posté le 16-11-2018 à 19:01:53  profilanswer
 

KarkrinolaS a écrit :


 
Là au moins c'est plus costaud [:moooonblooood:5]


 
[:gidoin] 100% plus cher, 60% plus perf


---------------
FeedBack -- Zowie -- Profil D3
n°10468841
Karkrinola​S
Posté le 16-11-2018 à 19:04:45  profilanswer
 

hamon6 a écrit :


 
[:gidoin] 100% plus cher, 60% plus perf


 
T'as jamais* un rapport de 1 à 1. Donc 100% + cher pour +60% de perfs c'est un bon ratio pour des gpus de même famille de la plus ou moins même gamme [:cbrs]
 
*Enfin pas depuis quelques temps hélas.


Message édité par KarkrinolaS le 16-11-2018 à 19:07:06
n°10468848
Uzudu
Posté le 16-11-2018 à 19:10:01  profilanswer
 

ZzDazzleZz a écrit :


 
Aucune idée je n'ai pas le jeu, mais faudra compter environs 90go voir plus  :??: mais sinon je parle du RT dans BF5 pas BF1  :p


 
 
https://reho.st/self/472a26ca0854c3296d1bfe491907268a49fe4edb.png
 
 :jap:

n°10468850
olioops
Si jeune et déjà mabuse.
Posté le 16-11-2018 à 19:11:11  profilanswer
 


Yop  :p  
 
https://zupimages.net/up/18/46/xr62.png

Message cité 4 fois
Message édité par olioops le 16-11-2018 à 19:19:07
n°10468861
Karkrinola​S
Posté le 16-11-2018 à 19:16:24  profilanswer
 


 Lol t'es toujours en windows 1803??? tu ne dois pas trop profiter du dxr si?  [:origan]  
Beau score sinon  [:implosion du tibia]

Message cité 1 fois
Message édité par KarkrinolaS le 16-11-2018 à 19:16:43
n°10468863
xphanoo
Posté le 16-11-2018 à 19:18:37  profilanswer
 

gsync/freesync peuvent améliorer la fluidité mais pas au sens "plus de FPS" bien sûr, ça élimine le jitter qui fait que sans ces technos, 59FPS sur un écran 60hz (par exemple) donnera un léger effet de 'stuttering' car toutes les 59 images y'en aura une qui restera sur deux frames.


Message édité par xphanoo le 16-11-2018 à 19:19:43
n°10468864
hamon6
PSN: HaMoNeR
Posté le 16-11-2018 à 19:18:38  profilanswer
 


 
Oui my bad, BF5 10h d'essaie pour 4€, j'ai pas les moyens :o en plus j'ai pas l'intention d'y jouer, ma connexion en mousse va fumer, a l'occas je testerai et encore, et sinon je sent bien tous ceux qui relurke les RTX la ramener avec le même refrain...bref


---------------
FeedBack -- Zowie -- Profil D3
mood
Publicité
Posté le 16-11-2018 à 19:18:38  profilanswer
 

n°10468865
Noz_
Posté le 16-11-2018 à 19:19:01  profilanswer
 

xphanoo a écrit :

J'comprends pas qu'on s'intéresse à ce point au DLSS. Ca n'est qu'un upscaling, certes bon, mais les détails qui font tout l'intérêt d'une plus haute résolution ne s'inventent pas à partir d'une plus basse résolution.
Au mieux ça fait des lissages propres comme l'algo 2XSAI pour la 2D:
http://wikiimages.qwika.com/images [...] ompare.png
 
C'est cool mais ça n'est pas du 4K bien qu'on dise "4K DLSS", il faudrait indiquer la réso de base dans laquelle est faite le rendu au lieu de la réso après upscaling mais c'est moins vendeur forcément  :o


Pour lever tout ambiguïté je proposerai bien "4K BLSS" pour "Bullshit Super Sampling" :o
Après bon si ça marche bien c'est le principal, mais quand on gratte un peu au final je trouve que leur comm les dessert plus qu'autre chose, à constamment faire passer des vessies pour des lanternes.
S'ils avaient parlé directement d'upscaling + IA au moins on saurait de quoi on parle, mais présenter un 4K AA qui fait gagner des perfs par rapport à un 4K sans AA, ça donne pas spécialement confiance en la techno et ça laisse penser qu'il y a entourloupe.


Message édité par Noz_ le 16-11-2018 à 19:20:39
n°10468867
sniper 46
Posté le 16-11-2018 à 19:20:31  profilanswer
 


 
Et en jeu ? d'la branlette de score 3DMou en 1080p en medium... voilà quoi  :o  Bientôt en " low " pour avoir le plus gros chiffre  :D
 
D'ailleurs, plus sérieusement, tu as testé l'OC sur l'EVGA ?  :??:  Si oui, ça plafonne à combien pour le GPU en Ingame ?

Message cité 2 fois
Message édité par sniper 46 le 16-11-2018 à 19:22:53

---------------
Pseudo en game - Icewind
n°10468869
stef95000
Posté le 16-11-2018 à 19:22:10  profilanswer
 


 
attends que je remplace mon 8600k par un i9-9900k  ;)  

n°10468870
olioops
Si jeune et déjà mabuse.
Posté le 16-11-2018 à 19:22:33  profilanswer
 

KarkrinolaS a écrit :


 Lol t'es toujours en windows 1803??? tu ne dois pas trop profiter du dxr si?  [:origan]  
Beau score sinon  [:implosion du tibia]


Je passerai en 1809 quand la màj auto me le proposera  :o  
pas envie de me retrouver dans le camp de "jecomprendpasmonPCmefaitquedesmerdes"  :sol:

n°10468871
Karkrinola​S
Posté le 16-11-2018 à 19:22:42  profilanswer
 

sniper 46 a écrit :


 
Et en jeu ? d'la branlette de score 3DMou en 1080p en medium... voilà quoi  :o  Bientôt en " low " pour avoir le plus gros chiffre  :D


 
Peu importe le mode, l'important c'est que tous le monde publie des scores sous le même .

n°10468873
Karkrinola​S
Posté le 16-11-2018 à 19:24:39  profilanswer
 

olioops a écrit :


Je passerai en 1809 quand la màj auto me le proposera  :o  
pas envie de me retrouver dans le camp de "jecomprendpasmonPCmefaitquedesmerdes"  :sol:


T'auras exactement la meme version une fois qu'elle sera dans windows update. Y a une deuxième version no souci sur le site de crosoft. J'ai même pas de RTX et pourtant je l'ai installé sous mon nouveau PC upgrade 100% smooth en mode no worries at all.

n°10468879
jeanjean15
buy cheap, buy twice
Posté le 16-11-2018 à 19:32:28  profilanswer
 

obduction a écrit :


 :pfff:  Encore un qui ne sait pas de quoi il parle
Relis l'article
T'as un écran gsync?
 
Gsync c'est de la vsync dynamique et ça ne rend pas un jeu plus fluide qui ne l'est. Cela enlève seulement les saccades dues à la vsync. Ton jeu à 30 ou 50 fps, restera à 30 ou 50 fps avec gsync.
La sensation de fluidité améliorée, c'est seulement du parce que souvent, les gens activant la vsync, ont souvent des saccades dues à ça mais ce n'est pas forcément tout le temps. Quand il n'y a pas ces saccades dues à la vsync gsync ou pas, tu as strictement la même fluidité. Heureusement ces saccades tu ne les a pas toujours.
 


 

obduction a écrit :


T'as gsync mais t'as pas compris l'article alors. C'est bien dommage.


 
Tu confonds fps et fluidité.  
 
A partir de la , c'est toi qui ne comprends rien à l' apport du gsync.
 
En plus tu ne l'a même pas testé visiblement et tu te permets de m'invectiver.

Message cité 1 fois
Message édité par jeanjean15 le 16-11-2018 à 19:40:17

---------------
mes_feeds
n°10468888
olioops
Si jeune et déjà mabuse.
Posté le 16-11-2018 à 19:36:55  profilanswer
 

sniper 46 a écrit :


 
Et en jeu ? d'la branlette de score 3DMou en 1080p en medium... voilà quoi  :o  Bientôt en " low " pour avoir le plus gros chiffre  :D
 
D'ailleurs, plus sérieusement, tu as testé l'OC sur l'EVGA ?  :??:  Si oui, ça plafonne à combien pour le GPU en Ingame ?


2100~ stable, mais en général je reste autour de 1900-1950 c'est à dire le boost par défaut qui consomme déjà 300w  :sweat:  à 2100 ça monte à plus de 340w [:msaint]

Message cité 1 fois
Message édité par olioops le 16-11-2018 à 19:39:25
n°10468889
tigrou0007
Posté le 16-11-2018 à 19:38:29  profilanswer
 

xphanoo a écrit :

J'comprends pas qu'on s'intéresse à ce point au DLSS. Ca n'est qu'un upscaling, certes bon, mais les détails qui font tout l'intérêt d'une plus haute résolution ne s'inventent pas à partir d'une plus basse résolution.
Au mieux ça fait des lissages propres comme l'algo 2XSAI pour la 2D:
http://wikiimages.qwika.com/images [...] ompare.png

 

C'est cool mais ça n'est pas du 4K bien qu'on dise "4K DLSS", il faudrait indiquer la réso de base dans laquelle est faite le rendu au lieu de la réso après upscaling mais c'est moins vendeur forcément  :o

 

Le DLSS c'est plus bien avancé que du 2XSAI.
Ce qu'on fait c'est utiliser un réseau neuronal et deux images : une scéne en basse résolution (ex : 2K) et exactement la même mais en haute résolution (ex : 4K ou peut etre plus, on sait pas).
Après le réseau neuronal est entraîné (d'ou le terme learning) pour pouvoir essayer de reproduire au mieux l'image haute résolution a partir de celle en basse résolution.

 

On fait ca pour toute une série de scènes typiques du jeu. Ca, c'est fait chez NVidia avec des super ordinateurs.
Après, une fois le taf terminé, NVidia inclut le résultat (les pondérations du reseau neuronal entrainé) dans les drivers.

 

Tu télécharge les drivers et la quand tu joues, le jeu est rendu en 2K. Le reseau neuronal entrainé reconnait certains patterns dans l'image en temps réel et fait l'upscaling (pour obtenir du 4K). Ce sont les fameux "tensors cores" qui font ca. Evidemment ce n'est pas parfait mais l'illusion est suffisamment bonne que pour être acceptable.

 

Le fait de créer du détail a partir de rien n'ai rien de magique : c'est quelque chose qu'on arrive a faire depuis quelque années maintenant.

 

Voici un exemple ou le deep learning est utilisé pour remplir des trous fait dans une image volontairement :

 

https://i.imgur.com/UIaXLzg.png

 

Je tiens a préciser que le réseau neuronal n'a JAMAIS vu les photos de gauche (les originales, sans les trous) lors de l'entrainement.
Juste des milliers d'autres photos du même style.

 

Ici c'est la même chose, mais avec des scènes typiques du jeu.
Evidemment, NVidia ne dévoile pas l'algorithme exact (vu le potentiel du truc et la concurrence).

 

Si tu veux voir ce que ca donne en vrai va voir ici (4K réel vs 4K DLSS) :
https://www.tomshardware.com/review [...] ,5870.html

Message cité 2 fois
Message édité par tigrou0007 le 16-11-2018 à 22:24:17
n°10468893
Profil sup​primé
Posté le 16-11-2018 à 19:47:33  answer
 

stef95000 a écrit :

attends que je remplace mon 8600k par un i9-9900k  ;)  

Score identique au 1/10ème de % près sur ce Bench

Spoiler :

pas du tout dépendant du processeur ..

Bonchanz [:gauthier]

KarkrinolaS a écrit :

Peu importe le mode, l'important c'est que tous le monde publie des scores sous le même .

Dans ce cas, si, ça a de l'importance justement :heink: ..

Message cité 1 fois
Message édité par Profil supprimé le 16-11-2018 à 19:48:37
n°10468894
sniper 46
Posté le 16-11-2018 à 19:48:32  profilanswer
 

olioops a écrit :


2100~ stable, mais en général je reste autour de 1900-1950 c'est à dire le boost par défaut qui consomme déjà 300w  :sweat:  à 2100 ça monte à plus de 340w [:msaint]


 
Elle a déjà un bon GPU Boost de base  :jap:  2100 MHz en parfaitement stable ? Si oui... le gain doit être appréciable !  (par contre... moins pour la consommation  :D )
Au vu des tests que j'ai pu parcourir... les meilleures cartes semblent plafonner autour de 2 100 / 2 125 MHz. De mémoire, ça tournait vers 6 / 7 % de gain (rien d'extraordinaire, mais toujours bon à prendre sur certains titres).


---------------
Pseudo en game - Icewind
n°10468895
Karkrinola​S
Posté le 16-11-2018 à 19:50:34  profilanswer
 


Oui mais on s'en fout que ça soit medium high ou extreme si tout le monde utilise le même, c'est plus clair comme ça?
 [:omar cheifrai:4]


Message édité par KarkrinolaS le 16-11-2018 à 19:53:12
n°10468900
Profil sup​primé
Posté le 16-11-2018 à 19:55:51  answer
 

Tout le monde utilise extreme sur ce Bench alors

 

tigrou0007 > 3ème case, 2ème ligne..
Comment peut-on deviner que ça deviendra la dernière case de la 2ème ligne car la 3è/2è est censée être différente à chaque fois ?

Spoiler :

[:stefaninho:1]

Spoiler :

dredaÿ

Message cité 2 fois
Message édité par Profil supprimé le 16-11-2018 à 19:59:13
n°10468902
Karkrinola​S
Posté le 16-11-2018 à 19:57:07  profilanswer
 


 
par exemple, oui. Mais ça change rien que tu fasses un concours de qui qua la plus grosse en centimètre ou en pouce..Peu importe l'unité de mesure si tout le monde utilise la même, c'est le score qui est important


Message édité par KarkrinolaS le 16-11-2018 à 20:05:35
n°10468903
charognard​37
Vivement la retraite !
Posté le 16-11-2018 à 19:59:13  profilanswer
 


26872
GG !
 
ça fait quand même 14% de plus que ma 1080TI
C'est peut être pas le bon réglage à faire pour mettre en évidence les perf d'une 2080TI
 
http://fr.normand.free.fr/pc/UnigineSuperpositionmedium1080.png

Message cité 1 fois
Message édité par charognard37 le 16-11-2018 à 20:01:30
n°10468908
django
Posté le 16-11-2018 à 20:01:14  profilanswer
 

hamon6 a écrit :

Pour tomber sur un pcb de référence doit falloir acheter soit des FE ou alors des carte type blower, je doute fort que pour MSI par exemple utilise des pcb de ref sur leurs gros customs


la grande majorité des cartes sont des pcb de réf hors exceptions, genre evga ftw3, msi gaming trio...

n°10468909
olioops
Si jeune et déjà mabuse.
Posté le 16-11-2018 à 20:04:23  profilanswer
 

sniper 46 a écrit :

 

Elle a déjà un bon GPU Boost de base  :jap:  2100 MHz en parfaitement stable ? Si oui... le gain doit être appréciable !  (par contre... moins pour la consommation  :D )
Au vu des tests que j'ai pu parcourir... les meilleures cartes semblent plafonner autour de 2 100 / 2 125 MHz. De mémoire, ça tournait vers 6 / 7 % de gain (rien d'extraordinaire, mais toujours bon à prendre sur certains titres).


J'ai du jouer 1/4 d'heure à 2100, mais je manque de recul car la fréquence varie pas mal selon les jeux en fonction de la chauffe/lourdeur de la scène... et c'est surtout le compromis puissance/bruit que je cherche, quitte à limiter à 120hz.
Ces cartes roxent déjà bien à 1800 ou 1900mhz, après si on peut monter plus haut c'est du bonus, mais pas vraiment déterminant en jeu ( à voir si les 5 à 10% de + peuvent aider sur les jeux RTX, si ça peut me caler à 60fps sur le 4K non G-Sync ...au lieu de 58 ou 59 et le stuttering qui va avec  :kaola: ça sera toujours ça sur SOTR ou Metro Exodus  [:airforceone] ).
Pour l'instant ça sert juste à faire des scores en bench  :lol:


Message édité par olioops le 16-11-2018 à 20:06:59
n°10468914
sniper 46
Posté le 16-11-2018 à 20:08:11  profilanswer
 

charognard37 a écrit :


26872
GG !
 
ça fait quand même 14% de plus que ma 1080TI
C'est peut être pas le bon réglage à faire pour mettre en évidence les perf d'une 2080TI
 
http://fr.normand.free.fr/pc/Unigi [...] um1080.png


 
 
Il faudrait augmenter la définition pour que l'écart soit plus important  :jap: Forcément, en 1080p (surtout en détail médium), cela resserre l'écart entre les cartes


---------------
Pseudo en game - Icewind
n°10468916
Karkrinola​S
Posté le 16-11-2018 à 20:09:33  profilanswer
 

sniper 46 a écrit :


 
 
Il faudrait augmenter la définition pour que l'écart soit plus important  :jap: Forcément, en 1080p (surtout en détail médium), cela resserre l'écart entre les cartes


Pas faux. [:marllt2]


Message édité par KarkrinolaS le 16-11-2018 à 20:09:49
n°10468920
stef95000
Posté le 16-11-2018 à 20:13:12  profilanswer
 

https://photo.swebserver.fr/2080ti/Superposition_Benchmark_v1.0_9310_1542391107.png
 
https://photo.swebserver.fr/2080ti/Superposition_Benchmark_v1.0_12396_1542392216.png
 
https://photo.swebserver.fr/2080ti/Superposition_Benchmark_v1.0_5322_1542391744.png

n°10468933
tigrou0007
Posté le 16-11-2018 à 20:34:20  profilanswer
 


 
Roooh, ton réseau neuronal est bien entrainé, j'avais pas pensé a ca  :D

n°10468941
dureiken
Posté le 16-11-2018 à 20:49:42  profilanswer
 

Salut les experts.

 

Il y en a qui ont passé leur Ti sous eau ? Si oui quel modele ?

 

Merci

n°10468946
xphanoo
Posté le 16-11-2018 à 20:55:46  profilanswer
 

tigrou0007 a écrit :


 
Le DLSS c'est plus bien avancé que du 2XSAI.
Ce qu'on fait c'est utiliser un réseau neuronal et deux images : une scéne en 2K et exactement la même mais en 4K (de la vraie 4K non upscalée).
Après le réseau neuronal est entraîné (d'ou le terme learning) pour pouvoir essayer de reproduire au mieux l'image 4K a partir de celle en 2K.
 
On fait ca pour toute une série de scènes typiques du jeu. Ca, c'est fait chez NVidia avec des super ordinateurs.
Après, une fois le taf terminé, NVidia inclut le résultat (les pondérations du reseau neuronal sur-entrainé) dans les drivers.
 
Tu télécharge les drivers et la quand tu joues, le jeu est rendu en 2K. Le reseau neuronal sur-entrainé reconnait certains patterns dans l'image en temps réel et fait l'upscaling (pour obtenir du 4K). Ce sont les fameux "tensors cores" qui font ca. Evidemment ce n'est pas parfait mais l'illusion est suffisamment bonne que pour être acceptable.
 
Le fait de créer du détail a partir de rien n'ai rien de magique : c'est quelque chose qu'on arrive a faire depuis quelque années maintenant.
 
Voici un example ou le deep learning est utilisé pour remplir des trous fait dans une image volontairement :
 
https://i.imgur.com/UIaXLzg.png
 
Je tiens a préciser que le réseau neuronal n'a JAMAIS vu les photos de gauche (les originales, sans les trous) lors de l'entrainement.
Juste des milliers d'autres photos du même style.
 
Ici c'est la même chose, mais avec des scènes typiques du jeu.
Evidemment, NVidia ne dévoile pas l'algorithme exact (vu le potentiel du truc et la concurrence).
 
Si tu veux voir ce que ca donne en vrai va voir ici (4K réel vs 4K DLSS) :  
https://www.tomshardware.com/review [...] ,5870.html


 
Les images avec les trous sont impressionnantes mais c'est de gros réseaux de neurones qui prennent le temps de calculer ce qu'il faut, le truc utilisé par nvidia est loin d'être aussi performant (pas de miracles faut arriver à le faire en temps réel) y'a qu'à voir sur le lien que tu donnes :
 
https://image.noelshack.com/fichiers/2018/46/5/1542398451-sans-titre.png
 
Les exemples de DLSS ici ressemblent à une simple image agrandie sous GIMP avec un algo lambda... toute la finesse des détails présents sur la version 4K sont absents et remplacé par du flou dans la version "4K DLSS"

Message cité 2 fois
Message édité par xphanoo le 16-11-2018 à 21:02:39
n°10468952
Solona
Posté le 16-11-2018 à 21:01:55  profilanswer
 

xphanoo a écrit :

 

Les exemples de DLSS ici ressemblent à une simple image agrandie sous GIMP avec un algo lambda... toute la finesse des détails présents sur la version 4K sont absents et remplacé par du flou dans la version "4K DLSS"

 

tu tires tes images d'ou ? non car moi ayant fait le bench j'ai carrément pas ce flou dégueulasse sur le dlss, bien au contraire. Donc d'ou proviennent ces images ?

Message cité 1 fois
Message édité par Solona le 16-11-2018 à 21:03:56
n°10468953
Profil sup​primé
Posté le 16-11-2018 à 21:02:32  answer
 

Tout ceci ne sont que détails [:t_faz:1]

n°10468954
xphanoo
Posté le 16-11-2018 à 21:03:23  profilanswer
 

Solona a écrit :


 
tu tires tes images d'ou ? non car moi ayant fait le bench j'ai carrément pas ce flou dégueulasse sur le dlss bien au contraire. Donc d'ou proviennent ces images ?


 
Pas moi qui les ai faites elles sont sur le lien posé par tigrou : https://www.tomshardware.com/review [...] ,5870.html

n°10468959
Solona
Posté le 16-11-2018 à 21:14:40  profilanswer
 

xphanoo a écrit :


 
Pas moi qui les ai faites elles sont sur le lien posé par tigrou : https://www.tomshardware.com/review [...] ,5870.html


 
ok merci, comme je le disais quelques pages plus tôt, justement suite a ce genre d'images qui étaient sortie, je voulais voir de moi même ( vue que je supporte pas un flou de ce genre en jeux) donc j'ai essayer ce bench et j'ai carrément pas ce résultat aussi "flou" dégueulasse que ce que ce genre d'image rends.

n°10468962
jonas
c'est mon identité
Posté le 16-11-2018 à 21:22:53  profilanswer
 

obduction a écrit :


 :pfff:  Encore un qui ne sait pas de quoi il parle
Relis l'article
T'as un écran gsync?
 
Gsync c'est de la vsync dynamique et ça ne rend pas un jeu plus fluide qui ne l'est. Cela enlève seulement les saccades dues à la vsync. Ton jeu à 30 ou 50 fps, restera à 30 ou 50 fps avec gsync.
La sensation de fluidité améliorée, c'est seulement du parce que souvent, les gens activant la vsync, ont souvent des saccades dues à ça mais ce n'est pas forcément tout le temps. Quand il n'y a pas ces saccades dues à la vsync gsync ou pas, tu as strictement la même fluidité. Heureusement ces saccades tu ne les a pas toujours.
 


 

obduction a écrit :


T'as gsync mais t'as pas compris l'article alors. C'est bien dommage.


 
toi tu n'as jamais utilisé de GSYNC...
 
ce que tu dis est purement et simplement faux :D


---------------
et voilà
n°10468964
tigrou0007
Posté le 16-11-2018 à 21:26:38  profilanswer
 

xphanoo a écrit :

 

Les images avec les trous sont impressionnantes mais c'est de gros réseaux de neurones qui prennent le temps de calculer ce qu'il faut, le truc utilisé par nvidia est loin d'être aussi performant (pas de miracles faut arriver à le faire en temps réel) y'a qu'à voir sur le lien que tu donnes :

 

https://image.noelshack.com/fichier [...] -titre.png

  

Je ne sais pas si l'exemple que j'ai donné est faisable en temps réel. C'est doit etre du lourd car tu a carrément un trou dans l'image.

 

Ici l'algorithme DLSS se contente peut etre de juste lisser les bords quand c'est nécessaire et de rajouter du détail par ci par la.

 

EDIT : toms hardware parle de 114 TFLOPS de puissance pour les tensors core sur une 2080 TI :
https://www.tomshardware.com/review [...] 801-5.html

 

Ca me semble un peu fumé  [:zytrafumay] , sachant que le meilleur super ordinateur au UK (6,960 coeurs quand même) faisait la même chose en 2012 :
https://www.zdnet.com/article/uks-l [...] 000000207/

 

On aurait atteint ca pour le grand public en seulement 6 ans ? Mouais :/

 
xphanoo a écrit :

 

Les exemples de DLSS ici ressemblent à une simple image agrandie sous GIMP avec un algo lambda... toute la finesse des détails présents sur la version 4K sont absents et remplacé par du flou dans la version "4K DLSS"

 

Si certaines parties sont plus floues (ex : les dessins sur le cuir du perso) certaines ont plus de détail (ex : les feuilles en haut) sur la version DLSS.
Magie...

 

https://i.imgur.com/tcXS8jt.png

 

Je pense pas que GIMP puisse faire ca

Message cité 1 fois
Message édité par tigrou0007 le 16-11-2018 à 22:25:36
n°10468970
obduction
Posté le 16-11-2018 à 21:45:42  profilanswer
 

jeanjean15 a écrit :

 

Tu confonds fps et fluidité.

 

A partir de la , c'est toi qui ne comprends rien à l' apport du gsync.

 

En plus tu ne l'a même pas testé visiblement et tu te permets de m'invectiver.


J'ai un écran gsync depuis 3 ans et je suis à peu près tout ce qui concerne la technologie depuis qu'nvidia a annoncé gsync mais oui j'ai jamais testé.  :lol:

 

C'est à cause des gens comme toi qu'on voit dans les topics des gens se plaignent que gsync est décevant parce qu'il a pas transformé mon jeu en 30 fps en un jeu à 60 fps alors qu'il a vu des quidams comme toi lui dire ça.
Contrairement à toi, je sais ce qu'est gsync et j'essaie d'être précis dans mes propos plutôt que de raconter n'importe quoi.

 

Un jeu qui n'a pas de saccade ne va pas être plus fluide avec gsync et ça c'est un fait établi. Si le jeu a des saccades du à la vsync, évidemment qu'avec gsync ton jeu sera plus fluide mais c'est qu'un cas des saccades possibles dans un jeu. Si ton jeu a des saccades du au moteur 3d que tu peux trouver dans un jeu comme metro last light, gsync ne servira à rien que tu le veuilles ou non. Donc ta généralité que tu nous as sortit avec la 280ti, ça montre plutôt que tu ne sais pas de quoi tu parles.

 
jonas a écrit :

 

toi tu n'as jamais utilisé de GSYNC...

 

ce que tu dis est purement et simplement faux :D


Multi de jeanjean détecté.

Message cité 1 fois
Message édité par obduction le 16-11-2018 à 21:46:22
n°10468985
It_Connexi​on
Posté le 16-11-2018 à 22:05:22  profilanswer
 

tigrou0007 a écrit :


 
Le DLSS c'est plus bien avancé que du 2XSAI.
Ce qu'on fait c'est utiliser un réseau neuronal et deux images : une scéne en 2K et exactement la même mais en 4K (de la vraie 4K non upscalée).
Après le réseau neuronal est entraîné (d'ou le terme learning) pour pouvoir essayer de reproduire au mieux l'image 4K a partir de celle en 2K.
 
On fait ca pour toute une série de scènes typiques du jeu. Ca, c'est fait chez NVidia avec des super ordinateurs.
Après, une fois le taf terminé, NVidia inclut le résultat (les pondérations du reseau neuronal sur-entrainé) dans les drivers.
 
Tu télécharge les drivers et la quand tu joues, le jeu est rendu en 2K. Le reseau neuronal sur-entrainé reconnait certains patterns dans l'image en temps réel et fait l'upscaling (pour obtenir du 4K). Ce sont les fameux "tensors cores" qui font ca. Evidemment ce n'est pas parfait mais l'illusion est suffisamment bonne que pour être acceptable.
 
Le fait de créer du détail a partir de rien n'ai rien de magique : c'est quelque chose qu'on arrive a faire depuis quelque années maintenant.
 
Voici un example ou le deep learning est utilisé pour remplir des trous fait dans une image volontairement :
 
https://i.imgur.com/UIaXLzg.png
 
Je tiens a préciser que le réseau neuronal n'a JAMAIS vu les photos de gauche (les originales, sans les trous) lors de l'entrainement.
Juste des milliers d'autres photos du même style.
 
Ici c'est la même chose, mais avec des scènes typiques du jeu.
Evidemment, NVidia ne dévoile pas l'algorithme exact (vu le potentiel du truc et la concurrence).
 
Si tu veux voir ce que ca donne en vrai va voir ici (4K réel vs 4K DLSS) :  
https://www.tomshardware.com/review [...] ,5870.html


 
Super intéressant et très bien expliqué, merci Tigrou  :jap:  

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  362  363  364  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)