Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2915 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  123  124  125  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10419755
Activation
21:9 kill Surround Gaming
Posté le 31-08-2018 à 19:06:32  profilanswer
 

Reprise du message précédent :

samurai80 a écrit :

entre le GP104 et le TU104 pourrait etre (529mm2/314mm2)^2 = 1.68^2 = 2.84. Donc le cout du GPU d'une 2080 serait pres de 3x superieur a celui du GPU d'une 1080.


 
j'ai pas compris pourquoi tu met une difference de surface au carré   :??:  
 
si c'est bien les bonne surface le nouveau est 1.68 plus grand ... pourquoi tu en fait le carré après ?
 
après c'est la question de combien tu peux en mettre sur un même wafer (et le diamètre du wafer) sachant que y aura de la perte à la périphérique du wafer comme à chaque fois (plus chaque puce sera grosse moins t en mettra par wafer
 
si tu prend la formule ici
https://en.wikipedia.org/wiki/Wafer_(electronics)
 
et admettons un wafer de 500mm de diamètre
 
en gros ça ferait 371 (moins que ça en réel je prend la formule la plus simpliste pour se faire une idée) versus 625 (idem)
 
bref pour un même wafer de 500mm à même finesse de gravure on retombe sur 1.68 (normal j'ai pas utilisé la formule la plus pointu)
 
donc pourquoi le gpu couterait 2.84 plus cher ... ça voudrait dire utiliser un peu moins de 3 wafer pour avoir autant de gpu  
en l occurence en utiliser moins de 2 suffit
 
et puis voilà que c'est le gpu seul qui fait le prix
je doute sérieux que le gp104 coutait 200$ pour justifier que là tu trouve des 1070ti à 450 balles (ça reste un gp104 fusse t il castré volontairement et non car defaut partiel)
même à 200$ le gp104 ça ferait la gtx2080 (gt104) à 650 balles
 
hors Mr nvidia il veut te l'enfiler à 850 balles  :o
 
la taille du die, elle a bon dos dans le prix des turing des gtx2070/2080/2080FE

Message cité 1 fois
Message édité par Activation le 31-08-2018 à 19:13:18
mood
Publicité
Posté le 31-08-2018 à 19:06:32  profilanswer
 

n°10419762
morgoth32
Posté le 31-08-2018 à 19:12:32  profilanswer
 

J'ai peu de connaissance sur ce sujet mais il n'y pas des rebuts sur un wafer ?
Du style sur 10 produits 8 sont conformes ?
 
Du coup plus c'est complexe plus les rebuts augmentent ?

Message cité 1 fois
Message édité par morgoth32 le 31-08-2018 à 19:13:54
n°10419765
Activation
21:9 kill Surround Gaming
Posté le 31-08-2018 à 19:16:22  profilanswer
 

morgoth32 a écrit :

J'ai peu de connaissance sur ce sujet mais il n'y pas des rebuts sur un wafer ?
Du style sur 10 produits 8 sont conformes ?


 
c'est pour ça que j'ai dit que calcul grossier et que je part sur l idée de "allé" ça leur coute 2x plus cher
et en plus j'en rajoute avec un prix de gpu totalement absurde, un gp104 a jamais été facturé 200$ pour faire vos gtx1070 et gtx1080 meme achat day one de l epoque
 
et j'évite de parler du "gt102" plus démesuré en taille en comparaison
 
bref huang se torche le cul avec des billets de 100$ quand il va au chiotte sur les 2070/2080/2080FE
 
il le dit lui même "ça fait 10ans qu on taff dessus"
 t'inquiète la R&D de ce rtx, tu l a déjà payé sur tes 4 gen précédente de nvidia
les ingénieur ils ont pas jeuné 10ans pour enfin toucher leur salaire le 20 septembre 2018 (putain 10ans sans bouffer, 10ans sans chier, premier burger bouffé en 10ans, quand ils vont aller chiotte l'estomac et les intestin vont partir avec dans la cuvettes :o  )
 
n fait si tu regarde combien il te demande en ce moment pour la gamme rtx, bordel c'est de la sacré merde rtx comparé à ce qu'ils ont prévu pour dans 10ans, car autant de pognon demandé sur les cartes du 20 septembre pour payer la R&D du truc de dans 10ans
 
peuvent pas nous faire 1 année sabatique sans R&D pour juste durant que 1an les carte baisse de 300 boules :o après cette année il remonte le prix de 600 stou :o (ils auront qu'à penser 2 fois plus l'année suivante, ou overclocker leur cerveau avec du sucre :o et des poche de glace sur la tête, on se cotise, on offre une machine à glaçon pour le service R&D de nvidia :o )
 
je te raconte pas le jour ou y aura plus qu'un seul fabricant d ecran au lieu de 3 au monde
tu voudra une TV faudra choisir entre l achat d'une TV et l'achat d'une maison (déjà que certaines TV coute le prix d'une voiture :o ) logique dollar nvidien

Message cité 1 fois
Message édité par Activation le 31-08-2018 à 19:38:17
n°10419771
drey19
Posté le 31-08-2018 à 19:42:45  profilanswer
 

Activation a écrit :


il le dit lui même "ça fait 10ans qu on taff dessus"
 t'inquiète la R&D de ce rtx, tu l a déjà payé sur tes 4 gen précédente de nvidia
les ingénieur ils ont pas jeuné 10ans pour enfin toucher leur salaire le 20 septembre 2018 (putain 10ans sans bouffer, 10ans sans chier, premier burger bouffé en 10ans, quand ils vont aller chiotte l'estomac et les intestin vont partir avec dans la cuvettes :o  )
 


 
Moi qui croyait qu'on payait la R&D du produit actuel sur les 4 gen suivantes, en voila un scoop !

n°10419787
mum1989
Posté le 31-08-2018 à 20:13:33  profilanswer
 

obduction a écrit :


Ils annoncent 40-50 fps en 1440p donc c'est déjà fluide en RTx dans cette réso. Comme epic prévoit au moins +50% de perf avec l'optimisation, tu auras sans doute même 60 fps à cette réso à la sortie finale.
 
en 4k t'auras pas 60fps mais c'est normal car sans rtx, tu auras pas forcément 60fps toujours et même quand tu as 60 fps, la carte n'aura pas non plus une marge énorme en 4k au dessus de 60 fps.


Non, mais le problème c'est que la carte coute un SMIC, avec une telle carte on a pas envie de jouer sur un écran 1080p ...  [:la chancla:1]

n°10419795
CardinalFu​neste
Posté le 31-08-2018 à 20:29:22  profilanswer
 

1300€ ça fais cher le truc qui finira presse papier dans 2ans :/
Perso j'ai jamais mis plus de 300€ dans une carte graphique, ce qui est déjà colossale comme somme.  A ce train la on aura le ticket d'entré avec les XX50 a partir de 400€


Message édité par CardinalFuneste le 31-08-2018 à 20:30:11
n°10419797
roukinette
Couple de geeks en RP
Posté le 31-08-2018 à 20:33:18  profilanswer
 

Neji Hyuga a écrit :

+1, il ne faut pas tout mélanger : ce n'est pas parce que les pratiques commerciales de la boîte sont très discutables qu'il faut foutre le ray tracing à la poubelle.
 
Il faut éviter de jeter le bébé avec l'eau du bain, quoi.


tout ça c'est encore une histoire d'immersion en faite  [:atari]


---------------
~ Nos achats / recherches ~ || .
n°10419810
Ouiche
Posté le 31-08-2018 à 21:16:16  profilanswer
 

mum1989 a écrit :


Non, mais le problème c'est que la carte coute un SMIC, avec une telle carte on a pas envie de jouer sur un écran 1080p ...  [:la chancla:1]


 
Oui, les joueurs prêts à se payer une carte comme ça ont déjà un écran 3440x1440 ou 3840x2160 (probablement capables de sortir plus de 60fps d'ailleurs)... ou un 1080p 240hz, mais dans ce cas ils veulent jouer à 240fps, pas 60  :whistle:

n°10419811
SuperSic
Posté le 31-08-2018 à 21:18:00  profilanswer
 

[:cerveau drapal]


---------------
"Les soldats vivent. Et se demandent pourquoi." Toubib (La Compagnie noire) | [TU] Pronomoo
n°10419818
drey19
Posté le 31-08-2018 à 21:33:24  profilanswer
 

Ouiche a écrit :


 
Oui, les joueurs prêts à se payer une carte comme ça ont déjà un écran 3440x1440 ou 3840x2160 (probablement capables de sortir plus de 60fps d'ailleurs)... ou un 1080p 240hz, mais dans ce cas ils veulent jouer à 240fps, pas 60  :whistle:


 
Et la VR

mood
Publicité
Posté le 31-08-2018 à 21:33:24  profilanswer
 

n°10419822
Ze m't
Posté le 31-08-2018 à 21:38:18  profilanswer
 

Perso c'est surtout pour la VR que je franchi le pas.
 
Sur mon 1440p 144Hz la 1080ti est suffisamment performante….on va dire qu'avec la 2080ti, je peux espérer être tranquille un bout de temps (sauf RayTrace suivant comment ça sera implanté).


---------------
 Ma gallerie Flickr
n°10419829
reflex69
Posté le 31-08-2018 à 21:48:47  profilanswer
 

Pour info, je viens juste de faire un test avec ma 1080ti Trio qui dépasse largement les 11K :
 
https://www.3dmark.com/3dm/28335094?
 
https://image.noelshack.com/fichiers/2018/35/5/1535744520-up.png
 
 
Je l'attends le pied ferme cette tapette de 2080  :kaola:

n°10419842
obduction
Posté le 31-08-2018 à 22:23:22  profilanswer
 

mum1989 a écrit :


Non, mais le problème c'est que la carte coute un SMIC, avec une telle carte on a pas envie de jouer sur un écran 1080p ...  [:la chancla:1]


Ce n'est pas forcément un problème car RTx justifiera de jouer en 1080p. Quand tu as la meilleure des techno, tu peux sacrifier la réso.
Si t'es pas prêt, et bien joue sans RTX, personne ne t'obligera à l'utiliser.

n°10419853
qwrty
BFG!
Posté le 31-08-2018 à 22:55:43  profilanswer
 

obduction a écrit :


Ils annoncent 40-50 fps en 1440p donc c'est déjà fluide en RTx dans cette réso. Comme epic prévoit au moins +50% de perf avec l'optimisation, tu auras sans doute même 60 fps à cette réso à la sortie finale.
 
en 4k t'auras pas 60fps mais c'est normal car sans rtx, tu auras pas forcément 60fps toujours et même quand tu as 60 fps, la carte n'aura pas non plus une marge énorme en 4k au dessus de 60 fps.


 
 Ah c’est fluide 50fps pour toi ?
 Soit t’es en 60hz soit y’a un soucis.  :lol:
 
Donc la nouvelle norme c’est le RTX 1080p 60fps ?
 
C’est triste quand même....
 
Ce qu’il ne fait pas lire. Le RTX justifiera le fait de jouer en 1080P  :lol:
 
Fais un sondage:
-4K RTX off rockstable @144fps
-1080p RTX on @60fps
 
Choix est vite fais perso  :D

Message cité 1 fois
Message édité par qwrty le 31-08-2018 à 23:01:45

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°10419864
Activation
21:9 kill Surround Gaming
Posté le 31-08-2018 à 23:26:11  profilanswer
 

Surtout que si c est pour comme la presentation de BF5
Regarde l explo degueu (limite texture 515x512) et le jet de napalm degueu ou on penserait etre sur un jeu d il y a 10ans,  
 
Dev : avec mon rtx supra cool ça se reflete dans la carosserie
 
Joueur :  Oueh mais ton feu il est degueu  :o
Dev :  Regarde la carrosserie putain  :o
Joueur :  Bah bon niveau gameplay, c est ton feu degueu qui va me tuer pas la carrosserie  :o
Dev :  note remplacer feu et voiture par salambre
Joueur  :  cool un nouveau dragon age  :)
 
Rtx passera  :o faut juste que les devs arrive à avoir l idée  :o


Message édité par Activation le 31-08-2018 à 23:28:09
n°10419866
The_Balrog
Et là, c'est le drame...
Posté le 31-08-2018 à 23:33:08  profilanswer
 

RTX, sur le principe, c'est bien joli, MAIS: euh, y en a pas un peu marre des promesses non tenues?  Du genre DX12/Vulkan? La puissance brute, on l'a deja, mais une partie part aux fraises, youpi banane :o
 Donc, wé, le ray tracing, cool. m'enfin, y a 1 mois, tout le monde s'en tamponnait hein (hop création de "besoin" check ).  
Avant de balancer/parler de RT, ce serait pê TRES bien de voir les softs utiliser plein pot (hum, quoi? juste, deja, correctement?) ce qui est dispo, non?
Plusieurs années qu'on nous survends le 4K, plus gros gap depuis quoi? cga vers vga? et pourtant... "la 980ti est LA carte 4k...puis la 1080 est LA carte 4k, puis la 1080ti etc..." Sauf que, bah non. 800 boules et compromis :/
 
  Deja viser à exploiter ce qui était promis depuis plusieurs années serait bien, avant de se palucher sur le RT, non?
"un peu" marre de payer du transistor qui roupille, perso...

n°10419868
Monsieur L​ocke
Posté le 31-08-2018 à 23:34:36  profilanswer
 

On a des infos sur la partie encodage vidéo au fait ?
J'ai rien vu passer à ce sujet, pour streamer quoi.


---------------
TU Transport Fever
n°10419871
dave76
A momentary lapse of reason
Posté le 31-08-2018 à 23:43:13  profilanswer
 

mum1989 a écrit :


Non, mais le problème c'est que la carte coute un SMIC, avec une telle carte on a pas envie de jouer sur un écran 1080p ...  [:la chancla:1]


 
Perso ça me dérange pas de payer 1200 si la carte offre 60% de perf en plus que ma 1080Ti ( sans ray tacing ) après si les jeux tournent à 60 ips en 1440p ( avec RT ) c'est déjà un sacré bond en avant, reste le SLI avec le Nvlink pour les plus fortunés pour du 60 ips +++  en 1440p voire du 60 ips constant en UHD


---------------
Celui qui donne ne doit jamais s'en souvenir, celui qui reçoit ne doit jamais l'oublier!
n°10419877
Activation
21:9 kill Surround Gaming
Posté le 01-09-2018 à 00:00:39  profilanswer
 

Monsieur Locke a écrit :

On a des infos sur la partie encodage vidéo au fait ?
J'ai rien vu passer à ce sujet, pour streamer quoi.


 
pour décoder pincette ça a du grimper à du 8K hevc (1 port hdmi 2.1, et des TV 8K qui se pointe) et faudra décoder du super hivision pour certains stream
 
pour l encodage me semble que c est resté à 4K ça devrait être dorénavant en hdr dolby vision
vu le firmware qui a upgradé le display port sur les pascal

Message cité 1 fois
Message édité par Activation le 01-09-2018 à 00:06:46
n°10419879
Activation
21:9 kill Surround Gaming
Posté le 01-09-2018 à 00:02:06  profilanswer
 

dave76 a écrit :


 
Perso ça me dérange pas de payer 1200 si la carte offre 60% de perf en plus que ma 1080Ti ( sans ray tacing ) après si les jeux tournent à 60 ips en 1440p ( avec RT ) c'est déjà un sacré bond en avant, reste le SLI avec le Nvlink pour les plus fortunés pour du 60 ips +++  en 1440p voire du 60 ips constant en UHD


 
ça sera pas du sli
céporboostu rtx , sinon à l'E3 pourront pas montrer de jeu à downgrade :o
 
nan en fait y a un autre plan diabolique mouaaaaah ah ah... ça sera la surpriiiise  [:bob gray]  
 
toute façon t es pressé de payer un pont nvlink 400 boules :o

Message cité 1 fois
Message édité par Activation le 01-09-2018 à 00:06:29
n°10419887
scrumpz
Posté le 01-09-2018 à 00:52:43  profilanswer
 

Activation a écrit :

 

ça sera pas du sli
céporboostu rtx , sinon à l'E3 pourront pas montrer de jeu à downgrade :o

 

nan en fait y a un autre plan diabolique mouaaaaah ah ah... ça sera la surpriiiise [:bob gray]

 

toute façon t es pressé de payer un pont nvlink 400 boules :o

 

Le pont en cuivre imprimé à 400€.

 

Cette enculade  :O


---------------
-> A vendre matos Hardaware <-
n°10419892
Ouiche
Posté le 01-09-2018 à 01:27:04  profilanswer
 

obduction a écrit :


Ce n'est pas forcément un problème car RTx justifiera de jouer en 1080p. Quand tu as la meilleure des techno, tu peux sacrifier la réso.
Si t'es pas prêt, et bien joue sans RTX, personne ne t'obligera à l'utiliser.


 
Ca va à l'encontre de l'évolution du matériel et des attentes des joueurs de ces dernières années. Les joueurs avec un écran 1080p c'est soit par manque d'argent, soit pour l'esport (et l'esport favorise massivement les fps et la visibilité par rapport à la qualité graphique). Le reste c'est majoritairement du 1440p ou 4k.
 
Les RTX sortent et ça devient normal de downscale du 1080p sur un 1440p ou un 4k? Il est prévu de sortir des 24' 1080p 165hz IPS, gsync et HDR?
 
-le downscale est dégueulasse sur beaucoup d'écrans, ça fait des années qu'on râle sur l'aliasing d'un coté, le flou du FXAA ou TAA ou les limitations du MSAA de l'autre.
-les acheteurs potentiels de RTX ont déjà des écrans haut de gamme
-les utilisateurs d'écran 1080p n'ont majoritairement pas les thunes de se payer des cartes à 800-1200€
 
Ou est la logique? Si le DLSS est disponible pour tous les jeux avec RT et que ça fonctionne comme annoncé, pourquoi pas... sinon c'est un retour en arrière.
 

obduction a écrit :


Ils annoncent 40-50 fps en 1440p donc c'est déjà fluide en RTx dans cette réso.


 
C'est pas fluide pour un fps ou tout jeu rapide :/

Message cité 2 fois
Message édité par Ouiche le 01-09-2018 à 01:38:28
n°10419897
le_merou
Posté le 01-09-2018 à 01:51:13  profilanswer
 

C'est pas du tout une logique, c'est juste que la techno actuelle permet de soit continuer à jouer en rastérisation très très confortablement, soit commencer à jouer en RT moyennant pas mal de concessions car c'est beaucoup, beaucoup (beaucoup) plus gourmand.
Après c'est un choix du joueur. C'est comme quand il faut choisir entre jouer en 4K et jouer en 144Hz.
Là c'est encore une techno ultra gourmande de plus. Mais c'est vrai que c'est joli.
Donc selon ce qu'on veut, 40fps 1080p en RT ou 4K 120Hz sans RT, au moins on a la possibilité de le faire ou non et je trouve ça intéressant (d'ailleurs au choix des devs ou réglage possible chez le joueur ? J'ai pas suivi)
 
Les screens sont souvent exagérés, volontairement mal choisis, par Nvidia pour vendre le RT,et dans l'autre sens par les logiciels de rendu temps réel pour vendre la rastérisation, c'est le boxon.
De mon expérience la différence en vrai donne plutôt ça :
http://www.arch3designer.pl/images/tm%20render%204k.jpg
Sauf qu'on n'aura pas en jeu le moteur de rendu qu'on voit ici, vu le temps de rendu c'est pas pour demain, on va avoir quelquechose de plus cheap. :sweat:
Mais globalement je pense qu'on aura tout de même quelquechose de plus visible qu'une différence entre deux types d'AA.

Message cité 1 fois
Message édité par le_merou le 01-09-2018 à 02:07:40

---------------
TR1950X | X399M Taichi | 32Go TridentZRGBX 3200Mhz | RTX2060 KO ultra | SSD Crucial P5 + 470QVO | Bitfenix Prodigy μATX
n°10419899
Activation
21:9 kill Surround Gaming
Posté le 01-09-2018 à 02:00:24  profilanswer
 

le_merou a écrit :


http://www.arch3designer.pl/images [...] r%204k.jpg
Sauf qu'on n'aura pas en jeu le moteur de rendu qu'on voit ici, vu le temps de rendu c'est pas pour demain, on va avoir quelquechose de plus cheap. :sweat:


 
 
kicéle sapiopio qui allumé les 2 ampoules le temps que le rendu RT soit finit :o

n°10419901
Ciyanure
\&#034;L&#034;\
Posté le 01-09-2018 à 02:02:57  profilanswer
 

Ouiche a écrit :


 
Ca va à l'encontre de l'évolution du matériel et des attentes des joueurs de ces dernières années. Les joueurs avec un écran 1080p c'est soit par manque d'argent, soit pour l'esport (et l'esport favorise massivement les fps et la visibilité par rapport à la qualité graphique). Le reste c'est majoritairement du 1440p ou 4k.


 
Oui mais non.  Déjà il peut y avoir pleins de raisons de rester en 1080p, mais on s'en fout, le plus important ici c'est les stats steam qui indiquent la TRES nette proportion de 1080p.
 
Qd Nvidia regarde le marché c'est cohérent. Pour moi le principal contre argument ce serait : si t'as les moyens de payer autant, t'as svt déjà l'écran qui va avec.  
Ceci dit, je suis prêt a parier qu'nVidia mise avant tout sur l'image de "marque", "d'innovation" au sens marketing du terme. Et se fout un peu de la rentabilité pure de cette gen. Comme il a été dit le R&D est payé depuis lgt.
 
Edit : et du coup préfère miser sur l'avenir de certaines technos a long terme

Message cité 1 fois
Message édité par Ciyanure le 01-09-2018 à 02:04:35

---------------
"Un jour j'irai vivre en Théorie, car en Théorie tout se passe bien."
n°10419902
le_merou
Posté le 01-09-2018 à 02:11:11  profilanswer
 

Activation a écrit :


 
 
kicéle sapiopio qui allumé les 2 ampoules le temps que le rendu RT soit finit :o


Ah oui pas très malin surtout sur un truc bien grillé :lol: Je l'avais même pas spotté pourtant, j'ai pu les yeux en face des trous.

Message cité 1 fois
Message édité par le_merou le 01-09-2018 à 02:11:40

---------------
TR1950X | X399M Taichi | 32Go TridentZRGBX 3200Mhz | RTX2060 KO ultra | SSD Crucial P5 + 470QVO | Bitfenix Prodigy μATX
n°10419903
- gab
Posté le 01-09-2018 à 02:14:33  profilanswer
 

Je débarque peut-être, mais en cherchant "ray tracing" dans les news d'hfr, je suis retombé sur la présentation du moteur RT intégré aux PowerVR par Imagination, avec une façon de faire qui rappelle celle de nvidia :

 

GDC: GPU PowerVR Wizard avec ray tracing accéléré

Citation :

Imagination Technologies profite de la Game Developer Conference de San Francisco pour faire une annonce qui pourra difficilement passer inaperçue dans le petit monde du rendu 3D temps-réel : la possibilité d'intégrer un module d'accélération matérielle du ray tracing dans ses GPU PowerVR mobiles !

 

[...] Mettre en place un éclairage dynamique à base de lightmaps n'est pas simple, il est d'ailleurs en général statique, puisque cela revient à devoir les mettre à jour pour chaque image. Le ray tracing permet d'accélérer cette tâche et de la rendre réaliste pour du rendu en temps réel.

 

Un autre cas est un rendu hybride dans lequel le ray tracing n'est utilisé que pour certaines surfaces qui présentent de la transparence ou des réflexions. De quoi profiter des performances du rendu classique et de la finesse du ray tracing uniquement là où c'est jugé utile par les développeurs. De quoi également profiter d'optimisations énergétique en utilisant le ray tracing là où le rendu classique est peu efficace et demande des algorithmes lourds pour contourner ses limitations.

 

CES: Imagination: ray tracing en démonstration
GDC: Imagination: encore plus de ray tracing

Message cité 1 fois
Message édité par - gab le 01-09-2018 à 02:15:13

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°10419905
le_merou
Posté le 01-09-2018 à 02:24:25  profilanswer
 

- gab a écrit :

Je débarque peut-être, mais en cherchant "ray tracing" dans les news d'hfr, je suis retombé sur la présentation du moteur RT intégré aux PowerVR par Imagination, avec une façon de faire qui rappelle celle de nvidia :
 
GDC: GPU PowerVR Wizard avec ray tracing accéléré

Citation :

Imagination Technologies profite de la Game Developer Conference de San Francisco pour faire une annonce qui pourra difficilement passer inaperçue dans le petit monde du rendu 3D temps-réel : la possibilité d'intégrer un module d'accélération matérielle du ray tracing dans ses GPU PowerVR mobiles !
 
[...] Mettre en place un éclairage dynamique à base de lightmaps n'est pas simple, il est d'ailleurs en général statique, puisque cela revient à devoir les mettre à jour pour chaque image. Le ray tracing permet d'accélérer cette tâche et de la rendre réaliste pour du rendu en temps réel.
 
Un autre cas est un rendu hybride dans lequel le ray tracing n'est utilisé que pour certaines surfaces qui présentent de la transparence ou des réflexions. De quoi profiter des performances du rendu classique et de la finesse du ray tracing uniquement là où c'est jugé utile par les développeurs. De quoi également profiter d'optimisations énergétique en utilisant le ray tracing là où le rendu classique est peu efficace et demande des algorithmes lourds pour contourner ses limitations.


 
CES: Imagination: ray tracing en démonstration
GDC: Imagination: encore plus de ray tracing


Cet exemple avec le restau :lol: S'ils montrent la rasterisation sur source engine forcément c'est convaicant leur démo :D


Message édité par le_merou le 01-09-2018 à 02:24:52

---------------
TR1950X | X399M Taichi | 32Go TridentZRGBX 3200Mhz | RTX2060 KO ultra | SSD Crucial P5 + 470QVO | Bitfenix Prodigy μATX
n°10419910
dricks2222
Posté le 01-09-2018 à 02:52:32  profilanswer
 

obduction a écrit :


Ils annoncent 40-50 fps en 1440p donc c'est déjà fluide en RTx dans cette réso


 
Fluide 40 à 50fps ?
On n'a vraiment pas les mêmes valeurs.
 
Il est évident que le RTX sera rarement activé sur cette génération de carte (trop de drop de framerate)
Pour rappel, le 3DVision pétait les perfs à sa sortie.
Le PhysX pétait les perfs à sa sortie.
La tesselation pétait les perfs à sa sortie.
 
Et demain le RTX... pétera les perfs à son tour.
 
D'autre part, les ressources graphiques n'étant pas illimitées, il peut y avoir des compromis effectués lors de l'utilisation du RTX :
Certes, on active le raytracing, mais en contrepartie les modèles 3D sont moins détaillés pour limiter l'impact sur le framerate, les shaders moins complexes, la tesselation plus faible, etc.
D'ailleurs lorsque Dice parle d'optimisation, c'est très certainement de ce genre de choses dont ils parlent.
Bref, il y fort à parier que l'activation du RTX se fera au détriment du reste.

n°10419911
imarune
Posté le 01-09-2018 à 03:17:41  profilanswer
 

@dricks2222
Tu n'as sans doute pas lu les 30 ou 40 pages précedentes (avec un filtre adéquat *). Il n'y aura pas dans un premier temps de rendu 100% RT, mais un rendu hybride; 80% rasterisation, 20% RT, par exemple. Et on peut parier que les pilotes Nvidia vont "brider" le RT plutôt que la rasterisation, histoire que les perfs des nouvelles cartes ne soient pas trop ridicules par rapport à celles des Pascal.
 
(*) filtre adéquat = black-list d'une demi-douzaine de pseudos (au hasard ceux qui n'ont rien de neuf à dire, mais postent toutes les 2 heures)


Message édité par imarune le 01-09-2018 à 03:25:09
n°10419912
Triple-Nax
Demi-Core Atom + HT
Posté le 01-09-2018 à 03:18:15  profilanswer
 

Finalement deux RTX 2070 auront du sens même sans SLI, une carte pour la 3D et l'autre dédié au RTX comme à la belle époque pour le PhysX !


---------------
X99 Broadwell-E Addicts/Collectionneur de Rampage V Edition 10
n°10419915
TheRealBix
Posté le 01-09-2018 à 03:34:57  profilanswer
 

Triple-Nax a écrit :

Finalement deux RTX 2070 auront du sens même sans SLI, une carte pour la 3D et l'autre dédié au RTX comme à la belle époque pour le PhysX !


 
PhysX n'était pas calculé sur des unités spécialisées du GPU.. Contrairement aux RT (qui apparemment passent aussi par le CPU vu ce qui a été link il y a quelques pages)

n°10419917
Triple-Nax
Demi-Core Atom + HT
Posté le 01-09-2018 à 03:52:21  profilanswer
 

Cela n’empêche pas qu'on devrait pouvoir dédier une carte au rendu RT sauf si nvidia préfère brider pour forcer l'achat des 2080 et de leur nouveau pont SLI ...


---------------
X99 Broadwell-E Addicts/Collectionneur de Rampage V Edition 10
n°10419922
narutonic
Posté le 01-09-2018 à 04:59:29  profilanswer
 

le_merou a écrit :


Ah oui pas très malin surtout sur un truc bien grillé :lol: Je l'avais même pas spotté pourtant, j'ai pu les yeux en face des trous.


Il n y pas que ces deux ampoules qui changent le FOV semble plus grand sur la première image, et on a des reflets d'ampoules qui ne sont pas allumés :heink:
https://image.noelshack.com/fichiers/2018/35/6/1535771189-tm-render-4k.jpg

Message cité 1 fois
Message édité par narutonic le 01-09-2018 à 05:07:36
n°10419926
Profil sup​primé
Posté le 01-09-2018 à 05:50:47  answer
 

qwrty a écrit :


 
 Ah c’est fluide 50fps pour toi ?
 Soit t’es en 60hz soit y’a un soucis.  :lol:
 
Donc la nouvelle norme c’est le RTX 1080p 60fps ?
 
C’est triste quand même....
 
Ce qu’il ne fait pas lire. Le RTX justifiera le fait de jouer en 1080P  :lol:
 
Fais un sondage:
-4K RTX off rockstable @144fps
-1080p RTX on @60fps
 
Choix est vite fais perso  :D


en 60 htz , surement pas puisque t'auras du stutter ou du tearing  à moins d'avoir un écran à fréquence variable  
à 100 htz par contre 50 fps , c'est fluide oui  [:skeye]
 
après on est d'accord , sur un shooter qui plus est rapide , c'est pas terrible  
mais sur pas mal d'autre type de jeux , ça le fait
 
 
d'ailleurs vous me faites bien marrer avec vos 144 fps , car y'a quand même un paquet de jeux ou tu ne pourras jamais les atteindre même avec le cpu le plus perf du marché  
 
faut arrêter de dire n'importe quoi  :sarcastic:  
 

n°10419935
Ouiche
Posté le 01-09-2018 à 07:21:35  profilanswer
 

Ciyanure a écrit :


 
Oui mais non.  Déjà il peut y avoir pleins de raisons de rester en 1080p, mais on s'en fout, le plus important ici c'est les stats steam qui indiquent la TRES nette proportion de 1080p.
 
Qd Nvidia regarde le marché c'est cohérent. Pour moi le principal contre argument ce serait : si t'as les moyens de payer autant, t'as svt déjà l'écran qui va avec.  
Ceci dit, je suis prêt a parier qu'nVidia mise avant tout sur l'image de "marque", "d'innovation" au sens marketing du terme. Et se fout un peu de la rentabilité pure de cette gen. Comme il a été dit le R&D est payé depuis lgt.
 
Edit : et du coup préfère miser sur l'avenir de certaines technos a long terme


 
Je ne dit pas le contraire, mais j'ai quand même du mal à croire qu'nvidia vise le marché 1080p avec une carte coûtant 1100€.
 
La grande majorité des cartes d'après steam, c'est ~65% moins de 200€, ~15% de mobile, 12% de 1060 et ~7.5% de 1070/1070ti/1080/1080ti. Or, 63% des joueurs sont en 1080p et 6% en 1440p ou plus élevé.  
 
Vendre une nouvelle carte au joueur 1080p classique et volontairement hors budget mais sans exagérer (mettons 300-400€) grâce à une nouvelle techno, je comprendrais... mais la carte coûte le prix d'un pc 1080p complet.
 
Il y a de fortes chances que les 1070ti/1080/1080ti jouent en 1440p ou plus, parce que les joueurs s'achetant ces cartes prennent l'écran qui va avec. Et du coup, sauf DLSS très performant, un 1080p@60 risquerait d'être rédhibitoire pour ces ~6%.
 
Ensuite je ne critique pas les cartes (difficile, nous n'avons rien de bien concret) et je pense que cette nouvelle techo est (ou sera) super - ça me fait quand même hausser un sourcil quand je lis que le raytracing sera tellement bien que "les joueurs" vont accepter de revenir en 1080p@60.


Message édité par Ouiche le 01-09-2018 à 07:23:31
n°10419936
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 01-09-2018 à 07:43:24  profilanswer
 

après 1080p ou pas , ils ont sortis le DSR pour que justement ceux en 1080p puisse tâter le 4k , moi je m'en sers pas mal dans mes simulations , la je suis passé sur du 4k sur le simu donc j'ai retesté le DSR quand même  .... Bah le 8k c'est mort , la ti rampe a 35/40fps


---------------
FeedBack
n°10419953
samurai80
Posté le 01-09-2018 à 09:29:43  profilanswer
 

Activation a écrit :

 

j'ai pas compris pourquoi tu met une difference de surface au carré   :??:

 

si c'est bien les bonne surface le nouveau est 1.68 plus grand ... pourquoi tu en fait le carré après ?

 

après c'est la question de combien tu peux en mettre sur un même wafer (et le diamètre du wafer) sachant que y aura de la perte à la périphérique du wafer comme à chaque fois (plus chaque puce sera grosse moins t en mettra par wafer

 

si tu prend la formule ici
https://en.wikipedia.org/wiki/Wafer_(electronics)

 

et admettons un wafer de 500mm de diamètre

 

en gros ça ferait 371 (moins que ça en réel je prend la formule la plus simpliste pour se faire une idée) versus 625 (idem)

 

bref pour un même wafer de 500mm à même finesse de gravure on retombe sur 1.68 (normal j'ai pas utilisé la formule la plus pointu)

 

donc pourquoi le gpu couterait 2.84 plus cher ... ça voudrait dire utiliser un peu moins de 3 wafer pour avoir autant de gpu
en l occurence en utiliser moins de 2 suffit

 

et puis voilà que c'est le gpu seul qui fait le prix
je doute sérieux que le gp104 coutait 200$ pour justifier que là tu trouve des 1070ti à 450 balles (ça reste un gp104 fusse t il castré volontairement et non car defaut partiel)
même à 200$ le gp104 ça ferait la gtx2080 (gt104) à 650 balles

 

hors Mr nvidia il veut te l'enfiler à 850 balles  :o


Alors, je bosse pas pour un fondeur mais je suis quand meme dev d'ASIC donc j'ai "un peu" d'xp la dedans, et c'est une formule totalement empirique (c'est un collegue qui l'utilisait mais ca marche pas trop mal). D'ou le fait que je precise que c'est tres grossier. Ce qui est en tous cas sur c'est que le cout n'est absolument pas lineaire en fonction de la surface (ca par contre c'est bien connu). La raison pour le cout superieur est le fait que les yields (taux de puces fonctionnelles) decroissent en fonction de la surface de la puce. D'ou mon equation. Si on admet qu'un GP104 revenait a 200$ pour sa version 1070 (dont le yield est > a celui du GP104 de la 1080 puisque certaines unites sont desactivees), ca donne 568$ juste pour le GPU de la 2070. Si celui de la 1080 revient a 250$ ca donne 710$ pour celui de la 2080. C'est pour donner un ordre de grandeur.

 

Accessoirement meme si ca change rien ici, les wafers modernes sont de 300mm.

Activation a écrit :

la taille du die, elle a bon dos dans le prix des turing des gtx2070/2080/2080FE

Ben comme tu peux le voir dans mon explication c'est pourtant bien la raison logique. Et je suis pas le seul a le dire, c'est ce que les analystes financiers semiconducteurs disaient aussi (ils ont un minimum de connaissances sur les couts de prod en general).

Message cité 1 fois
Message édité par samurai80 le 01-09-2018 à 09:41:05

---------------
https://stats.foldingathome.org/donor/64477055   https://boincstats.com/signature/-1/user/92195/sig.png
n°10419956
Monsieur L​ocke
Posté le 01-09-2018 à 09:35:33  profilanswer
 

Activation a écrit :


 
pour décoder pincette ça a du grimper à du 8K hevc (1 port hdmi 2.1, et des TV 8K qui se pointe) et faudra décoder du super hivision pour certains stream
 
pour l encodage me semble que c est resté à 4K ça devrait être dorénavant en hdr dolby vision
vu le firmware qui a upgradé le display port sur les pascal


Oulà, j'ai pas tout compris :D
Pour faire du stream en 720p actuellement sur ma 970 je décode avec NVENC, la partie dédié de ma CG s'occupe de l'encodage, je voulais savoir savoir s'ils avaient changés quelque chose sur cette gen. Je suppose que oui, c'est bien une puce à part du chip qui s'en occupe on est d'accord ?


---------------
TU Transport Fever
n°10419958
Nono0000
Posté le 01-09-2018 à 09:41:11  profilanswer
 

samurai80 a écrit :

Alors, je bosse pas pour un fondeur mais je suis quand meme dev d'ASIC donc j'ai "un peu" d'xp la dedans, et c'est une formule totalement empirique (c'est un collegue qui l'utilisait mais ca marche pas trop mal). D'ou le fait que je precise que c'est tres grossier. Ce qui est en tous cas sur c'est que le cout n'est absolument pas lineaire en fonction de la surface (ca par contre c'est bien connu). La raison pour le cout superieur est le fait que les yields (taux de puces fonctionnelles) decroissent en fonction de la surface de la puce. D'ou mon equation. Si on admet qu'un GP104 revenait a 200$ pour sa version 1070 (dont le yield est > a celui du GP104 de la 1080 puisque certaines unites sont desactivees), ca donne 568$ juste pour le GPU de la 2070. Si celui de la 1080 revient a 250$ ca donne 710$ pour celui de la 2080. C'est pour donner un ordre de grandeur.

 

Accessoirement meme si ca change rien ici, les wafers modernes sont de 300mm.

 

PS: je veux pas faire le mec ni rien mais perso si je m'adresse a qqun qui bosse dans le domaine (depuis 15 ans), au minimum, je pars du principe que je connais moins bien que lui...

 

+1
Pour trainer dans ce domaine depuis pas mal d'années aussi, je rajouterai que le temps de test par puce est également plus important (c'est plus en relation avec le nombre de transistors que la surface).
Les temps de tests DFT représentent un coût non négligeable pour le produit final.

 

Le packaging aussi doit voir son prix s'envoler je suppose.
D'ailleurs dans le cas de NVIDIA, on sait qui fait l'assembly?

Message cité 1 fois
Message édité par Nono0000 le 01-09-2018 à 09:45:02

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10419962
samurai80
Posté le 01-09-2018 à 09:47:04  profilanswer
 

Nono0000 a écrit :


 
+1
Pour trainer dans ce domaine depuis pas mal d'années aussi, je rajouterai que le temps de test par puce est également plus important (c'est plus en relation avec le nombre de transistors que la surface).
Les temps de tests DFT représentent un coût non négligeable pour le produit final.
 
Le packaging aussi doit voir son prix s'envoler je suppose.
D'ailleurs dans le cas de NVIDIA, on sait qui fait l'assembly?

+1 pour les tests


---------------
https://stats.foldingathome.org/donor/64477055   https://boincstats.com/signature/-1/user/92195/sig.png
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  123  124  125  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)