Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2807 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  982  983  984  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°10411804
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-08-2018 à 09:57:44  profilanswer
 

Reprise du message précédent :

chrisleurn a écrit :


[:rofl][:rofl][:rofl][:rofl][:rofl][:rofl][:rofl]
 
J'imagine AMD faire de même, et ta réaction après ça
 
[:rofl][:rofl][:rofl][:rofl][:rofl][:rofl][:rofl]


Reste dans le mode du rêve alors...
AMD est tellement à la rue mon gars...
 

Nono0000 a écrit :

Je ne pense pas que cela intéresse uniquement les joueurs. Le marché pro est sans doute bien plus réceptif à ces changements.
Est-ce qu'ils auraient dû se cantonner aux Quadro? Je pense que oui. Cela aurait évité toutes ces polémiques... même si certains auraient également trouvé à redire.


 
La principale polémique pour moi c'est de ne pas communiquer sur les capacités réelles de ces cartes en rasterisation.
Le principe de précommande est absolument ridicule et j'espère que les gens ne vont pas tomber dans le panneau.
Mais le but est d'en offrir toujours plus et les quelques démos réalisées sont assez encourageantes et visuellement c'est pas mal du tout, la démo de BF5 est vraiment bien faite.
C'est peut-être un peu tôt mais NV va essayer d'imposer de nouveaux standards avec des avancées matérielles très importantes.
C'est un premier jet et on verra comment l'expérience se passe, mais si ça se passe bien, ils pourraient généraliser à des puces plus petites.

Message cité 1 fois
Message édité par Invite_Surprise le 22-08-2018 à 10:05:08
mood
Publicité
Posté le 22-08-2018 à 09:57:44  profilanswer
 

n°10411844
Nono0000
Posté le 22-08-2018 à 10:21:30  profilanswer
 

Les précommandes sans connaitre le produit final existent malheureusement dans de nombreux domaines (jeux vidéos, automobiles, téléphonie...).
Absolument rien n’oblige les gents à le faire et contrairement aux jeux vidéos par exemple, tu n'as pas pour le moment des bonus exclusifs réservés à la précommande (ce qui à mon sens est encore bien pire :/)


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10411848
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-08-2018 à 10:23:47  profilanswer
 

aliss a écrit :


 
Je trouve personnellement que les Tensor/RT Core prennent trop de place pour les quelques effets de lustrage autorisés avec Turing.


C’est combien alors ? :o

n°10411850
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-08-2018 à 10:25:06  profilanswer
 

Invite_Surprise a écrit :


L'approche est intéressante et plutôt ambitieuse, le but du jeu c'et d'avancer et d'enrichir toujours plus les possibilités graphiques pour nous les joueurs.


Je ne pense pas que ce soit vraiment le but de leur jeu ;)

n°10411853
chrisleurn
Hardcore Will Never Die !
Posté le 22-08-2018 à 10:28:09  profilanswer
 

Invite_Surprise a écrit :


Reste dans le mode du rêve alors...
AMD est tellement à la rue mon gars...
 


T'es pas partial sur AMD [:spamafote]
 
Reste que le MDG à 600€ genre 2070, c'est juste une honte, que ce soit AMD NVIDIA INTEL, concurrence ou non
 :sarcastic:

n°10411860
Nono0000
Posté le 22-08-2018 à 10:31:56  profilanswer
 

C'est de s'enrichir... tout court :)
Comme toute entreprise d'ailleurs.

 

Le budget R&D a fortement augmenté chez les verts depuis juillet 2017:
https://ycharts.com/companies/NVDA/r_and_d_expense

 

Sans doute le début des optimisations/debug des premières puces Turing et de la partie SW associée...

Message cité 1 fois
Message édité par Nono0000 le 22-08-2018 à 10:33:04

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10411861
Invite_Sur​prise
Racaille de Shanghaï
Posté le 22-08-2018 à 10:33:36  profilanswer
 

chrisleurn a écrit :


T'es pas partial sur AMD [:spamafote]
 
Reste que le MDG à 600€ genre 2070, c'est juste une honte, que ce soit AMD NVIDIA INTEL, concurrence ou non
 :sarcastic:


 
Moi je suis impartial sur AMD et NV.
Mais bon si toi ça te satisfait comme concurrence, tant mieux pour toi, mais faut pas s'étonner de voir des gens penser différemment, il suffit juste de voir les dernières sorties chez les rouges.
On a vu arriver les Titan, maintenant les RTX et personne ne leur met de bâton dans les roues.
 

Marc a écrit :


Je ne pense pas que ce soit vraiment le but de leur jeu ;)


 
La finalité c'est l'argent et la pérennité de leur business. Mais faut pas oublier que c'est les JV qui les ont rendu riches et c'est un domaine porteur qu'il ne vont pas abandonner comme ça.

Message cité 2 fois
Message édité par Invite_Surprise le 22-08-2018 à 10:37:49
n°10411866
Zeross
Posté le 22-08-2018 à 10:36:04  profilanswer
 


 
Merci beaucoup !
Je regrette de ne plus avoir (ou plutôt prendre) le temps d'écrire

n°10411881
chrisleurn
Hardcore Will Never Die !
Posté le 22-08-2018 à 10:48:29  profilanswer
 

Invite_Surprise a écrit :


 
Moi je suis impartial sur AMD et NV.
Mais bon si toi ça te satisfait comme concurrence, tant mieux pour toi, mais faut pas s'étonner de voir des gens penser différemment, il suffit juste de voir les dernières sorties chez les rouges.
On a vu arriver les Titan, maintenant les RTX et personne ne leur met de bâton dans les roues.
 


Non cela ne me satisfait pas comme concurrence, seulement avec leur moyen, je ne les blâmes pas :o  
Bref yakafokon comme on dit  :sarcastic:

n°10411893
Zeross
Posté le 22-08-2018 à 10:57:33  profilanswer
 

Nono0000 a écrit :

C'est de s'enrichir... tout court :)
Comme toute entreprise d'ailleurs.
 
Le budget R&D a fortement augmenté chez les verts depuis juillet 2017:
https://ycharts.com/companies/NVDA/r_and_d_expense
 
Sans doute le début des optimisations/debug des premières puces Turing et de la partie SW associée...


 
C'est difficile de trouver une corrélation entre la disponibilité d'une puce et le budget R&D qui lui a été associé, il y a un décalage de plus de 5 ans (Nvidia parle même de 10 ans pour Turing mais bon) entre le début de la conception et la commercialisation.
 
Après même si le budget R&D augmente (comme pour quasiment toute société) on ne peut quand même pas nier qu'il y a eu ces dernières années une augmentation sensible du prix du haut de gamme chez Nvidia ces 5 dernières années :
-780 Ti : 650€
-980 Ti : 750€
-1080 Ti : 825€
-2080 Ti : 1250€
 
Et on peut faire le même constat pour les x80/x70 :
-780 : 430€
-980 : 550€
-1080 : 670€/790€
-2080 : 850€
 
-770 : 270€
-970 : 330€
-1070 : 500€
-2070 : 640€
 
Et malheureusement c'est plus dû à l'absence de compétition, qu'à la taille du die ou au budget de R&D

mood
Publicité
Posté le 22-08-2018 à 10:57:33  profilanswer
 

n°10411894
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 11:00:00  profilanswer
 

Marc a écrit :


C’est combien alors ? :o


 
Sans diagramme difficile de donner une réponse.  :D  
 
Tout ce que je sais c'est que pour 20% de SP en plus que le GP102, on se retrouve avec un die 60% plus grand.

n°10411946
Nono0000
Posté le 22-08-2018 à 11:26:58  profilanswer
 

Zeross a écrit :


 
C'est difficile de trouver une corrélation entre la disponibilité d'une puce et le budget R&D qui lui a été associé, il y a un décalage de plus de 5 ans (Nvidia parle même de 10 ans pour Turing mais bon) entre le début de la conception et la commercialisation.
 
Après même si le budget R&D augmente (comme pour quasiment toute société) on ne peut quand même pas nier qu'il y a eu ces dernières années une augmentation sensible du prix du haut de gamme chez Nvidia ces 5 dernières années :
-780 Ti : 650€
-980 Ti : 750€
-1080 Ti : 825€
-2080 Ti : 1250€
 
Et on peut faire le même constat pour les x80/x70 :
-780 : 430€
-980 : 550€
-1080 : 670€/790€
-2080 : 850€
 
-770 : 270€
-970 : 330€
-1070 : 500€
-2070 : 640€
 
Et malheureusement c'est plus dû à l'absence de compétition, qu'à la taille du die ou au budget de R&D


 
Bien sûr, je ne nie pas que le manque de compétition permet à Nvidia de pratiquer des prix élevés.
Les fondeurs aussi ont augmenté leurs prix. Il me semble que le prix au mm2 est de plus en plus élevé.
 
Dans mon précédent boulot, il faillait compter à peu près un an entre les premiers samples que l'on testait/débuggait et la sortie du produit final (caractérisé avec un flow de test optimisé pour le grand volume).
C’est juste basé sur cette expérience que j'extrapolais les durées. Après les devs et les PE de Nvidia sont peut-être plus doués que ce qu'on pouvait être :D
 
Pour la recherche plus fondamentale, c'est en effet généralement plus étalé dans le temps et peut être moins marquant dans l’historique du budget R&D.


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10411966
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 11:36:43  profilanswer
 

J'espère sincèrement qu'AMD a prévu une gestion hardware du RT via DXR ou Vulkan avec Navi.

n°10412133
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-08-2018 à 14:06:12  profilanswer
 

Pourquoi, c’est déjà passé du nice to have au must have ?

n°10412149
Bébé Yoda
Posté le 22-08-2018 à 14:19:18  profilanswer
 

J'arrive pas à être hypé par ce Ray tracing... Déjà J'ai eu du mal sur les screenshots pour trouver la différence.
Oui elle est flagrante une fois qu'on sait ce qu'on cherche et qu'on pose les deux image côte à côte.... Mais autrement, en jouant, j'ai du mal à penser que ça pourrait me changer quoi que ce soit.
J'ai aussi tendance à toujours baisser les ombres en premier pour récupérer des FPS, ça doit jouer :o

n°10412189
major95
The !!!! Beat
Posté le 22-08-2018 à 14:46:54  profilanswer
 

Marc a écrit :

Pourquoi, c’est déjà passé du nice to have au must have ?


 
Bah si ça stagne comme la tessallation voilà quoi...

n°10412207
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 14:53:03  profilanswer
 

Marc a écrit :

Pourquoi, c’est déjà passé du nice to have au must have ?


 
Je pensais plus à l'argument commercial massue que ça pourrait devenir d'ici un an.
 
D'ailleurs la présence d'AMD au Syggraph est passée totalement inaperçue.
 
https://www.facebook.com/Radeon/videos/251985545438442/
 

Message cité 1 fois
Message édité par aliss le 22-08-2018 à 14:59:08
n°10412317
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-08-2018 à 16:05:58  profilanswer
 

aliss a écrit :


 
Je pensais plus à l'argument commercial massue que ça pourrait devenir d'ici un an.
 
D'ailleurs la présence d'AMD au Syggraph est passée totalement inaperçue.
 
https://www.facebook.com/Radeon/videos/251985545438442/
 


Si ça coute pas cher en transistors, on est d’accord, ce serait risqué.
 
A l’inverse, si c’est le cas avoir une balance différente peut aussi être un pari intéressant.

n°10412663
cartemere
Posté le 22-08-2018 à 21:22:48  profilanswer
 

Bébé Yoda a écrit :

J'arrive pas à être hypé par ce Ray tracing... Déjà J'ai eu du mal sur les screenshots pour trouver la différence.
Oui elle est flagrante une fois qu'on sait ce qu'on cherche et qu'on pose les deux image côte à côte.... Mais autrement, en jouant, j'ai du mal à penser que ça pourrait me changer quoi que ce soit.
J'ai aussi tendance à toujours baisser les ombres en premier pour récupérer des FPS, ça doit jouer :o


peut être aussi parce qu'aujourd'hui c'est très couteux en terme de perfs.
 
c'est comme supprimer les effets de fourrure dans The Witcher 3 : on peut jouer sans, mais clairement l'activer change le rendu avec les loups/monstres & les tenues de Géralt

n°10412670
havoc_28
Posté le 22-08-2018 à 21:27:33  profilanswer
 

cartemere a écrit :


peut être aussi parce qu'aujourd'hui c'est très couteux en terme de perfs.
 
c'est comme supprimer les effets de fourrure dans The Witcher 3 : on peut jouer sans, mais clairement l'activer change le rendu avec les loups/monstres & les tenues de Géralt


 
Pour en arriver au niveau de fourrure / chevelure de la tesselation dans The Witcher 3, cette dite tesselation a du faire du chemin ... Je suis pas tout à fait sur qu'avec le RayTracing on en soit déjà à ce niveau, ou que ça soit si marquant que ça, personnellement même si j'ai trouvé les effets sympathiques, cette première vagues / effets de RT dans les jeux ne m'a pas paru si extraordinaire que cela.

Message cité 1 fois
Message édité par havoc_28 le 22-08-2018 à 21:37:26
n°10412683
Bébé Yoda
Posté le 22-08-2018 à 21:35:36  profilanswer
 

J'ai pas bien suivi les informations : c'est prévu pour quand les premiers vrais tests ?

n°10412687
aliss
Rhyme the Rhyme Well
Posté le 22-08-2018 à 21:37:01  profilanswer
 

La demo "Reflections" utilisant l'UE4 est tout de même assez bluffante.
 
Mais ça reste de la musique d'avenir.

n°10412746
Profil sup​primé
Posté le 22-08-2018 à 22:15:48  answer
 

+1  
 
c'est quand même une belle claque :jap:

n°10412859
MEI
|DarthPingoo(tm)|
Posté le 22-08-2018 à 23:57:10  profilanswer
 

Invite_Surprise a écrit :


 
Moi je suis impartial sur AMD et NV.
Mais bon si toi ça te satisfait comme concurrence, tant mieux pour toi, mais faut pas s'étonner de voir des gens penser différemment, il suffit juste de voir les dernières sorties chez les rouges.
On a vu arriver les Titan, maintenant les RTX et personne ne leur met de bâton dans les roues.
 


 
Parce que NVIDIA bosse pour NVIDIA et qu'RTG bosse avant tout pour les autres, Sony, puis MS, puis eux... et aussi les chinois et avant Nintendo... Forcement, quand tu vises en partie le licensing, et que ton budget n'est pas le même tu fait comme tu peux.
 
Mais NVIDIA à quand même chaud a moyen terme avec Intel et long terme avec Samsung/Apple & tout les gros acteurs mobiles/ARM qui commence a faire des CPU au niveau et enchaîne sur les GPU custom, l'IA... dans 10 ans, pas sur que soit sur du NVIDIA vs RTG (+ Intel) ou du 4, 5, 10 acteurs...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10412861
MEI
|DarthPingoo(tm)|
Posté le 22-08-2018 à 23:58:13  profilanswer
 

aliss a écrit :


 
Sans diagramme difficile de donner une réponse.  :D  
 
Tout ce que je sais c'est que pour 20% de SP en plus que le GP102, on se retrouve avec un die 60% plus grand.


 
Comme le 12nm TSMC est moins dense que le 16nm... c'est pas sur que la surface du die soit forcement un bon indicateur...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10412863
MEI
|DarthPingoo(tm)|
Posté le 23-08-2018 à 00:01:20  profilanswer
 

Marc a écrit :


Si ça coute pas cher en transistors, on est d’accord, ce serait risqué.
 
A l’inverse, si c’est le cas avoir une balance différente peut aussi être un pari intéressant.


C'est surtout que les chiffres c'est ~3x les perfs d'une Pascal non accéléré... donc en fait c'est pas non plus un truc de fou... Ca se trouve une archi plus flexible que Pascal comme AMD peux réalisé des perfs entre les deux sans implémentation hardware... :spamafote:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10412876
ZzDazzleZz
Bencheur Oufff
Posté le 23-08-2018 à 00:13:50  profilanswer
 

Zeross a écrit :


 
Vega 20 c'est Q42018/Q1 2019 et c'est pas orienté sur le même segment a priori.  
Navi c'est Q3 2019 pour ce que j'en sais, donc Nvidia a un an durant lequel leur principal concurrent c'est Pascal :/


 
1 ans d'avance sur le MDG oui mais pour le HDG et THG c'est beaucoup plus hélas :( faudra attendre la prochaine archi pour cela :(

n°10412880
havoc_28
Posté le 23-08-2018 à 00:21:06  profilanswer
 

MEI a écrit :


 
Comme le 12nm TSMC est moins dense que le 16nm... c'est pas sur que la surface du die soit forcement un bon indicateur...


 
Le 12 nm FFN+ de TSMC n'a de 12nm que le nom. C'est un 16 nm légèrement tweaké et quelques personnalisation propre à Nvidia, un process mature.  
 
https://www.hardware.fr/news/15110/ [...] -go-s.html
 

Citation :

Plus gros tout d'abord avec un GV100 qui profite de la gravure en 12 nm FFN de TSMC (personnalisé pour Nvidia) pour passer à 21.1 milliards de transistors, plus de 30% de plus que les 15.3 milliards du GP100. Malgré le passage au 12 nm, la densité ne progresse presque pas et le GV100 est énorme avec 815 mm² contre 610 mm² pour le GP100. Le 12 nm permet ici avant tout de pouvoir monter en puissance à consommation similaire.


Message édité par havoc_28 le 23-08-2018 à 00:21:43
n°10412884
ZzDazzleZz
Bencheur Oufff
Posté le 23-08-2018 à 00:26:13  profilanswer
 

havoc_28 a écrit :


 
Pour en arriver au niveau de fourrure / chevelure de la tesselation dans The Witcher 3, cette dite tesselation a du faire du chemin ... Je suis pas tout à fait sur qu'avec le RayTracing on en soit déjà à ce niveau, ou que ça soit si marquant que ça, personnellement même si j'ai trouvé les effets sympathiques, cette première vagues / effets de RT dans les jeux ne m'a pas paru si extraordinaire que cela.


 
Moi j'ai été bluffé par les réflexions dans BFV et par les éclairages volumétrique et réflexions lumineuses dans le prochain tomb raider ;) et prochain métro ;)
A voir les tests surtout avec le RT en action,  au pire j'attendrais l'année prochaine voir au pire Q1 2020 pour la gen en 7nm ;)
 
PS: Sauf si un code MABOULE sort avec genre 25% de remise sur Turing  :love:  


Message édité par ZzDazzleZz le 23-08-2018 à 00:44:33
n°10415080
v-christop​he
Posté le 25-08-2018 à 10:28:48  profilanswer
 

Bébé Yoda a écrit :

J'ai pas bien suivi les informations : c'est prévu pour quand les premiers vrais tests ?


 
et sur HFR  ?  :whistle:


---------------
Arcade Rules
n°10415221
aliss
Rhyme the Rhyme Well
Posté le 25-08-2018 à 13:24:32  profilanswer
 

Je n'ai pas vu passer la conférence de Guillaume Boissé à propos des techniques de Ray Tracing chez AMD.
 
C'est assez pointu mais doit en intéresser plus d'un.
 
https://www.youtube.com/watch?v=kZNznb-mJFE

n°10415293
Nono0000
Posté le 25-08-2018 à 14:35:49  profilanswer
 

Merci pour le lien  :jap:

 

Je ne l'ai pas trouvée si technique que ça.
Alors déjà, il est clair qu'AMD a fait des progrès également sur ce point, cependant dans les exemples montrés, ils sont quand-même assez loin de ce que NVIDIA arrive à faire.
On est plus au niveau d'une qualité de "fast preview" que d'un rendu acceptable.
Dans les premiers exemples du progressive light mapper, l'image reste encore très bruitée (slide 21). On dirait qu'ils n'appliquent pas ou peu de débruitage.
Sur le slide 22, on voit que l'éclairage met du temps à être affiché correctement à chaque changement de caméra.

 

Les slides 27/28 sont forts de sens. Les API bas niveaux sont trop complexes pour les développeurs ! (Beaucoup sous estimaient le travail effectué par les API de haut niveau Opengl/DirectX comme celui des pilotes).
Donc on commence à rajouter une couche d'abstraction pour simplifier l'implémentation.
Mais il est toujours bien de faire table rase et de reconstruire que chose de mieux par dessus. (Dans une moindre mesure c'est ce qu'avait fait DirectX 10 en son temps)

 

Dommage que pour l'hybride rendering, ils ne montrent pas les performances temps réel. Il aurait été intéressant de voir les capacités du filtre wavelet pour débruiter l'image...


Message édité par Nono0000 le 25-08-2018 à 14:41:27

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10415702
Invite_Sur​prise
Racaille de Shanghaï
Posté le 26-08-2018 à 11:56:24  profilanswer
 

Une très bonne vidéo aussi, très complète :
 
Introduction to DirectX Raytracing
 
http://www.youtube.com/watch?v=Q1cuuepVNoY

n°10415783
Nono0000
Posté le 26-08-2018 à 14:53:53  profilanswer
 

J'ai regardé les 100 premières minutes et c'est effectivement beaucoup plus technique ;)
C'est marrant de voir des gens de NVIDIA décrire une API faite par Microsoft. Il ne fait que peu de doutes qu'ils sont les instigateurs de la création de cette API.

 

A voir l'explication du tutoriel, cela semble assez simple de créer et de lancer des "rays". Optimiser leur utilisation avec le reste du flow en raster doit être bien plus difficile ;)

 

Pendant la Q&A, toutes les questions concernant l'implémentation hardware ou les prochains objectifs restent sans réponses. Ils protègent drôlement leur "bébé".

 

Je me demande si AMD pourra facilement accélérer DXR sur leur prochaine architecture car il y a fort à parier qu'elle a été surtout pensée pour s'intégrer facilement à celles de NVIDIA :/

Message cité 1 fois
Message édité par Nono0000 le 26-08-2018 à 15:10:08

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10416904
bgx
reviens brunette!
Posté le 28-08-2018 à 01:45:59  profilanswer
 

https://www.anandtech.com/show/1327 [...] elopment/2
 
c'est enorme, GF qui abandoone le 7nm et restera sur du 12/14...
en disant que le 7nm marchait bien - la, j'y crois pas du tout.
 
edit: ce que je lis ailleurs: ils vont (revienent) sur du FD-SOI a plein (ou ils n'ont pas bcp de competition, et ou ils ont de l'experience).

Message cité 2 fois
Message édité par bgx le 28-08-2018 à 02:02:43
n°10416906
ZzDazzleZz
Bencheur Oufff
Posté le 28-08-2018 à 01:54:49  profilanswer
 

Nono0000 a écrit :

J'ai regardé les 100 premières minutes et c'est effectivement beaucoup plus technique ;)
C'est marrant de voir des gens de NVIDIA décrire une API faite par Microsoft. Il ne fait que peu de doutes qu'ils sont les instigateurs de la création de cette API.
 
A voir l'explication du tutoriel, cela semble assez simple de créer et de lancer des "rays". Optimiser leur utilisation avec le reste du flow en raster doit être bien plus difficile ;)
 
Pendant la Q&A, toutes les questions concernant l'implémentation hardware ou les prochains objectifs restent sans réponses. Ils protègent drôlement leur "bébé".
 
Je me demande si AMD pourra facilement accélérer DXR sur leur prochaine architecture car il y a fort à parier qu'elle a été surtout pensée pour s'intégrer facilement à celles de NVIDIA :/


 
Rien n'empêchera en repartant d'une feuille blanche en 2020, de dev une archi aux petits oignons capable de torcher les RT core d'Nvidia ;)  
A voir s'ils auront les moyens et l'envie d'aller fracasser le géant vert [:one1504:1]

Message cité 1 fois
Message édité par ZzDazzleZz le 28-08-2018 à 01:56:10
n°10416911
havoc_28
Posté le 28-08-2018 à 02:47:25  profilanswer
 

bgx a écrit :

https://www.anandtech.com/show/1327 [...] elopment/2
 
c'est enorme, GF qui abandoone le 7nm et restera sur du 12/14...
en disant que le 7nm marchait bien - la, j'y crois pas du tout.
 
edit: ce que je lis ailleurs: ils vont (revienent) sur du FD-SOI a plein (ou ils n'ont pas bcp de competition, et ou ils ont de l'experience).


 
 
Epyc 2 / Vega 20 en 7nm chez TSMC (et tout le reste en faite), ouais voila quoi :D.
 
https://www.anandtech.com/show/1327 [...] us-at-tsmc


Message édité par havoc_28 le 28-08-2018 à 02:57:04
n°10416913
Profil sup​primé
Posté le 28-08-2018 à 02:52:18  answer
 

l'histoire se répète :D  

n°10416933
Nono0000
Posté le 28-08-2018 à 07:20:59  profilanswer
 

ZzDazzleZz a écrit :


 
Rien n'empêchera en repartant d'une feuille blanche en 2020, de dev une archi aux petits oignons capable de torcher les RT core d'Nvidia ;)  
A voir s'ils auront les moyens et l'envie d'aller fracasser le géant vert [:one1504:1]


 
Bien sûr mais ce ne sera pas pour la prochaine génération. Cela risque de demander du temps.
Après, si le marché et surtout les développeurs sont peu réceptifs à cette technologie, AMD n'aura pas vraiment besoin de s'y engouffrer également. Cela leur permettra peut être d'être plus compétitifs sur les prix.
 

bgx a écrit :

https://www.anandtech.com/show/1327 [...] elopment/2
 
c'est enorme, GF qui abandoone le 7nm et restera sur du 12/14...
en disant que le 7nm marchait bien - la, j'y crois pas du tout.
 
edit: ce que je lis ailleurs: ils vont (revienent) sur du FD-SOI a plein (ou ils n'ont pas bcp de competition, et ou ils ont de l'experience).


 
Je rejoins Havoc_28, c'est surtout le manque de clients majeurs et le coût énorme des investissements à faire pour préparer les futurs nodes qui a précipité ce choix.
Il n'est pas nouveau que GF ne se porte pas très bien.
La rupture du contrat (abusif) qui les liait à AMD représente un grand manque à gagner pour eux donc difficile d'investir pour la suite.
 
Pour le FD-SOI, c'est une manière de se distinguer de la concurrence. A voir si cela paie...


Message édité par Nono0000 le 28-08-2018 à 08:46:26

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10416985
aliss
Rhyme the Rhyme Well
Posté le 28-08-2018 à 09:18:32  profilanswer
 

Je me demande quel va être l'impact sur Ryzen.
 
Pas sur le changement de finesse à proprement parler mais de fondeur.

n°10417023
MEI
|DarthPingoo(tm)|
Posté le 28-08-2018 à 09:52:44  profilanswer
 

aliss a écrit :

Je me demande quel va être l'impact sur Ryzen.
 
Pas sur le changement de finesse à proprement parler mais de fondeur.


On risque de bien halluciner je pense... Quand on vois ce que sort NVIDIA chez TSMC vs AMD chez GloFo en GPU... Je pense que TSMC + 7nm, ça risque de permettre à AMD de revenir sans trop de soucis dans la courses aux MHz... Et un RyZEN 2 avec un Turbo @ ~5GHz ça serait quand même pas mal... ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  982  983  984  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)