Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2951 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  986  987  988  ..  1003  1004  1005  1006  1007  1008
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°10426266
Dark Schne​iderr
⭐⭐
Posté le 11-09-2018 à 20:03:10  profilanswer
 

Reprise du message précédent :
 
 
Merci pour les précisions, j'ai confondu avec le cache type victime. Je viens de relire l'article de C_Wiz là-dessus : https://www.hardware.fr/articles/96 [...] exion.html
 

Invite_Surprise a écrit :


En 4K ? Je ne pense pas mais plutôt dans pour le 1080p où là ça parait crédible oui.
Mais en 1080p, les procos Intel ont une avance plus conséquente.


 
Effectivement ! J'ai remis le nez sur le test HFR : https://www.hardware.fr/articles/97 [...] mance.html  
 
Sur le graphique de computerbase.de, les Ryzen 2xxx devrait se rapprocher d'un score de 92.

Message cité 1 fois
Message édité par Dark Schneiderr le 11-09-2018 à 20:08:06

---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
mood
Publicité
Posté le 11-09-2018 à 20:03:10  profilanswer
 

n°10426271
Profil sup​primé
Posté le 11-09-2018 à 20:11:49  answer
 

Dark Schneiderr a écrit :


 
Merci pour les précisions, j'ai confondu avec le cache type victime. Je viens de relire l'article de C_Wiz là-dessus : https://www.hardware.fr/articles/96 [...] exion.html
 


 
c'est ça  
le sous système mémoire des skylake X , même si il a des similitudes est quand même plus complexe :jap:


Message édité par Profil supprimé le 11-09-2018 à 20:13:13
n°10426353
havoc_28
Posté le 11-09-2018 à 23:25:07  profilanswer
 

https://videocardz.com/77895/the-ne [...] chitecture
 
RTX 2070 = TU106.
 
D'un coté c'est la première fois où l'on voit une puce XX6 faire 445 mm², tout comme une -X70 avec une puce XX6.

Message cité 1 fois
Message édité par havoc_28 le 11-09-2018 à 23:28:51
n°10426358
ZzDazzleZz
Bencheur Oufff
Posté le 11-09-2018 à 23:40:08  profilanswer
 

havoc_28 a écrit :

https://videocardz.com/77895/the-ne [...] chitecture
 
RTX 2070 = TU106.
 
D'un coté c'est la première fois où l'on voit une puce XX6 faire 445 mm², tout comme une -X70 avec une puce XX6.


 
En gros la taille du gpu de la 2070 équivaut à la taille de la 1080 Ti  apparemment les RT Cores / Tensor Cores prennent pas mal de place sur la puce  :pt1cable:

n°10426359
havoc_28
Posté le 11-09-2018 à 23:50:05  profilanswer
 

ZzDazzleZz a écrit :


 
En gros la taille du gpu de la 2070 équivaut à la taille de la 1080 Ti  apparemment les RT Cores / Tensor Cores prennent pas mal de place sur la puce  :pt1cable:


 
Fallait s'y attendre à cela, mais je suis tout de même étonné que la RTX 2070 utilise un troisième die, le TU106, j'aurai pensé à un TU104 plus fortement castré vs la RTX 2080, 3 cartes, 3 puces (nomenclature descendante) ... je ne me rappelle pas d'un tel précédent (je ne compte pas les variantes quadro).


Message édité par havoc_28 le 11-09-2018 à 23:55:56
n°10426397
Nono0000
Posté le 12-09-2018 à 07:17:45  profilanswer
 

Les yields sur cette techno doivent être relativement bons depuis le temps.
Castrer une puce simplement pour faire de la segmentation, vu la taille des dies, serait contre productif à mon avis. La castration permet de refourguer des puces qui ne sont pas entièrement fonctionnelles.
Compte tenu des volumes, il vaut mieux pour NVIDIA faire des puces différentes.


Message édité par Nono0000 le 12-09-2018 à 08:20:08

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10426403
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 07:58:32  profilanswer
 

Mis à part les rops et le bus, c'est un demi TU102 pour la bagatelle de 600$...

n°10426513
havoc_28
Posté le 12-09-2018 à 13:09:04  profilanswer
 

aliss a écrit :

Mis à part les rops et le bus, c'est un demi TU102 pour la bagatelle de 600$...


 
On pourrait dire la même chose du GP106 par rapport au GP104 :D (a part coté tarif), et le TU 106 est bien un demi TU102 niveau tarif :o.

Message cité 1 fois
Message édité par havoc_28 le 12-09-2018 à 13:41:27
n°10426605
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 16:06:13  profilanswer
 

havoc_28 a écrit :


 
On pourrait dire la même chose du GP106 par rapport au GP104 :D (a part coté tarif), et le TU 106 est bien un demi TU102 niveau tarif :o.


 
Il est là le soucis, c'est le MSRP d'un flagship pour un gpu de 3ième catégorie.

n°10426696
ZzDazzleZz
Bencheur Oufff
Posté le 12-09-2018 à 19:12:51  profilanswer
 

aliss a écrit :


 
Il est là le soucis, c'est le MSRP d'un flagship pour un gpu de 3ième catégorie.


 
Faudra voir les perfs pour justifier un tel tarif, mais en l'état c'est clair qu'ils ont mis la barre bien haute  :cry:

mood
Publicité
Posté le 12-09-2018 à 19:12:51  profilanswer
 

n°10426698
havoc_28
Posté le 12-09-2018 à 19:17:59  profilanswer
 

aliss a écrit :

Il est là le soucis, c'est le MSRP d'un flagship pour un gpu de 3ième catégorie.


 
 
Après le GP106 c'est 200 mm² et le TU106 ça serait 445 mm², est ce que le TU106 peut il être considéré comme un GPU de "3eme catégorie"? A nouveau c'est un demi TU 102, pas un demi TU104.  
 
La comparaison avec le GP106 est violente à tous les niveaux ... Niveau configuration nombres de cuda coeurs / ROPs / TMU, bande passante mémoire (prix :D) ...
 
1280 Cuda coeurs / 48 ROPs / 80 TMU / bus mémoire 192 bits GDDR5 @ 8 gb/s 192 gb/s.  2304 Cuda Coeurs / 64 ROPs / 144 TMU, bus mémoire 256 bit  GDDR6 @ 14 gb/s 448 gb/s. Le tout sur une finesse de gravure très proche ...

Message cité 1 fois
Message édité par havoc_28 le 12-09-2018 à 21:02:29
n°10426714
Invite_Sur​prise
Racaille de Shanghaï
Posté le 12-09-2018 à 19:34:21  profilanswer
 

Si ça tient tête au GPU de 1ère catégorie de la concurrence pour le même MSRP, ce serait plutôt ça le principal problème.
445mm², c'est plutôt énorme mais ce serait certainement le chip le plus vendu de la gamme, vu le nouveau matériel à intégrer (RT/TC).
A voir ce qu'ils vont sortir du chapeau mais la Vega64 semble tout à fait à portée.

n°10426722
ZzDazzleZz
Bencheur Oufff
Posté le 12-09-2018 à 19:40:28  profilanswer
 

havoc_28 a écrit :


 
 
Après le GP106 c'est 200 mm² et le TU106 ça serait 445 mm², est ce que le TU106 peut il être considéré comme un GPU de "3eme catégorie". A nouveau c'est un demi TU 102, pas un demi TU104.  
 
La comparaison avec le GP106 est violente à tous les niveaux ... Niveau configuration nombres de cuda coeurs / ROPs / TMU, bande passante mémoire (prix :D) ...
 
1280 Cuda coeurs / 48 ROPs / 80 TMU / bus mémoire 192 bits GDDR5 @ 8 gb/s 192 gb/s.  2344 Cuda Coeurs / 64 ROPs / 144 TMU, bus mémoire 256 bit  GDDR6 @ 14 gb/s 448 gb/s. Le tout sur une finesse de gravure très proche ...


 
Faudrait surtout comparer à la 1070 sauf si tu te base à la 3ième catégorie ou effectivement cela concerne la 1060 ;)

n°10426724
ZzDazzleZz
Bencheur Oufff
Posté le 12-09-2018 à 19:41:15  profilanswer
 

Invite_Surprise a écrit :

Si ça tient tête au GPU de 1ère catégorie de la concurrence pour le même MSRP, ce serait plutôt ça le principal problème.
445mm², c'est plutôt énorme mais ce serait certainement le chip le plus vendu de la gamme, vu le nouveau matériel à intégrer (RT/TC).
A voir ce qu'ils vont sortir du chapeau mais la Vega64 semble tout à fait à portée.


 
Vu le tarif effectivement ça va viser la vega 64 :o, à confirmer lors des tests dans 1 semaine  :jap:


Message édité par ZzDazzleZz le 12-09-2018 à 19:41:41
n°10426756
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 20:28:12  profilanswer
 

Invite_Surprise a écrit :

Si ça tient tête au GPU de 1ère catégorie de la concurrence pour le même MSRP, ce serait plutôt ça le principal problème.
445mm², c'est plutôt énorme mais ce serait certainement le chip le plus vendu de la gamme, vu le nouveau matériel à intégrer (RT/TC).
A voir ce qu'ils vont sortir du chapeau mais la Vega64 semble tout à fait à portée.


 
Ca démontre une fois de plus que les Tensor / RT Core prennent énormément de place.
 
A ce rythme, on risque d'avoir un TU107 de 350mm2 à 400$ pour les 2050/60.

Message cité 1 fois
Message édité par aliss le 12-09-2018 à 20:28:48
n°10426758
havoc_28
Posté le 12-09-2018 à 20:37:01  profilanswer
 

aliss a écrit :


 
Ca démontre une fois de plus que les Tensor / RT Core prennent énormément de place.
 
A ce rythme, on risque d'avoir un TU107 de 350mm2 à 400$ pour les 2050/60.


 
Hum, je ne pense pas que l'on puisse vraiment raboté d'avantage à ce niveau ... Un TU 107 embarquant tout ça, n'aurait pas assez de puissance Coté RT/Tensor core pour afficher quoi que ce soit de tangible niveau raytracing / DLSS, tout comme ça commencerait à manquer niveau rasterization classique.

Message cité 1 fois
Message édité par havoc_28 le 12-09-2018 à 20:39:44
n°10426760
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 20:39:52  profilanswer
 

havoc_28 a écrit :


 
Hum, je ne pense pas que l'on puisse vraiment raboté d'avantage à ce niveau ... Un TU 107 embarquant tout ça, n'aurait pas assez de puissance Coté RT/Tensor core pour afficher quoi que ce soit tangible niveau raytracing / DLSS, tout comme ça commencerait à manquer niveau rasterization classique.


 
On peut déjà se poser la question pour le TU106...
 
Il pourrait y avoir un gap plus important que d'habitude entre les modèles x80 et x70 étant donné qu'il ne s'agit plus d'une simple castration.

Message cité 1 fois
Message édité par aliss le 12-09-2018 à 20:41:31
n°10426762
havoc_28
Posté le 12-09-2018 à 20:42:37  profilanswer
 

aliss a écrit :


 
On peut déjà se poser la question pour le TU106...


 
J'imagine que le TU106 doit être la limite basse pour avoir un minimum d'effets à ce niveau. En simplifiant énormément, TU102 : "haut", TU104 : "moyen", TU 106 : "bas" niveau option RayTracing. Et peut être un mode Très Bas pour les gpus ne supportant pas d'accélération native du RayTracing ? :o.
 

aliss a écrit :

Il pourrait y avoir un gap plus important que d'habitude entre les modèles x80 et x70 étant donné qu'il ne s'agit plus d'une simple castration.


 
Au niveau RayTracing / DLSS peut être mais niveau rastérisation classique ... vu qu'on a une bande passante équivalente et qu'au niveau du reste des specs le TU106 n'est pas si loin que ça du TU104 légèrement castré de la RTX 2080, je demande à voir en fonction.


Message édité par havoc_28 le 12-09-2018 à 20:48:37
n°10426769
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 20:52:03  profilanswer
 

Il est tout de même inférieur à tous les niveaux sauf les rop's, pour la bp ça dépend de la vram utilisée, je crois pas qu'on ait l'information.
 
Edit non c'est pareil avec 448 GO/s.
 
Par contre, étonnamement, fréquence de base et boost garanti inférieurs à la 2080.

Message cité 1 fois
Message édité par aliss le 12-09-2018 à 20:55:58
n°10426779
Nono0000
Posté le 12-09-2018 à 21:08:53  profilanswer
 

Je suis plus en phase avec les rumeurs qui disent que les 2060 et en dessous ne seront que de simples GTX donc sans RT/Tensor...


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10426780
havoc_28
Posté le 12-09-2018 à 21:09:07  profilanswer
 

aliss a écrit :

Il est tout de même inférieur à tous les niveaux sauf les rop's, pour la bp ça dépend de la vram utilisée, je crois pas qu'on ait l'information.
 
Edit non c'est pareil avec 448 GO/s.
 
Par contre, étonnamement, fréquence de base et boost garanti inférieurs à la 2080.


 
Oui, après niveau cuda coeur, en % la différence entre la RTX 2080 / 2070 est légèrement plus faible que ce qu'on avait entre la 1080 / 1070 (ça aurait été identique si le TU104 de la RTX 2080 n'avait pas été castré), le ratio TMU est identique. Donc pour conserver un écart suffisant, j'imagine que fréquence plus faible sont la pour ça, mais bon voila quoi :D.


Message édité par havoc_28 le 12-09-2018 à 21:15:51
n°10426783
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 21:14:56  profilanswer
 

Nono0000 a écrit :

Je suis plus en phase avec les rumeurs qui disent que les 2060 et en dessous ne seront que de simples GTX donc sans RT/Tensor...


 
Je ne serais pourtant pas surpris qu'il y ait des Tensor/RT core sur les "petits gpu's", même si dans les faits c'est inutile.
 
Ce n'est pas avec des gpu's à 600$ et plus qu'ils vont convertir rapidement le marché au Ray Tracing.
 

n°10426787
havoc_28
Posté le 12-09-2018 à 21:17:16  profilanswer
 

aliss a écrit :


 
Je ne serais pourtant pas surpris qu'il y ait des Tensor/RT core sur les "petits gpu's", même si dans les faits c'est inutile.
 
Ce n'est pas avec des gpu's à 600$ et plus qu'ils vont convertir rapidement le marché au Ray Tracing.
 


 
Est ce que c'est vraiment le but de Nvidia ? Leurs buts c'est avant tout de commencer à familiariser les développeurs avec leurs librairies DXR. Car bon la Geforce 3 n'a pas été décliné en version bas de gamme, et la Geforce 4mx était un dérivé du Geforce 2, donc je serais pas étonné qu'on ait à nouveau ce schéma.  
 
Pas de RT core, mais juste tensor core car plus facile à intégré niveau jeu ? Bref tout est possible à ce niveau.


Message édité par havoc_28 le 12-09-2018 à 21:19:09
n°10426789
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 21:18:57  profilanswer
 

C'est tout de même l'argument massue de cette gen, difficile de dire après coup, pour le milieu de gamme et en dessous, vous pouvez vous brosser.

n°10426791
havoc_28
Posté le 12-09-2018 à 21:20:04  profilanswer
 

aliss a écrit :

C'est tout de même l'argument massue de cette gen, difficile de dire après coup, pour le milieu de gamme et en dessous, vous pouvez vous brosser.


 
Les PIxel / Vertex Shader c'était aussi l'argument massue des Geforce 3, dans certains cas / jeux / réglage une geforce 2 ultra/GTS pouvait être plus rapide que le Geforce 3 à cause de la fréquence supérieur du Geforce 2.

n°10426795
Nono0000
Posté le 12-09-2018 à 21:31:25  profilanswer
 

aliss a écrit :

 

Je ne serais pourtant pas surpris qu'il y ait des Tensor/RT core sur les "petits gpu's", même si dans les faits c'est inutile.

 

Ce n'est pas avec des gpu's à 600$ et plus qu'ils vont convertir rapidement le marché au Ray Tracing.

 



Je ne pense pas que Nvidia cherche à convertir le marché (sans les consoles c'est mission impossible) par contre, il me semble que c'est plus pour imposer sa vision du RT et du flow associé.
Créer une certaine "habitude" chez les développeurs de moteur de jeu. Pas besoin d'une gamme complète pour ça...


Message édité par Nono0000 le 12-09-2018 à 21:31:50

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10426798
aliss
Rhyme the Rhyme Well
Posté le 12-09-2018 à 21:36:07  profilanswer
 

Quand je regarde le diagramme simplifié de WhyCry, il semblerait que les blocs soient identiques.
 
Un TU107 avec 2 Gigathread Engine ne serait pas plausible ?

n°10426895
Nono0000
Posté le 13-09-2018 à 08:29:48  profilanswer
 

Oui c'est possible mais pour quelles performances en RT?
Si cela est trop faible, il vaut mieux pour Nvidia faire une puce beaucoup plus petite et rentable pour le marche très concurrentiel du mainstream...

 

Apres rien ne dit que les 2060 et autres soient vraiment prévues.
Suivant la concurrence, ils peuvent attendre le 7nm pour faire une gamme complète en 21xx par exemple (avec l’architecture Ampère?)

Message cité 1 fois
Message édité par Nono0000 le 13-09-2018 à 09:56:00

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10426918
MEI
|DarthPingoo(tm)|
Posté le 13-09-2018 à 09:26:08  profilanswer
 

Nono0000 a écrit :

Oui c'est possible mais pour quelles performances en RT?
Si cela est trop faible, il vaut mieux pour Nvidia faire une puce beaucoup plus petite et rentable pour le marche très concurrentiel du mainstream...
 
Apres rien ne dit que les 2060 et autres soient vraiment prévues.
Suivant la concurrence, il peuvent attendre le 7nm pour faire une gamme complète en 21xx par exemple (avec l’architecture Ampère?)


AMHA, vu que c'est peu ou prou le même process que Pascal, et vu que le principal plus c'est quand même le RTX, pour le niveau de perf < RTX 2070, y'aura les GTX 10xx ... qui a faire du renommage entre GTX 20xx avec du Pascal dedans... ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10427537
aliss
Rhyme the Rhyme Well
Posté le 14-09-2018 à 08:30:07  profilanswer
 

Intéressant à lire (objectifs, stratégie, process, roadmap etc),
 
Advanced Micro Devices, Inc. (AMD) Management Presents at 2018 Deutsche Bank Technology Conference Call (Transcript)
Sep. 12, 2018 2:18 PM ET|117 comments  | About: Advanced Micro Devices, Inc. (AMD)
Advanced Micro Devices, Inc. (NASDAQ:AMD) 2018 Deutsche Bank Technology Conference Call September 12, 2018 10:30 AM ET
 
Executives
 
Devinder Kumar - Chief Financial Officer
 
Analysts
 
Ross Seymore - Deutsche Bank

 
https://seekingalpha.com/article/42 [...] nce?page=1
 
 
 

n°10427544
Nono0000
Posté le 14-09-2018 à 08:55:06  profilanswer
 

C'est un discours très orienté business quand même :)
Ils misent beaucoup sur le 7nm... pas sûr que cela suffisent pour faire un bon énorme dans les parts de marché si cela reste la seule nouveauté.
 
Je note que la demande pour les consoles diminue cette année. Par contre la demande serveur augmente et franchement c'est une très bonne chose pour AMD.
Comme dit par Ross Seymore, cela va diminuer leur revenu pour cette année mais les marges vont être plus conséquentes.
Ils n'ont jamais dit à combien ils margeaient sur ce marché, si? Cela ne doit pas être terrible quand même.
Maintenant qu'AMD va mieux, je ne pense pas qu'ils seront aussi conciliant sur les prix des futurs designs customs...


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10427864
Zeross
Posté le 14-09-2018 à 16:43:42  profilanswer
 

Pour ceux que ça intéresse Nvidia a enfin sorti le whitepaper sur l'architecture de Turing : https://www.nvidia.com/content/dam/ [...] epaper.pdf

n°10428682
mogana
Posté le 16-09-2018 à 14:37:22  profilanswer
 


 
t'as raison à 50%, moins de mining mais davantage de chocolat :o
 
https://reho.st/medium/self/b2371d045298b0b17f2c71b85dd05ff9c77fc9a0.jpg
 
https://www.jonpeddie.com/press-rel [...] ard-report
 
edit : il semble que le jon a fait le truc classique, inverser les colonnes :D

Message cité 1 fois
Message édité par mogana le 16-09-2018 à 14:44:07
n°10428734
Jumpyman97​2
Posté le 16-09-2018 à 17:13:19  profilanswer
 

havoc_28 a écrit :

 

Les PIxel / Vertex Shader c'était aussi l'argument massue des Geforce 3, dans certains cas / jeux / réglage une geforce 2 ultra/GTS pouvait être plus rapide que le Geforce 3 à cause de la fréquence supérieur du Geforce 2.

 

Il y a quand même une différence avec l'époque. La Xbox est sortie 6 mois après la GeForce 3 (même si elle n'avait pas l'impact d'une X360/XOne ou autre PS)  et gérait les pixels/vertex shaders (hors cette fois-ci on peut se demander si la PS5/XBX2 vont gérer les RTs avec un bon niveau) et le marché PC avait encore des AAA exclusifs (Far Cry/Battlefield 2/UT 2003 et même DOOM 3 ou Half Life 2... et maintenant à part Star Citizen :D , il n'y en a plus). C'était plus facile d'imaginer une adoption facile, rapide et massive par le marché des pixels/vertex shaders.

Message cité 1 fois
Message édité par Jumpyman972 le 16-09-2018 à 17:15:51
n°10428794
havoc_28
Posté le 16-09-2018 à 21:02:26  profilanswer
 

Jumpyman972 a écrit :


 
Il y a quand même une différence avec l'époque. La Xbox est sortie 6 mois après la GeForce 3 (même si elle n'avait pas l'impact d'une X360/XOne ou autre PS)  et gérait les pixels/vertex shaders (hors cette fois-ci on peut se demander si la PS5/XBX2 vont gérer les RTs avec un bon niveau) et le marché PC avait encore des AAA exclusifs (Far Cry/Battlefield 2/UT 2003 et même DOOM 3 ou Half Life 2... et maintenant à part Star Citizen :D , il n'y en a plus). C'était plus facile d'imaginer une adoption facile, rapide et massive par le marché des pixels/vertex shaders.


 
J'ai aussi dit que les Pixel / Vertex Shader n'ont été adopté massivement que bien plus tard, tout comme l'exemple de la Geforce 4mX qui ne les gérait pas (simple dérivé du geforce 2) (sur le topique turing peut être :D).  
 
Le RT je ne sais pas si ça sera adopté sur la prochaine génération de console, et si ça l'est ça pourrait l'être à un niveau bien moindre que ce que propose Turing ...  Turing c'est des puces assez énormes, même en 7nm ... un APU gérant le Raytracing qui soit assez économique à produire pour le marché console, c'est pas forcément si évidant que cela. Donc l'adoption massive du RayTracing ... ça sera pas forcément pour la prochaine génération de console, mais celle d'après ...
 
Surtout où en est AMD à ce niveau ?


Message édité par havoc_28 le 16-09-2018 à 21:10:33
n°10428878
Invite_Sur​prise
Racaille de Shanghaï
Posté le 17-09-2018 à 04:53:01  profilanswer
 

mogana a écrit :


 
t'as raison à 50%, moins de mining mais davantage de chocolat :o
 
https://reho.st/medium/self/b2371d0 [...] 7fc9a0.jpg
 
https://www.jonpeddie.com/press-rel [...] ard-report
 
edit : il semble que le jon a fait le truc classique, inverser les colonnes :D


En même temps, c'est plutôt une surprise vu la pauvreté de l'offre AMD.
Quand on regarde sur les shops, le rapport performances/prix est vraiment mauvais et la disponibilité parait douteuse également.
Bref, un bien mauvais concurrent qui permet à Nvidia de faire ce qu'ils veulent.

n°10433379
lapin
Posté le 24-09-2018 à 12:46:23  profilanswer
 

question stupide au niveau du Ray Tracing, il y a quelques années j'avais une démo-technologique sous DOS en Ray Tracing un truc avec des tuyaux en 320*240 un truc relativement temps réel mais à genre 18-20 image par seconde et l'époque s'était 100% software c'est à dire que le CPU ce prenais tout les calcules Ray Tracing dans les dents, à l'époque les CPU étaient Mono-Core !!!
 
voici ma question stupide, qu'est ce qui empêche DX 12 RayTracing ou sont équivalent Vulkan, d’exécuté tout ou partie du Ray Tracing sur les cores non exploité par le jeux ou programmes en cours de fonctionnement et de rediriger tout ou partie des donnée lié au Ray Tracing du GPU vers le CPU à partir du moment ou les recouses par core taux d’occupation par cores sont suffisant et à partir du moment ou certains cores ne sont pas utilisé par le programme ou jeu vidéo genre un AMD Ryzen 2700 ou un AMD RYZEN THREADRIPPER 2950X ou encore une Intel® Core™ i9-7900X, vu qu'en jeux les cores en foutent pas une, et même question pourquoi ne par redirigé une partie des calculs des polygones du GPU vers le CPU lorsque les cores ne sont pas hyper utiliser !!???
 
sans compté que pour le moment à ce que j'ai compris c'est un Rendu Hybrides c'est à dires (x% Ray tracer(y compris illumination globale) + Tensor Core pour complété le Raytracing)+ X% Rastérisation = Rendu mixe avec en gros 80 à 99% de l'image c'est de la rastérisation sur définition 4K ça ne fait que quelques éléments Ray Tracer du coup la part d’élément en % de la définition reste somme tout assez faible.
 
d'autre part on me dit que VEGA ne fait pas de Ray Tracing, mais à priori elle devrait pouvoir au moins faire de illimitation globale qui est une des méthode de Ray Tracing car ma démo LÉO est bien fluide et fonctionne bien sur RX-VEGA, après c'est peut être de illumination globale pré-calculer.
 
 
https://www.dropbox.com/s/htwz8rigy [...] 1.msi?dl=1


Message édité par lapin le 24-09-2018 à 12:55:30
n°10433386
major95
The !!!! Beat
Posté le 24-09-2018 à 13:04:42  profilanswer
 

Car il y'a un énorme goulot d'étranglement entre le CPU et le GPU : la bande passant très limitée du PCI-Express, ce n'est pas pour rien qu'Nvidia a développé NVLink.

Message cité 1 fois
Message édité par major95 le 24-09-2018 à 13:32:58
n°10433418
lapin
Posté le 24-09-2018 à 13:48:31  profilanswer
 

major95 a écrit :

Car il y'a un énorme goulot d'étranglement entre le CPU et le GPU : la bande passant très limitée du PCI-Express, ce n'est pas pour rien qu'Nvidia a développé NVLink.


 
 
 
non pas du tout si un CPU seul peut calculer en 320*240 et encore s'était de 2 Ghz à l'époque bon cert pas hyper fluide et puis les objets étaient limité en taille et en nombres et envoyer à l'affichage par le bus AGP qui n'était pas bien rapide à l'époque, maintenant ça devrait pouvoir faire du 400*400*nombre de core, donc par exemple 400*400*6 cores ou 400*400*8 cores à 3.5 Ghz de moyenne, ça fait 960000 pixel Ray Tracer à 1280000 pixels Ray Tracer, soit 1280*720P d'une image de 4096*2160P, ou 1600*800 pixels Ray Tracer en 4096*2160, à quelque chose comme 30 images par seconde dans un premier temps.
 
si un démo mono core arrive à faire 18 images seconde Ray Tracer bon avec des truc simple en 320*240 pour des CPU de 2 GHz, ça devrait être faisable de le faire sur 4 à 8 Cores en tenant compte qu'un jeux vidéo fortement Multi-threader arrive à exploité de 3 à 6 core, c'est faisable par un Ryzen 2700 ou un Ryzen Threadripper 2950X.
 
et la bande passante d'un flux vidéo exécuter et envoyer par le CPU c'est rien en terme de bande passante pour le PCI-Express, et si un Athlon XP à 2 Ghz y arrive en 320*200, alors un Ryzen 2700 ou un Threadripper devrait y arrivé en 720P ou en 800P soit entre 15 et 18% de la surface de 4096*2160 le rester étant exécuter niveau GPU soit en rasterisation soit en Ray Tracing soit un mixte des deux.


Message édité par lapin le 24-09-2018 à 13:50:05
n°10433429
major95
The !!!! Beat
Posté le 24-09-2018 à 13:59:09  profilanswer
 

Les déplacements de données c'est ce qu'il y'a de plus coûteux en informatique.

 

Si tu veux faire exécuter une partie par le GPU et le reste au CPU (ou le contraire), il faudra une très bonne interconnexion et c'est pas avec les 12Go/s (en pratique) du PCI-Express qu'on va y'arriver.

 

Pas pour rien que les GPU ont des mémoires très rapides à plus de 500 Go/s.

Message cité 1 fois
Message édité par major95 le 24-09-2018 à 14:11:50
n°10433450
lapin
Posté le 24-09-2018 à 14:17:27  profilanswer
 

major95 a écrit :

Les déplacements de données c'est ce qu'il y'a de plus coûteux en informatique.  
 
Si tu veux faire exécuter une partie par le GPU et le reste au CPU (ou le contraire), il faudra une très bonne interconnexion et c'est pas avec les 12Go/s (en pratique) du PCI-Express qu'on va y'arriver.  
 
Pas pour rien que les GPU ont des mémoires très rapides à plus de 500 Go/s. :o


 
 
tu dis n'importe quoi déjà c'est le CPU qui exécute le jeu en premier puis le reste des données en envoyer en Direct Mémory Accès de la mémoire centrale du Système d'exploitation et pour ça il faut que le CPU dise au GPU ou pioché les données, d'ailleurs je suis sur qu'une partie des points X et Y et Z des polygones sont exécuter coté CPU ne serai ce que pour la physique, puis le reste est envoyer au GPU pour tracer les polygones, de plus si je te dis qu'avant même des truc en 720P était fait sous DOS en rastérisation voir en Voxel Space par le CPU cas typique de la plus par des jeux sous dos dont notamment Wing commander ou Privateer 2: The Darkening et le flux vidéo était envoyer en 720P a la carte graphique qui n'était que 2D à l'époque, et le bus s'était du PCI simple à 133 Mhz voire 66 Mhz.
 
bon il n'y avait pas des masse de polygones à l'époque, mais s'était très largement en 720P voir 800P en 4/3 et même certains jeux vidéo supportait des définition supérieur à 1920*1280 genre ne serai ce que fly simulator et même des FPS genre Quake le 1 était en software coté CPU même si il utilisait OPENGL ça n'était pas obligatoirement Rasterisé par la carte graphique et il n'était pas rare d'avoir au moins du 1280*800, la plus par des jeux 3D sous dos étaient rendu logiciellement et à l'époque les cartes graphiques ou cartes accélératrice étaient rares et il fallait un bon gros CPU pour lancer le jeu et un encore plus puissant si la carte n'était que 2D.


Message édité par lapin le 24-09-2018 à 14:23:14
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  986  987  988  ..  1003  1004  1005  1006  1007  1008

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR