Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
771 connectés 

 

Sujet(s) à lire :
 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  15  16  17  ..  31  32  33  34  35  36
Auteur Sujet :

[Topic Unique] Mantle : l'API GPU d'AMD

n°9042888
tfpsly
Sly
Posté le 04-02-2014 à 03:13:22  profilanswer
 

Reprise du message précédent :

sasuke87 a écrit :


Pas sûr d'avoir compris. Il insinue que Mantle serait plus efficace que l'API de la Xbox One?


Non, que l'on pourrait utiliser Mantle sur XB1, et même un wrapper D3D par dessus.

mood
Publicité
Posté le 04-02-2014 à 03:13:22  profilanswer
 

n°9042941
Fouge
Posté le 04-02-2014 à 09:06:16  profilanswer
 

sasuke87 a écrit :


Pas sûr d'avoir compris. Il insinue que Mantle serait plus efficace que l'API de la Xbox One?

En gros que l'API "native" de la XB1 c'est Mantle, mais que MS a préféré créer un wrapper au-dessus de Mantle, et cette API présentée aux développeur est nommée DirectX 11.2, nom purement marketing qui n'aurait pas grand chose à voir avec le DirectX qu'on a sur PC.
Mais honnêtement je vois pas bien l’intérêt. Que l'API de la XB1 et de la PS4 soient proches de Mantle, c'est plausible : ce sont 3 API "close to metal" de la même architecture GPU, donc peu probable qu'elle soient très différentes (du moins pour la partie 3D) et c'est la raison pour laquelle Mantle n'a aucun intérêt sur console puisqu'il y a déjà l'équivalent. Mais pourquoi MS se ferait chier à wrapper l'API de la XB1 sous une autre API proprio (qu'ils auraient appelé DirectX) ? Ils pouvaient le faire sans wrapper.

 

Voilà ce que raconte Xbitlabs sur le sujet :

Citation :

According to Microsoft itself, the Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One. Usage of Direct3D 11 on Xbox One has both pros and cons. On the one hand, developers creating content for the Xbox One are able to use the same programing constructs across Windows and Xbox, and benefit from all the improvements that have been introduced on Windows. On the other hand, Direct3D is not the most efficient API and therefore there can be API-related performance limitations. Microsoft, though, claims that the Direct3D 11.* for Xbox One features significant enhancements in the area of runtime overhead, which results in a very streamlined, “close to metal” level of runtime performance. Therefore, there is no need for a special close-to-metal API on Xbox One.


http://www.xbitlabs.com/news/multi [...] 1_API.html


Message édité par Fouge le 04-02-2014 à 09:06:43
n°9042981
Zeross
Posté le 04-02-2014 à 09:53:32  profilanswer
 

Le type mélange tout. Il n'y a pas de Mantle ou de wrapper sur Xbox One juste un DirectX qui n'a pas grand chose à voir avec la version Windows hormis l'API publique. Sur Xbox c'est un "thin layer" qui communique directement avec le hardware et donc a un overhead très faible comparé avec la version Windows.  
 
Sur Windows tu as le cheminement suivant :
App->DirectX->UMD (User-Mode driver)->KMD (Kernel Mode driver)->Hardware
 
Alors que sur Xbox tu as
App->DirectX->Hardware
 
Sur consoles, DirectX va directement écrire dans le command buffer de la carte contrairement au PC où c'est le KMD qui se charge de ça.


Message édité par Zeross le 04-02-2014 à 09:54:09

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°9043674
Mini_BN
Le Goujat est un fromage !
Posté le 04-02-2014 à 18:17:37  profilanswer
 

Je comprend rien à vos histoires, mais je suis repassé aux 13.12, en attendant d'avoir des 14.1 (Beta ou WHQL) qui tiennent la route !


---------------
OMEN by HP 15" | i5 7300HQ - 16Go DDR4 - GTX 1060
n°9044416
ttyb0
sysadmin, libriste, hacker
Posté le 05-02-2014 à 08:45:24  profilanswer
 

Pareil, assez déçu dans l’ensemble par la 14.1 et par Mantle. Le maximum de FPS augmente bien mais le minimum descend bien aussi... plus les micros freeze et les plantages plus fréquents... retour au 13.12

n°9044425
OrcusZ
Pro AMD | .Net lover
Posté le 05-02-2014 à 09:05:40  profilanswer
 

ttyb0 a écrit :

Pareil, assez déçu dans l’ensemble par la 14.1 et par Mantle. Le maximum de FPS augmente bien mais le minimum descend bien aussi... plus les micros freeze et les plantages plus fréquents... retour au 13.12


 
J'ai passer mon temps à lire des articles, message sur forum sur ce premier "jet" de mantle ( mais je n'ai pas pu le test étant sur pc portable ) et les premiers sentiments qu'on peut ressentir c'est qu'il n'y as aucune logique sur les plantage, gain de FPS, de framerate ect...
 
Je crois bien que l'équipement et l'OS sont des variables importantes au bon fonctionnement de mantle.
C'est sur qu'au niveau des test fait pas AMD/DICE il n'ont pas pu tester toutes les configurations possible ( c'est impossible d'ailleurs de le faire )
Donc la communauté va devoir faire les beta testeur pour améliorer petit à petit l'expérience Mantle.
 
Puis je connais pas le fonctionnement interne de Mantle, mais on ne peut pas savoir si c'est les développeur DICE qui ont mal codé Mantle ( normal ça fait peut de temps qu'il développe dessus ) ou si ce sont les drivers AMD qui sont pourri.
 
En tout cas, pour les développeurs faire de Mantle un standard multi plateforme c'est un gros plus. Je me souviens encore des plaintes des développeur pour développer le même jeux sous Xbox 360 et PS3, c'était le jour et la nuit.
 
Le seul a avoir fait l'effort d'harmoniser le développement à l'époque sur X360/PS3/PC c'était Cryteck avec le CE2 pour la sortie de Crysis 2.
 
Donc des avantages oui, un début difficile comme toute nouvelle techno, une utilité discuter forcement.
Mais si personne bouge les choses on restera bloquer en utilisant incorrectement la puissance de nos PC
 
Un exemple similaire actuelle... la fibre : c'est bien beau de pouvoir DL a plus de 60 mo/s quand on sait que la plupart des disques dur vendu ont du mal à l'atteindre sous windows.
Se serait comme nous déployer de la fibre 1 TO/S et rester sur de vieux DD 5400 tr/min et se dire bon ça suffit, ça fonctionne pas besoin de trouver un nouveau standard de stockage plus rapide.
 
Enfin bref, moi je suis en faveur d'AMD ( I am a true fan boy ). Et je suis heureux que cette alpha de mantle soit tout de même intéressante et apporte déjà de vrai gain.
 
Maintenant faut prendre ça avec du recul et se dire ça marche pas pas grave on attendra la prochaine :o


---------------
Made you your own sentence without believing that of the others...
n°9044426
Profil sup​primé
Posté le 05-02-2014 à 09:06:23  answer
 

ttyb0 a écrit :

Pareil, assez déçu dans l’ensemble par la 14.1 et par Mantle. Le maximum de FPS augmente bien mais le minimum descend bien aussi... plus les micros freeze et les plantages plus fréquents... retour au 13.12


pilote beta + api alpha , tu t'attendais à quoi ?  :D  
 
ça va prendre du temps faut pas se faire d'illusion [:cosmoschtroumpf]
 
@OrcusZ   +1


Message édité par Profil supprimé le 05-02-2014 à 09:09:39
n°9044483
Damze
Posté le 05-02-2014 à 09:58:17  profilanswer
 

OrcusZ a écrit :


 
Un exemple similaire actuelle... la fibre : c'est bien beau de pouvoir DL a plus de 60 mo/s quand on sait que la plupart des disques dur vendu ont du mal à l'atteindre sous windows.


 
Ceux qui ont la fibre ont des SSD  [:julm3]

n°9044500
OrcusZ
Pro AMD | .Net lover
Posté le 05-02-2014 à 10:09:14  profilanswer
 

Damze a écrit :


 
Ceux qui ont la fibre ont des SSD  [:julm3]


 
Heu, personnellement je risque d'avoir la fibre avant le SSD
 
Raison : Fibre = presque gratuite ( abonnement au même prix, installation au charges de la co pro )
SSD : 120 go pour 80 euros = trop chère et pas assez de stockage ( je dev et joue donc mes logiciels prennent de la place )
 
Mais je pense qu'en général c'est vrai ^^


---------------
Made you your own sentence without believing that of the others...
n°9044503
SH4 Origon​ X
Je ne vous hais pas.
Posté le 05-02-2014 à 10:10:45  profilanswer
 

La plupart des HDD qui tiennent pas 60Mo/s va falloir mettre à jour tes disques alors :/
On est plus en 2005.


---------------
/!\ DO NOT LOOK AT, TOUCH, INGEST OR ENGAGE IN CONVERSATION WITH ANY SUBSTANCES BEYOND THIS POINT. /!\
mood
Publicité
Posté le 05-02-2014 à 10:10:45  profilanswer
 

n°9044513
OrcusZ
Pro AMD | .Net lover
Posté le 05-02-2014 à 10:22:45  profilanswer
 

SH4 Origon X a écrit :

La plupart des HDD qui tiennent pas 60Mo/s va falloir mettre à jour tes disques alors :/
On est plus en 2005.


 
En séquentielle???
 
de Disque a disque on doit être a 100 Mo/s (Windows ) et 140 Mo/s ( linux )
 
En clef USB sur un bon disque ( 75/90 Mo/s )
 
Faut au moins un 7200 tr/min avec 32 mo de cache pour être certain d'avoir cette vitesse
 
Aujourd'hui la plupart des gens achète des ordi portable bureautique.
 
En général : disque dur 5400 tr/min avec 16 mo de cache...
 
Donc oui il les passe, mais tout le monde ne fait pas attention a ce genre de détail ( surtout les néophyte )
 


---------------
Made you your own sentence without believing that of the others...
n°9044566
mum1989
Posté le 05-02-2014 à 10:57:51  profilanswer
 

/HS

 
OrcusZ a écrit :

 

Heu, personnellement je risque d'avoir la fibre avant le SSD

 

Raison : Fibre = presque gratuite ( abonnement au même prix, installation au charges de la co pro )
SSD : 120 go pour 80 euros = trop chère et pas assez de stockage ( je dev et joue donc mes logiciels prennent de la place )

 

Mais je pense qu'en général c'est vrai ^^


[:moonzoid:5] Si en 2014, tu n'as pas d'SSD, c'est que tu as raté ta config,    [:eife:2]

 

Si tu es ric-rac niveau budget tu as des ssd de 64go à moins de 60€, les 120go à 70-80€ et les 240go à 120-130€, (on peut très bien avoir un HDD pour le stockage et un SSD pour l'os+applications !)

Message cité 1 fois
Message édité par mum1989 le 05-02-2014 à 10:59:30
n°9044574
OrcusZ
Pro AMD | .Net lover
Posté le 05-02-2014 à 11:00:54  profilanswer
 

mum1989 a écrit :


[:moonzoid:5] Si en 2014, tu n'as pas d'SSD c'est que tu as raté ta config,    [:eife:2]

 

si tu es rick rack niveau budget tu as des ssd de 64go à moins de 60€, les 120go à 70-80€ et les 240go à 120-130€, (on peut très bien avoir un HDD pour le stockage et un SSD pour l'os+applications !)

 

Pas de pc fixe j'ai un portable. Donc j'ai que 2 emplacement disque ( un windows + un linux ).
Donc un SSD de 64 ou 128 c'est à banir et 240 go c'est limite.
Quand je vois qu'en 2 semaine d'utilisation j'était a 200 go d'utilisation a terme c'est relou ( je doit faire plein de sauvegarde, avoir 2 mille clef usb ou DD externe ).

 

Pour les configuration qu'on propose ici a HFR, c'est pas toujours simple d'intégrer directement un SSD aussi...
Donc en 2014 le SSD n'est pas encore un standard malheureusement. ( Mais je suis d'accord ça devient de plus en plus indispensable mais pas récurant dans les configuration )

 

En 2014 pc avec SSD inclu c'est rare, et cette exemple visé des configuration tout prête.
Tout le monde ne monte pas sont PC...

 

//HS OFF

Message cité 1 fois
Message édité par OrcusZ le 05-02-2014 à 11:02:50

---------------
Made you your own sentence without believing that of the others...
n°9044918
tfpsly
Sly
Posté le 05-02-2014 à 15:45:28  profilanswer
 

OrcusZ a écrit :

Pas de pc fixe j'ai un portable. Donc j'ai que 2 emplacement disque ( un windows + un linux ).
Donc un SSD de 64 ou 128 c'est à banir et 240 go c'est limite.
Quand je vois qu'en 2 semaine d'utilisation j'était a 200 go d'utilisation a terme c'est relou ( je doit faire plein de sauvegarde, avoir 2 mille clef usb ou DD externe ).


[HS] On peut très bien être dév et faire tenir Win + Linux sur un 60gb, je l'ai fait dans le passé. Linux ne prend quasiment rien, une partoche de 4 à 10gb lui suffisent largement (c'est pourtant mon système principal). Win7 64bits tient dans le reste avec les applis, et les jeux + data sur le(s) HD(s) à coté. Dans un portable on peut très bien faire cela aussi - avec 2 emplacements HD ou en mettant le HD à la place du lecteur dvd.

n°9044936
mazingerz
Posté le 05-02-2014 à 16:01:30  profilanswer
 

y aussi des combo SSD , HDD je crois
 

n°9044951
Punkenjoy
Posté le 05-02-2014 à 16:16:01  profilanswer
 

[hs]Surtout sous linux avec les mount point, tu met ton /home sur un hdd, par exemple.  
 
sinon, non HS, Mantle me fait regarder du coté d'AMD pour ma prochaine carte graphique. J'ai hâte de voir les cartes en 20 nm.

n°9044955
Jojos92
Quand on aime on ne compte pas
Posté le 05-02-2014 à 16:20:04  profilanswer
 

Vous pensez réellement que le 20nm va apporter quelques chose d'extra au GPU ?

 

ça sera un plus petit gap que le passage du 40 au 28 selon moi,
Il n'ya qu'a voir les CPU, de 32 à 22 il n'ya pas eu de gap de perf/conso/chauffe extra, même pire il s'oc moins bien

 

Même si ça n'a pas grand chose à voir à mon avis le 20nm ne sera pas LE gap que tout le monde à l'air d’espérer

 

Peut être sur la conso ... :D

Message cité 2 fois
Message édité par Jojos92 le 05-02-2014 à 16:21:00

---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
n°9044959
mazingerz
Posté le 05-02-2014 à 16:24:35  profilanswer
 

c'est surtout la stacked mémory qui pourrais apporter et la généralisation de la gestion de la transparence façon intel (je c'est plus si c'est out of order ou l'inverse justement)  
 

n°9044960
Eife
Juste avant le .G - Topic de
Posté le 05-02-2014 à 16:24:44  profilanswer
 

c'est surtout que ça fait longtemps qu'on a pas eu ce gap justement, et que du fait, l'acceleration des performances était moins rapide en croissance négative!  
http://p2.storage.canalblog.com/28/72/1111121/91754021.jpg
 
enfin bref, ça va redonner de l'air aux concepteurs quoi :o


---------------
Topic de vente de trucs divers
n°9044968
tfpsly
Sly
Posté le 05-02-2014 à 16:32:06  profilanswer
 

mazingerz a écrit :

c'est surtout la stacked mémory qui pourrais apporter et la généralisation de la gestion de la transparence façon intel (je c'est plus si c'est out of order ou l'inverse justement)


Rien à voir : la technologie de transparence sans tri ("Order Intdependent Transparency" ) utilise une extension hardware permettant de réorganiser l'exécution des pixel shaders par pixel pour les finir dans le bon ordre. http://software.intel.com/en-us/bl [...] ronization

Citation :

The new algorithm makes 2 main changes over this approach; the first is the use of the Intel® Iris™ Graphics pixel synchronization extension. Pixel synchronization provides ordered Read/Modify/Write (RMW) for a given pixel. If two pixels in flight are being rendered to the same screen location at the point of the synchronization primitive in the pixel shader only one shader is allowed to continue and the one chosen is dependent on the order submitted to the front end. The remaining shader(s) resume once the first shader has completed in the order they were submitted. As shown in figure 4.
http://software.intel.com/sites/default/files/PSO_2.JPG

Message cité 1 fois
Message édité par tfpsly le 05-02-2014 à 16:32:38
n°9044976
Punkenjoy
Posté le 05-02-2014 à 16:40:52  profilanswer
 

Jojos92 a écrit :

Vous pensez réellement que le 20nm va apporter quelques chose d'extra au GPU ?  
 
ça sera un plus petit gap que le passage du 40 au 28 selon moi,  
Il n'ya qu'a voir les CPU, de 32 à 22 il n'ya pas eu de gap de perf/conso/chauffe extra, même pire il s'oc moins bien
 
Même si ça n'a pas grand chose à voir à mon avis le 20nm ne sera pas LE gap que tout le monde à l'air d’espérer  
 
Peut être sur la conso ... :D


 
Les CPUs s'en servent principalement pour ajouter du cache et/ou augmenter la taille du GPU. Dans le cas d'un GPU, on pourra augmenter pas mal le nombre de CU. Et oui la stacked memory apportera beaucoup. (ou permettra de faire des cartes 128 bits/256 bits abordable)
 
Je dit surtout ça parce que j'ai une GTX 570, je n'achèterai jamais le haut de gamme, j'ai toujours été plus moyen/haut de gamme ou je trouve le meilleur rapport qualité/prix et j'attend un bon gain en performance pour le faire ( ou qu'elle crame... :whistle:  )

n°9045043
duflotte
Posté le 05-02-2014 à 17:49:14  profilanswer
 

OrcusZ a écrit :


 
J'ai passer mon temps à lire des articles, message sur forum sur ce premier "jet" de mantle ( mais je n'ai pas pu le test étant sur pc portable ) et les premiers sentiments qu'on peut ressentir c'est qu'il n'y as aucune logique sur les plantage, gain de FPS, de framerate ect...
 
Je crois bien que l'équipement et l'OS sont des variables importantes au bon fonctionnement de mantle.
C'est sur qu'au niveau des test fait pas AMD/DICE il n'ont pas pu tester toutes les configurations possible ( c'est impossible d'ailleurs de le faire )
Donc la communauté va devoir faire les beta testeur pour améliorer petit à petit l'expérience Mantle.
 
Puis je connais pas le fonctionnement interne de Mantle, mais on ne peut pas savoir si c'est les développeur DICE qui ont mal codé Mantle ( normal ça fait peut de temps qu'il développe dessus ) ou si ce sont les drivers AMD qui sont pourri.
 
En tout cas, pour les développeurs faire de Mantle un standard multi plateforme c'est un gros plus. Je me souviens encore des plaintes des développeur pour développer le même jeux sous Xbox 360 et PS3, c'était le jour et la nuit.
 
Le seul a avoir fait l'effort d'harmoniser le développement à l'époque sur X360/PS3/PC c'était Cryteck avec le CE2 pour la sortie de Crysis 2.
 
Donc des avantages oui, un début difficile comme toute nouvelle techno, une utilité discuter forcement.
Mais si personne bouge les choses on restera bloquer en utilisant incorrectement la puissance de nos PC
 
Un exemple similaire actuelle... la fibre : c'est bien beau de pouvoir DL a plus de 60 mo/s quand on sait que la plupart des disques dur vendu ont du mal à l'atteindre sous windows.
Se serait comme nous déployer de la fibre 1 TO/S et rester sur de vieux DD 5400 tr/min et se dire bon ça suffit, ça fonctionne pas besoin de trouver un nouveau standard de stockage plus rapide.
 
Enfin bref, moi je suis en faveur d'AMD ( I am a true fan boy ). Et je suis heureux que cette alpha de mantle soit tout de même intéressante et apporte déjà de vrai gain.
 
Maintenant faut prendre ça avec du recul et se dire ça marche pas pas grave on attendra la prochaine :o


 
 
[:delarue5]
mais de quoi tu parles ?!  
n'importe quel HDD sait sequentiellement ecrire a 60Mo/S aujourdhuis. meme les 5200tr/min ...  
 
Mantle est plus proche du metal. ya pas a tergiverser. les perfs sont meilleurs . /  
ca demandera un peu plus d'effort de la part des devs , au moins pour la premiere adaptation d'un moteur.  
 

n°9045053
Fouge
Posté le 05-02-2014 à 17:56:13  profilanswer
 

Jojos92 a écrit :

Vous pensez réellement que le 20nm va apporter quelques chose d'extra au GPU ?

 

ça sera un plus petit gap que le passage du 40 au 28 selon moi,
Il n'ya qu'a voir les CPU, de 32 à 22 il n'ya pas eu de gap de perf/conso/chauffe extra, même pire il s'oc moins bien

 

Même si ça n'a pas grand chose à voir à mon avis le 20nm ne sera pas LE gap que tout le monde à l'air d’espérer

 

Peut être sur la conso ... :D

Sur GPU c'est bien différent. Tout comme lors du passage 40->28nm, le passage 28->20nm va surtout permettre d'ajouter plein de transistors et donc un gros gain de perf, et ce ne sera pas au détriment de la conso (contrairement à un grossissement de GPU à gravure égale comme lors du passage 7970->290X). Pour la fréquence on s'en fou, c'est pas comme si ça faisait un moment que ça stagne...

Message cité 1 fois
Message édité par Fouge le 05-02-2014 à 18:36:17
n°9045058
Profil sup​primé
Posté le 05-02-2014 à 17:58:53  answer
 

Citation :

Un exemple similaire actuelle... la fibre : c'est bien beau de pouvoir DL a plus de 60 mo/s quand on sait que la plupart des disques dur vendu ont du mal à l'atteindre sous windows.


 
 [:darth21:1]
 
C'est peux être le cas si tu fou ton download sous clé USB3 comme disque dure principal ou un dock HD externe de basse qualité mais pas les disques dures mech/SSD

Message cité 1 fois
Message édité par Profil supprimé le 05-02-2014 à 18:04:40
n°9045063
Jojos92
Quand on aime on ne compte pas
Posté le 05-02-2014 à 18:00:44  profilanswer
 

Fouge a écrit :

Sur GPU c'est bien différent. Tout comme lors du passage 40->28nm, le passage 28->20nm va surtout permettre d'ajouter plein de transistors (40% ?) et donc un gros gain de perf, et ce ne sera pas au détriment de la conso (contrairement à un grossissement de GPU à gravure égale comme lors du passage 7970->290X). Pour la fréquence on s'en fou, c'est pas comme si ça faisait un moment que ça stagne...

 

Je trouve au contraire que les fréquence des GPU évolue au moins autant que le reste :D

 

Aujourd'hui tous les GPU sont à au moins 1ghz et beaucoup supporte les 1200+ :D
Alors qu'en 40nm chez nvidia c'étais du 700-800mhz et amd du 800-900 :D

Message cité 1 fois
Message édité par Jojos92 le 05-02-2014 à 18:01:31

---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
n°9045083
fafarex
Posté le 05-02-2014 à 18:16:19  profilanswer
 


 
ma clé USB 3.0 écrit @200Mo/s  [:lepatrontopicfoot]  
 
Il a du tester uniquement sur des pc portable vérolé vieux de 5ans  :lol:

n°9045086
Alicanto
アリカント
Posté le 05-02-2014 à 18:20:38  profilanswer
 

Le passage du 28nm au 20nm aura les mêmes effets que les changements de gravure précédents (notamment celui du 40nm au 28nm) , c'est à dire qu'on pourra mettre deux fois plus de transistors sur une même surface.
Ça a toujours fonctionné pareil : il faut diviser par racine de 2 à chaque fois. C'est fait exprès.


Message édité par Alicanto le 05-02-2014 à 18:39:36
n°9045103
Fouge
Posté le 05-02-2014 à 18:35:32  profilanswer
 

Jojos92 a écrit :

Je trouve au contraire que les fréquence des GPU évolue au moins autant que le reste :D

 

Aujourd'hui tous les GPU sont à au moins 1ghz et beaucoup supporte les 1200+ :D
Alors qu'en 40nm chez nvidia c'étais du 700-800mhz et amd du 800-900 :D

Beaucoup moins que le reste ! Ils profitent clairement des nouvelles finesses de gravure pour y ajouter un max de transistors, le plus qu'ils peuvent sans dépasser un TDP "raisonnable". La fréquence elle suit timidement.

 

Chez nVidia
Juin 2008 : GTX280 55nm 602/1296MHz 1.4Md
Mars 2010 : GTX480 40nm 700/1401MHz 3.0Md
Nov 2010 : GTX580 40nm 772/1544MHz 3.0Md
Mars 2012 : GTX680 28nm 1006(+Boost) 3.5Md
Mai 2013 : GTX780 28nm 863(+Boost) 7.xMd

 

Chez AMD
Juin 2008 : HD4870 55nm 750MHz 0.96Md
Sept 2009 : HD5870 40nm 850MHz 2.1Md
Dec 2010 : HD6970 40nm 880MHz 2.6Md
Jan 2012 : HD7970 28nm 925MHz 4.3Md
Sep 2013 : R9 290X 28nm 1000MHz 6.2Md

 

Le GHz, on flirtait avec dès la fin de l'année 2009 (pas forcément sur les plus gros GPU, ou alors via des OC usine).
Entre 2008 et 2013, le nombre de transistors a été multiplié par 5 ou 6 !
Si la fréquence des Radeon avait suivi "au moins autant que le reste", la R9 290X serait aujourd'hui à 5GHz :o

Message cité 1 fois
Message édité par Fouge le 05-02-2014 à 18:39:22
n°9045156
Profil sup​primé
Posté le 05-02-2014 à 18:59:25  answer
 

Citation :

ma clé USB 3.0 écrit @200Mo/s  [:lepatrontopicfoot]  
 
Il a du tester uniquement sur des pc portable vérolé vieux de 5ans  :lol:


 
Certain dock usb3 ou clé usb vraiment de de basse qualité qui use de vieux contrôleur qui vaut que dale c'est à peine 30-60 sinon tu as raison pour ce qui de bonne qualité et haute qualité on est sur la même longueur d'onde

n°9045175
Profil sup​primé
Posté le 05-02-2014 à 19:06:55  answer
 

Citation :

Fouge


AMd va nous faire le coup de BD fréquence avant IPC graphic pour GCN 2.0  :whistle:


Message édité par Profil supprimé le 05-02-2014 à 19:07:15
n°9045240
mazingerz
Posté le 05-02-2014 à 19:43:45  profilanswer
 

tfpsly a écrit :


Rien à voir : la technologie de transparence sans tri ("Order Intdependent Transparency" ) utilise une extension hardware permettant de réorganiser l'exécution des pixel shaders par pixel pour les finir dans le bon ordre. http://software.intel.com/en-us/bl [...] ronization

Citation :

The new algorithm makes 2 main changes over this approach; the first is the use of the Intel® Iris™ Graphics pixel synchronization extension. Pixel synchronization provides ordered Read/Modify/Write (RMW) for a given pixel. If two pixels in flight are being rendered to the same screen location at the point of the synchronization primitive in the pixel shader only one shader is allowed to continue and the one chosen is dependent on the order submitted to the front end. The remaining shader(s) resume once the first shader has completed in the order they were submitted. As shown in figure 4.
http://software.intel.com/sites/de [...] /PSO_2.JPG



 
rien à voir de quoi?  
 
c'est justement de quoi je parlais ;)  
il y a une notion d'ordre
 
les GPU AMD et NVIDIA ne semble pas pouvoir faire ça (ou de manière détourné mais coute trop de ressource)  
faut revoir leur archi
 
ça sera la première grosse évolution qui permettra des effet fancy comme de la fumé volumétrique ... mais vraiment volumétrique pas comme les truc merdique que l'ont a dans les jeux actuellement
et surement un tas d'autre truc  
 
après la stacked memory sera une évolution au niveau perf  
de la bande passante à gogo
 
après pourra t'on fourré 5 giga de stacked mememory? ou ça sera un genre de gros buffer? ou mémoire indépendante pour certaine taches
est ce que ça vas pas faire un GPU qui surchauffe? est ce que ça sera pas réservé seulement au GPU entrée de game low conso...  
enfin bon on y crois faut rever un peut ^^

Message cité 1 fois
Message édité par mazingerz le 05-02-2014 à 19:49:24
n°9045389
tfpsly
Sly
Posté le 05-02-2014 à 21:41:27  profilanswer
 

mazingerz a écrit :

rien à voir de quoi?  
 
c'est justement de quoi je parlais ;)


 
Ce n'était pas clair dans ton message original, j'en ai compris que la stacked memory permettrait l'OIT (cette phrase semble mal construite) :

mazingerz a écrit :

c'est surtout la stacked mémory qui pourrais apporter et la généralisation de la gestion de la transparence façon intel (je c'est plus si c'est out of order ou l'inverse justement)


mazingerz a écrit :

les GPU AMD et NVIDIA ne semble pas pouvoir faire ça (ou de manière détourné mais coute trop de ressource)  
faut revoir leur archi
 
ça sera la première grosse évolution qui permettra des effet fancy comme de la fumé volumétrique ... mais vraiment volumétrique pas comme les truc merdique que l'ont a dans les jeux actuellement
et surement un tas d'autre truc


Yep, on doit le faire à la main, ce qui est couteux. Ou une approximation inexacte mais rapide.

n°9045451
Zeross
Posté le 05-02-2014 à 22:24:37  profilanswer
 

L'extension d'intel permet de faire un kBuffer en une seule passe, sans cette extension c'est impossible. Certains ont réussi à simuler un mutex sur GPU en utilisant des instructions atomiques mais c'est totalement indéfini par la spec des API graphiques et par conséquent absolument pas robuste (ça marchait sur certains drivers nvidia, ça ne marche plus actuellement mais ça pourrait fonctionner de nouveau prochainement).

 

Sans support hardware, il n'y a pas de solutions miracles : avec un kBuffer de taille fixe par pixel, sans l'extension intel, si tu excedes les limites tu auras des tonnes d'artefacts. Une autre solution c'est une liste chainée par pixel, tu évites les problèmes de synchronisation mais c'est plus couteux et tu as un pool de mémoire global pour stocker les "maillons" de la liste chainée si tu dépasses tu auras des artefacts. Sinon c'est depth peeling mais ça nécessite plusieurs passes donc ce n'est pas praticable. Après effectivement il y a des approximations.

 

L'OIT est un sacré casse tête  :) c'est le cas depuis toujours mais bizarrement les GPU makers ne semblent pas y accorder beaucoup d'importance hormis intel dernièrement.


Message édité par Zeross le 05-02-2014 à 22:25:57

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°9045506
tfpsly
Sly
Posté le 05-02-2014 à 23:02:32  profilanswer
 

Yep.

  • Il y a les solutions très lentes, présentées précédemment par Nv et Ati : depth peeling, buffer contenant une liste chainée par pixel à résoudre ensuite etc.
  • Il y a le papier précédent d'Intel : un buffer stoquant un nombre fixé de samples par pixel, et à l'insertion d'un nouveau fragment on applique l'opacité courante à tous les samples précédents plus loin (les samples trop peu importants sont éliminés si on sature le nombre max de samples par pixcel), puis une passe résolvant la valeur finale. http://download-software.intel.com [...] DC2011.pdf
  • Et une approximation rapide mais un peu dégueux : calculer l'opacité en fonction de la distance + l'alpha de la texture, et faire une somme pondérée des couleurs*opacité-trafiquée. Et ça marche pas si mal en fait. Surtout si fait par layer.


Message édité par tfpsly le 05-02-2014 à 23:05:32
n°9045525
Zeross
Posté le 05-02-2014 à 23:26:53  profilanswer
 

La liste chainée a un coût certain, mais c'est exploitable j'ai eu de bons résultats pour remplacer un algo de depth peeling. Sur un GPU puissant type K6000, la liste chainée peut facilement être 10/15 fois plus rapide que le depth peeling. Le point fort c'est que les perfs suivent celles du GPU, alors que le depth peeling du fait des nombreux draw calls nécessaires à chaque layer devient rapidement limité par le CPU.  
 
Overhead CPU que Mantle essaie justement de limiter... ouf, c'est limite mais je retombe sur le sujet du topic et je suis pas complètement HS :D


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°9045538
silverlema​ge
Posté le 05-02-2014 à 23:52:05  profilanswer
 

Bon ben c'est pas très stable pour l'instant Mantle :( J'ai des freezes + j'ai pas remarqué de hausse significative .
 
R9 290 + 2550K@4,4 Ghz


Message édité par silverlemage le 05-02-2014 à 23:52:47
n°9045549
tfpsly
Sly
Posté le 06-02-2014 à 00:08:34  profilanswer
 

Zeross a écrit :

La liste chainée a un coût certain, mais c'est exploitable j'ai eu de bons résultats pour remplacer un algo de depth peeling. Sur un GPU puissant type K6000, la liste chainée peut facilement être 10/15 fois plus rapide que le depth peeling. Le point fort c'est que les perfs suivent celles du GPU, alors que le depth peeling du fait des nombreux draw calls nécessaires à chaque layer devient rapidement limité par le CPU.

 

Overhead CPU que Mantle essaie justement de limiter... ouf, c'est limite mais je retombe sur le sujet du topic et je suis pas complètement HS :D


La présentation d'Intel à la GDC2011 est la même idée, mais en plus rapide : les slots sont préalloués et connexes, et ne stockent qu'un RGBA8, donnant moins de cache-miss, moins de bande passante consommée, etc.
Mantle n'aidera pas dans ton cas vu que le cout est dans les shaders units, pas coté CPU.

Message cité 1 fois
Message édité par tfpsly le 06-02-2014 à 00:09:13
n°9045551
mazingerz
Posté le 06-02-2014 à 00:11:04  profilanswer
 

tfpsly a écrit :


 
Ce n'était pas clair dans ton message original, j'en ai compris que la stacked memory permettrait l'OIT (cette phrase semble mal construite) :


 
 
 

tfpsly a écrit :


Yep, on doit le faire à la main, ce qui est couteux. Ou une approximation inexacte mais rapide.


 
ok j'étais au taf j'ai pensé un truc et mes doigts on tapés n'importe quoi. En effet c'était incompréhensible  :lol:
mais merci pour les précision techniques !
 
d'après l'interview du gar de chez DICE il a dit qu'il demandais souvent ça au table ronde avec les constructeur de GPU
qui sais peut être prévu dans 1 ou 2 génération  
 

Citation :

[Guennadi Riguer, chief architect for Mantle.] Right now the graphics pipeline is fairly rigid in terms of the data flow, but hopefully in the future it will become more flexible.(...) Definitely, more research is needed in this direction.


j'suis pas du tout expert comme vous mais j'espère qu'on on vas pas rester au GNC 1.1 ad vitam eternam


Message édité par mazingerz le 06-02-2014 à 00:20:48
n°9045683
Jojos92
Quand on aime on ne compte pas
Posté le 06-02-2014 à 09:00:23  profilanswer
 

Fouge a écrit :

Beaucoup moins que le reste ! Ils profitent clairement des nouvelles finesses de gravure pour y ajouter un max de transistors, le plus qu'ils peuvent sans dépasser un TDP "raisonnable". La fréquence elle suit timidement.

 

Chez nVidia
Juin 2008 : GTX280 55nm 602/1296MHz 1.4Md
Mars 2010 : GTX480 40nm 700/1401MHz 3.0Md
Nov 2010 : GTX580 40nm 772/1544MHz 3.0Md
Mars 2012 : GTX680 28nm 1006(+Boost) 3.5Md
Mai 2013 : GTX780 28nm 863(+Boost) 7.xMd

 

Chez AMD
Juin 2008 : HD4870 55nm 750MHz 0.96Md
Sept 2009 : HD5870 40nm 850MHz 2.1Md
Dec 2010 : HD6970 40nm 880MHz 2.6Md
Jan 2012 : HD7970 28nm 925MHz 4.3Md
Sep 2013 : R9 290X 28nm 1000MHz 6.2Md

 

Le GHz, on flirtait avec dès la fin de l'année 2009 (pas forcément sur les plus gros GPU, ou alors via des OC usine).
Entre 2008 et 2013, le nombre de transistors a été multiplié par 5 ou 6 !
Si la fréquence des Radeon avait suivi "au moins autant que le reste", la R9 290X serait aujourd'hui à 5GHz :o

 


Oh bordel une 290x à 5ghz j'imagine même pas le refroidissement qu'il faudrait :D

 

Bon je rectifie alors, les fréquence évolue doucement mais sûrement :o


Message édité par Jojos92 le 06-02-2014 à 09:01:14

---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
n°9045736
Zeross
Posté le 06-02-2014 à 09:55:42  profilanswer
 

tfpsly a écrit :


La présentation d'Intel à la GDC2011 est la même idée, mais en plus rapide : les slots sont préalloués et connexes, et ne stockent qu'un RGBA8, donnant moins de cache-miss, moins de bande passante consommée, etc.
Mantle n'aidera pas dans ton cas vu que le cout est dans les shaders units, pas coté CPU.


 
Ah oui la remarque sur Mantle était juste une petite pirouette pour retomber sur le sujet du topic ;) je parlais du cas du depth peeling où tu multipliais par n ton nombre de draw calls (n passes de rendu pour générer n layers de peel) donc si les draw calls sont moins coûteux c'est toujours ça de pris. Mais ça n'en reste pas moins une solution à éviter, Mantle ou pas.  
 
Pour la présentation d'intel oui j'ai implémenté un truc comme ça, ça marche bien tant que tu ne dépasses pas ton nombre de slots, sinon il faut la synchro entre fragments et pour l'instant hormis les GPU intel Gen 7.5 ça n'est malheureusement pas supporté [:spamafote] Après si tu as un accès bas niveau au GPU et qu'il supporte les atomics 64-bit (comme le GK110) tu peux packer couleur et depth dans 64-bit et faire des échanges atomiques, ça doit fonctionner mais niveau perf je n'ai pas testé.

n°9045846
Golond
Posté le 06-02-2014 à 11:14:16  profilanswer
 

En regardant les perfs aujourd'hui ça a l'air vraiment prometteur.
 
Reste plus qu'à négocier un échange de tech entre Nvidia GSync et AMD Mantle..... :) :) :)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  15  16  17  ..  31  32  33  34  35  36

Aller à :
Ajouter une réponse
 

Sujets relatifs
AMD ou autre ?AMD ou Intel
[conseil] - upgrade CG+CPU+GPU[HFR] Actu : Samsung a-t-il honte d'intégrer des APU AMD?
Conseil HTPC envoyer image tv et projecteur 3D AMD 7790[HFR] Actu : AMD Catalyst 13.11 Beta : R200, 4K et EyeFinity
AMD ou nVidia, l'heure du bilan : qui est le plus fiable ?GPU qui ne chauffe pas, possible ?
[HFR] Actu : AMD lance les Radeon R7 250 et R7 240[HFR] Dossier : AMD Radeon R9 280X, 270X et R7 260X en test
Plus de sujets relatifs à : [Topic Unique] Mantle : l'API GPU d'AMD


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR