Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1108 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Auteur Sujet :

[HFR] Actu : DirectX 12 supportera un mix de GPU

n°9477274
Activation
21:9 kill Surround Gaming
Posté le 02-05-2015 à 15:59:35  profilanswer
0Votes positifs
 

Reprise du message précédent :

tridam a écrit :

grosnabot a écrit :

Je vois pas de "moitié physx"("physx avec moins d'effets" ) dans les jeux. C'est avec ou sans.
 
edit on sait modifier le niveau de physx sur certains jeux mais ça ne change rien, le débit d'images chute énormément même avec un "niveau moyen" contrairement à la désactivation.
 
Donc il est où ce physx sur cpu qui soit disant est exploitable sans gpu nvidia ? (et sans avoir le haut de gamme amd)


 
Tu te trompes parce que la manière dont sont présentées ces options dans les jeux est trompeuse. PhysX c'est un ensemble d'API qui doivent être intégrée au coeur du moteur du jeu. C'est par exemple ce qui peut faire que des caisses tombent quand tu fonces dedans, que le personnage peut sauter à une hauteur limitée, qu'il meure s'il tombe de trop haut... Tout ça fait partie de la simulation du monde et est pris en charge exclusivement par le CPU. PhysX n'est pas spécifique au PC, mais compatible également avec toutes les consoles.
 
Ensuite il y a GPU PhysX (très souvent simplifié en PhysX tout court dans les options). Ce sont des modules optionnels à PhysX qui permettent d'ajouter des effets graphiques qui n'ont pas trop d'importance directe sur le gameplay et la simulation du monde (par exemple animer des liquides, des gaz, des vêtements). Les modules GPU PhysX peuvent être accéléré par les GPU Nvidia ou tourner en mode CPU. Dans ce second cas ils sont en gros inutilisables tellement c'est lent (bien qu'il s'agisse de très bons candidats pour  profiter de tous les coeurs/threads des CPU et de leurs unités vectorielles, ils sont aussi peu optimisés que possible histoire de favoriser les GPU). Nvidia joue sur les mots entre PhysX et GPU PhysX, probablement pour que les joueurs pensent que tous les jeux dans lesquels apparaît le logo PhysX tournent mieux sur GeForce, d'où la confusion.
 
Sinon c'est un peu HS :o


 
Le problème c'est que les effets physique surtout mit en avant sur gpu sont souvent de type éphémère et pas persistent (débris suite à explosion qui disparaissent au bout d'un laps de temps, impact sur surface qui disparaissent au bout d'un laps de temps)
 
Perso je préfère la biblio havok pensé multithread cpu et dont les effets sont plus 'persistant' (mouvement de tissu, destruction de structures, ....)
 
de toute façon physx gpu au jour d'aujourd'hui s'appuie sur "CUDA", mais je dirais qu'à terme (directx13 ?) certaines opérations lié à la physique pourrait bien retrouvé dans un cablage hardware "standardisé" à tout les fabricants pour une simple raison d'efficience  
ou le retour de la revanche du "PPU", reste à savoir si ce "ppu" à plus sa place du coté cpu ou du coté gpu (bon comme de toute façon à terme tout ce beau monde se retrouvera sur un même die)
 
mais dans la majorité des jeux le plus souvent pour le moment on a plus intérèt à filer le boulot au cpu qui a encore de la marge d'utilisation avec tout ce potentiel sous exploité avec tout ces core pas du tout à pleine charge, plutôt que le gpu qui en général est au taquet pour l'affichage (politique du tout à fond mode gros boeuf des gamers :o )


Message édité par Activation le 02-05-2015 à 16:16:31
mood
Publicité
Posté le 02-05-2015 à 15:59:35  profilanswer
 

n°9477277
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 16:04:32  profilanswer
1Votes positifs
 

Pour revenir au sujet, je ne pense pas qu'il soit dans l'intérêt de Nvidia de faciliter le support d'un mix entre GeForce et Radeon.
 
Par contre supporter un mix entre GeForce et iGPU Intel, surtout dans le cadre de la plateforme Optimus, est intéressant. Ca permettra à Nvidia d'améliorer l'avantage compétitif de sa plateforme vs AMD, et surtout de redonner un coup de boost au marché du "petit GPU qui ne sert à rien à part ajouter un logo sur les PC". S'il peut être combiné au GPU intégré, il servira un peu moins à rien. De quoi permettre à Nvidia d'essayer de se faire une place dans les ultraportables.
 
Pour AMD l'intérêt est similaire mais concerne surtout sa plateforme Dual Graphics.
 
Sinon concernant l'addition des zones mémoires, en théorie tout est possible. En pratique, il y aura toujours au moins un GPU qui devra contenir toutes les textures. Déporter le post processing, ou une partie de celui-ci, vers un autre GPU pourra peut-être économiser quelques buffers dans la mémoire du GPU principal mais ça ne devrait pas faire de différence énorme au niveau de l'utilisation mémoire de ce dernier.
 
En fait ce qu'il sera surtout possible de faire c'est d'avoir par exemple une carte graphique 8 Go pour le rendu de base (avec le texturing) et une carte graphique 1 Go pour le post processing. Mais je vois mal l'industrie se focaliser sur des solutions aussi spécifiques, d'autant plus que peu de jeux pourront en profiter, surtout au départ. Enfin, à moins qu'AMD et Nvidia ne soient capables de prendre en charge eux-mêmes ce type de rendu en multi-GPU avec des optimisations spécifiques qui "couperaient" à la volée le rendu au bon endroit suivant les GPU utilisés.

n°9477281
Yeagermach​42
Posté le 02-05-2015 à 16:09:32  profilanswer
0Votes positifs
 

tridam a écrit :

Pour revenir au sujet, je ne pense pas qu'il soit dans l'intérêt de Nvidia de faciliter le support d'un mix entre GeForce et Radeon.
 
Par contre supporter un mix entre GeForce et iGPU Intel, surtout dans le cadre de la plateforme Optimus, est intéressant. Ca permettra à Nvidia d'améliorer l'avantage compétitif de sa plateforme vs AMD, et surtout de redonner un coup de boost au marché du "petit GPU qui ne sert à rien à part ajouter un logo sur les PC". S'il peut être combiné au GPU intégré, il servira un peu moins à rien. De quoi permettre à Nvidia d'essayer de se faire une place dans les ultraportables.
 
Pour AMD l'intérêt est similaire mais concerne surtout sa plateforme Dual Graphics.
 
Sinon concernant l'addition des zones mémoires, en théorie tout est possible. En pratique, il y aura toujours au moins un GPU qui devra contenir toutes les textures. Déporter le post processing, ou une partie de celui-ci, vers un autre GPU pourra peut-être économiser quelques buffers dans la mémoire du GPU principal mais ça ne devrait pas faire de différence énorme au niveau de l'utilisation mémoire de ce dernier.
 
En fait ce qu'il sera surtout possible de faire c'est d'avoir par exemple une carte graphique 8 Go pour le rendu de base (avec le texturing) et une carte graphique 1 Go pour le post processing. Mais je vois mal l'industrie se focaliser sur des solutions aussi spécifiques, d'autant plus que peu de jeux pourront en profiter, surtout au départ. Enfin, à moins qu'AMD et Nvidia ne soient capables de prendre en charge eux-mêmes ce type de rendu en multi-GPU avec des optimisations spécifiques qui "couperaient" à la volée le rendu au bon endroit suivant les GPU utilisés.


Le support multiGPU étant limité d'après l'article a Direct3D (titre légèrement mensonger d'ailleurs). Est-que vous pensez que l'on puisse le voir arriver pour DirectCompute qui fait parti de DirectX aussi. La l'intérêt y serait plus grand je pense.

n°9477285
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 16:10:04  profilanswer
0Votes positifs
 

Activation a écrit :

Moi je constate surtout que dx12 demande plus de rigueur coté editeurs de jeux
Déjà que t'as pas envi d'acheter day one des jeux ubisoft finit à la truelle
Alors des jeux ubisoft dx12 ça va encore moins donné envie d'achat dayone
Avant que les pro amd et pro nvidia se fritte la gueule, faut déjà que les editeurs de jeux enfin surtout les feveloppeur de moteur de jeu : frostbite engine, unreal engine, ego engine, .... S'approprie ce fameux dx12
Nul doute que amd ou nvidia bosse déjà avec eux avec des 'blackbox' remplit d'engineer sample de leurs prochains gpu
 
Mais voilà je demande à voir les premiers jeux dx12 'in action' :o et leur premiers bug 'cas de figure'
Car pour le moment sorti de pauvre 'demo technique' non interractive.... Bof quoi


 
Disons qu'un bon développeur pourra plus facilement s'assurer d'avoir un code robuste avec D3D12. Sous les API classiques, il y a tellement de choses qui sont hors de son contrôle qu'il peut difficilement s'en assurer. Par contre un nouveau monde d'opportunités de bugs va s'ouvrir pour les développeurs moins doués :D

n°9477287
aresias
Posté le 02-05-2015 à 16:12:12  profilanswer
0Votes positifs
 

Et donc vous pensez que les shaders asynchrones vont être utilisés et que les "petits" développeurs ne vont pas faire main basse sur cette optimisation ?
Sur le papier ça fait rêver.

Message cité 1 fois
Message édité par aresias le 02-05-2015 à 16:13:04
n°9477290
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 16:14:30  profilanswer
0Votes positifs
 

Yeagermach42 a écrit :


Le support multiGPU étant limité d'après l'article a Direct3D (titre légèrement mensonger d'ailleurs). Est-que vous pensez que l'on puisse le voir arriver pour DirectCompute qui fait parti de DirectX aussi. La l'intérêt y serait plus grand je pense.


 
Bien sûr. Je pense qu'il faut voir DirectCompute plutôt comme une sous-composante de Direct3D que comme une API différente. Dans ce cadre, compute uniquement, il sera encore plus facile de profiter de toute la flexibilité de Direct3D12.

n°9477294
grosnabot
Posté le 02-05-2015 à 16:18:39  profilanswer
0Votes positifs
 

tridam a écrit :

grosnabot a écrit :

Je vois pas de "moitié physx"("physx avec moins d'effets" ) dans les jeux. C'est avec ou sans.
 
edit on sait modifier le niveau de physx sur certains jeux mais ça ne change rien, le débit d'images chute énormément même avec un "niveau moyen" contrairement à la désactivation.
 
Donc il est où ce physx sur cpu qui soit disant est exploitable sans gpu nvidia ? (et sans avoir le haut de gamme amd)


 
Tu te trompes parce que la manière dont sont présentées ces options dans les jeux est trompeuse. PhysX c'est un ensemble d'API qui doivent être intégrées au coeur du moteur du jeu. C'est par exemple ce qui peut faire que des caisses tombent quand tu fonces dedans, que le personnage peut sauter à une hauteur limitée, qu'il meure s'il tombe de trop haut... Tout ça fait partie de la simulation du monde et est pris en charge exclusivement par le CPU. PhysX n'est pas spécifique au PC, mais compatible également avec toutes les consoles.
 
Ensuite il y a GPU PhysX (très souvent simplifié en PhysX tout court dans les options). Ce sont des modules optionnels à PhysX qui permettent d'ajouter des effets graphiques qui n'ont pas trop d'importance directe sur le gameplay et la simulation du monde (par exemple animer des liquides, des gaz, des vêtements). Les modules GPU PhysX peuvent être accélérés par les GPU Nvidia ou tourner en mode CPU. Dans ce second cas ils sont en gros inutilisables tellement c'est lent (bien qu'il s'agisse de très bons candidats pour  profiter de tous les coeurs/threads des CPU et de leurs unités vectorielles, ils sont aussi peu optimisés que possible histoire de favoriser les GPU). Nvidia joue sur les mots entre PhysX et GPU PhysX, probablement pour que les joueurs pensent que tous les jeux dans lesquels apparaît le logo PhysX tournent mieux sur GeForce, d'où la confusion.
 
Sinon c'est un peu HS :o


 
Rien ne dit qu'il ne s'agit pas de code qui n'utilise pas une api des "biblio physx". Je pense aussi que c'est une extrapolation de croire que parce que y a de la physique tout passe par physx même quand c'est pas sur gpu...après comme on a pas le code...
 
mauvaisefoioff: bon ok si l'api est bien foutue que ça permet de gagner du temps de moins se casser la tête je me doute qu'ils l'utilisent.
 
 
#paspourtridam
passer à travers le décor c'est la gestion des collisions ça, un rapport avec la gestion de la physique ?(oui j me doute que c'est pas loin mais ça ne me semble pas forcément directement lié)


Message édité par grosnabot le 02-05-2015 à 16:29:11
n°9477299
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 16:25:14  profilanswer
0Votes positifs
 

aresias a écrit :

Et donc vous pensez que les shaders asynchrones vont être utilisés et que les "petits" développeurs ne vont pas faire main basse sur cette optimisation ?
Sur le papier ça fait rêver.


 
Ils seront utilisés mais de manière limitée je pense. C'est-à-dire pour quelques optimisations évidentes mais sans chercher à optimiser finement puisque cela serait trop spécifique, à chaque GPU, à chaque combinaison d'options graphiques etc. Pour info, en mars j'avais posé quelques questions à AMD sur ce sujet. Un petit extrait :
 

Citation :

Let’s say developers do an amazing job with fences and barriers in D3D12 to get the most of current GPUs, running tasks concurrently in an optimal fashion. What happens with future GPUs when paradigms and bottlenecks move ? What is optimal for current GPUs might move close to bad case for future architectures. Will you have room to tweak fences in the drivers to align tasks in a different fashion ? Or would you advise developers not to optimize too deeply and “simply” try to combine mostly compute intensive with mostly memory intensive tasks ?
At the moment we’re recommending the latter. Micro-optimising is probably not worth it and carries pitfalls; in particular the cost of fences is not insignificant. If applications can do their best efforts to use a couple of fences per frame to line up a few fairly obviously dissimilar workloads, we expect that to provide the majority of the benefit for minimal application effort and acceptable risk in the future.
 
Is there any advantage for gaming to have 8 ACEs instead of 2 or even 1 ?
For games engines like those we have today, the difference would likely be minimal since it is possible to get most of the benefit with a small number of asynchronous queues.  However, future designs that more extensively decompose their workload into many small tasks could potentially derive more benefit from extra queues, particularly on higher end GPUs with a large amount of compute resources.
 
Can you take advantages of ACEs or DMA engines for “copy” commands in D3D11 or is this also new for lower end APIs ?
We make limited use of both in D3D11, but the ability to use either is restricted by it having a strictly sequential command model.  That is, operations must be executed strictly in the order they are submitted, and any overlap between them that could be visible to the app would cause an error. So the only place we really get to use concurrent DMA in D3D11 is during initial data uploads. We can also exploit the ACEs simultaneously with D3D via OpenCL, HSA, Mantle or LiquidVR.

n°9477302
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 16:28:07  profilanswer
0Votes positifs
 

grosnabot a écrit :


Rien ne dit qu'il ne s'agit pas de code qui n'utilise pas une api des "biblio physx". Je pense aussi que c'est une extrapolation de croire que parce que y a de la physique tout passe par physx même quand c'est pas sur gpu...après comme on a pas le code...


 
Ha bah doit surement y avoir des développeurs qui n'ont rien d'autre à faire que réinventer la roue et s'amuser à recoder leurs propres bibliothèques physiques après s'être amusés à intégrer celles de PhysX dans leur moteur. Ou pas :o

n°9477303
Activation
21:9 kill Surround Gaming
Posté le 02-05-2015 à 16:28:41  profilanswer
0Votes positifs
 

par contre là ou ça pourra être très intéressant c'est pour ressortir du chapeau des notebook avec un connecteur spécifique pour adjoindre une CG externe PCIe  
 
va t'on enfin voir un asus, msi, alienware pondre genre un portable qu'on posera sur un dock
un peu comme t'avais ta megadrive que tu posait sur le megacd
 
ou une tablet que tu pose sur un dock, même principe
le dock bien en évidence à coté de ta TV 55"
et paf le couple tablet core i7 32GB DDR4 SSD 512GB qui se couple à un dock double gtx1070 (pascal) nvlink + HDD 6To + unité blu ray disque 200GB
 
oui j'ai mit des composant de 2016 dedans :o
 
(on est d accord aucun intérêt, le cout htpc gamer + tablet plus raisonnable revient moins cher, et genre qqun d'autre peut utiliser la tablet pendant que qqun d autre le htpc)


Message édité par Activation le 02-05-2015 à 16:32:50
mood
Publicité
Posté le 02-05-2015 à 16:28:41  profilanswer
 

n°9477306
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 16:32:28  profilanswer
1Votes positifs
 

Ou des clés USB avec des petits GPU :o

n°9477308
Activation
21:9 kill Surround Gaming
Posté le 02-05-2015 à 16:34:39  profilanswer
0Votes positifs
 

tridam a écrit :

Ou des clés USB avec des petits GPU :o


 
ça ça sera la nvidia shield 5
 
déjà que la shield "android tv" qui sort ce mois ci vend du rêve, j'espère que vous allez la tester, avec stream des jeux depuis un pc dans le salon via reseau ethernet tout ça :o
 
puré je savais qu'un tel boitier android tv avec le tegra x1 allais sortir mais comme je savais pas quand en décembre, j'ai prit un openhour chameleon fin décembre... put je m'en veut, me faut cette shield :o


Message édité par Activation le 02-05-2015 à 16:38:27
n°9477311
aresias
Posté le 02-05-2015 à 16:41:37  profilanswer
0Votes positifs
 

tridam a écrit :

aresias a écrit :

Et donc vous pensez que les shaders asynchrones vont être utilisés et que les "petits" développeurs ne vont pas faire main basse sur cette optimisation ?
Sur le papier ça fait rêver.


 
Ils seront utilisés mais de manière limitée je pense. C'est-à-dire pour quelques optimisations évidentes mais sans chercher à optimiser finement puisque cela serait trop spécifique, à chaque GPU, à chaque combinaison d'options graphiques etc. Pour info, en mars j'avais posé quelques questions à AMD sur ce sujet. Un petit extrait :
 

Citation :

Let's say developers do an amazing job with fences and barriers in D3D12 to get the most of current GPUs, running tasks concurrently in an optimal fashion. What happens with future GPUs when paradigms and bottlenecks move ? What is optimal for current GPUs might move close to bad case for future architectures. Will you have room to tweak fences in the drivers to align tasks in a different fashion ? Or would you advise developers not to optimize too deeply and "simply" try to combine mostly compute intensive with mostly memory intensive tasks ?
At the moment we're recommending the latter. Micro-optimising is probably not worth it and carries pitfalls; in particular the cost of fences is not insignificant. If applications can do their best efforts to use a couple of fences per frame to line up a few fairly obviously dissimilar workloads, we expect that to provide the majority of the benefit for minimal application effort and acceptable risk in the future.
 
Is there any advantage for gaming to have 8 ACEs instead of 2 or even 1 ?
For games engines like those we have today, the difference would likely be minimal since it is possible to get most of the benefit with a small number of asynchronous queues.  However, future designs that more extensively decompose their workload into many small tasks could potentially derive more benefit from extra queues, particularly on higher end GPUs with a large amount of compute resources.
 
Can you take advantages of ACEs or DMA engines for "copy" commands in D3D11 or is this also new for lower end APIs ?
We make limited use of both in D3D11, but the ability to use either is restricted by it having a strictly sequential command model.  That is, operations must be executed strictly in the order they are submitted, and any overlap between them that could be visible to the app would cause an error. So the only place we really get to use concurrent DMA in D3D11 is during initial data uploads. We can also exploit the ACEs simultaneously with D3D via OpenCL, HSA, Mantle or LiquidVR.



 
Très intéressant merci.
Par contre tu fais référence à cet article ? http://www.hardware.fr/news/14133/ [...] s-gpu.html
car dedans il y a pas ces 3 questions (je l'avais lu en entier). J'ai cherché dans toutes les news et sur le forum j'ai pas trouvé les questions/réponses que tu viens de me montrer [:bastian]  si il y en a d'autres ça m'intéresse aussi :D

Message cité 1 fois
Message édité par aresias le 02-05-2015 à 16:53:06
n°9477320
Activation
21:9 kill Surround Gaming
Posté le 02-05-2015 à 16:59:03  profilanswer
0Votes positifs
 

kabloui a écrit :

Est-ce que le système d'exploitation de la xbox one est compatible avec dx12?


il y aura une maj sur la xbox one (y a plusieurs OS dans la xbox one)
de toute façon il y aura un store commun des (pas tous) softs/jeux acheté sur le MS Store pourront aussi bien se lancer sur xbox one, PC windows 10 et smartphone windows phone 10
 
en gros tu peux par exemple t'attendre à voir videolan (  [:yopyopyop] ) débouler sur xbox one, tout comme fable legends acheté sur le store tu pourra tout aussi bien le lancer de ta xbox one que de ton PC win10 (s'entend ça ne sera pas un streaming sur pc depuis ta xbox one, t'aura tout autant acheté la version PC que xbox one vu qu'acheté sur le ms store via ton compte microsoft)
enfin... je dit "acheté" fable legends est censé être un "free to play" :o


Message édité par Activation le 02-05-2015 à 17:00:24
n°9477337
bjone
Insert booze to continue
Posté le 02-05-2015 à 17:17:25  profilanswer
0Votes positifs
 

Dans l'exemple donné ça génère quand même une frame de latence (de plus).

n°9477351
seb4771
Posté le 02-05-2015 à 17:54:01  profilanswer
1Votes positifs
 

nVidia étant CONTRE le multi-gpu concurrent, c'est déjà annoncé que ce serait SANS eux et que TOUT sera fait pour contrer la fonctionnalité.
 
Vu le retour que l'on a avec une AMD et nvidia physX avec pilote beta obligatoire (et plus à jour depuis + 1 an), c'est bloqué de partout pour justement évité cette solution chez les verts (ce qui est complètement débile vu que le client achète les 2 cartes dans tout les cas).
 
Donc ce sera AMD/AMD ou AMD/Intel au mieux.

n°9477398
jdemouth
Posté le 02-05-2015 à 18:34:30  profilanswer
0Votes positifs
 

aresias a écrit :

Et c'est quoi ton explication sur la mémoire video divisé par 4 en utilisation OpenCL sur les cartes Nvidia ?


Il n'y a pas de division de la mémoire par 4. Jusqu'à récemment le driver ne supportait qu'un adressage 32-bit. Ça limitait à 4GB. Les derniers drivers supportent l'adressage 64 bits. Il est vrai que CUDA supporte le 64-bit depuis le début.


Message édité par jdemouth le 02-05-2015 à 18:41:19
n°9477415
aresias
Posté le 02-05-2015 à 18:47:08  profilanswer
1Votes positifs
 

jdemouth a écrit :

aresias a écrit :

Et c'est quoi ton explication sur la mémoire video divisé par 4 en utilisation OpenCL sur les cartes Nvidia ?


Il n'y a pas de division de la mémoire par 4. Jusqu'à récemment le driver ne supportait qu'un adressage 32-bit. Ça limitait à 4GB. Les derniers drivers supportent l'adressage 64 bits. Il est vrai que CUDA supporte le 64-bit depuis le début.


non je parle bien d'une division de la mémoire par 4. j'ai vu une personne en parler avec une carte 2Gb il pouvait utiliser que 512Mo en OpenCL.
Je sais pas si ils ont fait sauter cette limite mais il y a 1 an c'était le cas.
Edit: hum j'arrive pas à retrouver c'est peut être plus compliqué que ça


Message édité par aresias le 02-05-2015 à 18:56:53
n°9477485
gils04
le soleil du sud !
Posté le 02-05-2015 à 20:25:39  profilanswer
1Votes positifs
 

:pfff:  
 
sous OS X nvidia et AMD cohabite très bien et nvidia ferme sa gueule !!

n°9477531
saruhada
Legendary X58
Posté le 02-05-2015 à 21:22:33  profilanswer
0Votes positifs
 

Les dev feraient mieux d'optimiser leurs jeux plutot que d'attendre des hypotétiques evolutions multi gpu useless au possible...
 
Quand ont voit AC on se demande si c'est pas fait expres pour pousser l'achat d'un gpu plus puissant afin de gommer l'optimisation completement bacler du jeux...

n°9477638
jdemouth
Posté le 02-05-2015 à 23:01:56  profilanswer
0Votes positifs
 

aresias a écrit :

jdemouth a écrit :

[quotemsg=9477170,3,1015238]Et c'est quoi ton explication sur la mémoire video divisé par 4 en utilisation OpenCL sur les cartes Nvidia ?


Il n'y a pas de division de la mémoire par 4. Jusqu'à récemment le driver ne supportait qu'un adressage 32-bit. Ça limitait à 4GB. Les derniers drivers supportent l'adressage 64 bits. Il est vrai que CUDA supporte le 64-bit depuis le début.


non je parle bien d'une division de la mémoire par 4. j'ai vu une personne en parler avec une carte 2Gb il pouvait utiliser que 512Mo en OpenCL.
Je sais pas si ils ont fait sauter cette limite mais il y a 1 an c'était le cas.
Edit: hum j'arrive pas à retrouver c'est peut être plus compliqué que ça[/quotemsg]
 
Cette limitation n'existe pas dans le driver. Ca pourrait être un bug dans une version particulière mais ce n'est pas une limitation qui est intentionnelle. Si c'est un vrai problème, il faut poster sur le forum de développeurs NVIDIA avec un repro.

n°9478093
Activation
21:9 kill Surround Gaming
Posté le 03-05-2015 à 15:16:54  profilanswer
0Votes positifs
 

seb4771 a écrit :

nVidia étant CONTRE le multi-gpu concurrent, c'est déjà annoncé que ce serait SANS eux et que TOUT sera fait pour contrer la fonctionnalité.
 
Vu le retour que l'on a avec une AMD et nvidia physX avec pilote beta obligatoire (et plus à jour depuis + 1 an), c'est bloqué de partout pour justement évité cette solution chez les verts (ce qui est complètement débile vu que le client achète les 2 cartes dans tout les cas).
 
Donc ce sera AMD/AMD ou AMD/Intel au mieux.


 
même sans "bloquer" je sais pas si t'as remarqué mais à chaque gen de gpu l'archi evolue, suffit de regarder l'évolution rien que chez nvidia des unité SM
 
si nvidia arrive déjà à faire en sorte genre pour l'archi pascal que tu puisse coupler un gp104 avec un gp106 ou un gp100  
 
c'est pas le tout que toi consommateur final tu veux pouvoir coupler une r9 390 avec une gtx1080, faut il encore que pour le dit jeu qui a prit en charge la fonctionnalité "multigpu" ça marche, mais que ça ne marche pas qu'à un instant "t" si tu relance le jeu 1an plus tard et que de nouveau gu sont sorti, faut que ça marche encore
 
c'est facile de vivre dans le monde tout beau de AMD ou tout est possible, t'es libre de tout et etc... , sauf que y a aussi un coté ou AMD de temps en temps faut arrêter de vivre dans le monde des bisounours et poser les pieds sur terre et agir
le crossfire hybride ça a existé sauf que c'était sur une même famille de gpu, et quand amd est parti sur une logique de fonctionnement quasi full AFR du crossfire il y a qqs années bah le crossfire hybride c'est un peu passé aux oubliettes
 
bref avant de cracher à la gueule de nvidia "oueh pourri de capitaliste blabla bla"  attend donc voir d'avoir la solution amd en main FONCTIONNEL (on peut reparler du freesync sinon, des déboire du début du displayport chez amd, du début chaotique du eyefinity....  ok maintenant ça marche, mais pour avoir essuyé les platre sur cypress, je remercie pas amd pour m'avoir prit moi client comme alpha testeur payant, j'achète pas du matos pour que les promesse ne marche que 2 gen plus tard)
arrive un moment faut des sous pour que la R&D tourne et que les "belles idées", bah elle reste pas des idées en l'air
 
moi j'attend que ça que demain monsieur amd sortent des super truc (genre un cpu octocore qui me donne envie de dégager mon i7 3770k)
 
car faut pas oublier une chose, si les gpus amd deviennent trop top sa race... pourquoi diable aura tu l'idée saugrenue de coupler une CG AMD avec une CG nvidia, ... achète une seconde CG AMD
si le business de nvidia te donne la gerbe, pourquoi voudrais tu en acheter une .... t'es masochiste  :??:  [:cuirmoustache:2]


Message édité par Activation le 03-05-2015 à 15:19:35
n°9478098
Activation
21:9 kill Surround Gaming
Posté le 03-05-2015 à 15:28:37  profilanswer
1Votes positifs
 

saruhada a écrit :

Les dev feraient mieux d'optimiser leurs jeux plutot que d'attendre des hypotétiques evolutions multi gpu useless au possible...
 
Quand ont voit AC on se demande si c'est pas fait expres pour pousser l'achat d'un gpu plus puissant afin de gommer l'optimisation completement bacler du jeux...


 
chez ubi le budget pot de vin (tout les lèche boule présent à l'E3 à nourrir :o ) et marketing est presque aussi gros que celui alloué au dev du jeu
 
et le problème c'est qu'avec un ubicrotte, le rythme des jeux est annuel, donc ils sont dans la logique de "mettez pas toute les bonne idée dans un même jeu, gardez les pour au moins les 3épisodes suivant"
 
et voilà comment pour chaque épisode annuel on se tape les même missions répétitive qui deviennent donc chiante et te donne pas envie de finir le jeu, et hop magie de l'E3, une "fausse nouvelle" bonne idée apparait dans le trailer de 50secondes :o > et direct tout les jours jusqu'à octobre (mise en vente) bourrage de crane (les dits lèche boules) avec matraquage de news sur le jeu avec une moyenne de 2news par jour
des fois qu'il y ai pas d'autre jeux à suivre  (tu prend sur l'E3 de 2014 y az au moins 35% de jeux présenté qui on droit AU MIEUX à une news tout les 6mois)
 
c'est qu'il faut les brosser dans le sens du poil les lèche b... pardons la "presse spécialisé généraliste"  

n°9478206
The_Balrog
Et là, c'est le drame...
Posté le 03-05-2015 à 17:38:08  profilanswer
0Votes positifs
 

Même si pur HS, tellement d'accord sur ubitruc :x
Ceci dit, tu oublies de mentionner une catégorie dans ton post: le pigeon ;)
Non parc que Ubi/auto-repompe-concept-à-2-sous, les leches boules (ceci dit, moins nombreux, pas mal tapent enfin sur pignouffe creed, ouf!) ne continueraient pas si le pigeon, au final, n'achetait pas. L'oeuf et la poule? :D

n°9478344
tridam
Profil : Equipe HardWare.fr
Posté le 03-05-2015 à 19:29:10  profilanswer
0Votes positifs
 

aresias a écrit :


Très intéressant merci.
Par contre tu fais référence à cet article ? http://www.hardware.fr/news/14133/ [...] s-gpu.html
car dedans il y a pas ces 3 questions (je l'avais lu en entier). J'ai cherché dans toutes les news et sur le forum j'ai pas trouvé les questions/réponses que tu viens de me montrer [:bastian]  si il y en a d'autres ça m'intéresse aussi :D


 
Oui c'est bien cet article, mais AMD m'avait répondu après la publication. Sinon en général je ne publie pas directement ces réponses, la discussion est souvent informelle. Ca nous aide à comprendre et à expliquer en détail toutes ces technos.


Message édité par tridam le 03-05-2015 à 19:30:39
n°9479077
akalash47
Posté le 04-05-2015 à 15:48:31  profilanswer
0Votes positifs
 

C'est vraiment intéressant même si je trouve l'exemple donné assez nul : une interdépendance très forte en fin de frame, d'où effectivement une frame de latence supplémentaire! En plus il faudrait brancher l'écran sur la sortie du GPU intégré, mais seulement pour ce genre d'appli?!
 
Bref ça me parait plus judicieux de filer très tôt la génération des shadow maps (peut-être seulement d'un perso) / cube maps au GPU intégré pendant que l'autre s'occupe du rendu de la scène…. En gros tout effet qui demande de la rastérization, est indépendant du rendu principal, se transfère rapidement par le bus PCIE, peut s'exécuter suffisamment vite et en avance sur les besoins du GPU principal...et ne demande pas de features DX12 hyper avancées pour éviter de racheter un APU complet! Pourquoi pas lui faire traiter des effets genre GI ou AO aussi, mais comme ils se font généralement via compute shaders c'est déjà moins intéressant avec la généralisation d'ACEs qui peuvent les exécuter en // du rendu, et sans transfert aller-retour via PCI Express.


Message édité par akalash47 le 04-05-2015 à 15:50:30
n°9479089
bluedragon​38
Posté le 04-05-2015 à 15:59:55  profilanswer
1Votes positifs
 

ravenloft a écrit :

Le nain de HFR a écrit :

comptez sur nVidia pour verrouiller à mort et empêcher toute utilisation conjointe avec les produits du concurrent


1er message, 1er troll + 10 trolls ayant voté +1.
Cela commence bien. :(  
 

kabloui a écrit :

Est-ce que le système d'exploitation de la xbox one est compatible avec dx12?


La xbox one est compatible dx12.


 
En quoi C'est troller ? C'est vrai Nvidia n'a JAMAIS bloqué ce genre de features... ce qu'il faut pas lire..

n°9479236
tridam
Profil : Equipe HardWare.fr
Posté le 04-05-2015 à 18:57:03  profilanswer
4Votes positifs
 

Surtout que cet article parle d'une démo Nvidia + Intel. Microsoft ne choisit pas ce genre d'exemple par hasard ;) Ca me paraît évident que Nvidia a assisté Microsoft pour produire cette démonstration...

n°9479250
akalash47
Posté le 04-05-2015 à 19:05:33  profilanswer
0Votes positifs
 

La question pour les développeurs qui veulent s'essayer à ce mix est aussi de savoir comment choisir les rôles à attribuer à chaque GPU. Calcul théorique de fillrate, nombre de compute units, etc?
Bon si dans la liste le vendor est flaggué "intel", on peut déjà le reléguer à un rôle de figurant :P


Message édité par akalash47 le 04-05-2015 à 19:08:30
n°9479293
Activation
21:9 kill Surround Gaming
Posté le 04-05-2015 à 19:27:19  profilanswer
0Votes positifs
 

le truc c'est  que dans les faits ils vont même pas se faire chier à ça
pour le dev console aucune utilité
et pour le dev PC ça se pointe direct niveau hardware chez nvidia comme chez amd
donc genre tu couple 3 gp104 via nvlink le drivers le rendra visible aux yeux de directx comme un seul gros gpu avec 3x plus d'unité SM et 3x plus de mémoire qu'1 seul gp104
 
derrière le dev de jeu aura rien à torcher de spécifique
au pire les ingé nvidia (et l'équivalent chez amd) auront glissé qqs "passthrough" aux dev des moteurs de jeu (unreal engine, frosbite...) propre à leur techno respective
 
la méthode "software" de dx12 ça va surtout dépanné pour les gpu intel, et gpu sur base genre imagination technologies (powervr) et pour les gpu actuel "dx11.x"
un bouche trou quoi :o


Message édité par Activation le 04-05-2015 à 19:30:56
n°9479305
Neo776
Posté le 04-05-2015 à 19:32:25  profilanswer
1Votes positifs
 

comptez sur AMD pour verrouiller à mort et empêcher toute utilisation conjointe avec les produits du concurrent

n°9479323
Activation
21:9 kill Surround Gaming
Posté le 04-05-2015 à 19:45:17  profilanswer
0Votes positifs
 

arrêté avec votre histoire de "verrou"
c'est de la technique
admettons que tu veule coupler une amd et une nvidia
l'un travail avec des unité "SMqqchose" l'autre avec des unité "CU"
admettons que le fonctionnement soit de type "SFR" (tout les gpus taff de concert sur une seule image à la fois)
comment tu va gérer cette usine à gaz, MS s'en lave les mains et bote en touche en disant "ayé t'as ton bas niveau que tu m'a gonflé vouloir, maintenant débrouille toi mon petit developpeur de moteur de jeu" (DICE et consorts)
 
si tu veux pas que ça soit une usine à gaz, va bien falloir te mettre en tête que ça va surtout rester applicable sur une même archi de gpu
 
c'est pas pour rien si dans la demo de microsoft le gpu intel s'occupe d'une étape totalement différente du gpu nvidia


Message édité par Activation le 04-05-2015 à 19:49:41
n°9479566
manusfreed​om
''Le reste est a venir''
Posté le 05-05-2015 à 00:26:52  profilanswer
0Votes positifs
 

Serait-il possible qu'on est un retour des cartes accélératrices ?
Une pour chaque domaine, simple et très performante et sans connectique?

n°9479590
tridam
Profil : Equipe HardWare.fr
Posté le 05-05-2015 à 01:37:08  profilanswer
0Votes positifs
 

Activation -> Le SFR ce n'est pas possible, pour la même raison que l'AFR. Le texturing et le resolve du MSAA varient entre les marques de GPU. On pourrait voir les zones rendues par l'un ou l'autre GPU, un petit peu comme du tearing. Ce que fait Microsoft ce n'est pas du SFR.
 
Sinon oui on pourrait imaginer voir plus de cartes accélératrices à l'avenir mais ça ce n'est pas spécialement lié à D3D12. D'ailleurs Nvidia a été dans ce sens avec certains de ses petits GPU (GF117) qui ne peuvent fonctionner qu'en étant associés à un CPU avec core graphique intégré (en gros uniquement pour la plateforme Optimus). Ils ne disposent pas de moteur d'affichage et de sorties vidéos.


Message édité par tridam le 05-05-2015 à 01:52:25
n°9494299
Rayaki
Posté le 20-05-2015 à 12:40:47  profilanswer
0Votes positifs
 

Je me demande ce que sera l'apport de DirectX12 avec un 6/8c (5820k+) et un sli par rapport à un 4c/mono gpu :??:


---------------
Clan Torysss.
n°9588519
makso94
Posté le 21-08-2015 à 00:45:56  profilanswer
0Votes positifs
 

le bi gpu et l avenir hd 3870x2 hd 4870x2 hd 5970 r9 295  ect .... , pas le sli ni le crossfire


Message édité par makso94 le 21-08-2015 à 00:46:58
n°9588524
makso94
Posté le 21-08-2015 à 00:48:40  profilanswer
0Votes positifs
 

on est a l air du 120hz la vrai 3d  , le mono gpu ne donne que du 60hz reel  
donc ca sera que que de la 3d a moitier exploiter , il faut du bi gpu pour vraiment jouer en 3d comme il se doit , faite un vrai os avec du bi gpu .


Message édité par makso94 le 21-08-2015 à 00:49:40
n°9590406
Activation
21:9 kill Surround Gaming
Posté le 23-08-2015 à 13:58:03  profilanswer
0Votes positifs
 

Nawak ce que tu dit, t'as la même vision limité (de feignasse :o ) que les dev qui au départ ont modifier leur code pour 2 thread à l'ère du p4 HT et a64 x2
Alors qu'il faut penser 'n' et pas seulement 2
 
Pour info le nvlink de nvidia fait ses début sur pascal en étant pensé pour interconnecté 4 gpu pascal alors ton "bi gpu" t'es déjà en retard
 
En plus c'est egalement se limité à du monodevice
Car avec nos device connecté qui prolifère, plutot que du calcul partagé dans le cloud, qu'est ce qui t'empeche demain de demandé à l'ordinateur de ta voiture garé dans la cours, ta tv, ta box internet, ton frigo connecté, ta cafetiere connecté de par les soc/apu déchargè ta console/ton pc de calculs, pourquoi vouloir absolument se faire chier à demander à une ferme de serveurs à 2000km de chez toi quand dans un rayon de 100 mètre dans ta maison t'es entouré de soc/apu/gpu quj glande car toi en tant personne physique multiplié par 'n' membre de la famille tu peut pas être devant tout ses devices en même temps ... Donc forcément sous utilisé
 
Interconnecté tout tes device avec un compte unique qui te représente, à terme c'est pas juste pour synchro ton agenda hein :o
Faut voir plus loin dans le temps


Message édité par Activation le 23-08-2015 à 17:35:28
n°9641942
mum1989
Posté le 26-10-2015 à 18:08:55  profilanswer
0Votes positifs
 

un premier test de ce mix de GPU :
http://www.anandtech.com/show/9740 [...] pu-preview
 

n°9642598
Profil sup​primé
Posté le 27-10-2015 à 12:58:12  answer
0Votes positifs
 

j'y croyais pas une seconde  
 
je suis sur le cul :ouch:  
 

n°9642969
Activation
21:9 kill Surround Gaming
Posté le 27-10-2015 à 19:00:53  profilanswer
1Votes positifs
 


 
c'est mieux que sur la  [:ripthejacker] ... ça fait moins mal quand tu tombe dessus :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : LGA 2011-v3 mini-ITX et 4 canaux chez ASRock[HFR] Actu : X99-SLI, nouvelle LGA 2011-v3 Gigabyte
[HFR] Actu : FreeSync en CrossFire retardé[HFR] Actu : La HBM confirmée sur l'AMD Fiji
APU ET GPUUtilisation GPU
Plus de sujets relatifs à : [HFR] Actu : DirectX 12 supportera un mix de GPU


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR