Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1422 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : DirectX 12 supportera un mix de GPU

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Précédente
Auteur Sujet :

[HFR] Actu : DirectX 12 supportera un mix de GPU

n°9476901
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 05:20:01  profilanswer
0Votes positifs
 

Microsoft avait réservé pour sa conférence Build 2015 les détails concernant une énième nouvelle fonctionnalité de Direct3D 12 : le support explicite du ...
Lire la suite ...

mood
Publicité
Posté le 02-05-2015 à 05:20:01  profilanswer
 

n°9476936
Le nain de​ HFR
Chasseur d'angry supadmin vert
Posté le 02-05-2015 à 08:44:16  profilanswer
35Votes positifs
 

comptez sur nVidia pour verrouiller à mort et empêcher toute utilisation conjointe avec les produits du concurrent

n°9476980
3dcSkeeder
Skeeder.studio
Posté le 02-05-2015 à 10:37:46  profilanswer
0Votes positifs
 

Il y a aussi un autre point à prendre en compte dans le cas de l'utilisation du GPU intégré Intel : il va faire chauffer le processeur un peu plus, ce qui risque de throttler ce dernier. Du coup ça va être un savant mélange d'équilibre à réaliser, c'est pas sûr que ça soit viable. Cela dit, ça ouvre la voie à plein de possibilités.

n°9476988
Profil sup​primé
Posté le 02-05-2015 à 10:59:23  answer
3Votes positifs
 

Le nain de HFR a écrit :

comptez sur nVidia pour verrouiller à mort et empêcher toute utilisation conjointe avec les produits du concurrent


en effet ça parait assez surréaliste  
sans oublier que toutes ces avancées , même si elles amènent plus de libertés pour les développeurs , vont aussi augmenter leur charge de travail  
et quand on voit comment sont portés les jeux multi plateformes ces dernières années , ça laisse perplexe  :??:

n°9476997
ccue
Posté le 02-05-2015 à 11:12:28  profilanswer
0Votes positifs
 


Si ces libertés sont implémentées dans les moteurs de jeux, ça peut très bien être transparent pour les développeurs de jeux non ?  
L'idée peut sinon être interessante pour ceux qui changent de carte graphique, l'ancienne peut alors servir à gagner en performance. Ou encore on peut se payer une carte moyen de gamme pour aider une plus haut de gamme. Il faut voir si c'est potentiellement rentable. (exemple : coupler une 280X avec une 260 pour espérer dépasser une R9 290 à prix équivalent) (si des gens ont envie de calculer la rentabilité réelle, je vous laisse vous amuser, moi je n'émets qu'une hypothèse :o )


Message édité par ccue le 02-05-2015 à 11:12:51
n°9477003
SiZZiGETTE
BANNI de HFR
Posté le 02-05-2015 à 11:14:34  profilanswer
1Votes positifs
 

Plein d'opportunités ce DX12! Dans un premier temps ce serait déjà génial de pouvoir faire travailler les APUs présentes dans dans nos CPU histoire de gratter quelques FPS :)

n°9477006
Keser
Posté le 02-05-2015 à 11:16:20  profilanswer
0Votes positifs
 

Gagner 4FPS pour avoir 17ms de latence supplémentaire, non merci.
 
Je suppose que le gain montré dans la démo est le meilleur qu'on puisse obtenir. Si la carte graphique débite 90fps le gain risque d'être moindre voir négatif ?  
 
Car le GPU secondaire à l'air d'ajouté une latence finale de 23ms (et permet de gagner 6ms sur le traitement principal). Mais dès qu'on dépasse les 44fps (23ms) qu'est ce qu'il se produit ? Le gpu principal se tourne les pouces ?


Message édité par Keser le 02-05-2015 à 11:17:34
n°9477011
sagittaire
Posté le 02-05-2015 à 11:21:01  profilanswer
4Votes positifs
 


 
Non je pense en fait le contraire. On assiste à une convergence à la fois pour le soft et le hard entre les plate-forme PC et console. Cela impliquera une convergence beaucoup plus grande et donc une portabilité beaucoup plus facile. On peut même peut-être s'attendre à ce que DX12 soit intégré à la XboX one en tant qu'API de bas niveau. Un jeu développé pour XboX sera ainsi directement utilisable sur PC et inversement.

n°9477024
christ8383
Posté le 02-05-2015 à 11:35:29  profilanswer
0Votes positifs
 

Wep rien d'extraordinaire quoi se DX12.
 
Des nouvelle soit disant que Dx12 gérerait un SLI/CrossFire comme un seul GPU?


Message édité par christ8383 le 02-05-2015 à 11:42:21
n°9477029
kabloui
Posté le 02-05-2015 à 11:40:08  profilanswer
0Votes positifs
 

Est-ce que le système d'exploitation de la xbox one est compatible avec dx12?

mood
Publicité
Posté le 02-05-2015 à 11:40:08  profilanswer
 

n°9477047
rucan
Posté le 02-05-2015 à 11:56:44  profilanswer
1Votes positifs
 

Que DX12 permette d'utiliser 100% de la RAM disponible sur un SLI, ce sera déjà pas si mal.

n°9477052
lulunico06
Posté le 02-05-2015 à 11:59:33  profilanswer
1Votes positifs
 

Toutes ces nouveautés permet telle d'enfin cumuler la ram en multi gpu ?

n°9477081
Profil sup​primé
Posté le 02-05-2015 à 12:18:17  answer
7Votes positifs
 

lulunico06 a écrit :

Toutes ces nouveautés permet telle d'enfin cumuler la ram en multi gpu ?


vu que la bp mémoire se retrouverait également partagée , pas sûr que ce soit si intéressant que ça , au contraire  :/
 

ravenloft a écrit :


1er message, 1er troll + 10 trolls ayant voté +1.
Cela commence bien. :(  
 


en même temps ça collerait pas vraiment avec la politique de la boite en question

n°9477089
lulunico06
Posté le 02-05-2015 à 12:31:30  profilanswer
1Votes positifs
 


vu que la bp mémoire se retrouverait également partagée , pas sûr que ce soit si intéressant que ça , au contraire  :/
 

ravenloft a écrit :


1er message, 1er troll + 10 trolls ayant voté +1.
Cela commence bien. :(  


Pourquoi la bande passante serait partager ?

n°9477091
lulunico06
Posté le 02-05-2015 à 12:32:20  profilanswer
0Votes positifs
 

lulunico06 a écrit :


vu que la bp mémoire se retrouverait également partagée , pas sûr que ce soit si intéressant que ça , au contraire  :/


Pourquoi la bande passante serait partagé ?


Message édité par lulunico06 le 02-05-2015 à 15:01:06
n°9477103
ever_over
Posté le 02-05-2015 à 12:50:09  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Toutes ces nouveautés permet telle d'enfin cumuler la ram en multi gpu ?


Dans l'exemple de l'article, il y a déjà cumul de la mémoire de la CG et de la mémoire du système (pour le travail effectué par le gpu intégré). Mais il est évident qu'on ne doit pas considérer que cela correspond à une cg virtuelle qui aurait la VRAM + la mémoire système. Pour pouvoir cumuler les mémoires, il faut que les tâches soient indépendantes, sinon on perd beaucoup en perf pour transférer les données d'un système mémoire à l'autre.
La réponse à ta question est donc "non", mais il pourrait y avoir quelques optimisations de l'utilisation VRAM grâce à DX12.

n°9477112
aresias
Posté le 02-05-2015 à 13:05:12  profilanswer
0Votes positifs
 

ravenloft a écrit :

Le nain de HFR a écrit :

comptez sur nVidia pour verrouiller à mort et empêcher toute utilisation conjointe avec les produits du concurrent


1er message, 1er troll + 10 trolls ayant voté +1.
Cela commence bien. :(  


Heu il a franchement raison c'est pas un troll. Je suis prêt à parier que ce sera le cas ou qu'il y aura volontairement des limitations ou bridages d'une manière ou d'une autre.
 
Exact pour le coup de la mémoire partagé si un GPU doit lire la RAM de l'autre GPU ça va augmenter à mort le trafic sur le bus PCI donc pas sûr que ce soit si intéressant que ça.
 
Pour l'iGPU il faudrait lui trouver une autre utilisation que l'exemple donné ici pour avoir un gain sans latence supplémentaire. C'est dommage car bien utilisé ça pourrait être super intéressant mais je me fais pas trop d'illusions.


Message édité par aresias le 02-05-2015 à 13:06:50
n°9477120
D-Ther
Posté le 02-05-2015 à 13:16:49  profilanswer
4Votes positifs
 

ravenloft a écrit :


1er message, 1er troll + 10 trolls ayant voté +1.
Cela commence bien. :(  
 


 
Loin d'etre un troll, puisque Nvidia a deja fait ce genre de pratique.  
 
Qui se rappelle des modifications des pilotes Physx pour empecher l'utilisation d'une carte Nvidia couplé avec une carte AMD pour avoir le Physx actif avec une radeon en carte principale
 
http://www.vrworld.com/2014/07/31/ [...] installed/
 
http://www.ngohq.com/graphic-cards [...] esent.html
 
http://www.slashgear.com/nvidia-di [...] d-2558108/


Message édité par D-Ther le 02-05-2015 à 13:20:52
n°9477127
aresias
Posté le 02-05-2015 à 13:26:24  profilanswer
7Votes positifs
 

C'est plutôt Ravenloft qui est en dehors de la réalité là. On commence à bien savoir comment il fonctionne le caméléon.
C'est comme l'ouverture du code de PhysX je reprends la phrase très bien formulé que j'ai vu sur un site "Nvidia is as open source friendly as a great white shark".
Genre CUDA. OK tu veux pas utiliser CUDA tu veux OpenCL ? ben on divise par 4 la mémoire video utilisable histoire de bien t'obliger à utiliser CUDA (si si, c'est pas un troll c'est vraiment le cas).
Ils sont malins leur technique c'est de faire que ce soit utilisable mais de bien prendre soin de mettre suffisamment de limitations pour que personne utilise autre chose que toutes leurs technos et matos propriétaires.


Message édité par aresias le 02-05-2015 à 14:00:31
n°9477156
bertifou
Posté le 02-05-2015 à 13:53:15  profilanswer
0Votes positifs
 

Keser a écrit :

Gagner 4FPS pour avoir 17ms de latence supplémentaire, non merci.
 
Je suppose que le gain montré dans la démo est le meilleur qu'on puisse obtenir. Si la carte graphique débite 90fps le gain risque d'être moindre voir négatif ?  
 
Car le GPU secondaire à l'air d'ajouté une latence finale de 23ms (et permet de gagner 6ms sur le traitement principal). Mais dès qu'on dépasse les 44fps (23ms) qu'est ce qu'il se produit ? Le gpu principal se tourne les pouces ?


 
Si j'ai bien compris l'article, c'est ce qui rend compliquée l'implémentation de cette fonctionnalité. La partie du post processing envoyer à iGPU doit prendre moins de temps à être réalisé que le traitement principal de l'image ainsi que son envoie. Donc la latence ajoutée sera toujours d'un peu moins d'une image. De plus, pour qu'il n'y ait pas de perte d'efficacité, le gain obtenu doit être supérieur au temps pris au transfert.

n°9477170
aresias
Posté le 02-05-2015 à 14:11:36  profilanswer
4Votes positifs
 

Et c'est quoi ton explication sur la mémoire video divisé par 4 en utilisation OpenCL sur les cartes Nvidia ?
tu t'es bien gardé faire un commentaire la dessus.
En plus c'est complètement faux je suis persuadé que si ils le voulaient l'accélération matériel PhysX serait facile à mettre ne place sur les cartes AMD et je vois pas en quoi le fait que PhysX n'appartenait pas à Nvidia avant change quelque chose au fait qu'ils ont tout verrouillé.
C'est encore une manoeuvre très habile de Nvidia "mais si regardez PhysX tourne sur tous les PC par contre les performances sont ridicules quand ça tourne sur le CPU c'est pas grave vous avez qu'à acheter une carte Nvidia"


Message édité par aresias le 02-05-2015 à 14:15:51
n°9477188
sagittaire
Posté le 02-05-2015 à 14:37:49  profilanswer
3Votes positifs
 

RRRooo on s'en fout de vos débats de fanboy:
 
Voilà la réalité.
 
- les APU, c'est à 90% des APU de chez intel (qui en sont tous maintenant), donc si la techno apporte vraiment quelque chose, bien sur que Nvidia la développera, et certainement exclusivement sur les APU d'intel.
- Pour AMD, il y a eu déjà des essais de fait la-dessus (APU + CG), et bien sûr qu'ils développeront cette techno si ça apporte quelque chose au moins avec leur APU

n°9477190
Yeagermach​42
Posté le 02-05-2015 à 14:40:18  profilanswer
0Votes positifs
 

sagittaire a écrit :

RRRooo on s'en fout de vos débats de fanboy:
 
Voilà la réalité.
 
- les APU, c'est à 90% des APU de chez intel (qui en sont tous maintenant), donc si la techno apporte vraiment quelque chose, bien sur que Nvidia la développera, et certainement exclusivement sur les APU d'intel.
- Pour AMD, il y a eu déjà des essais de fait la-dessus (APU + CG), et bien sûr qu'ils développeront cette techno si ça apporte quelque chose au moins avec leur APU


Je dirais même que c'est 100%  :whistle:

n°9477195
aresias
Posté le 02-05-2015 à 14:43:30  profilanswer
1Votes positifs
 

Pour PhysX je suis persuadé que si je recherche je vais voir que la partie non accéléré propose les technologies les moins intéressantes.

n°9477200
Yeagermach​42
Posté le 02-05-2015 à 14:47:00  profilanswer
0Votes positifs
 

aresias a écrit :

Pour PhysX je suis persuadé que si je recherche je vais voir que la partie non accéléré propose les technologies les moins intéressantes.


C'est les mêmes. Le truc par contre, c'est que les devs aidés par nvidia utilisent la puissance gagnée par le passage au GPU pour ajouter des effets.

n°9477202
sagittaire
Posté le 02-05-2015 à 14:51:00  profilanswer
3Votes positifs
 

Yeagermach42 a écrit :


Je dirais même que c'est 100%  :whistle:


 
Ben je connais pas trop les part de marché d'AMD sur les APU, mais il ne me semble pas s'être écroulé à ce point quand même ... ;-)

Message cité 1 fois
Message édité par sagittaire le 02-05-2015 à 14:52:05
n°9477204
Yeagermach​42
Posté le 02-05-2015 à 14:53:28  profilanswer
0Votes positifs
 

sagittaire a écrit :


 
Ben je connais pas trop les part de marché d'AMD sur les APU, mais il ne me semble pas s'être écroulé à ce point quand même ... ;-)


J'avais pas pris la phrase dans ce sens la. Mes excuses  :o

n°9477205
sagittaire
Posté le 02-05-2015 à 14:53:32  profilanswer
2Votes positifs
 

On s'en fout de PhysX. Pratiquement plus aucun jeu n'offre cette option qui n'apporte de toute façon pas grand chose visuellement.

n°9477207
Yeagermach​42
Posté le 02-05-2015 à 14:55:11  profilanswer
1Votes positifs
 

sagittaire a écrit :

On s'en fout de PhysX. Pratiquement plus aucun jeu n'offre cette option qui n'apporte de toute façon pas grand chose visuellement.


PhysX GPU ok, mais physX CPU c'est une des solutions les plus utilisées dans le domaine.
 
Le pas grand chose, c'est relatif quoi. Il y a une vrai diff entre un borderlands sans physX Gpu et avec. Pareil pour Batman.

n°9477225
grosnabot
Posté le 02-05-2015 à 15:10:43  profilanswer
0Votes positifs
 

ravenloft a écrit :


Faux et tu confonds physx accéléré et physx tout court.
 
Shift 2 fonctionne nickel sur toutes les machines et c'est pourtant uniquement physx. Il y en a pleins d'autres comme ça.
 
Je comprends que si tu critiques quelque chose que tu mélanges, ça finit en contre sens.


 
Il ne confond rien du tout, physx est inutilisable si tu n'as pas une carte nvidia, point.
 

Yeagermach42 a écrit :


PhysX GPU ok, mais physX CPU c'est une des solutions les plus utilisées dans le domaine.
 
Le pas grand chose, c'est relatif quoi. Il y a une vrai diff entre un borderlands sans physX Gpu et avec. Pareil pour Batman.


imho havok est plus utilisé que physx et on comprend pourquoi !
à part en étant sponsorisé($$$$) par nvidia je vois pas trop l’intérêt d'intégrer des effets qui ne tourneront avec un débit d'images potable que sur une part du marché.

Message cité 1 fois
Message édité par grosnabot le 02-05-2015 à 15:20:55
n°9477228
Yeagermach​42
Posté le 02-05-2015 à 15:15:39  profilanswer
1Votes positifs
 

grosnabot a écrit :


 
Il ne confond rien du tout, physx est inutilisable si tu n'as pas une carte nvidia, point.


N'importe quoi. PhysX marche très bien sur CPU. Ce qui marche moins bien sur les cartes non nvidia, c'est les effets que le passage de PhysX en GPU permet de rajouter.

n°9477230
grosnabot
Posté le 02-05-2015 à 15:17:46  profilanswer
1Votes positifs
 

Yeagermach42 a écrit :

grosnabot a écrit :


 
Il ne confond rien du tout, physx est inutilisable si tu n'as pas une carte nvidia, point.


N'importe quoi. PhysX marche très bien sur CPU. Ce qui marche moins bien sur les cartes non nvidia, c'est les effets que le passage de PhysX en GPU permet de rajouter.

à 3fps ?
 
framerate divisé par plus de 2 sur batman...inutilisable donc. 26 de moyenne... au lieu de 59

Message cité 1 fois
Message édité par grosnabot le 02-05-2015 à 15:23:17
n°9477239
Yeagermach​42
Posté le 02-05-2015 à 15:23:19  profilanswer
1Votes positifs
 


Les effets en plus sont pas optimisés CPU. Quand tu forces leur activation (donc quand tu as une carte AMD), cela rame. Ce qui est normal vu que les effets physX en plus sont alors gérés par le CPU.

 

A noter que les devs pourraient mettre les mêmes effets dans leur version CPU pour tout le monde, mais cela impacterait un max les perfs vu les effets en question.


Message édité par Yeagermach42 le 02-05-2015 à 15:23:43
n°9477240
grosnabot
Posté le 02-05-2015 à 15:24:30  profilanswer
1Votes positifs
 

Je vois pas de "moitié physx"("physx avec moins d'effets" ) dans les jeux. C'est avec ou sans.
 
edit on sait modifier le niveau de physx sur certains jeux mais ça ne change rien, le débit d'images chute énormément même avec un "niveau moyen" contrairement à la désactivation.
 
Donc il est où ce physx sur cpu qui soit disant est exploitable sans gpu nvidia ? (et sans avoir le haut de gamme amd)

Message cité 2 fois
Message édité par grosnabot le 02-05-2015 à 15:28:30
n°9477246
aresias
Posté le 02-05-2015 à 15:31:47  profilanswer
1Votes positifs
 

C'est surtout que PhysX est complètement dispensable ont a les même effets proposés par des moteurs de physique tiers (ou un moteur proprio déjà implanté de base comme sur CryEngine par exemple) qui au moins fonctionne sur toutes les cartes graphiques.


Message édité par aresias le 02-05-2015 à 15:32:08
n°9477248
Yeagermach​42
Posté le 02-05-2015 à 15:32:19  profilanswer
2Votes positifs
 

grosnabot a écrit :

Je vois pas de "moitié physx"("physx avec moins d'effets" ) dans les jeux. C'est avec ou sans.


C'est logique, c'est la physique pas une option. Quand tu desactives PhysX sur Batman, ton perso ne se met pas a traverser les décors, a taper dans le vide. C'est le moteur physX CPU qui fait le boulot.
 
Quand tu actives l'option, cela fait passer le calcul de la physique sur GPU (si tu as une Nvidia). Le gain de puissance qui l'on obtient alors est utilisé par les devs pour ajouter de nouveaux effets gourmands en puissance si ils sont exécuté CPU : eau dynamique, voiles qui bougent dans le vent, destruction plus poussée, particules plus avancées, ...
 
Les devs n'utilisent pas deux moteurs physiques différents. Cela serait la galère.

n°9477261
tridam
Profil : Equipe HardWare.fr
Posté le 02-05-2015 à 15:49:38  profilanswer
2Votes positifs
 

grosnabot a écrit :

Je vois pas de "moitié physx"("physx avec moins d'effets" ) dans les jeux. C'est avec ou sans.
 
edit on sait modifier le niveau de physx sur certains jeux mais ça ne change rien, le débit d'images chute énormément même avec un "niveau moyen" contrairement à la désactivation.
 
Donc il est où ce physx sur cpu qui soit disant est exploitable sans gpu nvidia ? (et sans avoir le haut de gamme amd)


 
Tu te trompes parce que la manière dont sont présentées ces options dans les jeux est trompeuse. PhysX c'est un ensemble d'API qui doivent être intégrées au coeur du moteur du jeu. C'est par exemple ce qui peut faire que des caisses tombent quand tu fonces dedans, que le personnage peut sauter à une hauteur limitée, qu'il meure s'il tombe de trop haut... Tout ça fait partie de la simulation du monde et est pris en charge exclusivement par le CPU. PhysX n'est pas spécifique au PC, mais compatible également avec toutes les consoles.
 
Ensuite il y a GPU PhysX (très souvent simplifié en PhysX tout court dans les options). Ce sont des modules optionnels à PhysX qui permettent d'ajouter des effets graphiques qui n'ont pas trop d'importance directe sur le gameplay et la simulation du monde (par exemple animer des liquides, des gaz, des vêtements). Les modules GPU PhysX peuvent être accélérés par les GPU Nvidia ou tourner en mode CPU. Dans ce second cas ils sont en gros inutilisables tellement c'est lent (bien qu'il s'agisse de très bons candidats pour  profiter de tous les coeurs/threads des CPU et de leurs unités vectorielles, ils sont aussi peu optimisés que possible histoire de favoriser les GPU). Nvidia joue sur les mots entre PhysX et GPU PhysX, probablement pour que les joueurs pensent que tous les jeux dans lesquels apparaît le logo PhysX tournent mieux sur GeForce, d'où la confusion.
 
Sinon c'est un peu HS :o


Message édité par tridam le 02-05-2015 à 15:53:50
n°9477263
Activation
21:9 kill Surround Gaming
Posté le 02-05-2015 à 15:51:10  profilanswer
0Votes positifs
 

Moi je constate surtout que dx12 demande plus de rigueur coté editeurs de jeux
Déjà que t'as pas envi d'acheter day one des jeux ubisoft finit à la truelle
Alors des jeux ubisoft dx12 ça va encore moins donné envie d'achat dayone
Avant que les pro amd et pro nvidia se fritte la gueule, faut déjà que les editeurs de jeux enfin surtout les feveloppeur de moteur de jeu : frostbite engine, unreal engine, ego engine, .... S'approprie ce fameux dx12
Nul doute que amd ou nvidia bosse déjà avec eux avec des 'blackbox' remplit d'engineer sample de leurs prochains gpu
 
Mais voilà je demande à voir les premiers jeux dx12 'in action' :o et leur premiers bug 'cas de figure'
Car pour le moment sorti de pauvre 'demo technique' non interractive.... Bof quoi

n°9477267
aresias
Posté le 02-05-2015 à 15:54:37  profilanswer
0Votes positifs
 

En faite plus que le support directX 12 je me demande combien de jeux vont ajouter le support des shaders asynchrones.
 
Star Citizen en directX 12 + support shaders asynchrones le gain de perfs [:coms]  
après les graphismes explosion de la rétine :D


Message édité par aresias le 02-05-2015 à 16:00:04
n°9477274
Activation
21:9 kill Surround Gaming
Posté le 02-05-2015 à 15:59:35  profilanswer
0Votes positifs
 

tridam a écrit :

grosnabot a écrit :

Je vois pas de "moitié physx"("physx avec moins d'effets" ) dans les jeux. C'est avec ou sans.
 
edit on sait modifier le niveau de physx sur certains jeux mais ça ne change rien, le débit d'images chute énormément même avec un "niveau moyen" contrairement à la désactivation.
 
Donc il est où ce physx sur cpu qui soit disant est exploitable sans gpu nvidia ? (et sans avoir le haut de gamme amd)


 
Tu te trompes parce que la manière dont sont présentées ces options dans les jeux est trompeuse. PhysX c'est un ensemble d'API qui doivent être intégrée au coeur du moteur du jeu. C'est par exemple ce qui peut faire que des caisses tombent quand tu fonces dedans, que le personnage peut sauter à une hauteur limitée, qu'il meure s'il tombe de trop haut... Tout ça fait partie de la simulation du monde et est pris en charge exclusivement par le CPU. PhysX n'est pas spécifique au PC, mais compatible également avec toutes les consoles.
 
Ensuite il y a GPU PhysX (très souvent simplifié en PhysX tout court dans les options). Ce sont des modules optionnels à PhysX qui permettent d'ajouter des effets graphiques qui n'ont pas trop d'importance directe sur le gameplay et la simulation du monde (par exemple animer des liquides, des gaz, des vêtements). Les modules GPU PhysX peuvent être accéléré par les GPU Nvidia ou tourner en mode CPU. Dans ce second cas ils sont en gros inutilisables tellement c'est lent (bien qu'il s'agisse de très bons candidats pour  profiter de tous les coeurs/threads des CPU et de leurs unités vectorielles, ils sont aussi peu optimisés que possible histoire de favoriser les GPU). Nvidia joue sur les mots entre PhysX et GPU PhysX, probablement pour que les joueurs pensent que tous les jeux dans lesquels apparaît le logo PhysX tournent mieux sur GeForce, d'où la confusion.
 
Sinon c'est un peu HS :o


 
Le problème c'est que les effets physique surtout mit en avant sur gpu sont souvent de type éphémère et pas persistent (débris suite à explosion qui disparaissent au bout d'un laps de temps, impact sur surface qui disparaissent au bout d'un laps de temps)
 
Perso je préfère la biblio havok pensé multithread cpu et dont les effets sont plus 'persistant' (mouvement de tissu, destruction de structures, ....)
 
de toute façon physx gpu au jour d'aujourd'hui s'appuie sur "CUDA", mais je dirais qu'à terme (directx13 ?) certaines opérations lié à la physique pourrait bien retrouvé dans un cablage hardware "standardisé" à tout les fabricants pour une simple raison d'efficience  
ou le retour de la revanche du "PPU", reste à savoir si ce "ppu" à plus sa place du coté cpu ou du coté gpu (bon comme de toute façon à terme tout ce beau monde se retrouvera sur un même die)
 
mais dans la majorité des jeux le plus souvent pour le moment on a plus intérèt à filer le boulot au cpu qui a encore de la marge d'utilisation avec tout ce potentiel sous exploité avec tout ces core pas du tout à pleine charge, plutôt que le gpu qui en général est au taquet pour l'affichage (politique du tout à fond mode gros boeuf des gamers :o )


Message édité par Activation le 02-05-2015 à 16:16:31
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : DirectX 12 supportera un mix de GPU

 

Sujets relatifs
[HFR] Actu : LGA 2011-v3 mini-ITX et 4 canaux chez ASRock[HFR] Actu : X99-SLI, nouvelle LGA 2011-v3 Gigabyte
[HFR] Actu : FreeSync en CrossFire retardé[HFR] Actu : La HBM confirmée sur l'AMD Fiji
APU ET GPUUtilisation GPU
Plus de sujets relatifs à : [HFR] Actu : DirectX 12 supportera un mix de GPU


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR