Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3051 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Auteur Sujet :

[HFR] Actu : AMD + Nvidia en multi GPU sous DX12

n°9644426
voodoospir​it
Posté le 29-10-2015 à 09:31:07  profilanswer
0Votes positifs
 

Reprise du message précédent :
il y a un test qui traine sur le net avec des comparaisons entre 16x, 8x +8x, 8x+8x+4x ainsi que les % de gains/pertes

mood
Publicité
Posté le 29-10-2015 à 09:31:07  profilanswer
 

n°9644444
Lyto
Posté le 29-10-2015 à 09:46:58  profilanswer
0Votes positifs
 

"Reste que ce sont bien eux qui auront la main, et vu le marché relativement faible du multi GPU, il n'est pas certain que beaucoup exploitent comme Oxyde cette possibilité offerte par l'API."
Marc : est-ce qu'Oxyde a l'intention de licencier son moteur aux autres studios ?

n°9644448
Lyto
Posté le 29-10-2015 à 09:49:49  profilanswer
0Votes positifs
 

ju3ei a écrit :

Il y a une phrase que je ne suis pas sûre de bien comprendre : "Un autre test sur des GPU plus anciens montre par contre que le GPU primaire peut avoir un impact encore plus grand, ainsi si on adjoint à une HD 7970 une GTX 680, on obtient un gain de 55%. Par contre si les positions des cartes sont inversées alors les performances baissent de… 40% !" Il me semble que la HD7970 tout comme la GTX680 sont des GPU DX11 (sauf erreur de ma part). Est-il possible d'effectuer des mesures de gains de performances sous DX12 dans ce cas? Merci pour votre réponse.


Il n'y a pas de grosses nouvelles features sous DX12 dont le principal apport consiste en des mécanismes de programmation bas niveau. Les constructeurs ont donc des cartes "DX12" depuis un moment :)

n°9644473
Lykomax
Posté le 29-10-2015 à 10:11:53  profilanswer
0Votes positifs
 

Ces 2 graphs me laisse dubitatif, à propros de la GTX970  :

 

http://s8.postimg.org/gasludf7p/ashes_singularity_dx11.gif
http://s16.postimg.org/dam3herjp/ashes_singularity_dx12.gif

 

http://www.computerbase.de/2015-10 [...] -1920-1080

 


GTX970 en DirectX11 : 50,2
GTX970 en DirectX12 : 50,6 ?

 

Soit aucun gain, alors que toutes les autres GPU ont un boost de perfs et que sous DirectX12 les cartes AMD lui passe devant.
Il y a juste un petit gain avec les pilotes 355.60 plus anciens (???).

 

Autres choses, je trouve les perfs de toutes les cartes en Epic-Preset MSAA lamentables pour du 1080p, à la limite de la jouabilité, sans que le jeu soit spécialement beau.
Qui va se contenter des réglages médium avec une GTX980TI ?

 

4 hypothèses :
1) Les GTX980TI et AMD Fury sont bridées en DirectX11 et dévoilent leur potentiel en DirectX12.
2) Les GTX970/GTX980 sont bridées en DirectX12 pour ne pas faire de l'ombre à la GTX980TI.
3) Les GTX970/GTX980 sont déjà optimisées comme des malades en DirectX11.
3) Ce jeu est optimisé n'importe comment.

 

J'aimerais que quelqu'un me trouve une explication.


Message édité par Lykomax le 29-10-2015 à 10:13:29
n°9644511
Shorony
Posté le 29-10-2015 à 10:47:18  profilanswer
0Votes positifs
 

Why not both ?

n°9644543
t3ddy
Posté le 29-10-2015 à 11:16:29  profilanswer
2Votes positifs
 

Lykomax a écrit :

Ces 2 graphs me laisse dubitatif, à propros de la GTX970  :
 
...
 
4 hypothèses :
1) Les GTX980TI et AMD Fury sont bridées en DirectX11 et dévoilent leur potentiel en DirectX12.
2) Les GTX970/GTX980 sont bridées en DirectX12 pour ne pas faire de l'ombre à la GTX980TI.
3) Les GTX970/GTX980 sont déjà optimisées comme des malades en DirectX11.
3) Ce jeu est optimisé n'importe comment.  
 
J'aimerais que quelqu'un me trouve une explication.


 
d ! la réponse d.
https://www.youtube.com/watch?v=-xgwd5kLiDY

n°9644550
Lyto
Posté le 29-10-2015 à 11:20:55  profilanswer
0Votes positifs
 

Lykomax a écrit :

Ces 2 graphs me laisse dubitatif, à propros de la GTX970  :
 
http://s8.postimg.org/gasludf7p/ashes_singularity_dx11.gif
http://s16.postimg.org/dam3herjp/ashes_singularity_dx12.gif
 
http://www.computerbase.de/2015-10 [...] -1920-1080
 
 
GTX970 en DirectX11 : 50,2
GTX970 en DirectX12 : 50,6 ?
 
Soit aucun gain, alors que toutes les autres GPU ont un boost de perfs et que sous DirectX12 les cartes AMD lui passe devant.
Il y a juste un petit gain avec les pilotes 355.60 plus anciens (???).
 
Autres choses, je trouve les perfs de toutes les cartes en Epic-Preset MSAA lamentables pour du 1080p, à la limite de la jouabilité, sans que le jeu soit spécialement beau.
Qui va se contenter des réglages médium avec une GTX980TI ?
 
4 hypothèses :
1) Les GTX980TI et AMD Fury sont bridées en DirectX11 et dévoilent leur potentiel en DirectX12.
2) Les GTX970/GTX980 sont bridées en DirectX12 pour ne pas faire de l'ombre à la GTX980TI.
3) Les GTX970/GTX980 sont déjà optimisées comme des malades en DirectX11.
3) Ce jeu est optimisé n'importe comment.  
 
J'aimerais que quelqu'un me trouve une explication.


Y'a 2 numéro 3 mais j'pense que ça doit être un peu des différentes réponses. Un problème d'optimisation ptete mais pas "n'importe comment".

n°9644561
Invite_Sur​prise
Racaille de Shanghaï
Posté le 29-10-2015 à 11:27:24  profilanswer
1Votes positifs
 

Déjà que je suis anti SLi anti XFire, alors s'il faut mixer les deux...  :whistle:  
Qu'ils s'occupent déjà de nous offrir des cartes mono-gpus qui envoient du bois, ça sera déjà ça.
Je vois + une utilité pour le monde laptop en ce qui me concerne.

n°9644606
mazingerz
Posté le 29-10-2015 à 11:51:42  profilanswer
0Votes positifs
 

sauf que la c'est les dev qui s'en occupe aucun rapport

n°9644640
Invite_Sur​prise
Racaille de Shanghaï
Posté le 29-10-2015 à 12:19:38  profilanswer
0Votes positifs
 

Ouais et les devs ils prennent des décisions tout seuls ? Comme les ingénieurs chez VW ?  :lol:

mood
Publicité
Posté le 29-10-2015 à 12:19:38  profilanswer
 

n°9644647
Kernel-Pan​ic
Eh?
Posté le 29-10-2015 à 12:29:12  profilanswer
0Votes positifs
 

Ça passe par l'API, donc oui, les devs prennent des décisions tout seuls.


---------------
You have no chance to survive make your time.
n°9644683
bjone
Insert booze to continue
Posté le 29-10-2015 à 12:57:52  profilanswer
0Votes positifs
 

Xixou2 a écrit :

Tiens , le g-sync fonctionne t'il toujours en mixant amd/nvidia ?


Théoriquement oui si la carte primaire est une nVidia.
Le G-Sync joue sur le comportement du driver au Present(), qu'il y ait eu des ressources échangées avec un autre Adapter ne devrait pas jouer.

n°9644792
gils04
le soleil du sud !
Posté le 29-10-2015 à 14:16:54  profilanswer
0Votes positifs
 

ravenloft a écrit :


Ce n'est pas parce qu'il est dx11 uniquement?


 
:)  
 
peut-être , mais LuxMark ? il fait tourner les 2 GPU de concert .... gain 7950 + gain GTX 950 .  
 
 

n°9644802
gils04
le soleil du sud !
Posté le 29-10-2015 à 14:23:22  profilanswer
0Votes positifs
 


:)
 
j'ai réussi à activer toute les options accélération h264 et capture vidéo de la GTX 950 en branchant tout simplement le moniteur dessus  :p  
en résumé , j'ai PCIE 16x = HD 7950 sans moniteur + PCIE 4x = GTX 950 avec moniteur .  
 
LuxMark prend en charge les 2 GPUs , pour le reste , c'est idem pas de prise en charge .  
 

n°9644828
the_skwi
Posté le 29-10-2015 à 14:45:16  profilanswer
0Votes positifs
 

Je me pose la question : le multi GPU du DX12 fonctionne comment avec gsync/freesync?

n°9644941
guenosnoli​fe
Posté le 29-10-2015 à 16:52:38  profilanswer
0Votes positifs
 

Osef DX12 :lol:  
Quand plus d'infos sur Vulkan ? restesousW7 :sol:

Message cité 1 fois
Message édité par guenosnolife le 29-10-2015 à 16:52:55

---------------
Joueur PC
n°9644943
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 29-10-2015 à 16:56:40  profilanswer
0Votes positifs
 

ravenloft a écrit :


C'est pas opencl et non directx luxmark?


C'est OpenCL, en OpenCL on peut combiner deux GPU, un CPU et un GPU, etc... rien à voir avec le schmilblick.

n°9644950
bjone
Insert booze to continue
Posté le 29-10-2015 à 17:06:05  profilanswer
0Votes positifs
 

guenosnolife a écrit :

Osef DX12 :lol:  
Quand plus d'infos sur Vulkan ? restesousW7 :sol:


 
Sois tu passes sous Linux/SteamOS pour Vulkan, soit tu passes sous Win10 pour D3D12.
Je suppute même que vis à vis de Vulkan sous Windows, nVidia et AMD auront besoin du WDDM 2.0 (donc Win10 obligatoire)
 
Donc désolé, tu resteras pas sous Windows 7 :D
 
Quand à Vulkan, c'est massivement backupé par Valve pour HL3 et SteamOS (donc Khronos a des thunes et de la force de frappe avec les ingés Valve pour itérer), parceque le Microsoft Store c'est le mal selon Gabe.


Message édité par bjone le 29-10-2015 à 17:06:44
n°9644951
vladobar
J'aime pas quand ça rame…
Posté le 29-10-2015 à 17:11:18  profilanswer
0Votes positifs
 

Merci pour l'article,
 
Moi j'attends de voir les impacts sur les CPU :pt1cable:

n°9645003
Xillendo
Posté le 29-10-2015 à 19:03:07  profilanswer
0Votes positifs
 

A priori le premier jeu compatible Vulkan sera Dota 2 (seul jeu sur Source 2 actuellement).
Ça devrait arriver dès que les spécifications de Vulkan seront finalisée et qu'on aura les premiers pilotes.

n°9645017
gils04
le soleil du sud !
Posté le 29-10-2015 à 19:27:07  profilanswer
1Votes positifs
 


:)
 
il est certain que le système multi-GPU fonctionne très bien sur win 10 (aucun bug pour l'instant) , il va falloir que les coders se mettent au boulot pour mettre un tas d'appli à jour , AMD et nV ont l'air de bien s'entendre , ils attaquent le voyage de noce :)

n°9645034
Yog Sothot​h
Conchie les religions
Posté le 29-10-2015 à 19:44:31  profilanswer
0Votes positifs
 

A noter que la wiki fr mentionne Oxyde comme société "participant" à vulkan.

n°9645136
asoria
Posté le 29-10-2015 à 21:39:59  profilanswer
0Votes positifs
 

Lykomax a écrit :

Ces 2 graphs me laisse dubitatif, à propros de la GTX970  :
 
http://s8.postimg.org/gasludf7p/ashes_singularity_dx11.gif
http://s16.postimg.org/dam3herjp/ashes_singularity_dx12.gif
 
http://www.computerbase.de/2015-10 [...] -1920-1080
 
 
GTX970 en DirectX11 : 50,2
GTX970 en DirectX12 : 50,6 ?
 
Soit aucun gain, alors que toutes les autres GPU ont un boost de perfs et que sous DirectX12 les cartes AMD lui passe devant.
Il y a juste un petit gain avec les pilotes 355.60 plus anciens (???).
 
Autres choses, je trouve les perfs de toutes les cartes en Epic-Preset MSAA lamentables pour du 1080p, à la limite de la jouabilité, sans que le jeu soit spécialement beau.
Qui va se contenter des réglages médium avec une GTX980TI ?
 
4 hypothèses :
1) Les GTX980TI et AMD Fury sont bridées en DirectX11 et dévoilent leur potentiel en DirectX12.
2) Les GTX970/GTX980 sont bridées en DirectX12 pour ne pas faire de l'ombre à la GTX980TI.
3) Les GTX970/GTX980 sont déjà optimisées comme des malades en DirectX11.
3) Ce jeu est optimisé n'importe comment.  
 
J'aimerais que quelqu'un me trouve une explication.


 
Juste en passant pour ceux qui ne savent pas, mais "ohne" veut dire "sans". Donc le résultats obtenu en epic preset à 30fps, est bien le résultat obtenu sans msaa. Avec j'ose m^meme pas imaginer le résultat

n°9645256
gils04
le soleil du sud !
Posté le 29-10-2015 à 23:50:12  profilanswer
0Votes positifs
 


quel rapport avec le sujet dual GPU ?   :heink:

n°9645317
Xixou2
Posté le 30-10-2015 à 06:20:47  profilanswer
0Votes positifs
 

Note: pour avoir accès aux options powerplay du ccc ou aux fréquences avec msi afterburner de la carte graphique sans écran il faut lui mettre un émulateur d'écran ou un dummy dvi/vga.

n°9645360
the_skwi
Posté le 30-10-2015 à 08:58:35  profilanswer
0Votes positifs
 

the_skwi a écrit :

Je me pose la question : le multi GPU du DX12 fonctionne comment avec gsync/freesync?


 
Nobody pour répondre? :p

n°9645380
Thor1872
Posté le 30-10-2015 à 09:32:28  profilanswer
0Votes positifs
 


As-tu réussi à activé physX ?
Sur win 7 si les drivers nvidia détecte une carte amd dans le systeme il désactive physX.
De plus tu ne peut pratiquement rien afficher sur l'écran brancher à la carte amd sinon tout le systeme ce met à lagué.
Test effectué avec GTX780 + HD6870

n°9645397
bjone
Insert booze to continue
Posté le 30-10-2015 à 09:58:42  profilanswer
2Votes positifs
 

the_skwi a écrit :


 
Nobody pour répondre? :p


 
Répondu plus haut : théoriquement l'EMA ne doit pas empêcher le carte maitre (celle qui affiche) de présenter la SwapChain comme elle l'entends.

n°9645615
kimujix
Posté le 30-10-2015 à 13:50:50  profilanswer
0Votes positifs
 

Oui mais la vraie question c'est, peut-on mettre une Voodoo 5 avec une Geforce 256?

n°9645630
Lyto
Posté le 30-10-2015 à 14:09:02  profilanswer
0Votes positifs
 

kimujix a écrit :

Oui mais la vraie question c'est, peut-on mettre une Voodoo 5 avec une Geforce 256?


Si elles étaient Dx12, vi ^^

n°9645637
the_skwi
Posté le 30-10-2015 à 14:21:18  profilanswer
0Votes positifs
 

Ah pas vu désolé (et je ne vois toujours pas :x).
Il faudra juste que la techno de l'écran soit compatible avec celle de la carte maitre.
 
Comment se passe la communication entre les deux cartes? En sli/crossfire j'imaginais que le cpu envoyait des données à traiter aux cartes, et qu'elles géraient entre elles. Avec deux archi différentes, elles continuent de communiquer entre-elles directement?

n°9645639
c0rwin
Ad augusta per angusta
Posté le 30-10-2015 à 14:22:26  profilanswer
0Votes positifs
 

kimujix a écrit :

Oui mais la vraie question c'est, peut-on mettre une Voodoo 5 avec une Geforce 256?


faudrait 2 ports AGP non?

n°9645655
c0rwin
Ad augusta per angusta
Posté le 30-10-2015 à 14:53:54  profilanswer
0Votes positifs
 


 
orf! je l'avais oublié celle la


---------------
ALLER CHUT! ET A++++
n°9645814
5imon
Posté le 30-10-2015 à 17:45:07  profilanswer
0Votes positifs
 

the_skwi a écrit :

Comment se passe la communication entre les deux cartes? En sli/crossfire j'imaginais que le cpu envoyait des données à traiter aux cartes, et qu'elles géraient entre elles. Avec deux archi différentes, elles continuent de communiquer entre-elles directement?


 
Je suppose qu'elles partagent de la mémoire en RAM.


Message édité par 5imon le 30-10-2015 à 17:46:15
n°9645903
Yannick013​4
Posté le 30-10-2015 à 19:48:33  profilanswer
0Votes positifs
 

5imon a écrit :

the_skwi a écrit :

Comment se passe la communication entre les deux cartes? En sli/crossfire j'imaginais que le cpu envoyait des données à traiter aux cartes, et qu'elles géraient entre elles. Avec deux archi différentes, elles continuent de communiquer entre-elles directement?


 
Je suppose qu'elles partagent de la mémoire en RAM.


 
C'est au développeur de gérer, ce qui veut dire que c'est le CPU qui gère la synchro entre les 2 cartes qui reçoivent les traitements à effectuer indépendamment l'une de l'autre. Je doute qu'ils existe une API permettant la communication entre 2 cartes graphiques de 2 constructeurs différents de manière directe.

n°9645914
gils04
le soleil du sud !
Posté le 30-10-2015 à 20:00:35  profilanswer
0Votes positifs
 

Yannick0134 a écrit :


 
Je suppose qu'elles partagent de la mémoire en RAM.


 
C'est au développeur de gérer, ce qui veut dire que c'est le CPU qui gère la synchro entre les 2 cartes qui reçoivent les traitements à effectuer indépendamment l'une de l'autre. Je doute qu'ils existe une API permettant la communication entre 2 cartes graphiques de 2 constructeurs différents de manière directe.[/quotemsg]
 
http://www.hostingpics.net/viewer. [...] ture10.png
 
;)

n°9645921
5imon
Posté le 30-10-2015 à 20:09:32  profilanswer
0Votes positifs
 

Yannick0134 a écrit :

5imon a écrit :

[quotemsg=9645637,4,287645]Comment se passe la communication entre les deux cartes? En sli/crossfire j'imaginais que le cpu envoyait des données à traiter aux cartes, et qu'elles géraient entre elles. Avec deux archi différentes, elles continuent de communiquer entre-elles directement?


 
Je suppose qu'elles partagent de la mémoire en RAM.


 
C'est au développeur de gérer, ce qui veut dire que c'est le CPU qui gère la synchro entre les 2 cartes qui reçoivent les traitements à effectuer indépendamment l'une de l'autre. Je doute qu'ils existe une API permettant la communication entre 2 cartes graphiques de 2 constructeurs différents de manière directe.[/quotemsg]
 
Les GPU peuvent accéder à la RAM, cf par exemple :
http://stackoverflow.com/questions [...] system-ram
 
A partir de là il me semble plus logique que chaque processeur (CPU, GPU) travaille dans son coin, avec des structures partagées genre ring buffer pour communiquer entre eux. Mais bon c'est que mon opinion, je ne connais pas le détail de DX12.
 
(non il n'y a pas d'API, je parle bien d'écrire directement en RAM pour communiquer avec un autre processeur)

Message cité 1 fois
Message édité par 5imon le 30-10-2015 à 20:18:34
n°9646051
D-Ther
Posté le 30-10-2015 à 23:48:56  profilanswer
0Votes positifs
 

en fait, maintenant il faudrait une memoire partagée pour le CPU et le GPU (comme sur console). Cela permettrait au 2 GPU( ou plus)et au CPU de pouvoir acceder a n'importe quelle information sans que le cpu transfere les données une Vram a une autre. (par contre pour ca faudrait un BUS autrement plus rapide que le PCI-express)


Message édité par D-Ther le 30-10-2015 à 23:56:30
n°9646308
bjone
Insert booze to continue
Posté le 31-10-2015 à 14:45:21  profilanswer
0Votes positifs
 

5imon a écrit :


 
C'est au développeur de gérer, ce qui veut dire que c'est le CPU qui gère la synchro entre les 2 cartes qui reçoivent les traitements à effectuer indépendamment l'une de l'autre. Je doute qu'ils existe une API permettant la communication entre 2 cartes graphiques de 2 constructeurs différents de manière directe.
 
Les GPU peuvent accéder à la RAM, cf par exemple :
http://stackoverflow.com/questions [...] system-ram
 
A partir de là il me semble plus logique que chaque processeur (CPU, GPU) travaille dans son coin, avec des structures partagées genre ring buffer pour communiquer entre eux. Mais bon c'est que mon opinion, je ne connais pas le détail de DX12.
 
(non il n'y a pas d'API, je parle bien d'écrire directement en RAM pour communiquer avec un autre processeur)


 
 
En toute logique chaque GPU a ses commandlist, et des fences servent à déclencher les échanges sur le PCIe.
 
Apriori le truc avec l'EMA ce sera que les fences (et le ressources) sont partagées entre tout les "acteurs" Direct3D du process (en gros les drivers sont construits pour ignorer l'origine des signaux de fence).
 
Je ne sais pas du tout si Vulkan sera architecturé pareil.


Message édité par bjone le 31-10-2015 à 14:45:54
n°9646371
Lyto
Posté le 31-10-2015 à 16:35:44  profilanswer
0Votes positifs
 

bjone a écrit :

5imon a écrit :


 
C'est au développeur de gérer, ce qui veut dire que c'est le CPU qui gère la synchro entre les 2 cartes qui reçoivent les traitements à effectuer indépendamment l'une de l'autre. Je doute qu'ils existe une API permettant la communication entre 2 cartes graphiques de 2 constructeurs différents de manière directe.
 
Les GPU peuvent accéder à la RAM, cf par exemple :
http://stackoverflow.com/questions [...] system-ram
 
A partir de là il me semble plus logique que chaque processeur (CPU, GPU) travaille dans son coin, avec des structures partagées genre ring buffer pour communiquer entre eux. Mais bon c'est que mon opinion, je ne connais pas le détail de DX12.
 
(non il n'y a pas d'API, je parle bien d'écrire directement en RAM pour communiquer avec un autre processeur)


 
 
En toute logique chaque GPU a ses commandlist, et des fences servent à déclencher les échanges sur le PCIe.
 
Apriori le truc avec l'EMA ce sera que les fences (et le ressources) sont partagées entre tout les "acteurs" Direct3D du process (en gros les drivers sont construits pour ignorer l'origine des signaux de fence).
 
Je ne sais pas du tout si Vulkan sera architecturé pareil.


DX12 et Vulkan sont issus des travaux sur Mantle donc ça devrait être le cas non ?

n°9646476
sasuke87
Posté le 31-10-2015 à 19:54:57  profilanswer
0Votes positifs
 

ju3ei a écrit :

Il y a une phrase que je ne suis pas sûre de bien comprendre : "Un autre test sur des GPU plus anciens montre par contre que le GPU primaire peut avoir un impact encore plus grand, ainsi si on adjoint à une HD 7970 une GTX 680, on obtient un gain de 55%. Par contre si les positions des cartes sont inversées alors les performances baissent de… 40% !" Il me semble que la HD7970 tout comme la GTX680 sont des GPU DX11 (sauf erreur de ma part). Est-il possible d'effectuer des mesures de gains de performances sous DX12 dans ce cas? Merci pour votre réponse.


Non ces cartes sont aussi compatibles DX12.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faites l'amour, pas la guerre (DX12)Conseils d'upgrade GPU + écran pour enthousiaste gaming
Choix ecran multi taches....[HFR] Actu : Gigabyte offre le Thunderbolt 3 via mise à jour
[HFR] Actu : Micron mise sur la GDDR5XUn build AMD a-t-il encore du sens?
Avis passage de AmD a Intel en vue d'une nvidia 980 TI 
Plus de sujets relatifs à : [HFR] Actu : AMD + Nvidia en multi GPU sous DX12


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR