Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Aide | Shop Recherche
1632 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : AMD + Nvidia en multi GPU sous DX12

 



 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Précédente
Auteur Sujet :

[HFR] Actu : AMD + Nvidia en multi GPU sous DX12

n°9643944
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-10-2015 à 16:45:02  profilanswer
0Votes positifs
 

Nous vous en parlions en mai dernier, DirectX 12 ajoute un support explicite du multi-GPU laissant la possibilité aux développeurs le contrôle du multi-GPU. A ...
Lire la suite ...

mood
Publicité
Posté le 28-10-2015 à 16:45:02  profilanswer
 

n°9643960
shump
aka Razen
Posté le 28-10-2015 à 17:03:57  profilanswer
0Votes positifs
 

Très intéressant en effet.
Comment explique-t-on l'impact de l'ordre des GPU ? Dans la démo sous Unreal Engine j'aurais avancé l'idée des bus de taille differente mais là c'est du rendu alternatif frame by frame donc je vois pas :??:  
 
PS: Une petite relecture s'impose pour les coquilles :o


---------------
WoW | D3 | Steam
n°9643984
tfpsly
Sly
Posté le 28-10-2015 à 17:14:53  profilanswer
0Votes positifs
 

> Comment explique-t-on l'impact de l'ordre des GPU ?
 
Très curieux en effet.
 
Peut-être certaines parties du rendu qui ne sont affichées qu'une frame sur deux normalement, et se retrouvent toujours sur le même GPU?
Par exemple avec du cascade shading, certaines cascades peuvent n'être rafraichies qu'une frame sur 2 ou plus, ce qui soulagerait le GPU secondaire.


Message édité par tfpsly le 28-10-2015 à 17:15:04
n°9643999
remm
Posté le 28-10-2015 à 17:26:10  profilanswer
0Votes positifs
 

Théorie: Certaines opérations (comme du calcul) doivent se faire exclusivement sur le premier GPU et la Fury est un peu plus efficace que la 980 Ti.

n°9644003
Angelus006​9
Posté le 28-10-2015 à 17:29:40  profilanswer
4Votes positifs
 

Le problème s'est de changer de carte selon les jeux vive les tables de bench adieu boitier ,après faut voir comment Nvidia et Amd vont reagir dans les pilotes pour pourrir les utilisateurs qui voudrait tenter aventure .

n°9644018
kabloui
Posté le 28-10-2015 à 17:43:48  profilanswer
0Votes positifs
 

L'incohérence de l'ordre des GPU est peut-être relié à l'async compute que seul AMD peut faire?


Message édité par kabloui le 28-10-2015 à 17:44:31
n°9644023
lsdYoYo
gravity powered
Posté le 28-10-2015 à 17:47:47  profilanswer
2Votes positifs
 

@Angelus0069 En français, ça donne quoi ?

n°9644056
MazFire
~ Keep Cool ~
Posté le 28-10-2015 à 18:20:50  profilanswer
2Votes positifs
 

Enfin une VRAIE avancée dans le domaine de l'informatique ? Je l'espère !

n°9644065
Fanfan71
Posté le 28-10-2015 à 18:27:31  profilanswer
2Votes positifs
 

kabloui a écrit :

L'incohérence de l'ordre des GPU est peut-être relié à l'async compute que seul AMD peut faire?


je sais pas si l'async compute n'est efficace qu'en multi-gpu, mais en mono, les nvidia sont toujours devant sur ce bench. J'aurai pensé que les FuryX profiteraient mieux de DX12 que les GTX 980 Ti...
Les meilleurs perfs sont obtenu en mélangeant les marques, du bi gpu mono marque est plus lent, les fan d'une marque vont devoir acheter l'autre marque aussi pour avoir les meilleurs perfs, c'est assez comique. Ca va peut-être calmer les trolls...

n°9644068
shump
aka Razen
Posté le 28-10-2015 à 18:28:24  profilanswer
1Votes positifs
 

MazFire a écrit :

Enfin une VRAIE avancée dans le domaine de l'informatique ? Je l'espère !


Je pense pas qu'on puisse parler d'avancée à proprement parler.
Les fabricants de GPU seront probablement hostile à la flexibilité de la chose.
De leur point de vue ca ferait des ventes en moins vu que ca permet de prolonger la vie des vieilles cartes.
 
Je rejoins Angelus, y a fort à parier que les pilotes vont brider les possibilités au max.
Ca sera GPU de même marque si on à de la chance et même génération si on en a pas... :ange:


---------------
WoW | D3 | Steam
mood
Publicité
Posté le 28-10-2015 à 18:28:24  profilanswer
 

n°9644077
aresias
Posté le 28-10-2015 à 18:32:41  profilanswer
0Votes positifs
 

remm a écrit :

Théorie: Certaines opérations (comme du calcul) doivent se faire exclusivement sur le premier GPU et la Fury est un peu plus efficace que la 980 Ti.


C'est ce que je me suis dis aussi. Les étapes de rendus sont peut être séparés entre les 2 cartes et la partie exécuté par la première carte serait plus rapidement faite avec une carte AMD ?
Même chose pour la partie du rendu effectué sur la 2ème carte qui serait plus performant avec une carte Nvidia.


Message édité par aresias le 28-10-2015 à 18:35:27
n°9644080
Xixou2
Posté le 28-10-2015 à 18:37:03  profilanswer
0Votes positifs
 

quid de la mémoire pour le duo 980ti et titan x ?
limité à 6 GBytes ?

n°9644087
taronyu26
Posté le 28-10-2015 à 18:47:25  profilanswer
0Votes positifs
 

LIRE la news serait bien aussi.
C'est écrit noir sur blanc, dans l'image intégrée à la news :
"Independent memory management"
Les développeurs peuvent donc allouer de la mémoire sur chaque GPU, comme on le ferait dans du computing en OpenCL ou CUDA.

n°9644115
bob-xygene
Posté le 28-10-2015 à 19:18:20  profilanswer
0Votes positifs
 

Les différences pourraient s'expliquer par des débits de transfert du framebuffer plus ou moins efficaces vers la carte qui fait l'affichage ?
 
Par contre dire que ça n'a pas grand intérêt me semble faux car beaucoup de gens ont désormais plusieurs cartes graphiques plus ou moins récentes en stock, leurs performances restant proche du fait de la stagnation des performances.
Du coup ça permettrait de recycler deux cartes basées sur Tahiti mais d'époques très différentes sans compter sur le Crossfire.

n°9644118
Lykomax
Posté le 28-10-2015 à 19:21:10  profilanswer
1Votes positifs
 

Si tout devenait plus souple au niveau des mélanges de GPU de marques différentes et des IGPU, ce serait une vraie avancée.

 

Il faudrait aussi que les constructeurs de carte mère participent à cette flexibilité et que la norme PCI-Express soit améliorée.

 

1) J'ai placé ma carte graphique en PCIE3 pour pouvoir la refroidir plus facilement.
Hors je voudrais ça :
- PCIE1 : rien et PCIE3 : 16X
Hors actuellement il est impossible de paramétrer cela dans le bios, il n'y a que :
- PCIE1 : 16X et PCIE3 : rien
- PCIE1 : 8X   et PCIE3 : 8X
et du coup ma carte graphique est en 8X GEN3.  :(
Heureusement que ça ne bride pas réellement les perfs en jeux, quelques points perdus en bench tout au plus,
et comme une carte plus froide fait moins de throttle ça rattrape un peu.
Mais je ne sais pas si sera le cas avec les besoins des cartes graphiques dans 2 ans et j'aimerais quand même que tout soit optimisé.

 

2) D'après cette news c'est plus profitable d'avoir tel modèle de carte sur le port primaire.
Hors je ne crois pas qu'il soit possible actuellement de choisir quel port PCIE contient la carte primaire.
Enfin je ne peux pas le faire puisque je n'ai le choix qu'entre l'IGPU et le GPU dans mon bios.
Ce sera bien de pouvoir paramétrer ça dans le bios pour éviter d'interchanger physiquement les cartes.
Enfin pour le jour où on pourra enfin profiter du mixage de GPU.

Message cité 1 fois
Message édité par Lykomax le 28-10-2015 à 19:21:46
n°9644139
gils04
le soleil du sud !
Posté le 28-10-2015 à 19:46:58  profilanswer
0Votes positifs
 

Lykomax a écrit :

Si tout devenait plus souple au niveau des mélanges de GPU de marques différentes et des IGPU, ce serait une vraie avancée.
 
Il faudrait aussi que les constructeurs de carte mère participent à cette flexibilité et que la norme PCI-Express soit améliorée.
 
1) J'ai placé ma carte graphique en PCIE3 pour pouvoir la refroidir plus facilement.
Hors je voudrais ça :
- PCIE1 : rien et PCIE3 : 16X
Hors actuellement il est impossible de paramétrer cela dans le bios, il n'y a que :
- PCIE1 : 16X et PCIE3 : rien
- PCIE1 : 8X   et PCIE3 : 8X
et du coup ma carte graphique est en 8X GEN3.  :(
Heureusement que ça ne bride pas réellement les perfs en jeux, quelques points perdus en bench tout au plus,  
et comme une carte plus froide fait moins de throttle ça rattrape un peu.
Mais je ne sais pas si sera le cas avec les besoins des cartes graphiques dans 2 ans et j'aimerais quand même que tout soit optimisé.
 
2) D'après cette news c'est plus profitable d'avoir tel modèle de carte sur le port primaire.
Hors je ne crois pas qu'il soit possible actuellement de choisir quel port PCIE contient la carte primaire.
Enfin je ne peux pas le faire puisque je n'ai le choix qu'entre l'IGPU et le GPU dans mon bios.
Ce sera bien de pouvoir paramétrer ça dans le bios pour éviter d'interchanger physiquement les cartes.
Enfin pour le jour où on pourra enfin profiter du mixage de GPU.


 
tu as des chiffres ?  :)  

n°9644140
Xixou2
Posté le 28-10-2015 à 19:48:48  profilanswer
0Votes positifs
 

Du coup j'ai remis ma vieille 290 amd près de ma titan x pour Boinc ;-)
ça turbine bien. Et comme prévu, la tab physx du control panel nvidia a disparu ^^
 

n°9644155
Mangeau
Posté le 28-10-2015 à 20:22:18  profilanswer
0Votes positifs
 

Ce résultat me fait sourire mais ne m'étonne guère. N'y avait-il pas une société qui avait tenté cette amalgame avant?
Maintenant que c'est revenu au-devant de la scène peut-être qu'on comprendra mieux la philosophie de ces deux marques.
Nous clients/joueurs, notre priorité n'est pas de prendre partie pour l'un ou pour l'autre, mais de profiter des avantages technologiques que nous offrent chacun.
Le mieux et le moins cher, devrait-être le choix de tout un chacun dans l'absolu mais, très souvent, on retrouve autre choses comme motivation.
Il semblerait que pour cette fois-ci, le mélange, soit le bon choix. Dans un certain ordre naturellement.
Dans l'absolu, deux cartes graphiques identiques devraient donner deux fois plus de résultats. Pourquoi quand on adopte se cas de figure, les performances ne sont pas au rendez-vous, forcement, constamment?

n°9644165
Xixou2
Posté le 28-10-2015 à 20:37:17  profilanswer
0Votes positifs
 

car les gpu amd sont très fort en computing par exemple, et si une partie du jeu a besoin de ces calculs, la paire nvidia amd pourrait faire miracle.

n°9644168
drifter333
Padawan de Julia :o
Posté le 28-10-2015 à 20:39:41  profilanswer
0Votes positifs
 

Petite précision, dans le test c'est une Fury X et une Fury qui sont mixé pas 2 Fury X comme peut le laisser entendre l'article. ;)
Du coup oui le gain est moins important que Fury X + 980Ti mais vu les perf de base de la Fury c'est logique :)

n°9644188
Xixou2
Posté le 28-10-2015 à 21:07:47  profilanswer
0Votes positifs
 

Tiens , le g-sync fonctionne t'il toujours en mixant amd/nvidia ?

n°9644192
D-Ther
Posté le 28-10-2015 à 21:16:47  profilanswer
0Votes positifs
 

Xixou2 a écrit :

Tiens , le g-sync fonctionne t'il toujours en mixant amd/nvidia ?


 
Si c'est comme le physx, je ne pense pas.

n°9644202
taronyu26
Posté le 28-10-2015 à 21:29:40  profilanswer
0Votes positifs
 

Ce genre de bidouille c'est bancale. Les deux fabricants devraient s'assurer que leur matériel fonctionne bien avec celui du concurrent ? Et aussi dans les cas de cartes vieilles de plusieurs années ? Je serais fort étonné qu'ils s'en préoccupent.

n°9644216
gils04
le soleil du sud !
Posté le 28-10-2015 à 21:40:29  profilanswer
0Votes positifs
 


:)
 
pour l'instant , ça cohabite .  :whistle:  
 
 http://img15.hostingpics.net/pics/471852Capture6.png
 
http://img15.hostingpics.net/pics/175262Capture8.png

n°9644219
Xixou2
Posté le 28-10-2015 à 21:45:39  profilanswer
0Votes positifs
 

3dmark ou furmark ne tournent que sur le gpu avec l'affichage.
boinc peut par contre utiliser les deux  en //.

n°9644226
gils04
le soleil du sud !
Posté le 28-10-2015 à 21:57:33  profilanswer
0Votes positifs
 


 
je pense , je viens de voir pour Heaven , le GPU est bien reconnu mais pas sollicité , LuxMark doit le prendre en charge normalement , je vais essayer :)  
 
 
http://img15.hostingpics.net/pics/594915Capture9.png

n°9644233
gils04
le soleil du sud !
Posté le 28-10-2015 à 22:13:15  profilanswer
0Votes positifs
 


:)
 
Yes !!! :D  
 
comme sur OS X , LuxMark prend en charge les 2 GPU :)
 
http://img15.hostingpics.net/pics/472147Capture10.png

n°9644239
gils04
le soleil du sud !
Posté le 28-10-2015 à 22:28:50  profilanswer
0Votes positifs
 

:)
 
3DMark comme Heaven ne prend en charge que le GPU principal (PCIE port 1) bien que le GPU 2 PCIE 2 soit reconnu certainement comme simple moniteur .

n°9644240
Xixou2
Posté le 28-10-2015 à 22:29:22  profilanswer
0Votes positifs
 

En effet Luxmark3 charge les deux gpu ;-)
http://users.skynet.be/xixou/luxmark3.png

n°9644245
gils04
le soleil du sud !
Posté le 28-10-2015 à 22:35:50  profilanswer
0Votes positifs
 


:)
 
maintenant rien d'extraordinaire :( sur OS X , ça fait très longtemps que les 3 GPU nV/AMD/Intel sont prit en charge en même temps  :heink:  
 
j'ai fait un montage barbare avec mon bte Matx les 2 GPU ne rentre pas , j'ai rajouté une nappe extension PCIE et le deuxième GPU posé sur un carton branché sur le PCIE 4x  :lol:  
 
Quesque l'on ferait pas pour juste tester  :lol:

n°9644251
gils04
le soleil du sud !
Posté le 28-10-2015 à 22:41:28  profilanswer
0Votes positifs
 

Xixou2 a écrit :

En effet Luxmark3 charge les deux gpu ;-)
http://users.skynet.be/xixou/luxmark3.png


 
tu as essayé CompuBench opencl , ça doit défouraillé avec tes 2 GPU :)

n°9644253
mazingerz
Posté le 28-10-2015 à 22:44:50  profilanswer
0Votes positifs
 

Citation :

et vu le marché relativement faible du multi GPU, il n'est pas certain que beaucoup exploitent comme Oxyde cette possibilité offerte par l'API.


 
la j'suis pas d'accord  
avec tout les GPU embarqué dans le CPU ça deviens monnaie courante

n°9644255
gils04
le soleil du sud !
Posté le 28-10-2015 à 22:52:09  profilanswer
0Votes positifs
 

:)
 
j'ai remarqué que dans GPUZ , que physX n'est pas prit en charge , CUDA oui  :??:  
 
http://img15.hostingpics.net/pics/912026Capture7.png
 
http://img15.hostingpics.net/pics/716461Capture11.png
 
 

n°9644284
Gigathlon
Quad-neurones natif
Posté le 28-10-2015 à 23:52:06  profilanswer
0Votes positifs
 

Va falloir surveiller du coin de l'oeil du côté d'Unigine, vu que la 2.0 finale a été publiée, on ne devrait pas tarder à avoir un benchmark.

n°9644291
gils04
le soleil du sud !
Posté le 29-10-2015 à 00:04:38  profilanswer
0Votes positifs
 

:)
 
j'ai réussi à activer le mode capture vidéo de nV , rien quand activant le GPU par un connecteur DVI/VGA , je pense qu'un deuxième écran devrais activer le reste , je testerais demain :) , pas de décodage h264 pour l'instant  :)


Message édité par gils04 le 29-10-2015 à 00:05:13
n°9644299
ju3ei
Je vais là ou le vent me porte
Posté le 29-10-2015 à 00:34:53  profilanswer
0Votes positifs
 

Il y a une phrase que je ne suis pas sûre de bien comprendre : "Un autre test sur des GPU plus anciens montre par contre que le GPU primaire peut avoir un impact encore plus grand, ainsi si on adjoint à une HD 7970 une GTX 680, on obtient un gain de 55%. Par contre si les positions des cartes sont inversées alors les performances baissent de… 40% !" Il me semble que la HD7970 tout comme la GTX680 sont des GPU DX11 (sauf erreur de ma part). Est-il possible d'effectuer des mesures de gains de performances sous DX12 dans ce cas? Merci pour votre réponse.

n°9644346
Xixou2
Posté le 29-10-2015 à 06:07:33  profilanswer
0Votes positifs
 

gils04 a écrit :

Xixou2 a écrit :

En effet Luxmark3 charge les deux gpu ;-)
http://users.skynet.be/xixou/luxmark3.png


 
tu as essayé CompuBench opencl , ça doit défouraillé avec tes 2 GPU :)


 
Il ne charge que la titan X

n°9644351
gils04
le soleil du sud !
Posté le 29-10-2015 à 07:15:26  profilanswer
0Votes positifs
 

Xixou2 a écrit :


 
tu as essayé CompuBench opencl , ça doit défourailler avec tes 2 GPU :)


 
Il ne charge que la titan X[/quotemsg]
 
moi , je peux voir les 2 GPU dans CPB mais , je ne peux pas cocher les 2 GPU en même temps , je testerais Ray Tracing cet APM :)  

n°9644366
Lykomax
Posté le 29-10-2015 à 08:11:46  profilanswer
0Votes positifs
 

gils04 a écrit :


tu as des chiffres ?  :)

 

Aproximativement :
Sur 3DMark 2011, Entre PCIE GEN3 16X et PCIE GEN3 8X,
environ 100-120 points de diff mais j'ai fais l'essai qu'une seule fois (quelques tests 3Dmark),
et j'ai pas envie de déplacer une nouvelle fois ma carte pour vérifier que la diff venait de là.
De toute façon en 8X je fais quand même un peu plus de 15000 points, donc en jeu je vais pas m'en rendre compte.


Message édité par Lykomax le 29-10-2015 à 08:18:21
n°9644426
voodoospir​it
Posté le 29-10-2015 à 09:31:07  profilanswer
0Votes positifs
 

il y a un test qui traine sur le net avec des comparaisons entre 16x, 8x +8x, 8x+8x+4x ainsi que les % de gains/pertes

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : AMD + Nvidia en multi GPU sous DX12

 

Sujets relatifs
Faites l'amour, pas la guerre (DX12)Conseils d'upgrade GPU + écran pour enthousiaste gaming
Choix ecran multi taches....[HFR] Actu : Gigabyte offre le Thunderbolt 3 via mise à jour
[HFR] Actu : Micron mise sur la GDDR5XUn build AMD a-t-il encore du sens?
Avis passage de AmD a Intel en vue d'une nvidia 980 TI 
Plus de sujets relatifs à : [HFR] Actu : AMD + Nvidia en multi GPU sous DX12


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite) / Groupe LDLC / Shop HFR