Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1392 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GDC: D3D12: AMD parle des gains GPU

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

[HFR] Actu : GDC: D3D12: AMD parle des gains GPU

n°9442593
tridam
Profil : Equipe HardWare.fr
Posté le 16-03-2015 à 04:45:01  profilanswer
0Votes positifs
 

De nombreuses sessions dédiées à Direct3D 12 étaient organisées à la GDC. Après celle de Microsoft consacrée à Direct3D, lors de laquelle les niveaux de ...
Lire la suite ...

mood
Publicité
Posté le 16-03-2015 à 04:45:01  profilanswer
 

n°9442626
seth-01
Posté le 16-03-2015 à 09:23:07  profilanswer
2Votes positifs
 

"Pour rappel, AMD a implémenté ces processeurs de commandes secondaires justement pour pouvoir exécuter efficacement des tâches de type compute en même temps que des tâches de type graphique. Il n'est pas certain que les GPU Nvidia puissent profiter autant que ceux d'AMD de ce type d'optimisation." : donc ces optimisations ne verront jamais le jour... on a vu ce que ca avait donné à l'époque de DX 10.1 et certains jeux...

n°9442630
tridam
Profil : Equipe HardWare.fr
Posté le 16-03-2015 à 09:31:06  profilanswer
3Votes positifs
 

D'une part il y a des ACE dans les APU des consoles et d'autre part on ne sait pas encore de quel ordre seront les gains sur GeForce avec ce genre de technique. Ca ne veut pas dire qu'il n'y en aura pas.

n°9442645
mazingerz
Posté le 16-03-2015 à 10:17:14  profilanswer
4Votes positifs
 

ça servira a la PS4 et XBOX one. C'est déjà pas mal les jeux PC seront moins limité par les besoins de la version console ^^  
 
 

n°9442660
Swyx
Posté le 16-03-2015 à 10:34:29  profilanswer
4Votes positifs
 

Personnellement je trouve qu'amd a très bien joué son coup avec la sortie de mantle.
 
Ca a poussé Microsoft à sortir un nouvelle API plus bas niveau ce qui avantage de manière conséquente les CPU AMD qui sont souvent limitant. De plus l'architecture Nvidia est totalement désaxée de ce monde. ils ne l'ont pas vu venir. Microsoft a fait affaire avec les deux mais Nvidia est dans une vilaine passe.
 
AMD pourra tirer pleinement parti de cette modification, et les développeurs auront de bonnes raisons de l'exploiter, car aujourd'hui, avec la PS4 et la XBox One, il y a une grosse part de GPU AMD sur le marché, et une optimisation fine de la puissance de calcul peut grandement aider sur console (CPU à la ramasse).
 
Reste à savoir si les R9 390 tiendront leurs promesses (4K monoGPU) et si amd arrivera a sortir son prochain CPU Flagship assez vite pour reprendre des parts de marché.
 
PS : Intel avec ses APU intégrés a aussi un petit tour à jouer ce qui pourrait simplement bannir les GPU Nvidia entrée de gamme.

n°9442668
bjone
Insert booze to continue
Posté le 16-03-2015 à 11:00:59  profilanswer
0Votes positifs
 

Ce sont plus les SAV qui qualifient OCCT et Furmark de PowerVirus ^^

n°9442672
lapin
Posté le 16-03-2015 à 11:15:48  profilanswer
0Votes positifs
 

si les constructeurs de GPU aussi à tel points qu'ils détectent via les drivers et bride le GPU en cas de lancement de se genre de soft.

n°9442698
aresias
Posté le 16-03-2015 à 11:49:23  profilanswer
0Votes positifs
 

AMD parlait de possibles futurs optimisations GPU à l'époque de Mantle il s'agissait donc de cela j'imagine.
 
Toute cette puissance CPU et GPU enfin libéré.
Espérons que ce soit exploité.


Message édité par aresias le 16-03-2015 à 12:00:36
n°9442729
Xixou2
Posté le 16-03-2015 à 12:17:39  profilanswer
0Votes positifs
 

je vois GDC depuis des jours, c'est quel nom de salon ?

n°9442735
aresias
Posté le 16-03-2015 à 12:24:19  profilanswer
1Votes positifs
 

Xixou2 a écrit :

je vois GDC depuis des jours, c'est quel nom de salon ?


La Game Developers Conference (GDC) est l'un des plus grands évènements de l'industrie du jeu vidéo réservé aux professionnels.
Quand il y a des nouvelles technologies hardware et software c'est très souvent la bas que c'est présenté.

mood
Publicité
Posté le 16-03-2015 à 12:24:19  profilanswer
 

n°9442736
pinpinb
Posté le 16-03-2015 à 12:25:41  profilanswer
0Votes positifs
 

http://www.gdconf.com/
si je me trompe pas :)

n°9442814
Keser
Posté le 16-03-2015 à 14:58:39  profilanswer
0Votes positifs
 

Le refroidissement de ma MSI 290 Gaming atteint parfois ses limites après une séance de jeux de quelques heures (93°C ventilo à 100%).
Avec ce genre d'optimisation cumulé à une température ambiante plus élevé (par exemple en été) fera que mon GPU risque donc de throttle bien plus souvent...
 
Je n'ai rien contre la hausse de consommation des GPU, mais cela nécessite un refroidissement adapté et non des optimisations de consommation comme le fait AMD avec Powertune et nvidia avec le GPU Boost.
Car quand on utilise des appli optimisé pour vraiment exploiter le GPU, on se retrouve bridé par une techno àlacon qui a été pensé pour sous dimensionner le refroidissement du GPU...

n°9442823
lapin
Posté le 16-03-2015 à 15:17:11  profilanswer
0Votes positifs
 

les Sapphire Tri-x ne throttle pas.

n°9442827
Keser
Posté le 16-03-2015 à 15:21:19  profilanswer
0Votes positifs
 

lapin a écrit :

les Sapphire Tri-x ne throttle pas.


C'est pire, elles ont des black screen à cause du manque de tension. J'avais renvoyé ma 290 Tri-X à cause de ce problème et pris une 290 Gaming... qui surchauffe mais qui fonctionne.

Message cité 1 fois
Message édité par Keser le 16-03-2015 à 15:21:28
n°9442831
mazingerz
Posté le 16-03-2015 à 15:27:19  profilanswer
3Votes positifs
 

Keser a écrit :


C'est pire, elles ont des black screen à cause du manque de tension. J'avais renvoyé ma 290 Tri-X à cause de ce problème et pris une 290 Gaming... qui surchauffe mais qui fonctionne.


 
eu ça peut pas se faire simplement via le tweak?  
 
perso j'ai rajouté 5%  de charge maxi en plus via le CCC et plus aucun problème sur ma 290
 
je pense ça chauffe plus du coups mais plus stable (et comme mon gpu dépassé jamais les 65°C en charge ça me vas)
 
pas besoin de changer de CG


Message édité par mazingerz le 16-03-2015 à 15:29:12
n°9442834
lapin
Posté le 16-03-2015 à 15:29:29  profilanswer
0Votes positifs
 

sauf que il ne faut pas faire de généralité, le black screen est du  au logiciel de monitoring et d'overclocking Tri-X si je retire tri-x j'ai pas de black screen au démarrage de Windows d'ailleurs curieusement maintenant même avec Tri-X j'ai de moins en moins de black screen au démarrage de Windows, j'en ai à peux près 1 sur 3, mais je n'ai jamais eut de black screen en jouant au jeux vidéo.
 
bon ma sapphire est overclocker à 1175 Mhz en GPU et 1500 Mhz en RAM et j'ai mis VDDC à 106 micro-volts.


Message édité par lapin le 16-03-2015 à 15:31:45
n°9442838
Keser
Posté le 16-03-2015 à 15:30:28  profilanswer
0Votes positifs
 

mazingerz a écrit :

eu ça peut pas se faire simplement via le tweak?  
 
perso j'ai rajouté 5%  de charge maxi en plus via le CCC et plus aucun problème

Non, même en rajoutant +50% ca ne marchait pas, c'était dû à un manque de tension au niveau du contrôleur mémoire.
Il fallait mettre à jour le BIOS de la carte pour régler le problème... solution que j'ai connu après avoir renvoyé ma carte.

n°9442841
lapin
Posté le 16-03-2015 à 15:33:10  profilanswer
0Votes positifs
 

Keser a écrit :

Non, même en rajoutant +50% ca ne marchait pas, c'était dû à un manque de tension au niveau du contrôleur mémoire.
Il fallait mettre à jour le BIOS de la carte pour régler le problème... solution que j'ai connu après avoir renvoyé ma carte.


 
 
perso je n'ai jamais besoin de modifier le bios de la carte et pas de black screen lors des jeux, uniquement au démarrage de Windows et encore j'en ai de moins en moins.

n°9442844
Keser
Posté le 16-03-2015 à 15:34:41  profilanswer
0Votes positifs
 

lapin a écrit :

sauf que il ne faut pas faire de généralité, le black screen est du  au logiciel de monitoring et d'overclocking Tri-X

Dans mon cas c'était lors du passage des fréquence 2D aux fréquences 3D de la carte (ou l'inverse 3D -> 2D), donc ca me faisait un Blackscreen à pratiquement chaque démarrage de Windows (sauf si je lançais Windows en mode basse résolution, dans ce cas ma carte ne passait pas en mode 3D pour chargé l'interface Aero...)

n°9442848
lapin
Posté le 16-03-2015 à 15:38:24  profilanswer
0Votes positifs
 

si je retire Tri-x je n'ai plus de black screen, alors peut être que j'ai une révision un peux meilleur ou que la carte par défaut avait déjà un BIOS mis à jour.
 
en tout cas il ne faut pas faire de généralité de son cas personnel.


Message édité par lapin le 16-03-2015 à 15:39:26
n°9443005
mazingerz
Posté le 16-03-2015 à 18:54:55  profilanswer
2Votes positifs
 

ravenloft a écrit :


 
 
[quotemsg=9442992,21,892852]
 
Quand tu vois certains jeux consoles qui arrivent sur Pc mal optimisés sur AMD à leur sortie (même chose chez nvidia aussi), cela montre que c'est pas forcément les mêmes optimisations qui sont utilisées.
 
Dx12 c'est pas avant fin 2015 donc d'ici à ce que les jeux exploitent ces petites spécificités si ça arrive un jour, on aura les r9 4xx chez AMD et les gpu pascal chez nvidia qui gèreront toutes ces spécificités.
 
 


 
tout le monde ne change pas de GPU à chaque gen

n°9443094
mazingerz
Posté le 16-03-2015 à 20:34:00  profilanswer
2Votes positifs
 

ravenloft a écrit :


Non mais ça changera rien. C'est pas ces légères différences qui vont faire de gros écarts.


 
y a jamais de gros écart entre les 2 carte d'une même gamme
 
c'est les petit écart qui fond faire les choix de l'une ou l'autre

n°9453271
klapsss
Posté le 31-03-2015 à 09:54:07  profilanswer
0Votes positifs
 

Donc si j'ai bien compris, je suis dans le mal avec ma 770gtx....ok

n°9453273
MEI
|DarthPingoo(tm)|
Posté le 31-03-2015 à 10:00:01  profilanswer
0Votes positifs
 

ravenloft a écrit :


Cela ne veut rien dire. Il n'y a pas qu'nvidia qui fait des gpu bas de gamme.
 
Tout dépend ce qu'on appelle bas de gamme. Les apus même avec une api bas niveau ne feront pas des merveilles.


 
A moyen terme avec Broadwell et 48 UE + l'eDRAM on commence à avoir des perfs raisonnble.
 
Mais surtout, avec SkyLake et la DDR4 + GT4e on devrais encore avoir un gain tangible.
 
Alors oui les GPU d'entrée de gamme évolue, mais Intel continue à tirer son épingle du jeu, et d'ici le successeur de Cannonlake je ne serait pas surpris qu'au final Intel licencie des technos NVIDIA/AMD (GSync & co) plutôt que l'on ajoute des IGP dans les portables/PC d'entrée de gamme.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9453277
tridam
Profil : Equipe HardWare.fr
Posté le 31-03-2015 à 10:07:45  profilanswer
1Votes positifs
 

Il y a eu une mise à jour cette nuit avec quelques informations de plus, surtout concernant le support de tout ça sur GeForce.
 
Sinon AMD a posté une vidéo qui explique grossièrement comment ça fonctionne : https://www.youtube.com/watch?v=v3dUhep0rBs


Message édité par tridam le 31-03-2015 à 10:08:47
n°9453285
Lyto
Posté le 31-03-2015 à 10:19:13  profilanswer
0Votes positifs
 

Sur le papier ça m'a l'air très intéressant. Reste à voir si les développeurs vont en faire quelque chose en pratique

n°9453292
manusfreed​om
''Le reste est a venir''
Posté le 31-03-2015 à 10:30:02  profilanswer
1Votes positifs
 

@tridam ou @Marc, vous allez nous faire une news/article sur le Knights Landing Xeon Phi?

n°9453318
Shorony
Posté le 31-03-2015 à 11:25:28  profilanswer
3Votes positifs
 

Savoir ça redonne un intérêt à la 285 du coup non ? Potentiellement elle permettra de mieux profiter de DX12 qu'une 280X non ?

Message cité 1 fois
Message édité par Shorony le 31-03-2015 à 11:27:02
n°9453333
dacostafil​ipe
Posté le 31-03-2015 à 11:43:16  profilanswer
1Votes positifs
 

Donc, pas d'ACE-like chez nVidia?

n°9453339
lapin
Posté le 31-03-2015 à 11:50:19  profilanswer
2Votes positifs
 

Shorony a écrit :

Savoir ça redonne un intérêt à la 285 du coup non ? Potentiellement elle permettra de mieux profiter de DX12 qu'une 280X non ?


 
 
p'ti peux mais pas beaucoup, quand la 285 sera à 130€ pourquoi pas, mais la 285 à des goulets d'étranglement qui la rend contre performante et inintéressante par rapport à un 290 qui elle est vendu 249€( et 299€ pour la version overclocker de chez Sapphire), alors que la R9 285 est vendu 222€.

n°9453716
sasuke87
Posté le 31-03-2015 à 18:27:38  profilanswer
0Votes positifs
 

dacostafilipe a écrit :

Donc, pas d'ACE-like chez nVidia?


Prochaine gen peut être. Du coup est-ce que les dev vont utiliser cette particularité de l'archi AMD (la même que sur les consoles?)?

n°9453818
Yonix06
Posté le 31-03-2015 à 19:57:22  profilanswer
1Votes positifs
 

bon bah je vais pouvoir mettre ma 760 à la poubelle. Super, moi qui voulais me faire un sli, et bien ça ne sera pas pour de suite, je vais surement passer chez amd d'ailleur.

n°9453823
lapin
Posté le 31-03-2015 à 20:03:25  profilanswer
0Votes positifs
 

Ouais enfin,  c'est pas encore exploiter.

n°9453830
sasuke87
Posté le 31-03-2015 à 20:11:46  profilanswer
1Votes positifs
 

lapin a écrit :

Ouais enfin,  c'est pas encore exploiter.


Sur PS4, infamous et BF4 l'utilisent. Sur PC il semble que Thief en mode mantle l'utilise.

n°9453979
lapin
Posté le 31-03-2015 à 23:17:53  profilanswer
0Votes positifs
 

je veux dire exploiter en masse, parce que là tu me sort 3 jeux vidéos.
 
en plus y a qu'un seul jeu AAA et il date.

n°9454074
Shorony
Posté le 01-04-2015 à 08:37:46  profilanswer
0Votes positifs
 

ou est-ce que tu trouves la 290 à 249 € ? Car moi je ne vois que chez RDC et c'est un retour de SAV donc pas du neuf.
Car moi la c'était 285 à 220€ ou 290 à 290€ ce qui n'est tout de suite plus pareil :D

n°9454088
lapin
Posté le 01-04-2015 à 09:02:36  profilanswer
0Votes positifs
 

ben la Sapphire R9 290 Tri-X OC new Edition est à 289.95€ chez LDLC: http://www.ldlc.com/fiche/PB00182823.html
 
non mais s'était la FNAC un vendeur indépendant vendait la sapphire à 369€.

n°9454202
FCBarca74
Aymen
Posté le 01-04-2015 à 11:41:58  profilanswer
1Votes positifs
 
n°9454263
edtech
Posté le 01-04-2015 à 13:06:16  profilanswer
0Votes positifs
 

Normal, DX12 c'est Mantle modifié, tout comme Vulkan ! Mais contrairement à Vulkan, Microsoft a payé AMD pour qu'ils partagent leur travail. D'où cette ressemblance extrême dans les signatures de fonctions, la documentation, les optimisations possibles, etc.

n°9454353
pinpinb
Posté le 01-04-2015 à 14:40:31  profilanswer
0Votes positifs
 

edtech a écrit :

Microsoft a payé AMD pour qu'ils partagent leur travail.


Ah bon ? Ca sort d'où ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : GDC: D3D12: AMD parle des gains GPU

 

Sujets relatifs
AMD FX-9590 : température descendant à 0°C en idle[HFR] Actu : Des nouvelles du HGST 10 To, un disque très spécial
[HFR] Actu : LGA 2011-v3 en mini-ITX chez ASRock ![HFR] Actu : Test d'endurance SSD, clap de fin à 2.4 Pétaoctets
[HFR] Actu : Les GeForce 800M renommées en 900M[HFR] Actu : Les GTX 960 4 Go débarquent en nombre
Plus de sujets relatifs à : [HFR] Actu : GDC: D3D12: AMD parle des gains GPU


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR