Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2831 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12
Auteur Sujet :

[HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?

n°9605200
t3ddy
Posté le 09-09-2015 à 22:57:41  profilanswer
3Votes positifs
 

Reprise du message précédent :
Quand je pense qu'il n'y a pas si longtemps, on se faisait engrainer par des boulets quand on osait supposer qu'il y avait un soucis avec D3D12 et les nvidia sur la base de ce bench. Et vlan, dans tes dents Gontran, voilà un bel article bien technique et documenté qui a le mérite de soulever le lièvre.

mood
Publicité
Posté le 09-09-2015 à 22:57:41  profilanswer
 

n°9605206
The_Balrog
Et là, c'est le drame...
Posté le 09-09-2015 à 23:08:38  profilanswer
2Votes positifs
 

ravenloft a écrit :

Punkenjoy a écrit :


Lorsque Supreme Commander est sortit, la grande majorité des PC ne pouvait pas le faire tourner à son plein potentiel et ça sera le cas aussi ou AoS.  


Faux.
Supreme commander avait le gros défaut d'être très gourmand en cpu et de pas exploiter les cpus multi coeurs. Même aujourd'hui tu exploites pas du tout le jeu à son plein potentiel car tu es toujours limité à 1 coeur. Il y a eu un mod pour faire du multicoeur mais ça restait très basique et pas pour tout le monde. Comme les cpus sont plus perfs aujourd'hui ça tourne mieux mais c'est loin d'être optimal. Ce ne sera pas le cas d'ashes.


 
Mais toujours ce ton impérieux, pas croyable :/
 SupCom utilise environ 3 cores (pas à 100%, mas il répartit la tâche tout de même)
Petit retour en arriere, hop: http://www.hardware.fr/articles/660-4/conclusion.html
A se demander si tu y as joué à l'époque, et passé d'un dual à un quad, à cette époque...

n°9605235
cocto81
Posté le 09-09-2015 à 23:46:14  profilanswer
2Votes positifs
 

En fait la question c'est de savoir, puisque Nvidia se veut rassurant au possible sur le retour de "l'optimization" Nvidia sur DX12, si Nvidia sera encore capable de "finir" le jeu dans les pilotes, en sachant que les jeux auront un accès plus direct au hardware par Dx12.
En fait, il semble évident que non, à moins de patcher totalement le jeu.
 
Du coup, ce qu'on constate dans ces tests, c'est que, ce qui était évident dans les utilisation GPGPU (OpenCL) en rendu 3D, que les GPU AMD/ATI étaient deux fois plus puissants que leurs homologues Nvidia pourtant deux fois plus chers, (d'où aussi leur consommation), se retrouve sur DirectX12.
On peut aussi se demander comment Nvidia parvient à doubler la vitesse sur DirectX 11 si ce n'est en arrangeant le rendu de la carte (la vérité c'est qu'on ne verrait que du feu en 4K). Des petites bidouilles de rendu, intégrées aux pilotes, par jeu, par scène, par texture. Ces bidouilles peuvent bien sûr être invisibles et bienvenues, quand par exemple les textures sont trop volumineuses pour être rendues dans un jeu mal conçu (volontairement ou pas)... et qu'une carte AMD rendra de façon "bête" comme les concepteurs du jeu l'ont programmé (c'est le cas notamment de "The Witcher 3" ).
 
L'interception des commandes de rendu des jeux sera par contre quasi-impossible dans Dx12 qui aura un rendu intact mais proche de la vitesse maximum possible pour le carte.
 
Ainsi, si on suit les données des tests OpenCL, sur le GPGPU, le plus poussés, les AMD R9 390x devraient être 1.5 fois plus puissants que les Nvidia 980Ti ou Titan non overclockés, et à peu près équivalents si ceux-ci sont overclockés (ce qui est plus facile sur Nvidia que sur les AMD du fait de la lourdeur des GPU AMD qui intègrent aussi des unités flottantes double-précision et faites pour un usage plus large que le jeu).
Et ça semble bien se vérifier dans ces tests.
 
Au niveau de DX12, les nouveaux jeux demandeurs de ressources, faits pour multi-écrans, très haute définition, devraient rapidement adopter la techno notamment pour les sorties de Noel.
C'est là qu'il faudra se poser la question de prendre un carte Nvidia entre 750 (6Go de VRAM) et 1200 euros (12Go de VRAM) pour les anciens jeux en Dx11, qui de toute manière iront très bien sur les AMD R9 390 et 390x, ou bien prendre une carte AMD Fury ou une R9 390X ou même 390 à 8Go de RAM (cette dernière à moins de 350 euros) qui seront toutes au moins aussi puissantes sous DX12 que les cartes Nvidia les plus haut de gamme.

Message cité 1 fois
Message édité par cocto81 le 10-09-2015 à 00:02:05
n°9605240
ti-rhum
Posté le 09-09-2015 à 23:52:02  profilanswer
1Votes positifs
 

ravenloft a écrit :


Ce que dit angeluswash est correct car amd arrive en dx12 à faire aussi bien qu'nvidia en dx11 mais pas mieux. Cela montre surtout qu'amd est largué en dx11 (c'est malheureusement une presque généralité) et qu'nvidia n'exploite pas les avantages de dx12 sur ce jeu en version alpha.


 
correct peut etre mais avec un tres mauvais choix de mots ^^
 
que maxwell s'en sorte ou soit mieux adapté a dx11 c'est un fait mais l'écart de perf sur les jeux dx11 ne font pas des solutions d'AMD des gpu "a la ramasse" ou largué xD

n°9605245
willyman21
Posté le 10-09-2015 à 00:02:55  profilanswer
0Votes positifs
 

Ma question précédente était plutot dans le sens : Ai-je bien fais de prendre une 980ti plutot qu'une Fury x quand on voit les perfs en dx12 ?

n°9605247
ti-rhum
Posté le 10-09-2015 à 00:09:19  profilanswer
1Votes positifs
 

cocto81 a écrit :

ou bien prendre une carte AMD...qui seront toutes au moins aussi puissantes sous DX12 que les cartes Nvidia les plus haut de gamme.


 
si les devs font l'effort d'utiliser l'avantage de GCN pour qu'il s'exprime pleinement dans leur jeux oui, mais vont-ils le faire ? on verra bien ^^  

n°9605248
cocto81
Posté le 10-09-2015 à 00:10:40  profilanswer
1Votes positifs
 

Pour ceux qui confondent l'usage multicore du GPU et du CPU, il faut noter que pour le rendu d'image 3D le multi-core GPU est forcément mis à contribution et sans impacter le réglage du jeu.
Le problème qu'on rencontre si on multithread et on utilise les CPU multi-core c'est qu'on perd la maitrise de la vitesse et dal coordination des évenements, ou bien on rend le problème beaucoup plus complexe pour le moteur de jeu (sans parler de l'OS, son anti-virus, et autres programmes tournant en tâche de fond qui risquent de ralentir le jeu au mauvais moment).
Un moteur de jeu mono-threadé, mono-core c'est d'ailleurs très bien pour qui fait tourner d'autres programmes par derrière. Et ce dernier n'aura aucun souci à utiliser un rendu lourd sur GPu haut de gamme et même multi-GPU.

n°9605252
gils04
le soleil du sud !
Posté le 10-09-2015 à 00:26:59  profilanswer
0Votes positifs
 


Ce que dit angeluswash est correct car amd arrive en dx12 à faire aussi bien qu'nvidia en dx11 mais pas mieux. Cela montre surtout qu'amd est largué en dx11 (c'est malheureusement une presque généralité) et qu'nvidia n'exploite pas les avantages de dx12 sur ce jeu en version alpha.
Il y aurait eu trempe si nvidia était largué en dx11 et donc en dx12 par voie de conséquence mais ce n'est pas le cas.

je pense surtout l'inverse , comme Windows  c'est de la chiote et n'exploite pas réellement le potentiel des cartes AMD avec DX11 ;) cela redonne un vrai juste équilibre :) et tanpis pour les fanboys , je serais curieux de voir une Fury vs 980ti dx12 :ouch:


Message édité par gils04 le 10-09-2015 à 00:27:37
n°9605254
cocto81
Posté le 10-09-2015 à 00:30:34  profilanswer
1Votes positifs
 

ti-rhum a écrit :


 
si les devs font l'effort d'utiliser l'avantage de GCN pour qu'il s'exprime pleinement dans leur jeux oui, mais vont-ils le faire ? on verra bien ^^  


Pas GCN, juste DX12.
 
Et au vu des mises à jour en force par Microsoft des Windows 7/8/8.1 vers Windows 10, il y a fort à parier que développer sous DX12 (les cartes AMD qui ont près de 4 ans se trouvent déjà optimisées) sera très profitable aux fabricants de jeu.
Il n'y a pas photo là-dessus. Les jeux 3D lourds qui resteront en DX11 à leur sortie de fin d'année auront soit une variante DX12 plus tard, soit seront des retards sortis en catastrophe.
DX12 peut décupler la vitesse de rendu dans certains cas (rendus de particules notamment).
 
Maintenant, si on joue à un jeu dont le rendu 3D n'a pas d'importance (genre jeu de stratégie), en mono-écran Full HD ou moins, on n'a de toute manière pas besoin d'une carte 3D performante... et même les APU et iGPU  sous DX9 peuvent faire l'affaire.  :lol:  
 
D'ailleurs on peut se poser des questions sur Nvidia en 2016. Ils devront changer d'architecture pour leurs prochains GPU en 14nm pour tirer profit de DX12 (Maxwell et son support -> direction poubelle), alors qu'AMD n'a qu'à porter son architecture GCN en tant que telle (en multipliant les coeurs) en 14nm fin prête pour DX12.
 
Ce qui signifie : continuation du support des cartes GCN existantes chez AMD, et optimisation du dessin des nouvelles cartes plutôt qu'un reboot complet de l'architecture, et le tout avec un investissement minimal (mêmes pilotes, même type de hardware).
Révision complète de tout chez Nvidia, accompagné probablement d'un délestement du support des architectures précédentes (Maxwell compris).

n°9605263
ti-rhum
Posté le 10-09-2015 à 00:47:01  profilanswer
0Votes positifs
 

cocto81 a écrit :


Pas GCN, juste DX12


 
l'avantage de GCN sous dx12 .... pfff chipoteur va :p

mood
Publicité
Posté le 10-09-2015 à 00:47:01  profilanswer
 

n°9605264
tridam
Profil : Equipe HardWare.fr
Posté le 10-09-2015 à 00:47:58  profilanswer
2Votes positifs
 

willyman21 a écrit :

Ma question précédente était plutot dans le sens : Ai-je bien fais de prendre une 980ti plutot qu'une Fury x quand on voit les perfs en dx12 ?


 
Je ne pense pas que cela change la donne pour l'instant. Il est impossible de dire à l'heure actuelle ce donneront les jeux D3D12 qui arriveront dans un an. Et la GTX 980 Ti a d'autres avantages tels que plus de mémoire et un niveau de performances supérieur en jeu qui pourrait compenser au moins en partie un gain de performances dont les Radeon seraient les seules à profiter.

n°9605271
gils04
le soleil du sud !
Posté le 10-09-2015 à 01:04:41  profilanswer
4Votes positifs
 

:)
 
franchement ça sent le fiasco nV sous DX 12 , comme dit plus haut , je crois qu'AMD ne va trop gaspiller d'argent dans ses GPU (ils n'ont pas déjà de fric ....) une simple MAJ DX12 suffira et fera le bonheur de ceux qui ont eu l'intelligence de garder leur vieille HD 79xx ou R9 29x qui auront de beau jour devant elles et va faire surtout du bien au porte feuille ;)  
 
je trouve quand même impressionnant cette écart de performance , je crois jamais vu depuis longtemps , AMD moteur 6 cylindres qui fonctionne que sur 2  :lol:  :lol:  :lol:  

n°9605284
sasuke87
Posté le 10-09-2015 à 02:40:25  profilanswer
5Votes positifs
 

Pourquoi vous vous prenez la tête sur les perfs dx11 des Radeon? On le sait depuis belle lurette qu'AMD n'arrive plus à suivre niveau driver sur cette API. Ils ne pouvaient pas pousser DX12 et Mantle, tout en continuant à s'investir massivement sur Dx11. Perso ce que je vois dans ces benchs c'est que pour le même investissement driver on augmente sensiblement les perfs en passant d'une API à l'autre. Et ça c'est une excellent nouvelle pour la compétitivité d'AMD. Les perfs Dx11 c'est mort pour eux, là ils serrent les dents jusqu'en 2016 avec des jeux full dx12 et une nouvelle finesse de gravure... J'espère pour eux qu'ils tiendront.

n°9605285
sasuke87
Posté le 10-09-2015 à 02:48:45  profilanswer
2Votes positifs
 

gils04 a écrit :

:)
 
franchement ça sent le fiasco nV sous DX 12 , comme dit plus haut , je crois qu'AMD ne va trop gaspiller d'argent dans ses GPU (ils n'ont pas déjà de fric ....) une simple MAJ DX12 suffira et fera le bonheur de ceux qui ont eu l'intelligence de garder leur vieille HD 79xx ou R9 29x qui auront de beau jour devant elles et va faire surtout du bien au porte feuille ;)  
 
je trouve quand même impressionnant cette écart de performance , je crois jamais vu depuis longtemps , AMD moteur 6 cylindres qui fonctionne que sur 2  :lol:  :lol:  :lol:  


 
NVIDIA est en position de force sur le marché et contrairement à l'époque du début de dx9, ils semblent avoir mieux préparés le terrain avec des features "à la con" de dx12.1... Je crois qu'ils arriveront sans trop de difficulté à imposer leur façon d'utiliser dx12 auprès de nombreux dev. Mais d'une manière générale les écarts qu'on retrouve dans les moyennes générales  des tests de cg devraient en principe se restreindre vu que nvidia perdra son atout "meilleur optimisation cpu".

n°9605286
Yeagermach​42
Posté le 10-09-2015 à 03:31:20  profilanswer
3Votes positifs
 

cocto81 a écrit :


Pas GCN, juste DX12.

 

Et au vu des mises à jour en force par Microsoft des Windows 7/8/8.1 vers Windows 10, il y a fort à parier que développer sous DX12 (les cartes AMD qui ont près de 4 ans se trouvent déjà optimisées) sera très profitable aux fabricants de jeu.
Il n'y a pas photo là-dessus. Les jeux 3D lourds qui resteront en DX11 à leur sortie de fin d'année auront soit une variante DX12 plus tard, soit seront des retards sortis en catastrophe.
DX12 peut décupler la vitesse de rendu dans certains cas (rendus de particules notamment).

 

Maintenant, si on joue à un jeu dont le rendu 3D n'a pas d'importance (genre jeu de stratégie), en mono-écran Full HD ou moins, on n'a de toute manière pas besoin d'une carte 3D performante... et même les APU et iGPU  sous DX9 peuvent faire l'affaire.  :lol:

 

D'ailleurs on peut se poser des questions sur Nvidia en 2016. Ils devront changer d'architecture pour leurs prochains GPU en 14nm pour tirer profit de DX12 (Maxwell et son support -> direction poubelle), alors qu'AMD n'a qu'à porter son architecture GCN en tant que telle (en multipliant les coeurs) en 14nm fin prête pour DX12.

 

Ce qui signifie : continuation du support des cartes GCN existantes chez AMD, et optimisation du dessin des nouvelles cartes plutôt qu'un reboot complet de l'architecture, et le tout avec un investissement minimal (mêmes pilotes, même type de hardware).
Révision complète de tout chez Nvidia, accompagné probablement d'un délestement du support des architectures précédentes (Maxwell compris).


Pas franchement non, les jeux lourds qui sortiront cette année, voir 2016 aussi seront majoritairement DX11. Leur dev a commencé trop tôt pour intégrer DX12 en natif. On pourra voir des jeux natifs DX12 a partir de fin 2016 au mieux dans les gros jeux.

 

Nvidia travaille sur sa nouvelle archi depuis deja longtemps. AMD a "moins" de boulot mais doit aussi bien travailler pour rattraper son retard sur des fonctionnalité DX11 comme la tesselation.

 

Au final, cela sera une belle lutte dans laquelle AMD part en challenger et non en tenant du titre.


Message édité par Yeagermach42 le 10-09-2015 à 03:35:00
n°9605288
Xixou2
Posté le 10-09-2015 à 04:35:22  profilanswer
0Votes positifs
 

en tout cas meme en dx12 la 380x n'est pas plus rapide que la 980

n°9605301
Kam7r
jamais 2 sans trop
Posté le 10-09-2015 à 08:07:46  profilanswer
1Votes positifs
 

Xixou2 a écrit :

en tout cas meme en dx12 la 380x n'est pas plus rapide que la 980


 
 
encore heureux, la 380 coûte même pas 1/3 du prix d'une 980  :lol:

n°9605321
kikamaruu
All Or Nothing !
Posté le 10-09-2015 à 08:59:30  profilanswer
1Votes positifs
 

Doc ma r9 290 va pouvoir vivre encore longtemps ? Owii

n°9605325
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 10-09-2015 à 09:15:54  profilanswer
6Votes positifs
 

Supcom a  un thread pour la simu et un pour le rendu, chacun bouffant jusqu'à un core plein sans problèmes. Avec qq threads utilitaires qui peuvent partir sur un troisième coeur. Le "mod" multithread se contentait de jouer avec les affinités et priorités, en déchargeant entre autre le coeur 0 le plus possible.
 
Il faut donc trois coeurs pour en profiter au mieux.
 
Mais bon, en même temps toi tu joues aussi à quake depuis sa sortie en 1600x1200 sur un pentium 200, alors.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°9605329
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 10-09-2015 à 09:21:04  profilanswer
3Votes positifs
 

ravenloft a écrit :


J'ai cité le créateur de forged alliance foever mais si tu t'y connais mieux, tu peux aller lui dire.
 
Le jeu est multicoeur mais comme il est limité principalement par un cœur qui est largement plus utilisé que les autres, ça revient à ce que j'ai dis.


 
Tu l'as cité mais t'as juste ignoré une partie de son message : the "sim" thread.
Supcom est tout sauf monocoeur.
Ca ne revient pas du tout à ce que tu as dit.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°9605352
SirGallaha​d
What's your favorite color ?
Posté le 10-09-2015 à 10:00:23  profilanswer
1Votes positifs
 

willyman21 a écrit :

Ma question précédente était plutot dans le sens : Ai-je bien fais de prendre une 980ti plutot qu'une Fury x quand on voit les perfs en dx12 ?


Tu n'aura surement aucune difficulter a faire tourner les jeux dans 1 ans ou 2.Puis vu le budget de la bete, tu aura surement les moyens d'en racheter une encore plus chere !
 
**Pleure sur l'envolée des prix des GPU**

n°9605381
Zurkum
Posté le 10-09-2015 à 10:41:40  profilanswer
0Votes positifs
 

SirGallahad a écrit :


Tu n'aura surement aucune difficulter a faire tourner les jeux dans 1 ans ou 2.Puis vu le budget de la bete, tu aura surement les moyens d'en racheter une encore plus chere !
 
**Pleure sur l'envolée des prix des GPU**


Je trouve ça assez abérant de parler de 2 ans avec une carte à 800boules

n°9605419
grisburt
Posté le 10-09-2015 à 11:14:49  profilanswer
4Votes positifs
 

Comme d'hab les gens s'exitent juste sur un bench. Que AMD profitent a fond de DX12 est logique vu comment DX12 a été développé. Après il y a rien d'extraordinaire AMD recole enfin. Après faudra quand même voir sur plusieurs jeux.
 
Quand a ceux qui crient a l'arnaque pour Nvidia et leur gtx9x0, c'est écrit que ca fait tourner du dx12 et ils ont raison vos jeux marcheront en dx12 avec ces cartes. Nvidia va surement corriger le tire avec pascal, ils savent très bien depuis longtemps comment fonctionne dx12, ils l'ont pas découvert avec ce bench  :D  
 
Mais dans tous les cas c'est une bonne nouvelle, ca va rebooster un peu la guerre des gpu, qui était morte depuis quelques années.

n°9605436
mazingerz
Posté le 10-09-2015 à 11:25:05  profilanswer
4Votes positifs
 

Zurkum a écrit :


Je trouve ça assez abérant de parler de 2 ans avec une carte à 800boules


 
pas pour le pigeon NVIDIA de base ^^  :D  
 
pour qui veut garder ça carte longtemps il y a AMD  :jap:  
 
après si t'a un max de fric a claké la dedans en changeant de carte tout les ans oui je pense que NVIDIA est mieux  :jap:  
 
 
pour çà je conseil toujours de l'AMD du moment que le budget n'est pas illimité  :)

Message cité 1 fois
Message édité par mazingerz le 10-09-2015 à 11:25:45
n°9605467
Le Profana​teur
Passéiste désincarné
Posté le 10-09-2015 à 12:03:51  profilanswer
4Votes positifs
 

L'argent que tu économises en tant que fanboy amd assumé tu ferais mieux de l'investir dans un Bescherelle.


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9605487
cortexzehe​f
Posté le 10-09-2015 à 12:34:04  profilanswer
3Votes positifs
 

Sur le fond il a raison.
 
Injecter 800€ (ou +) dans une CG, pour changer dans 2 ans, c'est jeter de l'argent par la fenêtre...
 
C'est bien de penser à l'instant t, mais il faut aussi penser au futur, non?

n°9605496
t3ddy
Posté le 10-09-2015 à 12:49:49  profilanswer
2Votes positifs
 

C'est sûr que chez AMD, pas besoin de renouveler sa carte trop souvent, on retrouve le même gpu dans la "génération" suivante. (c'est un demi troll)
Pour celui qui aime être la pointe à chaque saut de perf, et qui achète du amd, il voudra tout autant claquer ses sous dans le HDG du moment ( FuryX à l'heure actuelle) , même si l'investissement n'est pas spécialement indispensable. Et il refera la même dépense avec la génération suivante. Est-ce pour autant un pigeon ? C'est assez nauséabond de systématiquement traiter les gens qui font la même chose avec la marque concurrente de pigeon/mougeon/nvidiot/... et j'en passe.
C'est par ailleurs lourdingue pour les autres utilisateurs de cartes nvidia, qui n'ont pas forcément claqué 800 € pour leur cartes (et quand bien même), de lire systématiquement ce genre de termes.  
En ce qui me concerne, je cède souvent aux bonnes occasions, soldes, besoins spécifiques (...) pour des modèles que j'ai repéré dans les tests de la presse en ligne et je ne me limite pas à la marque du gpu pour choisir, et oui en ce moment je suis sur une nvidia de la génération kepler qui me satisfait pleinement, eue à vil prix.

n°9605497
cyberfred
Posté le 10-09-2015 à 12:50:20  profilanswer
1Votes positifs
 

cortexzehef a écrit :

Sur le fond il a raison.
 
Injecter 800€ (ou +) dans une CG, pour changer dans 2 ans, c'est jeter de l'argent par la fenêtre...
 
C'est bien de penser à l'instant t, mais il faut aussi penser au futur, non?


 
oui enfin , je suis pas vraiment sûr qu'une 7970 Ghz fera tourner à fond tous les futurs jeux full dx12 aussi....

n°9605515
cortexzehe​f
Posté le 10-09-2015 à 13:22:09  profilanswer
1Votes positifs
 

Moi non plus je ne suis pas sur qu'une 7970 fera tourner tout ça à fond, mais ce n'est pas le but.
Elle est sorti y'a plus de 3 ans, et elle est toujours performante. Elle ne coutait pas 800€ aussi :D

 


Dans tous les cas, vous avez bien dit que la Fury X était un fail, alors qu'elle est sensiblement moins performante que la 980ti (de ref)

 

Et j'assume, si le type achète une Fury X pour la changer dans à peine deux ans, lui aussi est un pigeon.
Tout comme le type qui change d'IPhone tous les ans/deux ans, qui achète tous les derniers smartphone de Samsung...

 

J'espère que pour ceux qui ont acquis une 980ti pourront jouer aux jeux DX12 tranquillou, mais si ce qu'on entend s'avère vrai, ça va être tendu, autant pour vous que pour le porte-monnaie. :D


Message édité par cortexzehef le 10-09-2015 à 13:25:59
n°9605521
SirGallaha​d
What's your favorite color ?
Posté le 10-09-2015 à 13:34:38  profilanswer
4Votes positifs
 

Je vais m'expliquer car a priori ça été mal compris.
Pour moi mettre 800€ dans une CG, c'est pour avoir le top.
Le top reste le top uniquement 1ans ou dans les années de disette 2ans.
Au bon de 2 ans, elle fonctionne au mieux aussi bien que le milieu de gamme.
Donc une carte a 800€ pour plus de 2 ans est à mon gout une connerie.
pour le même investissement, il faut mieux une carte a 250-300€ tout les 1 ou 2 ans. Le rendu sera supérieur sur la durée. (pour rester dans le même budget)
 
Après chacun voit midi a sa porte.

n°9605581
Punkenjoy
Posté le 10-09-2015 à 14:49:27  profilanswer
0Votes positifs
 

ravenloft a écrit :


Or d'après l'auteur, cette partie est de très loin la partie limitante.
 


ravenloft a écrit :


Je vais préciser car il y a confusion.
Dans mon premier message, oui j'avais dit qu'il était monocoeur mais dans le deuxième message j'ai bien dit qu'il était multicoeur mais gérait mal le multicoeur


ravenloft a écrit :


 
Dans le premier message quand j'ai dis que c'était moncoeur, c'était avec le sous entendu qu'un coeur est vraiment beaucoup plus utilisé que les autres au point que la puissance d'un coeur est fondemental dans ce jeu ce qui va à l'encontre d'un jeu bien multi threadé.  J'aurais du être plus précis dans ce premier message car je n'ai pas retranscrit cette déduction. Mea culpa sur ce point.
 
Au final ça ne change rien à l'objectif de ma réponse qui était de dire que la situation de supcom est différente de celle d'ashes.


Bien sur qu'elle est différente, on parle de 2 jeu, 1 sortit à l'époque ou les multicoeur faisait son appararition et un autre qui sort 8 ans plus tard alors que tout ou presque ont un minimum de 2 cores. Le premier est sortit sur directX 9, l'autre veux profité de DirectX12.
 
Tu as fait de la démagogie c'est tout. Supreme commander n'était pas le jeu parfait en 2007, loin de la, et probablement que dans 8 ans, on regardera les technique d'Ashes et les trolls diront que c'était même pas un bel effort !
 
Ma réponse est dans l'idée de supporter une nouvelle techno, de pousser la technologie en avant. En développant les prémisse des premier jeu multicore, Supreme commander a fait évoluer la technologie. Ashes a les même but.

n°9605605
soulfate
Posté le 10-09-2015 à 15:13:44  profilanswer
2Votes positifs
 

J'ai lu que porter un jeu "Mantle" sous D3D12, ça prenait 2 semaines pour une poignée de développeurs. Je trouve étrange qu'il n'y aie actuellement pas de projet de portage de jeu "Mantle" sous D3D12, histoire d'être les premiers à proposer une compatibilité D3D12 (même si c'est bâclé, on ne s'attend pas aux miracles).
Idem pour le temps que ça prend pour voir enfin un premier jeu D3D12. Je pensais naïvement qu'avec les Technical Preview, mais aussi les premiers essais avec Mantle, les développeurs s'étaient déjà fait les dents sur cette nouvelle programmation orientée bas-niveau.
 
Comment expliquer que certaines personnes sur ce forum estiment que les jeux D3D12 ne pousseront qu'en 2016 ?

n°9605635
MasterDav
Posté le 10-09-2015 à 15:43:43  profilanswer
1Votes positifs
 

SirGallahad a écrit :

Donc une carte a 800€ pour plus de 2 ans est à mon gout une connerie.


La connerie c'est de vouloir établir une règle générale en se basant sur ses propres critères alors que chacun a un budget et des priorités spécifiques.
Laissez les pauvres acheter de l'AMD, laissez les riches se payer des Titan, osef chacun fait ce qu'il veut comme il l'entend.
 
edit: et pour SupCom, j'avais du utiliser CoreMaximizer parce que bien qu'ayant un C2Q à l'époque, il chargeait 1 thread à 100% et quasiment rien sur le reste.

Message cité 1 fois
Message édité par MasterDav le 10-09-2015 à 15:47:21
n°9605636
SirGallaha​d
What's your favorite color ?
Posté le 10-09-2015 à 15:44:19  profilanswer
0Votes positifs
 

Le temps que les gros fournisse de moteur graphique intègrent la composante DX12 dans leur programme.

n°9605692
bjone
Insert booze to continue
Posté le 10-09-2015 à 16:42:40  profilanswer
0Votes positifs
 

soulfate a écrit :

J'ai lu que porter un jeu "Mantle" sous D3D12, ça prenait 2 semaines pour une poignée de développeurs. Je trouve étrange qu'il n'y aie actuellement pas de projet de portage de jeu "Mantle" sous D3D12, histoire d'être les premiers à proposer une compatibilité D3D12 (même si c'est bâclé, on ne s'attend pas aux miracles).
Idem pour le temps que ça prend pour voir enfin un premier jeu D3D12. Je pensais naïvement qu'avec les Technical Preview, mais aussi les premiers essais avec Mantle, les développeurs s'étaient déjà fait les dents sur cette nouvelle programmation orientée bas-niveau.
 
Comment expliquer que certaines personnes sur ce forum estiment que les jeux D3D12 ne pousseront qu'en 2016 ?


 
Un AAA ça prends entre 3 à 5 ans a faire.

n°9605698
CardinalFu​neste
Posté le 10-09-2015 à 16:49:45  profilanswer
0Votes positifs
 

Les jeux commencé en Mantle peuvent être fini en directx12. EA avait annoncé que ses licences en moteur frosbite serait toute porté en dx12 pour 2016

n°9605701
soulfate
Posté le 10-09-2015 à 16:50:52  profilanswer
0Votes positifs
 

D'accord, bjone, mais les développeurs ont très bien pu penser leur développement en fonction de D3D12 il y a déjà 2 ans, et ça ne répond pas à la question du portage Mantle -> D3D12 qui faisait du bruit dans les couloirs, à l'époque.

n°9605710
Yeagermach​42
Posté le 10-09-2015 à 16:58:25  profilanswer
0Votes positifs
 

soulfate a écrit :

D'accord, bjone, mais les développeurs ont très bien pu penser leur développement en fonction de D3D12 il y a déjà 2 ans, et ça ne répond pas à la question du portage Mantle -> D3D12 qui faisait du bruit dans les couloirs, à l'époque.


Mantle reste que tres peu utilisé : on a vu que les jeux frosbyte, thief et Civ qui l'utilisaient. Les autres gros jeux l'evitaient justement a cause du surplus de travail. Donc on a assez peu de jeu ou le portage sera rapide. Il y a deux ans, les devs ne connaissaient quasiment rien de DX12. Le travail sur ce dernier a commencé réellement avec l'arrivée des betas de w10 (et encore pas des premières vu que l'API et les drivers sont arrivés assez tard).

n°9605721
soulfate
Posté le 10-09-2015 à 17:04:48  profilanswer
1Votes positifs
 

Et bien j'attends justement que les jeux Frosbyte, Thief et Civ soient compatibles D3D12 car il se disait sérieusement que les jeux Mantle pouvaient bénéficier d'une mise à jour vers D3D12 sans monopoliser de grands moyens. Ces jeux auraient même dû bénéficier de la mise à jour quelques semaines après la sortie de Windows 10. Il y a deux ans, les dévs connaissaient la programmation (les algorithmes) bas-niveau car Mantle existait. Ils n'ont aucune excuse s'ils nous sortent aujourd'hui : "Désolé, on découvre tout juste D3D12"...
Or, ce n'est visiblement pas le cas.
 
Peut-être que la rumeur prétendant que du code Mantle se portait en 2-4-6 en D3D12 était fausse, mais j'ai de sérieux doutes...
En réalité, je ne sais pas quoi penser à ce sujet.

n°9605761
Yeagermach​42
Posté le 10-09-2015 à 17:38:31  profilanswer
0Votes positifs
 

Ils l'a connaissaient juste parce qu'ils bossaient aussi sur console. Maintenant le temps de dev et les frais que cela occasionne fait que la quasi-totalité sont resté dx11 et opengl. Les fournisseurs de moteurs ont déjà commencé a travailler avec mantle et pour eux le passage sera "simple". Mais pour les autres, cela sera pas mal de travail et ils ont pas commencé avant le moment que j'indique.
 
Par contre, il y a assez peu de chance de voir arriver des patchs dx12 pour les jeux mantle. Les devs sont deja passé a autre chose.

n°9605763
Punkenjoy
Posté le 10-09-2015 à 17:39:35  profilanswer
0Votes positifs
 

soulfate a écrit :

Et bien j'attends justement que les jeux Frosbyte, Thief et Civ soient compatibles D3D12 car il se disait sérieusement que les jeux Mantle pouvaient bénéficier d'une mise à jour vers D3D12 sans monopoliser de grands moyens. Ces jeux auraient même dû bénéficier de la mise à jour quelques semaines après la sortie de Windows 10. Il y a deux ans, les dévs connaissaient la programmation (les algorithmes) bas-niveau car Mantle existait. Ils n'ont aucune excuse s'ils nous sortent aujourd'hui : "Désolé, on découvre tout juste D3D12"...
Or, ce n'est visiblement pas le cas.
 
Peut-être que la rumeur prétendant que du code Mantle se portait en 2-4-6 en D3D12 était fausse, mais j'ai de sérieux doutes...
En réalité, je ne sais pas quoi penser à ce sujet.


Il est probable que ça se portage  Mantle --> DX12 se fassent facilement si l'on ne prend en compte que les GPU AMD.  
 
S'assurer que les GPU nvidia fonctionnent correctement, (la vrai raison de faire le portage sinon à quoi bon? les GPU AMD sont déjà supporté via Mantle) c'est probablement plus difficile.


Message édité par Punkenjoy le 10-09-2015 à 17:53:27
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12

Aller à :
Ajouter une réponse
 

Sujets relatifs
Avis Achat GTX 980GTX 960 "fantome"
Résolution écran avec une GeForce GTX 850MAlim assez puissante pour une Asus Strix GTX 960 OC 4GB DDR5?
Gtx 970 vs 780 version 6 gbDemande d'aide sur une config basé sur une GTX 980 TI Phoenix GS
[HFR] Actu : Crono Labs C1, un boitier avec pied VESA pour super AIO[HFR] Actu : Rupture à prévoir sur l'i7-6700K
Plus de sujets relatifs à : [HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR