Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2452 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12
Auteur Sujet :

[HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?

n°9605763
Punkenjoy
Posté le 10-09-2015 à 17:39:35  profilanswer
0Votes positifs
 

Reprise du message précédent :

soulfate a écrit :

Et bien j'attends justement que les jeux Frosbyte, Thief et Civ soient compatibles D3D12 car il se disait sérieusement que les jeux Mantle pouvaient bénéficier d'une mise à jour vers D3D12 sans monopoliser de grands moyens. Ces jeux auraient même dû bénéficier de la mise à jour quelques semaines après la sortie de Windows 10. Il y a deux ans, les dévs connaissaient la programmation (les algorithmes) bas-niveau car Mantle existait. Ils n'ont aucune excuse s'ils nous sortent aujourd'hui : "Désolé, on découvre tout juste D3D12"...
Or, ce n'est visiblement pas le cas.
 
Peut-être que la rumeur prétendant que du code Mantle se portait en 2-4-6 en D3D12 était fausse, mais j'ai de sérieux doutes...
En réalité, je ne sais pas quoi penser à ce sujet.


Il est probable que ça se portage  Mantle --> DX12 se fassent facilement si l'on ne prend en compte que les GPU AMD.  
 
S'assurer que les GPU nvidia fonctionnent correctement, (la vrai raison de faire le portage sinon à quoi bon? les GPU AMD sont déjà supporté via Mantle) c'est probablement plus difficile.


Message édité par Punkenjoy le 10-09-2015 à 17:53:27
mood
Publicité
Posté le 10-09-2015 à 17:39:35  profilanswer
 

n°9605783
cortexzehe​f
Posté le 10-09-2015 à 17:51:24  profilanswer
0Votes positifs
 

SirGallahad a écrit :


Donc une carte a 800€ pour plus de 2 ans est à mon gout une connerie.
pour le même investissement, il faut mieux une carte a 250-300€ tout les 1 ou 2 ans. Le rendu sera supérieur sur la durée. (pour rester dans le même budget)


 
Summum de la surconsommation  :lol:  

n°9605806
soulfate
Posté le 10-09-2015 à 18:14:38  profilanswer
1Votes positifs
 

Bonne remarque Punkenjoy, mais je doute fort qu'il y ait du code D3D12 spécifique pour les GPU AMD, et du code spécifique pour les GPU nVidia. D3D12 est censé être pris en charge les GPU en faisant abstraction de leur marque.

n°9605817
Yeagermach​42
Posté le 10-09-2015 à 18:20:08  profilanswer
0Votes positifs
 

soulfate a écrit :

Bonne remarque Punkenjoy, mais je doute fort qu'il y ait du code D3D12 spécifique pour les GPU AMD, et du code spécifique pour les GPU nVidia. D3D12 est censé être pris en charge les GPU en faisant abstraction de leur marque.


DX, comme opengl d'ailleur, impose souvent pas d'implémentation pour une fonction de son API. Seul le resultat (ie ce que tu vois) compte. Resultat, tu peux avoir une même fonction qui s'exécute de façon différente en fonction du constructeur du GPU. Et comment souvent l'optimisation passe par utiliser des astuces pendant le déroulement de ces fonctions, tu as un code différent en fonction du constructeur. C'est moche pour celui qui lit le code par derrière mais c'est plus optimisé pour ceux qui l'exécute.

n°9605834
soulfate
Posté le 10-09-2015 à 18:32:49  profilanswer
0Votes positifs
 

Si je comprends bien, D3D12 offre juste une base universelle mais les développeurs livrent systématiquement un profil de code particulier par type de GPU existant dans le but de gratter encore plus de performances ? Je pensais que c'était le but des pilotes optimisés (avec profil pour les jeux), mais en fait, ce genre de pratique se fait à tous les niveaux (code du jeu, pilotes du constructeur).
C'est assez moche, et c'est effectivement celui qui a le plus de moyen qui optimisera le mieux.

n°9605837
Yeagermach​42
Posté le 10-09-2015 à 18:34:40  profilanswer
0Votes positifs
 

Yep et c'est pas nouveau hein. Les pilotes font une partie du boulot, les devs l'autre.

n°9605859
bjone
Insert booze to continue
Posté le 10-09-2015 à 18:47:13  profilanswer
0Votes positifs
 

soulfate a écrit :

D'accord, bjone, mais les développeurs ont très bien pu penser leur développement en fonction de D3D12 il y a déjà 2 ans, et ça ne répond pas à la question du portage Mantle -> D3D12 qui faisait du bruit dans les couloirs, à l'époque.


C'est ce qui se passe, les AAA qui se préparent on commencés avec un renderer Mantle, puis passent à D3D12/Vulkan.
C'est juste qu'à part BF4 qui éprouvé Mantle, les autres c'est du WIP.


Message édité par bjone le 11-09-2015 à 16:45:32
n°9605918
Angeluswal​sh
Ni dieu ni maitre
Posté le 10-09-2015 à 19:53:40  profilanswer
0Votes positifs
 

mazingerz a écrit :

Angeluswalsh a écrit :

Franchement les graphiques exposés ne montrent vraiment aucun désavantage de Nvidia par rapport à AMD bien au contraire...a choisir entre une carte ayant de très bons résultat en DX11 et DX12 contre une "à la ramasse" en DX11 et à peine mieux que sa concurrente en DX12 mon choix est vite fait,je choisis l'homogénéité.


 
sauf que la 290 coute moitié prix :/


 
Oui enfin dans le graphique il s'agit d'une R9 390X

n°9606164
Punkenjoy
Posté le 11-09-2015 à 00:46:36  profilanswer
0Votes positifs
 

ravenloft a écrit :


Je ne vois pas le rapport entre démagogie et ce que j'ai dis.
 
Supreme commander n'était pas plus un porte parole du multicore que d'autres jeux. C'était un jeu multicore pas très bien géré mais ils n'ont jamais mis en avant le multicore comme un argument de vente ou quoi que ce soit.
Ashes fut mis en avant dès le début pour montrer l'avantage des api bas niveau avec mantle au début et maintenant directx12.
Pourquoi ashes gèrerait mal dx12? Je ne vois pas de raison même si c'est un précurseur.
 


 
Gaz powered games n'ont pas sortit SC en disant voici un jeu multicore, c'est bon achetez en ! Mais ils ont clairement mis de l'avant les avantages de leur moteur dont l'un des points fort pour l'époque était la séparation de certaines taches dans des thread. Pour y avoir jouer pas mal à l'époque de la release, Les parties était "dual core only" puisque ça permettait d'afficher plus d'unités qu'en single core ou l'on était rapidement limité.
 
Et dans 8 ans, lorsqu'on en sera à DirectX 14-15, on regardera Ashes et on se dira que ce n'était pas optimisé ou que les jeux de maintenant peuvent faire beaucoup mieux et être plus optimisé avec de nouvelles techniques.

n°9606225
SirGallaha​d
What's your favorite color ?
Posté le 11-09-2015 à 08:33:02  profilanswer
3Votes positifs
 

MasterDav a écrit :


La connerie c'est de vouloir établir une règle générale en se basant sur ses propres critères alors que chacun a un budget et des priorités spécifiques.
Laissez les pauvres acheter de l'AMD, laissez les riches se payer des Titan, osef chacun fait ce qu'il veut comme il l'entend.


C'est pas comme si j'avais juste donner mon avis. Apres comme je l'ai deja écrit et que à repris. Chacun fait ce qu'il veux.

Citation :

Summum de la surconsommation  :lol:  


Rien ne t'oblige a laisser la carte pourrir dans un coin ou à la jeter.
A l'époque ou je le faisait, toutes les carte ont eu une 2° vie en occase ou en don dans la famille.
Puis parler de surconsommation pour du hardware....  
 
Une fois de plus chacun fait comme il l'entend.


---------------
Blue,no ! Yellow ! ... Aaaaaaaaaaaaahhhhhhhhhh
mood
Publicité
Posté le 11-09-2015 à 08:33:02  profilanswer
 

n°9606313
petit-tigr​e
miaou
Posté le 11-09-2015 à 11:02:48  profilanswer
1Votes positifs
 

mazingerz a écrit :


 
pas pour le pigeon NVIDIA de base ^^  :D  
 
pour qui veut garder ça carte longtemps il y a AMD  :jap:  


Cesse de raconter des conneries.
 
Les Nvidia vivent aussi longtemps que les autres. Une 680 en 2015 tourne exactement de la même manière qu'à sa sortie vis à vis d'une 7970. La 7970 Ghz est un peu au dessus mais elle l'a toujours été et elles coutaient le même tarif.
 
La logique est respectée et je ne comprends pas d'où vient cet hoax bidon comme quoi les cartes Nvidia deviennent des GeForce 2 au bout de 6 à 12 mois...


---------------
mIaOuUuUuUuUuUu
n°9606582
Dragonbait
Posté le 11-09-2015 à 16:42:43  profilanswer
0Votes positifs
 

Tout cela est très bien. Ça va motiver NVIDIA qui a ou croyait? avoir une avance sur AMD. Si seulement on pouvait avoir une compétition comparable du côté CPU tout irais pour le mieux dans le monde des PC, car de ce côté ils sont plustôt en mode hibernation point de vu évolution des performances :)

n°9606600
cortexzehe​f
Posté le 11-09-2015 à 17:01:29  profilanswer
3Votes positifs
 

SirGallahad a écrit :

 


Une fois de plus chacun fait comme il l'entend.

 

C'est sur que c'est pas moi qui risque de claquer un ou deux loyer, ou 727L de gasoil tous les ans/deux ans...

 
petit-tigre a écrit :


La logique est respectée et je ne comprends pas d'où vient cet hoax bidon comme quoi les cartes Nvidia deviennent des GeForce 2 au bout de 6 à 12 mois...

 

L'exemple qui m'a le plus frappé, c'est quand je suis parti à enetwork (Grenoble, comme un LDLC) où une GTX660 laggait sur Pay Day 2 en High.
Ma 7870 tient + de 100FPS en ULTRA...
Tu as peut être raison, mais d'après ce que je vois, elles vieillissent très mal...

 


Message cité 1 fois
Message édité par cortexzehef le 11-09-2015 à 17:05:39
n°9606616
SynE
Posté le 11-09-2015 à 17:17:36  profilanswer
1Votes positifs
 

jumorolo a écrit :

l'absence de réponse de nvidia est éloquente, vu qu'ils sont toujours si rapides a crier ce que leur cartes peuvent faire quand ils ont un avantage quelconque ;)


Comme disait maman hein, on cri jamais si fort que quand on a tort. Par contre pour le prouver ensuite c'est plus délicat. ;)

n°9606650
Zilak
I can't carry anymore !
Posté le 11-09-2015 à 17:53:26  profilanswer
0Votes positifs
 

La question ne serait ce pas plutôt. nVidia c'est il intéressé aux Dx12.

n°9606657
petit-tigr​e
miaou
Posté le 11-09-2015 à 18:01:40  profilanswer
0Votes positifs
 

cortexzehef a écrit :


 
L'exemple qui m'a le plus frappé, c'est quand je suis parti à enetwork (Grenoble, comme un LDLC) où une GTX660 laggait sur Pay Day 2 en High.
Ma 7870 tient + de 100FPS en ULTRA...
Tu as peut être raison, mais d'après ce que je vois, elles vieillissent très mal...


 
http://gamegpu.ru/images/stories/Test_GPU/Action/PAYDAY%202/test/p2%201920.jpg
 
96 fps de moyenne, ça va, j'en aimerais tous les jours des lag de ce genre :D
 
Blague à part, les Kepler ont eu pas mal d'optims et correction de bugs avec les 353. Tes soucis de lag devaient venir de ça.


---------------
mIaOuUuUuUuUuUu
n°9606664
cortexzehe​f
Posté le 11-09-2015 à 18:16:57  profilanswer
1Votes positifs
 

petit-tigre a écrit :


Blague à part, les Kepler ont eu pas mal d'optims et correction de bugs avec les 353. Tes soucis de lag devaient venir de ça.


 
Je ne saurais te dire, mais dans tous les cas ça m'avait étonné ^^

n°9606727
t3ddy
Posté le 11-09-2015 à 19:55:53  profilanswer
0Votes positifs
 

En même temps, comparer deux cartes de gammes différentes dans des configs différentes ... Où alors je n'ai pas compris ce que tu évoquais.

n°9606742
cortexzehe​f
Posté le 11-09-2015 à 20:23:20  profilanswer
1Votes positifs
 

t3ddy a écrit :

En même temps, comparer deux cartes de gammes différentes dans des configs différentes ... Où alors je n'ai pas compris ce que tu évoquais.


 
GTX660 est censé être l'équivalent de la HD7870. De plus, la config' laggait avec un core i7 4770K watercoolé, moi j'ai "seulement" un i5
C'est tout à fait comparable.

n°9606766
t3ddy
Posté le 11-09-2015 à 20:50:51  profilanswer
0Votes positifs
 

cortexzehef a écrit :

t3ddy a écrit :

En même temps, comparer deux cartes de gammes différentes dans des configs différentes ... Où alors je n'ai pas compris ce que tu évoquais.


 
GTX660 est censé être l'équivalent de la HD7870. De plus, la config' laggait avec un core i7 4770K watercoolé, moi j'ai "seulement" un i5
C'est tout à fait comparable.


Non ce n'est pas comparable, tu ne sais rien de la config hormis le proco. De plus ton install est probablement faite aux petits oignons, depuis que tu la chéris, cela n'a certainement rien à voir avec un pc de démo qui a vu défiler des matos variés installés à l'arrache.
Et pour finir, la gtx660 n'a jamais été sensée être l'équivalent de la 7870. Il n'y a qu'à consulter les tests de l'époque pour le voir.

n°9606770
cortexzehe​f
Posté le 11-09-2015 à 20:56:55  profilanswer
0Votes positifs
 

t3ddy a écrit :


Non ce n'est pas comparable, tu ne sais rien de la config hormis le proco. De plus ton install est probablement faite aux petits oignons, depuis que tu la chéris, cela n'a certainement rien à voir avec un pc de démo qui a vu défiler des matos variés installés à l'arrache.
Et pour finir, la gtx660 n'a jamais été sensée être l'équivalent de la 7870. Il n'y a qu'à consulter les tests de l'époque pour le voir.

 

Je me base sur le prix :p
Et dans la config avec GTX660 il y avait les pilotes et UN SEUL JEU, elle était surement plus clean que la mienne...

 

Et ce n'est pas une "config de démo" à proprement parler, car elles étaient neuves, et vendu telles qu'elles

 

http://www.hardware.fr/medias/phot [...] 038719.gif
Si 8% d'écart ce n'est pas comparable......................

Message cité 1 fois
Message édité par cortexzehef le 11-09-2015 à 20:59:40
n°9606776
t3ddy
Posté le 11-09-2015 à 21:05:13  profilanswer
0Votes positifs
 

cortexzehef a écrit :


 
Je me base sur le prix :p
Et dans la config avec GTX660 il y avait les pilotes et UN SEUL JEU, elle était surement plus clean que la mienne...
 
Et ce n'est pas une "config de démo" à proprement parler, car elles étaient neuves, et vendu telles qu'elles


Cela n'est pas plus vrai avec le prix, et encore moins dans le contexte puisque que tu parles de performances et du mauvais vieillissement des cartes à ce niveau. Sinon, pour le prix il n'y a qu'à s'en prendre à Sapphire et ses 7870 qui ont trainé des problèmes jusqu'à la v2 incluse.
Les pilotes et un seul jeu, c'est donc la garantie d'une install propre et à jour. Avec du matos accordé et paramétré de manière correcte,  :pt1cable:  
Je vais donner ces consignes à tout mon entourage, ça m'évitera pas mal de boulot. Bref...

n°9606785
cortexzehe​f
Posté le 11-09-2015 à 21:27:04  profilanswer
0Votes positifs
 

t3ddy a écrit :

 

Les pilotes et un seul jeu, c'est donc la garantie d'une install propre et à jour. Avec du matos accordé et paramétré de manière correcte,  :pt1cable:

 


 

Franchement, je ne vois pas comment tu veux faire plus clean...
PAYDAY n'est pas un jeu vraiment récent, il n'a pas les pilotes d'aujourd'hui, mais je tient juste à le dire, c'tout.
Et pour ton "Sapphire" et "7870", c'est ce que j'ai, et c'est clean depuis 2/3 ans, chance du débutant tu diras :o

 

Si tu veux on peut parler PV, histoire de ne pas spam le topic :)


Message édité par cortexzehef le 11-09-2015 à 21:28:37
n°9606787
Punkenjoy
Posté le 11-09-2015 à 21:31:03  profilanswer
0Votes positifs
 

ravenloft a écrit :


 :heink:  
SC même à son époque n'était pas bien optimisé. Cela a gueulé pendant longtemps sur les forums pour une gestion calamiteuse du multi core et ça n'a jamais été corrigé. Ce n'est pas parce qu'il exigeait au minimum un dual core qu'il était bien optimisé. Max payne 2 était très bien optimisé et même plus de 10 ans après il le reste. Si ashes est bien optimisé il le restera dans 8 ans. Cela ne changera rien nouveau dx ou pas.
Vu qu'il est un des fers de lance pour montrer l'intérêt des apis bas niveau, je vois mal comment il pourra être mal optimisé. C'est pour ça que je te dis depuis le début que comparer supcom à ashes sur ce point n'a guère de sens à mon avis.
 
Dx14-15 dans 8 ans, j'en doute. Si on a dx13 ce sera déjà bien. Dx12 n'existe vraiment que pour son aspect bas niveau tant le reste des nouveautés reste ultra minime. Si ce n'était pas cet aspect, je crois qu'on n'en parlerait pas encore de dx12.
dx11 est le dx qui est resté le plus longtemps sans remplaçant (6 ans 2009-2015) donc si dx12 fait aussi bien voir mieux, dans 8 ans, c'est même pas dit qu'on ait encore
A la rigueur un dx13 prenant en natif la gestion de la réalité virtuel mais je vois pas grand chose d'autre. Il y a de moins en moins besoin de nouveaux dx comparé à avant.


Oh c'est sur, SC était pas optimisé. Mais ce jeu pas optimisé affichait plus de détails et d'unités que tout autre jeu à cette époque et ce sur des maps bien plus grande. Après oui ça laggait. (déjà le plus gros problème nétait l'IA qui plombait énormément les performances, en multi, sans IA, les parties était beaucoup plus grosse sans ralentissement.) Mais pour faire plus de 1000 unités totals et garder un flamerate fluide, fallait un dualcore, pour avoir plus de 2000 unités et garder le jeu sans trop de ralentissement fallait un quadcore.
 
Tout les autres jeux vidéo n'en faisait pas autant et le fait d'avoir un dual ou un quad n'apportait rien du tout.  
 
Après oui, c'est vrai, ça rammais ! surtout sur les dualcores faibles et les mono cores. Mais en même temps, ça faisait plus que tout autre jeu à cette époque. Prend le même Engine et fait leur afficher 100 unités à la starcraft sur des petites maps comme dans starcraft et personne n'aura de problème de performances !
 
Peut être le péché de SC a été la, permettre au joueur de scaller les maps et les unités beaucoup trop pour le matériel commun de l'époque mais pour ma part, j'apprécie l'ouverture qu'ils ont eu.  
 
SC n'aurait pas été grandiose avec de plus petite maps et moins d'unités.  
 
Concernant le futur de Direct X je m'en balance pas mal si c'est 12 20 ou 50. Mais dans 8 ans, les jeux seront plus avancé technologiquement que maintenant. Les premiers jeux directX 9 était bien moins optimisé que les dernier, et ce fut le cas sur chaque génération et sur chaque console.  
 
Les techniques évolues c'est tout. C'est souvent difficile à mesurer puisque peu de jeu profite des optimisation supplémentaire pour faire tourner le jeu à plus de 100 fps. la plupart vont ajouter des effets et viser un certain nombre de FPS.
 
Mais en prenant le même rendu entre maintenant et dans 10 ans, même hardware mais en n'utilisant que les moyens technique actuelle et ceux qui auront développer dans 10 ans, je te garantit que le même moteur dans 10 ans permettra d'en faire plus.

Message cité 1 fois
Message édité par Punkenjoy le 11-09-2015 à 21:34:03
n°9606804
petit-tigr​e
miaou
Posté le 11-09-2015 à 22:06:54  profilanswer
0Votes positifs
 

Punkenjoy a écrit :

Les premiers jeux directX 9 était bien moins optimisé que les dernier, et ce fut le cas sur chaque génération et sur chaque console.


Ouais enfin, le matos n'était pas le même...... et sur console, quand tu augmentais la qualité quelque part, tu la cramais ailleurs (le framerate et la résolution en tête).


Message édité par petit-tigre le 11-09-2015 à 22:07:05

---------------
mIaOuUuUuUuUuUu
n°9606817
The_Balrog
Et là, c'est le drame...
Posté le 11-09-2015 à 22:26:38  profilanswer
1Votes positifs
 

Punkenjoy a écrit :


 
Peut être le péché de SC a été la, permettre au joueur de scaller les maps et les unités beaucoup trop pour le matériel commun de l'époque mais pour ma part, j'apprécie l'ouverture qu'ils ont eu.  
SC n'aurait pas été grandiose avec de plus petite maps et moins d'unités.  


 
En même temps, SC n'aurait pas été SC, sans ça :) la suite spirituelle de TA ne pouvait que se démarquer par sa taille, une des raisons qui en font un jeu de stratégie, et pas de "tactique" contrairement aux WC etc :)
 Ca me convient un jeu tres gourmand, s'il  est fait pour durer (presque on le redécouvre en changeant de bécane :D ), et comme SC n'a pas de concurrent direct, il semblait clair qu'il resterait longtemps sur le HDD/SSD :) (avis perso :jap: ) Et, bien optimisé ou non, le fait est que en pratique, en s'en foutant des chiffres, le passage à un quad faisait clairement respirer le jeu (à CG identique), preuve en soit que même si les cores supplémentaires étaient peu chargés, c'était nécessaire... Enfin, me souviens d'une interview de msieur Taylor dans un Joystick de l'époque (phase preview), dans laquelle il précisait bien qu'un CPU multicore serait nécessaire...  

n°9606842
sasuke87
Posté le 11-09-2015 à 23:17:44  profilanswer
1Votes positifs
 

Zilak a écrit :

La question ne serait ce pas plutôt. nVidia c'est il intéressé aux Dx12.

Oui mais quand c'était un peu trop tard et du coup pour éviter de se retrouver dans la situation de dx9 ils ont, à mon avis, fait le pressing auprès de MS pour qu'on nous sorte du dx12.1 avec des features non supporté sur Radeon. Sérieusement je crois que NVIDIA aurait très bien pu tenir 3 ans de plus avec dx11, pour les new features leur gameswork aurait fait le taf.

n°9606874
sasuke87
Posté le 12-09-2015 à 00:47:27  profilanswer
0Votes positifs
 

Oui on est tous d'accord sur ça.

n°9606968
asmomo
Modérateur
Posté le 12-09-2015 à 10:59:52  profilanswer
2Votes positifs
 

gils04 : TT 1 semaine [:neostranger]


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°9607241
Punkenjoy
Posté le 12-09-2015 à 18:35:42  profilanswer
0Votes positifs
 

ravenloft a écrit :


 :heink:  
Je ne vois pas le rapport avec Starcraft. Il n'y a jamais eu aucun rapport car ce jeu était la suite spirituelle de total annihilation pas de starcraft, 2 jeux à la philosophie totalement opposée.
C'est à TA qu'il faut se comparer. Ta était très gourmand et permettait de gérer déjà des cartes très grandes. Avec SC, il est passé au stade au dessus.
Il n'y a aucun pêché là dessus car sinon le jeu n'aurait pas existé vu que c'était la seule raison de l'existence du jeu.  Malheureusement ils n'ont pas optimisé le moteur correctement et comme le jeu a raté son objectif commercial, ils ne l'ont jamais corrigé.
 


Citation :

Concernant le futur de Direct X je m'en balance pas mal si c'est 12 20 ou 50. Mais dans 8 ans, les jeux seront plus avancé technologiquement que maintenant. Les premiers jeux directX 9 était bien moins optimisé que les dernier, et ce fut le cas sur chaque génération et sur chaque console. L'optimisation n'a strictement rien à voir avec l'âge de directx. Heureusement d'ailleurs et malheureusement aussi car ça éviterait d'avoir toujours autant de jeux dx9 optimisés à la pisse qu'à l'époque.
 
Je te l'accorde, si un directx apporte beaucoup de changements, parfois ça demande du temps pour maitriser à fond ces changements et optimiser parfaitement mais en pratique c'est plus la maitrise sur le plan visuel qui change que l'optimisation qui reste très souvent la 5ème roue du carrosse.
 

Citation :


 
 
Les techniques évolues c'est tout. C'est souvent difficile à mesurer puisque peu de jeu profite des optimisation supplémentaire pour faire tourner le jeu à plus de 100 fps. la plupart vont ajouter des effets et viser un certain nombre de FPS.
 
Mais en prenant le même rendu entre maintenant et dans 10 ans, même hardware mais en n'utilisant que les moyens technique actuelle et ceux qui auront développer dans 10 ans, je te garantit que le même moteur dans 10 ans permettra d'en faire plus.


L’optimisation c'est afficher un nombre d'ips crédible par rapport à la gourmandise technique du jeu pas forcément afficher plus d'ips.
Ce n'est pas parce qu'un jeu affiche 100ips qu'il est mieux optimisé qu'un jeu qui en affiche 20. Cela dépend de la technique et donc de la gourmandise du jeu.
Un jeu peut tout à fait en afficher 20 et être ultra optimisé si la technique est ultra gourmande. Un jeu peut être totalement mal optimisé même s'il fait 100ips si le jeu n'est pas gourmand du tout techniquement et qu'il aurait du en faire 200 ou 300 facilement.
 
Malheureusement, beaucoup confondent ips et optimisation et des jeux en pâtissent comme crysis. C'était pas le jeu le plus optimisé mais il restait dans la moyenne mais beaucoup ont gueulé au manque d’optimisation parce que le nombre d'ips était assez bas. Ils ont malheureusement oublié que techniquement ce jeu était de loin beaucoup plus évolué que tout autre jeu sortit à l'époque et que même ultra optimisé à mort ça aurait de toute façon moins bien tourné que les autres jeux.
 
Quand je lis que des jeux sont pas optimisés parce qu'ils ne tiennent pas 60 ips et que d'autres sont loués aux dieux de l’optimisation parce qu'ils tournent à 60 ips constant sans jamais regarder si la technique utilisée est comparable, ça me fait hurler parce que ça peut vite pénaliser les ventes d'un jeu.
 


 
Le rapport avec les RTS à plus petite échelle est justement que SC ne peux être comparé au 2 autres puisque l'échelle est totalement différente. Donc on dit la même chose. Mais les moyens technique pour faire un jeu a petite échelle et à grande échelle ne sont pas les mêmes et le deuxième aura toujours besoin de plus de ressources.  
 
Ensuite pour le coup de l'optimisation, franchement, tout ça pour dire exactement ce que j'ai dit. J'ai plutôt l'impression que tu m'as pris en grippe et que tu ne tente de dire le contraire de ce que je dit...

n°9607243
cortexzehe​f
Posté le 12-09-2015 à 18:38:12  profilanswer
1Votes positifs
 

petit-tigre a écrit :


La logique est respectée et je ne comprends pas d'où vient cet hoax bidon comme quoi les cartes Nvidia deviennent des GeForce 2 au bout de 6 à 12 mois...


 
Je me suis baladé sur notre ami Google, pour chercher la diff de 7870 et 7950. Je tombe sur un lien HFR (comme par hasard ? :D )
Et je lis ceci :
La Radeon HD 7850 propose pour sa part un peu plus de 5% de mieux que la Radeon HD 6950 et prend une avance de 14% sur la GeForce GTX 560 Ti dont les performances relatives se réduisent dans de nombreux jeux récents, Nvidia ayant probablement arrêté son effort d'optimisation pour la génération Fermi.

 

Ca m'étonnerait que cette pratique ait changé du jour au lendemain...
http://www.hardware.fr/articles/85 [...] ances.html


Message édité par cortexzehef le 12-09-2015 à 18:38:36
n°9607250
Zurkum
Posté le 12-09-2015 à 18:57:43  profilanswer
0Votes positifs
 

780Ti sur The Witcher 3 à sa sortie :whistle:

n°9607298
t3ddy
Posté le 12-09-2015 à 20:44:44  profilanswer
0Votes positifs
 

cortexzehef a écrit :


 Je me suis baladé sur notre ami Google, pour chercher la diff de 7870 et 7950. Je tombe sur un lien HFR (comme par hasard ? :D )
Et je lis ceci :  
La Radeon HD 7850 propose pour sa part un peu plus de 5% de mieux que la Radeon HD 6950 et prend une avance de 14% sur la GeForce GTX 560 Ti dont les performances relatives se réduisent dans de nombreux jeux récents, Nvidia ayant probablement arrêté son effort d'optimisation pour la génération Fermi.
 
Ca m'étonnerait que cette pratique ait changé du jour au lendemain...
http://www.hardware.fr/articles/85 [...] ances.html


Continue de chercher et tu verras que bien des pilotes sont sortis après cet article qui ne fait qu'une supposition (probablement), améliorant les perfs des cartes, y compris pour les gtx400/500. Accessoirement lit la page que tu cites jusqu'au bout, tu verras que toutes les entreprises font des compromis.
En voyant l'article ci-dessus, crois moi, si Thibaut Damien ou Marc avaient eu de plus profonds soupçons, on aurait eu droit à un article du genre sur les pilotes.


Message édité par t3ddy le 12-09-2015 à 21:11:43
n°9607312
tridam
Profil : Equipe HardWare.fr
Posté le 12-09-2015 à 21:08:47  profilanswer
0Votes positifs
 

C'est qui Thibaut ? :o

n°9607315
cortexzehe​f
Posté le 12-09-2015 à 21:11:40  profilanswer
0Votes positifs
 

On ne sait pas [:nedurb]

n°9607318
t3ddy
Posté le 12-09-2015 à 21:12:22  profilanswer
0Votes positifs
 

tridam a écrit :

C'est qui Thibaut ? :o


Un gros mélange avec Tridam, toutes mes confuses  :sweat:  
Mais ça ne change rien au fond de ma remarque ?
Je concède que les marques font moins d'efforts pour l'amélioration des pilotes des générations précédentes, mais cela n'a rien d'un arrêt complet du support tout de même et cela semble naturel économiquement parlant et ne date pas d'hier.


Message édité par t3ddy le 12-09-2015 à 21:17:18
n°9607334
Le Profana​teur
Passéiste désincarné
Posté le 12-09-2015 à 21:34:50  profilanswer
1Votes positifs
 

Dis plutot carrément que Nv plombe les pilotes pour les anciennes cartes, histoire de favoriser un max ses nouveaux modèles  [:le fleau:3]  
Combien de fois j'ai pu le lire sur le fofo (et plus particulièrement sur les comm' de news)  :sweat:


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9607411
tridam
Profil : Equipe HardWare.fr
Posté le 12-09-2015 à 23:57:35  profilanswer
2Votes positifs
 

Le but de Nvidia comme d'AMD c'est de vendre de nouveaux GPU, pas de faire durer le plus longtemps les anciens. Ceci dit je ne pense pas qu'il y ait un complot en vue de favoriser les nouveaux modèles.  
 
Ca se fait plutôt naturellement en fait d'une part suivant la fréquence des changements d'architecture (plus souvent ça change moins longtemps les optimisations profitent à une gamme de GPU donnée), et d'autre part suivant l'orientation des architectures plus ou moins vers les types de charges à venir (ce qui demande de bonnes prévisions et peut se faire au détriment du court terme).

n°9607488
petit-tigr​e
miaou
Posté le 13-09-2015 à 09:20:38  profilanswer
1Votes positifs
 

tridam a écrit :

Le but de Nvidia comme d'AMD c'est de vendre de nouveaux GPU, pas de faire durer le plus longtemps les anciens. Ceci dit je ne pense pas qu'il y ait un complot en vue de favoriser les nouveaux modèles.  
 
Ca se fait plutôt naturellement en fait d'une part suivant la fréquence des changements d'architecture (plus souvent ça change moins longtemps les optimisations profitent à une gamme de GPU donnée), et d'autre part suivant l'orientation des architectures plus ou moins vers les types de charges à venir (ce qui demande de bonnes prévisions et peut se faire au détriment du court terme).


Voilà, merci de mettre fin au vieux préjugé.


---------------
mIaOuUuUuUuUuUu
n°9607489
Zurkum
Posté le 13-09-2015 à 09:23:47  profilanswer
1Votes positifs
 

tridam a écrit :

Le but de Nvidia comme d'AMD c'est de vendre de nouveaux GPU, pas de faire durer le plus longtemps les anciens. Ceci dit je ne pense pas qu'il y ait un complot en vue de favoriser les nouveaux modèles.  
 
Ca se fait plutôt naturellement en fait d'une part suivant la fréquence des changements d'architecture (plus souvent ça change moins longtemps les optimisations profitent à une gamme de GPU donnée), et d'autre part suivant l'orientation des architectures plus ou moins vers les types de charges à venir (ce qui demande de bonnes prévisions et peut se faire au détriment du court terme).


 
Cela dit AMD n'a pas de nouveaux gpu  :o  
 
( no hate  :)  je viens d'acheter une R9 290X )

n°9607949
soulfate
Posté le 13-09-2015 à 19:38:28  profilanswer
1Votes positifs
 

Pour l'anecdote, ça fait maintenant plusieurs générations qu'AMD optimise aussi les anciennes gammes puisque leurs architectures n'ont pas bien changé.
Ça fait bizarre de réaliser qu'un mauvais point peut se transformer en bon point...

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12

Aller à :
Ajouter une réponse
 

Sujets relatifs
Avis Achat GTX 980GTX 960 "fantome"
Résolution écran avec une GeForce GTX 850MAlim assez puissante pour une Asus Strix GTX 960 OC 4GB DDR5?
Gtx 970 vs 780 version 6 gbDemande d'aide sur une config basé sur une GTX 980 TI Phoenix GS
[HFR] Actu : Crono Labs C1, un boitier avec pied VESA pour super AIO[HFR] Actu : Rupture à prévoir sur l'i7-6700K
Plus de sujets relatifs à : [HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR