| KrisCool |
WipEout a écrit a écrit :
alors les developpeurs de cartes graphiques se cassent le cul pour rien, et dans 10 ans on aura toujours les memes graphismes ?
|
Parce qu'à ton avis les jeux en 3D actuels ressemblent à ceux qu'on avait il y a seulement 3 ans de celà ?
Il faut arrêter le délire ! Tu as vu les screenshots de Star Wars Galaxies, ceux de Unreal 2 ?
Les développeurs, comme celà a déjà été dit précédemment, créent leur moteur 3D en fonction de ce qui est disponible au niveau matériel et au niveau des API. Au niveau des fonctionnalités, c'est le trio ATI/nVidia/Microsoft qui mènent la danse.
Microsoft fournit de nouvelles fonctionnalités dans les nouvelles version de DirectX, et ATI et nVidia les implémentent ensuite en hardware.
Comme celà a déjà été souligné, un jeu se développe en 2 voire 3 ans. Il y a 3 ans on en était aux Voodoo...
Les développeurs doivent faire leurs choix de moteur graphique lors de la première année de développement, en accord avec ce qui a été conçu dans les graphismes et le gameplay.
(Ils décident alors de ce que devra gérer le moteur, et vont soit développer le leur comme pour Serious Sam ou Tribes/Tribes 2, ou bien utiliser un moteur sous license (les moteurs les plus utilisés sont ceux de Quake/Quake 2/Half-Life et Unreal)).
A ce moment là, il est hors de question qu'ils choisissent d'utiliser des fonctions qui "devraient" être disponibles dans 6 mois pour les développeurs (et donc plus tard pour les joueurs).
Des mauvais choix de moteurs sont catastrophiques, et conduisent à des dérives du type Duke Nukem For Ever et le très énervant "When it's done" de 3D Realms.
Les cartes graphiques sont toujours très en avance sur les jeux pour une bonne raison : les fonctionnalités supplémentaires sont "inventées" par les constructeurs ou par Microsoft au fil du temps. Ces fonctionnalités arrivent alors dans les dernières cartes et les dernières version de DirectX.
Admettons qu'un nouvel effet, le GlowSphereMapping (c'est débile, ça veut rien dire mais on s'en cogne) soit inventé.
Il va conjointement arriver sur les cartes haut de gamme du marché et dans DirectX. Si un développeur veut l'utiliser dans un jeu, celà signifie qu'il sera utilisable soit par les joueurs qui ont le matos dernier cri, soit par tout le monde, mais en émulation logicielle. L'émulation logicielle permet d'avoir toutes les fonctions que l'on veut (comme le T&L sur les Kyro et les cartes anciennes), mais au prix d'une utilisation CPU forte.
On en revient au même problème : pour utiliser tous ces beaux effets, il faut des machines puissantes. Et le but des éditeurs de jeux vidéos, c'est de vendre, donc pas question qu'un jeu se restreigne à un public doté de grosses configurations, sauf dans le cas d'un jeu qui est un succès annoncé (Unreal 2...). D'autre part, le but des développeurs c'est de vivre en faisant des jeux vidéos, et si le développeur ne fournit pas l'oseille, c'est mort.
Enfin, un effet 3D doit se justifier dans un jeu. Ajouter des effets augmente le temps de développement, et donc le coût du jeu. Si l'effet n'a aucun intérêt vis-à-vis du gameplay, son intégration sera forcément remise en question.
Voilà pour les raisons qui font que les jeux utilisent avec beaucoup de retard les capacités des cartes graphiques. Pour des raisons financières, même si effectivement les constructeurs de cartes graphiques font tout leur possible pour que les jeux sortent optimisés pour leur dernières cartes.
Très honnêtement, lorsque je vois un jeu comme Giants se traîner sur une carte non nVidia simplement parce qu'il a été d'après les développeurs eux-mêmes lourdement optimisé pour GeForce 3, je préfère que le jeu tourne sur ma carte quelle qu'elle soit, plutôt que d'avoir un joli reflet au loin... |