ce que je dis sur les tirs c'est l'interview des joueurs ayant testé lemode multi jouers à la quakecon
ce que j'ai lu sur la supériorité technique du moteur de doom3:
"Que peut on retenir de cette première présentation de la technologie de Doom III ? Essentiellement le travail impressionnant effectué au niveau de l'éclairage : d'un point de vue local tout d'abord avec enfin une utilisation sérieuse de l'éclairage au pixel près (per pixel lighting), enfin d'un point de vue global avec des ombres impressionnantes. Tout ceci résulte en fait d'une nouvelle approche de John Carmack dans la conception de son moteur : l'unification du modèle d'éclairage. Qu'est ce qu'on entend par ce terme un peu pompeux ? Pour bien comprendre la différence de Doom III à ce niveau il faut tout d'abord s'intéresser au fonctionnement de l'éclairage dans les précédents moteurs 3D.
Jusqu'à présent les moteurs 3D faisaient une distinction entre deux types d'éclairage : l'éclairage statique des décors et l'éclairage "dynamique" des modèles. L'éclairage statique est constitué de lightmaps, de simples textures en niveaux de gris permettant de spécifier les régions lumineuses (blanc) des régions sombres (noire), ces lightmaps sont générées par un outil (utilisant l'algorithme de radiosité pour Quake 2 et 3) puis stockées dans la définition du niveau. Cette technique permet d'avoir un éclairage extrêmement réaliste (car précalculé, le temps de génération des lightmaps n'étant donc pas un problème) et peu coûteux car il ne s'agit que d'une combinaison de textures à l'exécution. En revanche elle a un gros défaut : son inflexibilité : les informations d'éclairage étant stockées dans la définition du niveau elles en sont indissociables, l'éclairage est fixé une fois pour toute lors de la création de la map et ne peut plus ensuite être modifié à l'exécution. Les modèles pour leur part utilisent un simple Gouraud Shading calculé par vertex. Ce genre de distinction génère plusieurs problèmes : tout d'abord une différence évidente de qualité entre les deux types d'éclairage, d'autre part l'éclairage statique repose sur des calculs de visibilité pour savoir quelles régions vont être influencées, et ces calculs peuvent être pris à défaut par les éléments amovibles du décor générant des problèmes d'éclairage au niveau des portes notamment. Bref tout ceci reposait sur des astuces pour tromper l'oeil et demandait à être très finement défini pour obtenir de bons résultats.
Avec Doom3 désormais toutes les lumières sont traitées de la même façon, la calcul de l'éclairage a été entièrement supprimé de l'éditeur de niveaux et sera effectué en temps réel et le décor tout comme les modèles seront éclairés au pixel près, ajoutez à cela une gestion des ombres dynamiques et vous comprendrez l'étendu du travail réalisé par John Carmack. Après cette présentation ID Software se remit en mode black out pendant un certain temps, ne distribuant qu'au compte gouttes quelques screenshots savamment choisis. Il faudra attendre l'E3 2002 pour revoir Doom III, et encore il ne sera présenté que dans une pièce privée avec interdiction de prendre des photos ou de filmer l'écran"
Cette méthode de calcul des ombres est certes très impressionnante mais elle présente quand même plusieurs défauts que certains jugent particulièrement gênants. D?une part elle ne permet pas de produire ce que l?on appelle des ombres douces c'est-à-dire des ombres dont le contour est diffus. Les ombres de Doom III sont très nettes et accentuent en partie le deuxième défaut : un nombre de polygones utilisés pour les personnages relativement peu élevé, défaut qui n?a de cesse d?être pointé du doigt à chaque nouvelle fournée de screenshots.
Il faut savoir à ce propos que les personnages utilisent entre 2000 et 6000 polygones ce qui reste très raisonnable, augmenter le nombre de polygones de nos jours n?est plus vraiment un problème : les processeurs graphiques disposent de suffisamment de ressources au niveau de la partie T&L pour traiter un très grand nombre de sommet alors pourquoi un programmeur de génie comme John Carmack est-il obligé de se limiter à ce niveau ? Tout simplement à cause de l?algorithme expliqué ci-dessus : augmenter le nombre de polygones du modèle n?est certes pas un problème mais ce n?est que la face cachée de l?iceberg : une telle augmentation complexifiera énormément la calcul de la silhouette en augmentant le nombre d?arêtes à examiner pour la déterminer et il ne faut pas perdre de vue que ce calcul est effectué par le CPU ! Et qui dit plus d?arêtes dans la silhouette dit aussi plus de fill rate consommé lors du rendu des volumes d?ombre. Bref cette amélioration a priori triviale a des conséquences bien plus importantes qu?il n?y paraît au premier abord sur les performances et il est évident que Carmack a étudié tout ça de près pour trouver le meilleur compromis.
Une fois que la normal map est appliquée à un objet ces vecteurs sont "collés" sur l'objet texturé mais à ce moment à chaque sommet les vecteurs u,v et w pointent dans des directions complètement différentes. Pour pouvoir effectuer des calculs au pixel près il faut donc transformer l'inverse du vecteur lumière dans cet espace tangent (qui je le répète est propre à chaque sommet !). La technique consiste donc à calculer pour chaque sommet l'espace tangent puis à y exprimer l'inverse du vecteur lumière (ceci peut être effectuée dans un vertex program pour décharger le CPU) puis à appliquer pour chaque fragment le calcul d'éclairage souhaité (en utilisant les Registers Combiners ou un fragment program).
A propos de la normal map, Doom III utilise une nouvelle technique de génération qui va sans aucun doute se démocratiser (déjà le moteur de Halo 2 sur Xbox, et le Crytek Engine présente des techniques similaires). Initialement les normal map étaient créées par les graphistes à l?aide d?outils spécifiques (généralement un plug-in Photoshop qui permettait de convertir l?image crée par le graphiste au format convenable). Doom III pour sa part exporte les normales directement depuis l?outil de modélisation. En clair les graphistes réalisent une version extrêmement détaillée du modèle (entre 800 000 et 1 millions de polygones) à partir de laquelle sera générée la normal map. Cette normal map appliquée sur un modèle simplifié permettra de faire illusion, exceptés sur les contours bien sûr qui par conséquents conservent leur aspect anguleux.
L?image suivante montre cette technique en action :
En haut le modèle utilise une normal map, en bas il se contente d?une normale par sommet. Si lorsque le nombre de triangles est extrêmement élevé la différence est invisible elle saute aux yeux dés que la tesselation diminue. Même lorsqu?on descend en dessous des mille triangles, le modèle utilisant la normal map continue de faire illusion. ATI offre sur son site un plug-in Maya permettant d?exporter les normales d?un modèle dans une normal map ce qui devrait accélérer l?adoption de cette technique.
... S'il est une partie de ce nouveau moteur 3D à avoir bénéficié de toutes les attentions de la part de John Carmack c'est le Renderer. Qu'est ce que le Renderer ? Expliqué simplement le Renderer contrôle tout ce qui est affiché à l'écran, en fait plus exactement le Renderer contrôle tout ce qui a une influence sur le rendu à l'écran : une lumière par exemple n'est pas affichée directement mais va influencer la façon dont sont rendus les autres éléments. Le Renderer de Doom III est codé en OpenGL et il en existe différentes versions adaptées aux capacitées des diverses cartes 3D.
ces screen date de plus d'an et demi, sur les toutes premières
version du moteur
tu vois chagarou sur la petite vignette que les extérieur sont bien gérer, c'est normal puisqu'il y a aucune différence technique entre un extérieur et un intérieur, ce sont des extérieurs qui se passe sur mars.
Edit de Prodigy : j'ai viré les images, passke la lourdeur pour charger la page, même sur une 1mb, merci bien. Les images on les connaît, et y'a un topic officiel sinon
Message édité par webdwarf le 08-09-2003 à 15:01:46
---------------
je veux un mario soccer jouable on line sur la Revolution!