nicolas_b a écrit :
Vous etes pas sympa avec Tangzzz, il se démène pour rien ... Enfin, c'est dans les moeurs de faire tout et n'importe quoi ...
Pour le plagia d'ati, c'est évidement un troll. Un troll qui est encore plus gros que le miens. Ati accuse nvidia de faire en gros ce que eux, ils devraient faire, c'est à dire du dx9.
Il y a rien d'anormal à modifier, les instructions avant la compilation... C'est exactement ce que fait l'api, quand on lui passe des flags d'optimisations. L'interpreteur a été placé là, pour les développeurs qui ne voulaient pas se faire chier comme gabe newell à optimiser un path spécial pour les cartes nvidias.
En gros, cette fonctionnalité a été demandé par tout les développeurs, et nvidia l'a fait. J'apprecie le style du directeur, car ça ressemble à une annonce de microsoft qui parlerait de linux, ou d'une major de la musique qui parlerait de la musique sur internet.
Je cite et commente tout:
"Deuxièmement, il est trompeur de dire que le remplacement de shaders représente mieux les performances dans les jeux. Seule une petite fraction de jeux obtiennent l'attention accordée par nos concurrents à 3DMark 2003."
Les optimisations de nvidia sont faites sur des fonctions génériques qui sont utilisés, et appliqués sur tout les jeux. Comme je l'ai dis auparavant Nvidia a crée une architecture homogène et hétérogène souple qui convient à toutes les formes d'utilisations.
Si nvidia avait conçu une architecture matériel, uniquement dans le but de faire un gros score à 3dmark2003, vous pouvez me croire, le score des fx serait incroyablement plus élevé qu'il ne l'est actuellement.
Cela requière trop de temps de programmation. Plus de 300 jeux PC sortent par an, et 100 d'entre eux stressent vraiment le matériel graphique.Peut-être qu'une demi-douzaine - ceux les plus utilisés en tant que benchmark - recevront la douce caresse des ingénieurs chargés des pilotes.
Pareil qu'au dessus. Comme les fonctions optimisées sont génériques, il n'y a pas à étudier chaque jeux au cas par cas, etant donné que 95% de ces jeux utilisent ces fonctions génériques.
Sauf quand il y a un bug release sur un titre précis, à ce moment là, il faut mettre les mains dans le cambouis, et déterminer si le probleme vient du driver ou de l'application en elle même.
Un tst honnête sur 3DMArk 2003 donnera un indice crédible de ce que montreront la vaste majorité des jeux DirectX9.
Bah comme 3dmark 2003 est orienté directx8 et qu'il force l'antialiasing et l'anisotrope par défaut, on ne peut pas comparer par exemple une ti avec une radeon ...
Le bench de surcroit utilise maintenant des processus de désoptimisation en fonction de chaque carte. Comment pourrait il être un indice crédible après tout leurs déboires ?
Les joueurs doivent pouvoir jouer à tous les jeux qu'ils veulent, pas aux six qui ont eu leurs shaders optimisés par remplacement.
C'est en ça qu'Ati a de gros problemes ... Ils parlent d'optimisations, mais leurs cartes ne permettent pas de le faire. Alors, ils optimisent au coup par coup, les jeux en sortant de nouveaux drivers.
Mais pour le moment, ils sont plus emmerder du fait des faiblesses de leur archi, sur le débugage des jeux au cas par cas.
Au vue des résultats des catalysts, il y a bien 6 jeux principaux qui fonctionnent, le reste c'est selon la version du driver.
En supposant tout de même que vous trouviez les ressources nécessaures pour remplacer tous les shaders dans tous les jeux, ce n'est pas une solution pratique. Le remplacement de shaders est un immense pas en arrière sur la fiabilité et la compatibilité des jeux.
Les shaders ne sont pas remplacés, ce sont les appels de fonctions appellées par les shaders qui sont optimisés à la volée.
Ca fait toujours rire de voir la boite la moins fiable, avec les solutions les moins compatible, portable donné des leçons dans ce registre.
Mais bon ATI utilisera bien évidement la technique d'optimisation de nvidia quand leur technologie leur permettra de le faire. Chaque année, vous devrez écrire des milliers de shaders qui seront tous à vérifier d'un point de vue qualité de rendu, portés aux labos d'assurance qualité et supportés
Toujours pareil, on touche pas au code des shaders, et on a pas besoin de réecrire les shaders, c'est le compilo qui change, et qui optimise les fonctions. Et dés que le développeur sortira un patch, il faudra recommencer. Traiter chaque jeu comme un cas à part est une source de problèmes de stabilité.
Gneee ???? Merde alors, ils sont entrain de décrire le fonctionnement des radeons. Ils manquent pas de culots...
Les développeurs sont montés à l'encontre du remplacmeent de shaders. John Carmack l'a dit lui-même : "Réécrire les shaders derrière le dos de l'application d'une qui change le rendu dans des circonstances non contrôlées est absolument et résolument mauvais et indéfendable."
[i]
Les shaders n'ont pas été remplacé. Ils croient quoi que nvidia a développé des routines qui prennent le code source des shaders, et les remplacent par d'autres shaders ? Ils sont fou ou quoi , ça prendrait trois siècles de faire comme ça ) Au final ça n'aurait aucun interet. Le shader ne serait pas celui demandé par le développeur, et les performances ne serait pas meilleur que la solution employée actuellement.
Apres hop, une petite citation de Carmack qui n'a rien à voir avec ce que fait nvidia.
[i]
" Les opinions de Gabe Newell, CEO de Valve Software sur le remplacement de shaders sont bien connues. Les développeurs haïssent cela [c'est plagier leur oeuvre en quelque sorte].
Utilisation abusive du mot plagier, s'ils continuent ils vont dire que nvidia se sont des terroristes/pirates. Le code source n'est pas modifié, c'est son interprétation durant le mode opératoire qui diffère, et le resultat escompté n'est pas aléatoire, mais connu par les développeurs, et bien conforme à ce que souhaite les développeurs. Les optimisations sont ainsi portés sur toutes les générations de gpu, un jeu actuel, dans 10 ans aura un meilleur rendu que maintenant.
Le créateur de GPUs ne sera pas inquièté, l'utilisateur verra le nouveau niveau tourner comme une limasse en janvier, et le jeu original tourner décemment [Un bon moyen de tuer le mod making et tout ce qui est création indépendante].
Toujours pareil, voir ce que j'ai mis au dessus, ce sont des fonctions génériques qui sont optimisées, le rendu/resultat final est le même. Les utilisateurs bénéficient des optimisations sur tout les jeux les plus récents qui sortent, et les jeux anciens sont améliorés.
Ca n'a rien à voir avec le Mod Making, personne ne travaille au niveau de l'asm pour faire un mod (il y a des logiciels pour modder), et plus personne a à travailler en asm, depuis l'arrivé des directx9 pour créer des shaders dans les jeux.
Si des gens veulent travailler en dx8, comme avec les radeons, mais dans le but d'avoir un control total sur le gpu.
Ils peuvent court circuiter le processus d'optimisations et le compilateur, en pondant du code objet, qui ne sera pas optimisé et géré par le compilateur, ou proceder de la meme façon que 3d mark 2003.
Ce code objet sera executé tel quel par le gpu.
Le compilateur est une étape intermédiaire et accesoire dans le processus d'affichage des shaders dans directx ou opengl. On peut très bien travailler avec des objets précompilés sans y avoir recourt.
ATI se contredit bien d'ailleurs sur ce sujet là, car au début ils disent non c'est pas vrai le patch ne court circuite pas le compilo (ce qui veut dire que c'est possible de le faire).
Par contre, ils sous entendent qu'il n'y a aucun moyens de faire autrement, que de passer par le compilo et l'optimisation. Alors qu'une fois encore, l'exemple de 3dmark montre bien qu'il est possible de désactiver l'optimisation, et d'utiliser le compilo, en fait d'avoir un control total sur le gpu des nvidias.
Mais c'est ridicule etant donné qu'avec l'interpreteur, les performances sont accrues et le rendu est identique.
De plus, directx permet de choisir le compilo qu'on désire utiliser, celui de crosoft, celui de nvidia, de ati(rire), ou tout ceux qui se presenteront.(Je rapelle au passage que le compilateur de nvidia est open source, disponible en telechargement, et librement modifiable ce qui donne de nombreuses possibilités à des mecs qui voudraient sortir des drivers nvidia non officiel supra optimisé, comme les drivers tartenpion d'ati).
Quand on court circuite le compilo, contrairement à ce que dit ATI, c'est à ce moment là qu'on s'expose à de gros problemes de compatibilités , portabilités etc ...
On travaille sur de l'adressage réel (un peu comme à l'époque des premiers jeux dos), et ça peut poser problemes avec des archis différentes de carte graphique.
D'ou l'interet d'utiliser un langage de haut niveau, pour ne pas avoir à recompiler chaque shader de chaque jeux, en fonction de l'arrivé de chaque nouveau gpu. Tout ça pour dire que, le processus d'optimisation n'interfere donc en rien, avec tout le reste du processus de compilation.
Mais c'est aussi vrai, que chez ati, les shaders sont tellement limités en taille et en rendu, qu'on peut pas faire grand chose. Il faut alors abandonner l'idée du langage de haut niveau, pour rentrer dans un processus d'optimisation atomique (ce qui n'a bien sur aucun sens car on perd tout le bénéfice de dx9)
Dans ce cadre d'utilisation, et selon les performances de leur materiel, c'est vrai que le processus d'optimisation est inutile, etant donné que chez eux, il faut se faire chié à le faire à la mano.
En conclusion, ATi et sa campagne marketing d'intox anti nvidia, essaie de masquer les performances limités des radeons en directx9. Ils doivent partir du principe que plus on parle des faiblesses du concurrent, et moins on parle des leurs.
Mais, leur sac à idée semble vide, et ils subissent de plein fouet, la montée en force des cartes nvidias. Les jeux sous nvidia tournent de plus en plus vite, les possesseurs de fx sont de plus en plus satisfait, et Ati baragouine que ça ne marche pas. Les joueurs nvidia s'en foutent, ils jouent, et ça marchent. Ati essaient de tenir jusqu'a noel, pour recuperer des clients.
Leurs arguments peuvent donc éventuellement convaincre la presse, en créant une aura charismatique, mais surement pas les développeurs. La solution Nvidia, est la plus flexible, et la plus viable dans le temps.
|