Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1899 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  117  118  119  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°2828526
mareek
Et de 3 \o/
Posté le 15-11-2003 à 00:38:53  profilanswer
 

Reprise du message précédent :


Ils on certainement commencé à bosser sur un shader optimiser depuis un bail, mais le foutre dans les drivers alors qu'aucune appli n'utilise les PS 2.0 excepté les demo Ati, c'est un peu concon je trouve ;)
 
Ok pour les jeux de bagnoles (même si ça semblait lié à l'archi interne de la carte, non ?)


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
mood
Publicité
Posté le 15-11-2003 à 00:38:53  profilanswer
 

n°2828543
tridam
Profil : Equipe HardWare.fr
Posté le 15-11-2003 à 00:46:33  profilanswer
 

mareek a écrit :


Ils on certainement commencé à bosser sur un shader optimiser depuis un bail, mais le foutre dans les drivers alors qu'aucune appli n'utilise les PS 2.0 excepté les demo Ati, c'est un peu concon je trouve ;)
 
Ok pour les jeux de bagnoles (même si ça semblait lié à l'archi interne de la carte, non ?)


 
En avril j'avais déjà remarqué que les drivers faisait des optimisations génériques ;)
Ordre d'instruction pour interlacer texture/math et d'autres petites optimisations.

n°2828554
MagiSim
Magique, et oui !
Posté le 15-11-2003 à 00:55:50  profilanswer
 

Le schmilblick avance, j'ai déjà le protocole utilisé. Reste plus qu'à attendre qu'il complète ses tests avec l'app anti detect de 3D Analyze.
 
Y'a encore des volontaires chez les GF4Tiens ? :D
 

Citation :


Dear Nick,
 
        I thank you very much for your help, I hope other people will be able to help you have more informations. I'm looking foward news about this and I want to thank you for the time you will take to do these experimentations.
 
        Regards,  
 
            Simon.
 
-------Message original-------
 
De : Nick Evanson
Date : samedi 15 novembre 2003 00:50:27
A : 'Simon THOREL'
Sujet : RE: Réf. : RE: Strange results with 340 3dmark patch & GF4Ti.
 
Dear Simon,
 
 
 
Unfortunately I'm not at home over the next couple of days, so I won't be able to test this further until next week.  Once I've done this, I'll update you with my findings.
 
 
 
Regards,
 
Nick Evanson
 
nick@beyond3d.com
 
 
 
 
 
-----Original Message-----
From: Simon THOREL [mailto:jjthorel@nordnet.fr]  
Sent: Fri 14 November 2003 23:31
To: nick@beyond3d.com
Subject: Réf. : RE: Strange results with 340 3dmark patch & GF4Ti.
 
 
 
    Dear Nick,
 
 
 
 
 
    Ok, I was just wondering what this could have led you to see such results since I've been in touch with people who do not have these problem. This is weird. Would you mind to try with the app antidetect option of 3d Analyze (Tommti Systems) ?
 
 
 
     It is still being very puzzling to me as I can't see a valid reason for this increase unless they are app detections in the drivers which are only defeated when using your protocol. Strange, indeed.
 
 
 
 
 
    Regards,  
 
 
 
            Simon.
 
 
 
-------Message original-------
 
 
 
De : Nick Evanson
 
Date : samedi 15 novembre 2003 00:24:55
 
A : 'Simon THOREL'
 
Sujet : RE: Strange results with 340 3dmark patch & GF4Ti.
 
 
 
Dear Sir,
 
 
 
The test conditions were as follows:
 
 
 
(1) Uninstall all previous drivers via the Control Panel, then reboot to VGA.
 
(2) Install drivers to be tested, set resolution and reboot.
 
(3) Run 3DMark03 build 330 over 3 runs and record averaged results.
 
(4) Repeat 1 to 3 for each driver required.
 
(5) Patch 3DMark03 to 340 build, reboot.
 
(6) Repeat driver tests.
 
 
 
I have to confess to not having the time to redo the entire set of GF4 runs (or indeed for the FX card either); I hope this has answered some of your questions though.
 
 
 
Regards,
 
Nick Evanson
 
nick@beyond3d.com
 
 
 
 
 
-----Original Message-----
From: Simon THOREL [mailto:jjthorel@nordnet.fr]  
Sent: Fri 14 November 2003 16:20
To: nick@beyond3d.com
Subject: Strange results with 340 3dmark patch & GF4Ti.
 
 
 
Hi,
 
 
 
        I am very puzzled about the results you had while testing the Geforce 4Ti here : http://freespace.virgin.net/neeyik [...] 03test.png I've asked someone who also owns a GF4Ti to see if he could reproduce your results. He has just an unsignificant fulctuation between all tests. He also used 52.70 Forceware drivers.
 
 
 
        What were exactly the conditions of the tests ?
 
 
 
        I would appreciate your help very much.
 
 
 
                Regards,
 
 
 
        Magic-Sim.
 
 


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2828556
Tangzzz
Posté le 15-11-2003 à 00:58:19  profilanswer
 

vi

n°2828557
MagiSim
Magique, et oui !
Posté le 15-11-2003 à 00:59:22  profilanswer
 

:love: Merci :)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2828559
MagiSim
Magique, et oui !
Posté le 15-11-2003 à 00:59:52  profilanswer
 

Donc voilà son protocole :  
(1) Uninstall all previous drivers via the Control Panel, then reboot to VGA.
 
(2) Install drivers to be tested, set resolution and reboot.
 
(3) Run 3DMark03 build 330 over 3 runs and record averaged results.
 
(4) Repeat 1 to 3 for each driver required.
 
(5) Patch 3DMark03 to 340 build, reboot.
 
(6) Repeat driver tests.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2828568
hikoseijur​o
Posté le 15-11-2003 à 01:06:32  profilanswer
 

MagiSim a écrit :

Donc voilà son protocole :  
(1) Uninstall all previous drivers via the Control Panel, then reboot to VGA.
 
(2) Install drivers to be tested, set resolution and reboot.
 
(3) Run 3DMark03 build 330 over 3 runs and record averaged results.
 
(4) Repeat 1 to 3 for each driver required.
 
(5) Patch 3DMark03 to 340 build, reboot.
 
(6) Repeat driver tests.
 


 
il est sympa tangzz moi ça me fairait chier de tester, quoique...  :whistle:

n°2828571
Tangzzz
Posté le 15-11-2003 à 01:07:14  profilanswer
 

je f komen pour enlever le 340 et repasser au 330 ?
je reinstall tout ?

n°2828572
Tangzzz
Posté le 15-11-2003 à 01:08:59  profilanswer
 

et quel drivers je mets ?

n°2828610
bjone
Insert booze to continue
Posté le 15-11-2003 à 01:26:17  profilanswer
 

bah, les passes d'optimisation de flux, ça va avec tout concept de langage compilé qui se respecte.
 
bon c'est vrai qu'en dx8, l'ordre avait des répercussions sur les performances entre une radeon 8500 et une gf3/4 (même instruction organisation différente).
 
donc il est plus que probable que depuis le développement des drivers il y ait une passe d'optimisation de flux.
 
le marketting nVidia a transformé un truc sous-entendu dans le concept de dx9 en qualité de leur propre pilote.

mood
Publicité
Posté le 15-11-2003 à 01:26:17  profilanswer
 

n°2828619
hikoseijur​o
Posté le 15-11-2003 à 01:32:09  profilanswer
 

Tangzzz a écrit :

et quel drivers je mets ?


 
mets les 52.16, en faite il faut 52.16 sur 330 et sur 340, c surtout ça qui compte
hum pour repasser au 330 ouais je crois faut tu uninstall et reinstall 3dmark, je vois pas autrement

n°2828622
hikoseijur​o
Posté le 15-11-2003 à 01:34:30  profilanswer
 

ah oui je voulais dire, je suis pas sur que ce soit significatif ce truc de GF4, la diff de perf entre 330 et 340, pacq en pourcentage y a une diff pas mal importante mais concrètement ça fait à peine 1 fps de différence (oui les GF4 rame sous 2003), donc voilà est-ce que c'est significatif quand même ??
 
et c peut-être du comme on l'a dit à la limitation de la taille du Maximum point sprite à 256x256


Message édité par hikoseijuro le 15-11-2003 à 01:37:38
n°2828673
LeGreg
Posté le 15-11-2003 à 04:27:43  profilanswer
 

Je ne crois pas qu'il y ait d'explications sensées aux fluctuations entre les deux patchs sur Geforce 4 (qui n'ont pas d'unités flottantes) et qui n'ont que modéremment besoin d'etre optimisées pour 3dmark03 (pas de support de PS/1.4 ni de 2.0).  
 
Si différence il y a, elle a peut-etre effectivement un lien avec la taille des point sprites (mais de maniere marginale ? et puis ça dependrait surement de la résolution testée) ou simplement avec la façon dont futuremark envoie les données à la carte.
 
Par contre c'est clair qu'il peut y avoir des fluctuations entre les versions de drivers (correction de bugs, suppression d'optimisations spécifiques etc.) mais ce n'est pas ce qui est mis en évidence ici.
 
Enfin bon a mon avis ça a autant de valeur que les soi-disant tests de qualité d'image (qui n'a pas changé d'un iota entre les patchs).
 
LeGreg

n°2828745
nicolas_b
Posté le 15-11-2003 à 09:38:15  profilanswer
 

Vous etes pas sympa avec Tangzzz, il se démène pour rien ... Enfin, c'est dans les moeurs de faire tout et n'importe quoi ...
 
Pour le plagia d'ati, c'est évidement un troll. Un troll qui est encore plus gros que le miens. Ati accuse nvidia de faire en gros ce que eux, ils devraient faire, c'est à dire du dx9.
 
Il y a rien d'anormal à modifier, les instructions avant la compilation... C'est exactement ce que fait l'api, quand on lui passe des flags d'optimisations. L'interpreteur a été placé là, pour les développeurs qui ne voulaient pas se faire chier comme gabe newell à optimiser un path spécial pour les cartes nvidias.
 
En gros, cette fonctionnalité a été demandé par tout les développeurs, et nvidia l'a fait.  
 
J'apprecie le style du directeur, car ça ressemble à une annonce de microsoft qui parlerait de linux, ou d'une major de la musique qui parlerait de la musique sur internet.
 
Je cite et commente tout:
 

"Deuxièmement, il est trompeur de dire que le remplacement de shaders représente mieux les performances dans les jeux. Seule une petite fraction de jeux obtiennent l'attention accordée par nos concurrents à 3DMark 2003."

 
Les optimisations de nvidia sont faites sur des fonctions génériques qui sont utilisés, et appliqués sur tout les jeux. Comme je l'ai dis auparavant Nvidia a crée une architecture homogène et hétérogène souple qui convient à toutes les formes d'utilisations.
 
 Si nvidia avait conçu une architecture matériel, uniquement dans le but de faire un gros score à 3dmark2003, vous pouvez me croire, le score des fx serait incroyablement plus élevé qu'il ne l'est actuellement.
 

Cela requière trop de temps de programmation. Plus de 300 jeux PC sortent par an, et 100 d'entre eux stressent vraiment le matériel graphique.Peut-être qu'une demi-douzaine - ceux les plus utilisés en tant que benchmark - recevront la douce caresse des ingénieurs chargés des pilotes.

 
Pareil qu'au dessus. Comme les fonctions optimisées sont génériques, il n'y a pas à étudier chaque jeux au cas par cas, etant donné que 95% de ces jeux utilisent ces fonctions génériques.
 
Sauf quand il y a un bug release sur un titre précis, à ce moment là, il faut mettre les mains dans le cambouis, et déterminer si le probleme vient du driver ou de l'application en elle même.  
 

Un tst honnête sur 3DMArk 2003 donnera un indice crédible de ce que montreront la vaste majorité des jeux DirectX9.  

 
Bah comme 3dmark 2003 est orienté directx8 et qu'il force l'antialiasing et l'anisotrope par défaut, on ne peut pas comparer par exemple une ti avec une radeon ...
 
Le bench de surcroit utilise maintenant des processus de désoptimisation en fonction de chaque carte.  
 
Comment pourrait il être un indice crédible après tout leurs déboires ?  
 

Les joueurs doivent pouvoir jouer à tous les jeux qu'ils veulent, pas aux six qui ont eu leurs shaders optimisés par remplacement.

 
C'est en ça qu'Ati a de gros problemes ... Ils parlent d'optimisations, mais leurs cartes ne permettent pas de le faire. Alors, ils optimisent au coup par coup, les jeux en sortant de nouveaux drivers.
 
Mais pour le moment, ils sont plus emmerder du fait des faiblesses de leur archi, sur le débugage des jeux au cas par cas.
 
Au vue des résultats des catalysts, il y a bien 6 jeux principaux qui fonctionnent, le reste c'est selon la version du driver.
 

En supposant tout de même que vous trouviez les ressources nécessaures pour remplacer tous les shaders dans tous les jeux, ce n'est pas une solution pratique. Le remplacement de shaders est un immense pas en arrière sur la fiabilité et la compatibilité des jeux.

 
Les shaders ne sont pas remplacés, ce sont les appels de fonctions appellées par les shaders qui sont optimisés à la volée.
 
Ca fait toujours rire de voir la boite la moins fiable, avec les solutions les moins compatible, portable donné des leçons dans ce registre.
 
Mais bon ATI utilisera bien évidement la technique d'optimisation de nvidia quand leur technologie leur permettra de le faire.  
 
Chaque année, vous devrez écrire des milliers de shaders qui seront tous à vérifier d'un point de vue qualité de rendu, portés aux labos d'assurance qualité et supportés

 
Toujours pareil, on touche pas au code des shaders, et on a pas besoin de réecrire les shaders, c'est le compilo qui change, et qui optimise les fonctions.  
 
Et dés que le développeur sortira un patch, il faudra recommencer. Traiter chaque jeu comme un cas à part est une source de problèmes de stabilité.

 
Gneee ???? Merde alors, ils sont entrain de décrire le fonctionnement des radeons. Ils manquent pas de culots...
 
Les développeurs sont montés à l'encontre du remplacmeent de shaders. John Carmack l'a dit lui-même : "Réécrire les shaders derrière le dos de l'application d'une qui change le rendu dans des circonstances non contrôlées est absolument et résolument mauvais et indéfendable."
[i]
 
Les shaders n'ont pas été remplacé. Ils croient quoi que nvidia a développé des routines qui prennent le code source des shaders, et les remplacent par d'autres shaders ? Ils sont fou ou quoi , ça prendrait trois siècles de faire comme ça :)) Au final ça n'aurait aucun interet.  
 
Le shader ne serait pas celui demandé par le développeur, et les performances ne serait pas meilleur que la solution employée actuellement.
 
Apres hop, une petite citation de Carmack qui n'a rien à voir avec ce que fait nvidia.
 
[i]
" Les opinions de Gabe Newell, CEO de Valve Software sur le remplacement de shaders sont bien connues. Les développeurs haïssent cela [c'est plagier leur oeuvre en quelque sorte].

 
Utilisation abusive du mot plagier, s'ils continuent ils vont dire que nvidia se sont des terroristes/pirates.  
 
Le code source n'est pas modifié, c'est son interprétation durant le mode opératoire qui diffère, et le resultat escompté n'est pas aléatoire, mais connu par les développeurs, et bien conforme à ce que souhaite les développeurs.  
 
Les optimisations sont ainsi portés sur toutes les générations de gpu, un jeu actuel, dans 10 ans aura un meilleur rendu que maintenant.
 
Le créateur de GPUs ne sera pas inquièté, l'utilisateur verra le nouveau niveau tourner comme une limasse en janvier, et le jeu original tourner décemment [Un bon moyen de tuer le mod making et tout ce qui est création indépendante].

 
Toujours pareil, voir ce que j'ai mis au dessus, ce sont des fonctions génériques qui sont optimisées, le rendu/resultat final est le même. Les utilisateurs bénéficient des optimisations sur tout les jeux les plus récents qui sortent, et les jeux anciens sont améliorés.
 
 Ca n'a rien à voir avec le Mod Making, personne ne travaille au niveau de l'asm pour faire un mod (il y a des logiciels pour modder), et plus personne a à travailler en asm, depuis l'arrivé des directx9 pour créer des shaders dans les jeux.
 
Si des gens veulent travailler en dx8, comme avec les radeons, mais dans le but d'avoir un control total sur le gpu.
 
Ils peuvent court circuiter le processus d'optimisations et le  compilateur, en pondant du code objet, qui ne sera pas optimisé et géré par le compilateur, ou proceder de la meme façon que 3d mark 2003.
 
Ce code objet sera executé tel quel par le gpu.
 
Le compilateur est une étape intermédiaire et accesoire dans le processus d'affichage des shaders dans directx ou opengl. On peut très bien travailler avec des objets précompilés sans y avoir recourt.
 
ATI se contredit bien d'ailleurs sur ce sujet là, car au début ils disent non c'est pas vrai le patch ne court circuite pas le compilo (ce qui veut dire que c'est possible de le faire).
 
Par contre, ils sous entendent qu'il n'y a aucun moyens de faire autrement, que de passer par le compilo et l'optimisation.  
 
Alors qu'une fois encore, l'exemple de 3dmark montre bien qu'il est possible de désactiver l'optimisation, et d'utiliser le compilo, en fait d'avoir un control total sur le gpu des nvidias.
 
Mais c'est ridicule etant donné qu'avec l'interpreteur, les performances sont accrues et le rendu est identique.
 
De plus, directx permet de choisir le compilo qu'on désire utiliser, celui de crosoft, celui de nvidia, de ati(rire), ou tout ceux qui se presenteront.(Je rapelle au passage que le compilateur de nvidia est open source, disponible en telechargement, et librement modifiable ce qui donne de nombreuses possibilités à des mecs qui voudraient sortir des drivers nvidia non officiel supra optimisé, comme les drivers tartenpion d'ati).
 
Quand on court circuite le compilo, contrairement à ce que dit ATI, c'est à ce moment là qu'on s'expose à de gros problemes de compatibilités , portabilités etc ...
 
 On travaille sur de l'adressage réel (un peu comme à l'époque des premiers jeux dos), et ça peut poser problemes avec des archis différentes de carte graphique.
 
D'ou l'interet d'utiliser un langage de haut niveau, pour ne pas avoir à recompiler chaque shader de chaque jeux, en fonction de l'arrivé de chaque nouveau gpu.  
 
Tout ça pour dire que, le processus d'optimisation n'interfere donc en rien, avec tout le reste du processus de compilation.
 
Mais c'est aussi vrai, que chez ati, les shaders sont tellement limités en taille et en rendu, qu'on peut pas faire grand chose.  
 
Il faut alors abandonner l'idée du langage de haut niveau, pour rentrer dans un processus d'optimisation atomique (ce qui n'a bien sur aucun sens car on perd tout le bénéfice de dx9)
 
Dans ce cadre d'utilisation, et selon les performances de leur materiel, c'est vrai que le processus d'optimisation est inutile, etant donné que chez eux, il faut se faire chié à le faire à la mano.
 
En conclusion, ATi et sa campagne marketing d'intox anti nvidia,  essaie de masquer les performances limités des radeons en directx9.  
 
Ils doivent partir du principe que plus on parle des faiblesses du concurrent, et moins on parle des leurs.
 
Mais, leur sac à idée semble vide, et ils subissent de plein fouet, la montée en force des cartes nvidias.  
 
Les jeux sous nvidia tournent de plus en plus vite, les possesseurs de fx sont de plus en plus satisfait, et Ati baragouine que ça ne marche pas.  
 
Les joueurs nvidia s'en foutent, ils jouent, et ça marchent. Ati essaient de tenir jusqu'a noel, pour recuperer des clients.
 
Leurs arguments peuvent donc éventuellement convaincre la presse, en créant une aura charismatique, mais surement pas les développeurs. La solution Nvidia, est la plus flexible, et la plus viable dans le temps.


Message édité par nicolas_b le 15-11-2003 à 09:43:28
n°2828748
bothary
pas barbare, tasmanien !!
Posté le 15-11-2003 à 09:45:56  profilanswer
 


 
 
il va finir par tomber a court d'argument


---------------
...Tuco Benedictio Pacifico Juan Maria Ramirez "dit LE PORC"...
n°2828749
smiley0041
Posté le 15-11-2003 à 09:46:29  profilanswer
 

nicolas_b a écrit :

Vous etes pas sympa avec Tangzzz, il se démène pour rien ... Enfin, c'est dans les moeurs de faire tout et n'importe quoi ...
 
Pour le plagia d'ati, c'est évidement un troll. Un troll qui est encore plus gros que le miens. Ati accuse nvidia de faire en gros ce que eux, ils devraient faire, c'est à dire du dx9.
 
Il y a rien d'anormal à modifier, les instructions avant la compilation... C'est exactement ce que fait l'api, quand on lui passe des flags d'optimisations. L'interpreteur a été placé là, pour les développeurs qui ne voulaient pas se faire chier comme gabe newell à optimiser un path spécial pour les cartes nvidias.
 
En gros, cette fonctionnalité a été demandé par tout les développeurs, et nvidia l'a fait.  
 
J'apprecie le style du directeur, car ça ressemble à une annonce de microsoft qui parlerait de linux, ou d'une major de la musique qui parlerait de la musique sur internet.
 
Je cite et commente tout:
 

"Deuxièmement, il est trompeur de dire que le remplacement de shaders représente mieux les performances dans les jeux. Seule une petite fraction de jeux obtiennent l'attention accordée par nos concurrents à 3DMark 2003."

 
Les optimisations de nvidia sont faites sur des fonctions génériques qui sont utilisés, et appliqués sur tout les jeux. Comme je l'ai dis auparavant Nvidia a crée une architecture homogène et hétérogène souple qui convient à toutes les formes d'utilisations.
 
 Si nvidia avait conçu une architecture matériel, uniquement dans le but de faire un gros score à 3dmark2003, vous pouvez me croire, le score des fx serait incroyablement plus élevé qu'il ne l'est actuellement.
 

Cela requière trop de temps de programmation. Plus de 300 jeux PC sortent par an, et 100 d'entre eux stressent vraiment le matériel graphique.Peut-être qu'une demi-douzaine - ceux les plus utilisés en tant que benchmark - recevront la douce caresse des ingénieurs chargés des pilotes.

 
Pareil qu'au dessus. Comme les fonctions optimisées sont génériques, il n'y a pas à étudier chaque jeux au cas par cas, etant donné que 95% de ces jeux utilisent ces fonctions génériques.
 
Sauf quand il y a un bug release sur un titre précis, à ce moment là, il faut mettre les mains dans le cambouis, et déterminer si le probleme vient du driver ou de l'application en elle même.  
 

Un tst honnête sur 3DMArk 2003 donnera un indice crédible de ce que montreront la vaste majorité des jeux DirectX9.  

 
Bah comme 3dmark 2003 est orienté directx8 et qu'il force l'antialiasing et l'anisotrope par défaut, on ne peut pas comparer par exemple une ti avec une radeon ...
 
Le bench de surcroit utilise maintenant des processus de désoptimisation en fonction de chaque carte.  
 
Comment pourrait il être un indice crédible après tout leurs déboires ?  
 

Les joueurs doivent pouvoir jouer à tous les jeux qu'ils veulent, pas aux six qui ont eu leurs shaders optimisés par remplacement.

 
C'est en ça qu'Ati a de gros problemes ... Ils parlent d'optimisations, mais leurs cartes ne permettent pas de le faire. Alors, ils optimisent au coup par coup, les jeux en sortant de nouveaux drivers.
 
Mais pour le moment, ils sont plus emmerder du fait des faiblesses de leur archi, sur le débugage des jeux au cas par cas.
 
Au vue des résultats des catalysts, il y a bien 6 jeux principaux qui fonctionnent, le reste c'est selon la version du driver.
 

En supposant tout de même que vous trouviez les ressources nécessaures pour remplacer tous les shaders dans tous les jeux, ce n'est pas une solution pratique. Le remplacement de shaders est un immense pas en arrière sur la fiabilité et la compatibilité des jeux.

 
Les shaders ne sont pas remplacés, ce sont les appels de fonctions appellées par les shaders qui sont optimisés à la volée.
 
Ca fait toujours rire de voir la boite la moins fiable, avec les solutions les moins compatible, portable donné des leçons dans ce registre.
 
Mais bon ATI utilisera bien évidement la technique d'optimisation de nvidia quand leur technologie leur permettra de le faire.  
 
Chaque année, vous devrez écrire des milliers de shaders qui seront tous à vérifier d'un point de vue qualité de rendu, portés aux labos d'assurance qualité et supportés

 
Toujours pareil, on touche pas au code des shaders, et on a pas besoin de réecrire les shaders, c'est le compilo qui change, et qui optimise les fonctions.  
 
Et dés que le développeur sortira un patch, il faudra recommencer. Traiter chaque jeu comme un cas à part est une source de problèmes de stabilité.

 
Gneee ???? Merde alors, ils sont entrain de décrire le fonctionnement des radeons. Ils manquent pas de culots...
 
Les développeurs sont montés à l'encontre du remplacmeent de shaders. John Carmack l'a dit lui-même : "Réécrire les shaders derrière le dos de l'application d'une qui change le rendu dans des circonstances non contrôlées est absolument et résolument mauvais et indéfendable."
[i]
 
Les shaders n'ont pas été remplacé. Ils croient quoi que nvidia a développé des routines qui prennent le code source des shaders, et les remplacent par d'autres shaders ? Ils sont fou ou quoi , ça prendrait trois siècles de faire comme ça :)) Au final ça n'aurait aucun interet.  
 
Le shader ne serait pas celui demandé par le développeur, et les performances ne serait pas meilleur que la solution employée actuellement.
 
Apres hop, une petite citation de Carmack qui n'a rien à voir avec ce que fait nvidia.
 
[i]
" Les opinions de Gabe Newell, CEO de Valve Software sur le remplacement de shaders sont bien connues. Les développeurs haïssent cela [c'est plagier leur oeuvre en quelque sorte].

 
Utilisation abusive du mot plagier, s'ils continuent ils vont dire que nvidia se sont des terroristes/pirates.  
 
Le code source n'est pas modifié, c'est son interprétation durant le mode opératoire qui diffère, et le resultat escompté n'est pas aléatoire, mais connu par les développeurs, et bien conforme à ce que souhaite les développeurs.  
 
Les optimisations sont ainsi portés sur toutes les générations de gpu, un jeu actuel, dans 10 ans aura un meilleur rendu que maintenant.
 
Le créateur de GPUs ne sera pas inquièté, l'utilisateur verra le nouveau niveau tourner comme une limasse en janvier, et le jeu original tourner décemment [Un bon moyen de tuer le mod making et tout ce qui est création indépendante].

 
Toujours pareil, voir ce que j'ai mis au dessus, ce sont des fonctions génériques qui sont optimisées, le rendu/resultat final est le même. Les utilisateurs bénéficient des optimisations sur tout les jeux les plus récents qui sortent, et les jeux anciens sont améliorés.
 
 Ca n'a rien à voir avec le Mod Making, personne ne travaille au niveau de l'asm pour faire un mod (il y a des logiciels pour modder), et plus personne a à travailler en asm, depuis l'arrivé des directx9 pour créer des shaders dans les jeux.
 
Si des gens veulent travailler en dx8, comme avec les radeons, mais dans le but d'avoir un control total sur le gpu.
 
Ils peuvent court circuiter le processus d'optimisations et le  compilateur, en pondant du code objet, qui ne sera pas optimisé et géré par le compilateur, ou proceder de la meme façon que 3d mark 2003.
 
Ce code objet sera executé tel quel par le gpu.
 
Le compilateur est une étape intermédiaire et accesoire dans le processus d'affichage des shaders dans directx ou opengl. On peut très bien travailler avec des objets précompilés sans y avoir recourt.
 
ATI se contredit bien d'ailleurs sur ce sujet là, car au début ils disent non c'est pas vrai le patch ne court circuite pas le compilo (ce qui veut dire que c'est possible de le faire).
 
Par contre, ils sous entendent qu'il n'y a aucun moyens de faire autrement, que de passer par le compilo et l'optimisation.  
 
Alors qu'une fois encore, l'exemple de 3dmark montre bien qu'il est possible de désactiver l'optimisation, et d'utiliser le compilo, en fait d'avoir un control total sur le gpu des nvidias.
 
Mais c'est ridicule etant donné qu'avec l'interpreteur, les performances sont accrues et le rendu est identique.
 
De plus, directx permet de choisir le compilo qu'on désire utiliser, celui de crosoft, celui de nvidia, de ati(rire), ou tout ceux qui se presenteront.(Je rapelle au passage que le compilateur de nvidia est open source, disponible en telechargement, et librement modifiable ce qui donne de nombreuses possibilités à des mecs qui voudraient sortir des drivers nvidia non officiel supra optimisé, comme les drivers tartenpion d'ati).
 
Quand on court circuite le compilo, contrairement à ce que dit ATI, c'est à ce moment là qu'on s'expose à de gros problemes de compatibilités , portabilités etc ...
 
 On travaille sur de l'adressage réel (un peu comme à l'époque des premiers jeux dos), et ça peut poser problemes avec des archis différentes de carte graphique.
 
D'ou l'interet d'utiliser un langage de haut niveau, pour ne pas avoir à recompiler chaque shader de chaque jeux, en fonction de l'arrivé de chaque nouveau gpu.  
 
Tout ça pour dire que, le processus d'optimisation n'interfere donc en rien, avec tout le reste du processus de compilation.
 
Mais c'est aussi vrai, que chez ati, les shaders sont tellement limités en taille et en rendu, qu'on peut pas faire grand chose.  
 
Il faut alors abandonner l'idée du langage de haut niveau, pour rentrer dans un processus d'optimisation atomique (ce qui n'a bien sur aucun sens car on perd tout le bénéfice de dx9)
 
Dans ce cadre d'utilisation, et selon les performances de leur materiel, c'est vrai que le processus d'optimisation est inutile, etant donné que chez eux, il faut se faire chié à le faire à la mano.
 
En conclusion, ATi et sa campagne marketing d'intox anti nvidia,  essaie de masquer les performances limités des radeons en directx9.  
 
Ils doivent partir du principe que plus on parle des faiblesses du concurrent, et moins on parle des leurs.
 
Mais, leur sac à idée semble vide, et ils subissent de plein fouet, la montée en force des cartes nvidias.  
 
Les jeux sous nvidia tournent de plus en plus vite, les possesseurs de fx sont de plus en plus satisfait, et Ati baragouine que ça ne marche pas.  
 
Les joueurs nvidia s'en foutent, ils jouent, et ça marchent. Ati essaient de tenir jusqu'a noel, pour recuperer des clients.
 
Leurs arguments peuvent donc éventuellement convaincre la presse, en créant une aura charismatique, mais surement pas les développeurs. La solution Nvidia, est la plus flexible, et la plus viable dans le temps.

il AVOUE :love:
ça se [:quoted] un truc pareil :o


Message édité par smiley0041 le 15-11-2003 à 09:47:26

---------------
Mon feed
n°2828774
hide
Posté le 15-11-2003 à 10:05:43  profilanswer
 

arretez de le quoter en entier sinon cette page va faire deux kilometres de long [:joce]


---------------
Et si c’était ça la vie / Et si on nous l’avait pas dit ?
n°2828779
smiley0041
Posté le 15-11-2003 à 10:07:18  profilanswer
 

HidE a écrit :

arretez de le quoter en entier sinon cette page va faire deux kilometres de long [:joce]  

spa grave ça se quote des énormités comme ça :whistle:


---------------
Mon feed
n°2828784
hide
Posté le 15-11-2003 à 10:10:52  profilanswer
 

ça s'imprime et ça s'encadre pis on le fout au dessus de la cheminee pour en parler à ses petits enfants lors des longues soirées d'hiver :o


---------------
Et si c’était ça la vie / Et si on nous l’avait pas dit ?
n°2828791
bothary
pas barbare, tasmanien !!
Posté le 15-11-2003 à 10:12:34  profilanswer
 

HidE a écrit :

ça s'imprime et ça s'encadre pis on le fout au dessus de la cheminee pour en parler à ses petits enfants lors des longues soirées d'hiver :o  


je l'aurai mis a un autre endroit de la maison' propre au receuillement et a la méditation  :whistle:  [:bothary]


---------------
...Tuco Benedictio Pacifico Juan Maria Ramirez "dit LE PORC"...
n°2828894
MagiSim
Magique, et oui !
Posté le 15-11-2003 à 11:12:56  profilanswer
 

HikoSeijuro a écrit :


 
mets les 52.16, en faite il faut 52.16 sur 330 et sur 340, c surtout ça qui compte
hum pour repasser au 330 ouais je crois faut tu uninstall et reinstall 3dmark, je vois pas autrement

Yop, lol :)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2828902
MagiSim
Magique, et oui !
Posté le 15-11-2003 à 11:15:58  profilanswer
 

nicolas_b a écrit :


Les optimisations de nvidia sont faites sur des fonctions génériques qui sont utilisés, et appliqués sur tout les jeux. Comme je l'ai dis auparavant Nvidia a crée une architecture homogène et hétérogène souple qui convient à toutes les formes d'utilisations.


 
Je n'irai plus loin que quand ce sombre indibvidu aura upgradé le firmware de ce qui lui sert de ciboulot  :lol:


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2828920
MagiSim
Magique, et oui !
Posté le 15-11-2003 à 11:26:34  profilanswer
 

legreg a écrit :

Je ne crois pas qu'il y ait d'explications sensées aux fluctuations entre les deux patchs sur Geforce 4 (qui n'ont pas d'unités flottantes) et qui n'ont que modéremment besoin d'etre optimisées pour 3dmark03 (pas de support de PS/1.4 ni de 2.0).  
 
Si différence il y a, elle a peut-etre effectivement un lien avec la taille des point sprites (mais de maniere marginale ? et puis ça dependrait surement de la résolution testée) ou simplement avec la façon dont futuremark envoie les données à la carte.
 
Par contre c'est clair qu'il peut y avoir des fluctuations entre les versions de drivers (correction de bugs, suppression d'optimisations spécifiques etc.) mais ce n'est pas ce qui est mis en évidence ici.
 
Enfin bon a mon avis ça a autant de valeur que les soi-disant tests de qualité d'image (qui n'a pas changé d'un iota entre les patchs).
 
LeGreg


 
Dans tous les cas, même si la différence est de 2 fps, les variations sont énormes en terme de pourcentageC'est sûr que si tu bidouille une voodoo1 sur 100% de vitesse en plus, ça paraîtra non significatif car elle n'affichera même pas un 10ème de fps en plus, amsi ce sera toujours du +100% :D
 
Et dans notre cas, c'est le fait que le patch accélère pas mal les choses par rapport au patch prcécédent, et seulement sur des drivers récents, à croire que les drivers récents avaient une app detection pour ralentir les GF4Ti, il n'y a rien de moins sûr, mais c'est toujours intéressant de se pencher sur cette bizarrerie.
 
Tu sais, Gregounet, la force de l'intelligence de l'homme, ce n'est pas ce qu'il engrange comme connaissances brutes, c'est sa capacité à se poser des questions et à chercher à comprendre. Je doute, donc je suis :D
 
C'est ça aussi que fait que la science dérange par rapport aux religions : du jour au lendemain on te dit que la terre n'est pas plate mais ronde, ou que l'air que tu respire est peuplé de plein de petits "microbes".
 
Je dis pas ce qu'on fait est scientifique, toujours, loin de là, mais il ne faut pas condamner cet envie de comprendre sous prétexte que toi ne voit rien de logique. C'est justement ce manque de logique qui me pousse, entre autres, à me poser des questions. :)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2829108
Oxygen3
Tears from the moon
Posté le 15-11-2003 à 13:06:43  profilanswer
 

c'est pas mal comment l'autre zouave arrive à remplacer ati par nvidia quasiment partout (et l'inverse ou presque)
enfin il dit bcp de bonne merde quand même ... :sweat:
 


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2829133
hikoseijur​o
Posté le 15-11-2003 à 13:23:25  profilanswer
 


 
sérieux c pas possible, tu bosses chez nvidia, je vois pas comment tu serais capable de pondre des trucs pareils sinon, c pas possible... C'est du trop haut nivo pour un banal nvidiot !


Message édité par hikoseijuro le 15-11-2003 à 13:30:45
n°2829136
Oxygen3
Tears from the moon
Posté le 15-11-2003 à 13:23:48  profilanswer
 

ou du bon PR bullshit


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2829156
Ernestor
modo-coco :o
Posté le 15-11-2003 à 13:30:59  profilanswer
 

nicolas_b a écrit :

Pour le plagia d'ati, c'est évidement un troll. Un troll qui est encore plus gros que le miens. Ati accuse nvidia de faire en gros ce que eux, ils devraient faire, c'est à dire du dx9.


Yeessssssss  [:limit]  :love:  
 
Bon, Nicolas_B, tu voudras bien m'expliquer un truc ? Comment se fesse que tu affirmes que toutes les optimisations ne sont que des remplacement générique de shaders alors que nVidia dit qu'il y a deux optimisations qui sont faites :
- compilo qui correspond à ce que tu dis
- optimisations spécifiques faites a la mano
 
C'est nVidia qui l'a dit !! On l'a pas inventé :D
 
Et depuis 10 pages on ne parle QUE de ces optis spécifiques. Donc la prochaine fois évite de passer 1 heure à raconter des trucs faux et hors-sujet, ca sera aussi bien pour tout le monde  :whistle:  
 
Nicolas_b, plus royaliste que le roi  :sol:


Message édité par Ernestor le 15-11-2003 à 13:31:38

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2829163
hikoseijur​o
Posté le 15-11-2003 à 13:34:13  profilanswer
 

oui nvidia est bien mieux que ce qu'il veut bien le dire lui-même, heureusement que nicolas_b est là pour nous le rappeller  :whistle:
 
sont trop modèstes chez nvidia


Message édité par hikoseijuro le 15-11-2003 à 13:35:03
n°2829180
Ernestor
modo-coco :o
Posté le 15-11-2003 à 13:41:06  profilanswer
 

nicolas_b a écrit :


Bah comme 3dmark 2003 est orienté directx8 et qu'il force l'antialiasing et l'anisotrope par défaut, on ne peut pas comparer par exemple une ti avec une radeon ...


Gnnnn  [:mouais]  
Par défaut c'est désactivé. Et le lien de cause a effet DX 8 -> FSAA/Aniso  [:ddr555]  
 

Citation :


Le bench de surcroit utilise maintenant des processus de désoptimisation en fonction de chaque carte.  


Gnnnn 2  [:mouais]  
 

Citation :


C'est en ça qu'Ati a de gros problemes ... Ils parlent d'optimisations, mais leurs cartes ne permettent pas de le faire. Alors, ils optimisent au coup par coup, les jeux en sortant de nouveaux drivers.


Tu confonds, c'est nVidia qui fait ca  [:tinostar]  
 

Citation :


Les shaders n'ont pas été remplacé. Ils croient quoi que nvidia a développé des routines qui prennent le code source des shaders, et les remplacent par d'autres shaders ? Ils sont fou ou quoi , ça prendrait trois siècles de faire comme ça :)) Au final ça n'aurait aucun interet.  


Ben pourtant c'est bien ca qu'ils font aussi :D
En plus de leur compilo ;)
 

Citation :


Ce code objet sera executé tel quel par le gpu.


Gnnn 3  [:mouais]  
Y a une machine virtuelle Java pour les GPU ? Ca existe ca :D Cooollll  :sol:  
 

Citation :


En conclusion, ATi et sa campagne marketing d'intox anti nvidia,  essaie de masquer les performances limités des radeons en directx9.  
 
Les joueurs nvidia s'en foutent, ils jouent, et ça marchent. Ati essaient de tenir jusqu'a noel, pour recuperer des clients.


[:rofl]
 
Désolé, mais c'est trop drole :D
 
Remarquez qu'il a de nouveaux arguments, ca change :)
C'est toujours aussi absurde mais il y a de l'originalité au moins  :ange:


Message édité par Ernestor le 15-11-2003 à 13:46:01

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2829188
hide
Posté le 15-11-2003 à 13:44:12  profilanswer
 

ce type est un dieu [:roi]


---------------
Et si c’était ça la vie / Et si on nous l’avait pas dit ?
n°2829269
bjone
Insert booze to continue
Posté le 15-11-2003 à 14:14:18  profilanswer
 

REVEILLEZ VOUS
 
LA FIN DU MONDE EST PROCHE
 
REJOINGNEZ NOUS, SOYEZ UN TEMOIN DE JEHOVAH

n°2829275
bjone
Insert booze to continue
Posté le 15-11-2003 à 14:15:18  profilanswer
 
n°2829314
hikoseijur​o
Posté le 15-11-2003 à 14:30:04  profilanswer
 

mouais faudrait essayer cette méthode sur nicolas_b, mais je doute que ça mache, c pas un nvidiot, il troll pour s'amuser voilà tout...

n°2829332
nicolas_b
Posté le 15-11-2003 à 14:36:33  profilanswer
 

Ernestor a écrit :


Yeessssssss  [:limit]  :love:  
 
Bon, Nicolas_B, tu voudras bien m'expliquer un truc ? Comment se fesse que tu affirmes que toutes les optimisations ne sont que des remplacement générique de shaders alors que nVidia dit qu'il y a deux optimisations qui sont faites :
- compilo qui correspond à ce que tu dis
- optimisations spécifiques faites a la mano
 
C'est nVidia qui l'a dit !! On l'a pas inventé :D
 
Et depuis 10 pages on ne parle QUE de ces optis spécifiques. Donc la prochaine fois évite de passer 1 heure à raconter des trucs faux et hors-sujet, ca sera aussi bien pour tout le monde  :whistle:  
 
Nicolas_b, plus royaliste que le roi  :sol:


 
Comme je l'ai déjà dis , ça n'existe pas les optimisations manuelles. Il s'agit d'un hook de fonctions, rien de particulier, il y a un interpreteur qui recupere les appels de fonctions générique de l'api, qui les optimise pour les renvoyer au compilo.
 
Le prochain directx integre ça en natif, plus besoin de hook.

n°2829344
bothary
pas barbare, tasmanien !!
Posté le 15-11-2003 à 14:41:15  profilanswer
 

nicolas_b a écrit :


 
Comme je l'ai déjà dis , ça n'existe pas les optimisations manuelles. Il s'agit d'un hook de fonctions, rien de particulier, il y a un interpreteur qui recupere les appels de fonctions générique de l'api, qui les optimise pour les renvoyer au compilo.
 
Le prochain directx integre ça en natif, plus besoin de hook.


 
prems => source? ©


---------------
...Tuco Benedictio Pacifico Juan Maria Ramirez "dit LE PORC"...
n°2829345
blazkowicz
Posté le 15-11-2003 à 14:41:35  profilanswer
 

et c'est pour ça que l'optimisation marche plus quand on remplace a+b par b+a [:tinostar]

n°2829357
Ernestor
modo-coco :o
Posté le 15-11-2003 à 14:45:48  profilanswer
 

nicolas_b a écrit :


 
Comme je l'ai déjà dis , ça n'existe pas les optimisations manuelles. Il s'agit d'un hook de fonctions, rien de particulier, il y a un interpreteur qui recupere les appels de fonctions générique de l'api, qui les optimise pour les renvoyer au compilo.
 
Le prochain directx integre ça en natif, plus besoin de hook.


Et comme je l'ai dit tu as tord. La tu ne parles que du compilo. Et oui il y a, en plus de ce compilo, des optimisations "manuelles" définies spécifiquement pour un moteur 3D.
 
Edit: en plus, la facon dont tu dis que l'optimisation est réalisée permet exactement de faire des optims manuelles :D


Message édité par Ernestor le 15-11-2003 à 14:49:10

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2829362
hikoseijur​o
Posté le 15-11-2003 à 14:48:42  profilanswer
 

nicolas_b a écrit :


 
Comme je l'ai déjà dis , ça n'existe pas les optimisations manuelles.  


 
Comment tu peux dire ça ?, alors que nvidia affirme lui-même qu'il y en a...
 
T'es peut-être plus au courant que le développeur lui-même, c'est toi qu'a fait les derniers déto ??

n°2829413
bjone
Insert booze to continue
Posté le 15-11-2003 à 15:05:30  profilanswer
 

yep je confirme, y'a pas d'optimisations manuelles, le compilo il est bo il est magnifique, futuremark y sont vendus à ATI c'est une évidence, les voitures ça pollue pas, y'as pas de misère dans le monde, tout le monde il est bo il est gentil....

n°2829433
bjone
Insert booze to continue
Posté le 15-11-2003 à 15:12:26  profilanswer
 

moi ce qui m'étonnes, c'est que la compilation est confiée à une fonction D3DXCompileShader, hors il me semble que les D3DX sont dans une bibliothèque statique émise dans l'éxécutable à la compilation, hors les Hooks, sur les appels d'api.... (hors les D3DXCompileShader ne devraient pas compter comme appel d'api)


Message édité par bjone le 15-11-2003 à 15:12:55
n°2829439
sealbirman
Rhhha ha hahaha...
Posté le 15-11-2003 à 15:14:09  profilanswer
 

[Mode HS ON] pour notre messie des cartes graphiques
n_b > Pour info, t'as oublié de mettre ton nouveau SLK800 dans ta config... [:sealbirman]  
http://forum.hardware.fr/forum2.ph [...] subcat=169
[Mode HS off]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  117  118  119  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)