Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3335 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

Dossier sur les Pixels Shaders !

n°1902515
Kernel-Pan​ic
Eh?
Posté le 23-10-2002 à 11:29:17  profilanswer
 

Reprise du message précédent :
personne a nié le gain de vitesse entre la GF3 et la GF4...  :heink: ou t allé pecher ca ?
 
edit: et selon moi UT2003 a atteint le meme nivo que Quake3, c'est a dire une grosse daube qui sert a vendre un engine 3D. LE vrai jeux d'epic c'est unreal 2 faut arreter de faire semblant de pas savoir, mais bon vu que ut2k3 va surment etre utilisé comme bench et qu'il est estempillé du logo de nvidia (donc pour hardcore gamers :lol: ) sa en fait surment un tres bon jeux  :sarcastic:  
 
c'étais mon coup de gueul pour ut2k3


Message édité par Kernel-Panic le 23-10-2002 à 11:37:26

---------------
You have no chance to survive make your time.
mood
Publicité
Posté le 23-10-2002 à 11:29:17  profilanswer
 

n°1902560
MagiSim
Magique, et oui !
Posté le 23-10-2002 à 11:41:17  profilanswer
 

Va être updaté pour UT 2003.
 
Pour Doom3, tu te base sur un plan qui date d'enore plus loin où les drivers étaient encore moins optimisés. ATI a commencé à vraiment travailler avec Carmack qu'à partir de Janvier février (mauvais point).

n°1902582
Thot
Posté le 23-10-2002 à 11:48:46  profilanswer
 

###
Pour Doom3, tu te base sur un plan qui date d'enore plus loin où les drivers étaient encore moins optimisés. ATI a commencé à vraiment travailler avec Carmack qu'à partir de Janvier février (mauvais point).
###
 
Je veux une source pour pouvoir te croire.
Je te signale que tous mes extraits du .plan de Mr Carmack date de Fevrier 2002. Et que le contact entre ATI et Id existait deja avant comme on peut le voir ici
 
###
My judgment was colored by the experience of bringing up Doom on the original
Radeon card a year earlier, which involved chasing a lot of driver bugs. Note
that ATI was very responsive, working closely with me on it, and we were able
to get everything resolved
###
 
Edité: Je rajoute encore une fois le lien du .plan :
http://www.webdog.org/plans/1/


Message édité par Thot le 23-10-2002 à 11:49:34
n°1902699
MagiSim
Magique, et oui !
Posté le 23-10-2002 à 12:23:51  profilanswer
 

ATI venait juste de commencer à bosser avec Carmack. Faut vraiment être naïf pour croire que des drivers ça se bosse en 2-3 semaines.....
 
Sinon, l'article a été updaté avec tes renseignements les plus objectifs...
 
Le .plan dont tu parle mentionne ceci avant ton passage, montrant qu'ATI n'avait pas encore réellement commencé à travailler avec Carmack sur le Radeon 8500.
 

Citation :

had a pre-production board before Siggraph last year, and we were discussing
the possibility of letting ATI show a Doom demo behind closed doors on it. We
were all very busy at the time, but I took a shot at bringing up support over
a weekend. I hadn't coded any of the support for the custom ATI extensions
yet, but I ran the game using only standard OpenGL calls (this is not a
supported path, because without bump mapping everything looks horrible) to see
how it would do. It didn't even draw the console correctly, because they had
driver bugs with texGen. I thought the odds were very long against having all
the new, untested extensions working properly, so I pushed off working on it
until they had revved the drivers a few more times.


 
Il dit aussi ceci :
 

Citation :

ATI had been patiently pestering me about support for a few months, so last
month I finally took another stab at it. The standard OpenGL path worked
flawlessly, so I set about taking advantage of all the 8500 specific features.
As expected, I did run into more driver bugs, but ATI got me fixes rapidly,
and we soon had everything working properly. It is interesting to contrast
the Nvidia and ATI functionality:


 
ça faisait une paire de mois que ATI leur demandait de faire des tests... Carmack s'est finalemnet décidé et a mis à jour des bugs qu'ATI a commencé à corriger le plus rapidement possible....
 
Donc, tu vois, considèrer dans les pefs un .plan qui date juste du début du réveil de Carmack face au R8500 alors qu'il a utilisé quasi exclusivement du nvIDIA avant..... C'est un epu chaud, non ?
 
Par là je veux aussi souligner le fait que extraire un paragraphe d'un tout sans replacr le paragraphe dans son contexte, ça permet de lui faire dire pas mal de choses.....
 
Effectivement, si on ne tient compte que de ton paragraphe, tu as raison, le problème est que Carmack a un peu plus parlé que ça ce jour là.


Message édité par MagiSim le 23-10-2002 à 12:40:01
n°1902981
TNZ
Ryzen 9 9950X3D powered ...
Posté le 23-10-2002 à 14:16:01  profilanswer
 

Mwouais ... :/
 
Sorti des débats de tétracapiliculteur, je dirais que l'avenir est pour les PS 1.4 ... et que dans cette optique la R8500 est plus pereine que la concurrence.
 
[IRONIQUE] Maintenant, faut m'expliquer la différence entre une rés de 1280 et une de 1600 (différences visuelles), et puis aussi celle qu'il y a entre 90 FPS et 100 FPS sur des écrans qui rafraichissent à 75 ou 85 Hz (sans synchro verticale bien sûr) .... :heink:

n°1903094
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 23-10-2002 à 14:56:36  profilanswer
 

bichoco a écrit a écrit :

 
 
t sur ke ca utilise les shader 1.4 plutôt ke les 1.3 sinon les gf4 le font en 1 passe aussi




 
nan c 1.4  et les gf3 et 4 font 2 passent


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1903173
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 23-10-2002 à 15:22:12  profilanswer
 

TNZ a écrit a écrit :

Mwouais ... :/
 
Sorti des débats de tétracapiliculteur, je dirais que l'avenir est pour les PS 1.4 ... et que dans cette optique la R8500 est plus pereine que la concurrence.
 
[IRONIQUE] Maintenant, faut m'expliquer la différence entre une rés de 1280 et une de 1600 (différences visuelles), et puis aussi celle qu'il y a entre 90 FPS et 100 FPS sur des écrans qui rafraichissent à 75 ou 85 Hz (sans synchro verticale bien sûr) .... :heink:




 
 
ya moin de baisse de fr stoo.
 
si on était kapable de faire du 85 fps konstant ca serait le reve.....


Message édité par THE REAL KRYSTOPHE le 23-10-2002 à 15:22:27

---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1903297
TNZ
Ryzen 9 9950X3D powered ...
Posté le 23-10-2002 à 15:55:26  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

ya moin de baisse de fr stoo.
 
si on était kapable de faire du 85 fps konstant ca serait le reve.....


Ben avec des moteurs 3D multi threadés C possible !
 
Seulement pour ça faut que les programmeurs enlèvent leurs moufles et fassent de la programmation temps-réel (CàD synchronisée, multi tache, multi threads (et/ou multi process pourquoi pas) avec l'utilisation de mémoires globales etc ... :/

n°1904074
MagiSim
Magique, et oui !
Posté le 23-10-2002 à 20:08:01  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

 
 
nan c 1.4  et les gf3 et 4 font 2 passent




 
Ouais mais les effets sont archis simplissimes. Résultat, les GF4 se tapent quand même une passe. Ce sont des effets de niveau 1.3.

n°1904144
bjone
Insert booze to continue
Posté le 23-10-2002 à 20:28:53  profilanswer
 

magisim a écrit a écrit :

ATI venait juste de commencer à bosser avec Carmack. Faut vraiment être naïf pour croire que des drivers ça se bosse en 2-3 semaines.....
 
Sinon, l'article a été updaté avec tes renseignements les plus objectifs...
 
Le .plan dont tu parle mentionne ceci avant ton passage, montrant qu'ATI n'avait pas encore réellement commencé à travailler avec Carmack sur le Radeon 8500.
 

Citation :

had a pre-production board before Siggraph last year, and we were discussing
the possibility of letting ATI show a Doom demo behind closed doors on it. We
were all very busy at the time, but I took a shot at bringing up support over
a weekend. I hadn't coded any of the support for the custom ATI extensions
yet, but I ran the game using only standard OpenGL calls (this is not a
supported path, because without bump mapping everything looks horrible) to see
how it would do. It didn't even draw the console correctly, because they had
driver bugs with texGen. I thought the odds were very long against having all
the new, untested extensions working properly, so I pushed off working on it
until they had revved the drivers a few more times.


 
Il dit aussi ceci :
 

Citation :

ATI had been patiently pestering me about support for a few months, so last
month I finally took another stab at it. The standard OpenGL path worked
flawlessly, so I set about taking advantage of all the 8500 specific features.
As expected, I did run into more driver bugs, but ATI got me fixes rapidly,
and we soon had everything working properly. It is interesting to contrast
the Nvidia and ATI functionality:


 
ça faisait une paire de mois que ATI leur demandait de faire des tests... Carmack s'est finalemnet décidé et a mis à jour des bugs qu'ATI a commencé à corriger le plus rapidement possible....
 
Donc, tu vois, considèrer dans les pefs un .plan qui date juste du début du réveil de Carmack face au R8500 alors qu'il a utilisé quasi exclusivement du nvIDIA avant..... C'est un epu chaud, non ?
 
Par là je veux aussi souligner le fait que extraire un paragraphe d'un tout sans replacr le paragraphe dans son contexte, ça permet de lui faire dire pas mal de choses.....
 
Effectivement, si on ne tient compte que de ton paragraphe, tu as raison, le problème est que Carmack a un peu plus parlé que ça ce jour là.




 
je sais pas pour ATI, mais je sais que chez nVidia ils utilisent une unité de symulation matérielle (l'Ikos Box je crois), et des drivers sont écrits avant même que des samples sortent de chez TSMC.
 
Ceci dit y'a une différence entre avoir une base fonctionelle, et avoir des drivers optimisés et débuggués :D

mood
Publicité
Posté le 23-10-2002 à 20:28:53  profilanswer
 

n°1904181
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 23-10-2002 à 20:41:39  profilanswer
 

magisim a écrit a écrit :

 
 
Ouais mais les effets sont archis simplissimes. Résultat, les GF4 se tapent quand même une passe. Ce sont des effets de niveau 1.3.




 
[BIS MOD ON]
nan c du 1.4  et les gf4 font 2 passes  
dixit MR madonion himself.
 
 
l aventage du ps 1.4 cai aussy d apliker + de textures en 1 passe.


Message édité par THE REAL KRYSTOPHE le 23-10-2002 à 20:49:02

---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1904183
Oxygen3
Tears from the moon
Posté le 23-10-2002 à 20:42:44  profilanswer
 

le .plan date c affreux
y'a rien rien rien sur les évolutions depuis l'été:
RV250 et R300 et NV18/NV23
je suppose qu'il *attend* la dispo publique du NV30 mais bon :/


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1904748
MagiSim
Magique, et oui !
Posté le 23-10-2002 à 23:31:06  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

 
 
[BIS MOD ON]
nan c du 1.4  et les gf4 font 2 passes  
dixit MR madonion himself.
 
 
l aventage du ps 1.4 cai aussy d apliker + de textures en 1 passe.  




 
oui mais si l'effet nécessite un nombre de textures < au nombre max des 1.3, alors que ta carte fasse du 1.3 ou du 1.4, elle fera le même nombre de passes, même si c'est codé en 1.4. Et c'est là que la bat blesse, même si c'est codé en 1.4, et bien il manque la complexité des effets... Même en pixel shaders 2.0 tu pourras faire une réfraction simple, et toutes les cartes le feront à la même vitesse même si c'est du 2.0 tout simplement parce que l'effet est archi cimple. C'est tout. Y'a pas à chercher plus loin, ni midi à 14h.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1904750
MagiSim
Magique, et oui !
Posté le 23-10-2002 à 23:31:52  profilanswer
 

Oxygen3 a écrit a écrit :

le .plan date c affreux
y'a rien rien rien sur les évolutions depuis l'été:
RV250 et R300 et NV18/NV23
je suppose qu'il *attend* la dispo publique du NV30 mais bon :/




 
c'est un epu ce qe je soulignais... Se baser sur des plan qui datent..... (j'avais au moins dit que je parlais de théorie et que POUR L'INSTANT la pratique ne collait pas.....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1904751
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 23-10-2002 à 23:32:05  profilanswer
 

ben oui personne na dit le kontraire.


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1904836
mareek
Et de 3 \o/
Posté le 24-10-2002 à 00:04:20  profilanswer
 

magisim a écrit a écrit :

 
 
Le reviewer avait dû oublier de règler le post filter sur sharp et high...... Non, parce que j'ai jamais vu Unreal aussi pourri sur V3... Et on ne peut se fier à des captures d'écran pour apprécier le post -filter d'une V3, car l'image finale n'est que dans le Ramdac. En prenant un snapshot du framebuffer si c'est déclaré en 16 bits, tu as une reconversion en 16bits vrais à l'arrachée, quelque soit le soft de capture....... L'image final e n'est PAS dans le frame buffer. Y'a eu le même pb avec les V5..... C'est bien gentil les comparos screenshotiens, mais ça tient pas forcément compte de tout...... :D
 
C'était la grande époque de Q3 où les nVIDIOTS lèchaient le ciel parce qu'il était plus beau sur les screenshots mais le viraient dés que possible parce que ça faisait ralentir le jeu......  :lol:


ben oui, Marc ne fait des tests qu'avec des screenshots, il ne regarde jamais son écran donc il ne voit pas que l'image est sublime :sarcastic:  
 
 
P.S. je devais être un nvidiots à l'époque puisque je jouais à Q3 avec un ciel en 32bits sur ma TNT [:spamafote]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1905055
MagiSim
Magique, et oui !
Posté le 24-10-2002 à 07:16:49  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

ben oui personne na dit le kontraire.




 
Si, Mr THOT.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1905058
MagiSim
Magique, et oui !
Posté le 24-10-2002 à 07:20:14  profilanswer
 

mareek a écrit a écrit :

ben oui, Marc ne fait des tests qu'avec des screenshots, il ne regarde jamais son écran donc il ne voit pas que l'image est sublime :sarcastic:  
 
 
P.S. je devais être un nvidiots à l'époque puisque je jouais à Q3 avec un ciel en 32bits sur ma TNT [:spamafote]  




 
Ne pas généraliser. Après, y'a les considérations personnelles. Reste que le niveau qu'utilisait Marc, je l'avais téléchargé, et jamais, ô rand jamais j'ai vu un bnding aussi fort sur ma V3.... mais postfilter règlé correctement.
 
Pour les utilisateurs de TnT, il ne faut pas généraliser...... Mais j'ai effectivement connu ça sur 3dfx Attack des nVIDIOTS finis au sens premier du terme qui vantaient le 32 bpp sur le ciel dans Q3 et jouaient sans le ciel..... MAIS, ils ne sont pas la majorité, heureusement...... Tout comme il n'y a qu'une majorité qui va désactiver des options graphiques dans UT 2003 pour passer de 60 à 120 fps par ex.......


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1905062
Tetedeienc​h
Head Of God
Posté le 24-10-2002 à 07:31:39  profilanswer
 

magisim a écrit a écrit :

 
 
Ne pas généraliser. Après, y'a les considérations personnelles. Reste que le niveau qu'utilisait Marc, je l'avais téléchargé, et jamais, ô rand jamais j'ai vu un bnding aussi fort sur ma V3.... mais postfilter règlé correctement.
 
Pour les utilisateurs de TnT, il ne faut pas généraliser...... Mais j'ai effectivement connu ça sur 3dfx Attack des nVIDIOTS finis au sens premier du terme qui vantaient le 32 bpp sur le ciel dans Q3 et jouaient sans le ciel..... MAIS, ils ne sont pas la majorité, heureusement...... Tout comme il n'y a qu'une majorité qui va désactiver des options graphiques dans UT 2003 pour passer de 60 à 120 fps par ex.......




 
Pour UT, je me demerde pour avoir au moins 80 fps, histoire de pas tomber en dessous de 30 dans les passages vraiment chauds, surcharges en roquette, et ainsi me dire : merde, ca a lagge, j'ai pas pu faire ce que je voulais).
 
J'ai des souvenirs de UT premier du nom en instagib... maman :sweat:
 
Bref, 60 fps, pour les fps, c'est loin d'etre la panacee pour moi.
 


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1906267
Thot
Posté le 24-10-2002 à 16:23:14  profilanswer
 

Môssieur Magicsim...
 
Ce que j' essayais de te faire comprendre, c'est que tu ne peux absolument pas prédire les performances de n'importe quelle carte dans Doom3 que ce soit d'un point de vue théorique ou pratique.  
 
Tu dis :
###
En gros, même si dans le meilleur des cas un GF4 Ti 4600 (reviews les plus optimistes) était à 160% de la vitesse d'un R8500, sous Doom3, il ne tournerait qu'à 80% de la vitesse d'un R8500 !  
###
 
Désolé mais c'est du PIPEAU. T'en sais rien, zéro, nada
Alors que moi je te montre un .plan ou le developpeur de Doom 3 estime que la radeon 8500, niveau performances sera grosso modo équivalente à une GF3, donc inférieure à une GF4.  
 
Tu dis aussi
 
###
Par là je veux aussi souligner le fait que extraire un paragraphe d'un tout sans replacer le paragraphe dans son contexte, ça permet de lui faire dire pas mal de choses.....  
###
 
Et les liens dans mes posts, tu t'imagines que je les mets pour quelle raison ? Pour faire joli ? Justement c'est pour que tu puisses te réferer au texte complet. Texte qui serait trop long à poster en entier sur ce forum.
 
 
A part ca, l'avenir des pixels shaders n'est évidemment pas le PS 1.4. Ca c'est deja de l'histoire ancienne, l'avenir c'est le PS 2.0. Et j'ose espérer que Nvidia va pas nous faire le coup d'un PS 2.X juste pour se venger
 

n°1906613
Ernestor
modo-coco :o
Posté le 24-10-2002 à 17:55:06  profilanswer
 

mareek a écrit a écrit :

 c'est le multicrepe tefal powwaaaa  ;)  




:non:  
 
C'est Bilig powered  [:0iimou]  :sol:  :love:  
 
:D  
 
Pour en revenir au debat bien que je sois quand meme bien a la rue niveau explications techniques, y a ce petit bench e Marc qui m'intrigue. C'est de l'Aquanox, donc a priori massivement DirectX 8 et donc les shaders qui vont avec.
 
On voit que les 8500(LE) sont un cran au-dessus des GF 4 Ti 4200 qui pourtant les laisse bien derriere d'habitude.
 
Ca devrait avoir un lien avec tout ce qu'il sait dit ici et dans l'article de Magisim. Un debut de justification en tout cas (si je suis pas completement a cote de la plaque  :pt1cable:)
 
Source : http://www.hardware.fr/articles/433/page11.html
 
http://www.hardware.fr/medias/photos_news/00/05/IMG0005043.gif


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°1906756
sullivanXP
Posté le 24-10-2002 à 18:40:39  profilanswer
 

Tout à fait conforme à ce que j'avais deja vu sur d'autre sites...Mais il me semble que les shaders utilisés ici sont encore de type "simple" c'est à dire inclus dans directx 8 et non DX8.1 (pixel shader 1.1). Donc en 1.4, l'écart sera encore plus grand... (attente confirmation).

n°1906908
MagiSim
Magique, et oui !
Posté le 24-10-2002 à 19:26:41  profilanswer
 

Thot a écrit a écrit :

Môssieur Magicsim...
 
Ce que j' essayais de te faire comprendre, c'est que tu ne peux absolument pas prédire les performances de n'importe quelle carte dans Doom3 que ce soit d'un point de vue théorique ou pratique.  
 
Tu dis :
###
En gros, même si dans le meilleur des cas un GF4 Ti 4600 (reviews les plus optimistes) était à 160% de la vitesse d'un R8500, sous Doom3, il ne tournerait qu'à 80% de la vitesse d'un R8500 !  
###
 
Désolé mais c'est du PIPEAU. T'en sais rien, zéro, nada
Alors que moi je te montre un .plan ou le developpeur de Doom 3 estime que la radeon 8500, niveau performances sera grosso modo équivalente à une GF3, donc inférieure à une GF4.  
 
Tu dis aussi
 
###
Par là je veux aussi souligner le fait que extraire un paragraphe d'un tout sans replacer le paragraphe dans son contexte, ça permet de lui faire dire pas mal de choses.....  
###
 
Et les liens dans mes posts, tu t'imagines que je les mets pour quelle raison ? Pour faire joli ? Justement c'est pour que tu puisses te réferer au texte complet. Texte qui serait trop long à poster en entier sur ce forum.
 
 
A part ca, l'avenir des pixels shaders n'est évidemment pas le PS 1.4. Ca c'est deja de l'histoire ancienne, l'avenir c'est le PS 2.0. Et j'ose espérer que Nvidia va pas nous faire le coup d'un PS 2.X juste pour se venger
 
 




 
En efet, tu mets bien les liens vers tes sources, mais tu ne te base que sur les paragraphes que tu cite.
 
Alors que ceci, sortis de leur contexte comme tu le fais déforment la réalité.
 
La réalité était que Théoriquement on devait avoir ça mais dan sla pratique, on ne l'avait pas parce que Carmack avait juste daigné jeter un coup d'oeil aux R8500.
 
Sinon, le nV30 est bien parti pour supporter les PS 2.0+ (comme on les appelle). plus d'instructions, etc. Sinon, tu as raison, l'avenir est aux PS 2.0 et à leur compatibilité/capacité à parler aux cartes dans leur version de shader si elles sont < ou = aux PS / VS 2.0.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1906917
MagiSim
Magique, et oui !
Posté le 24-10-2002 à 19:30:13  profilanswer
 

sullivanXP a écrit a écrit :

Tout à fait conforme à ce que j'avais deja vu sur d'autre sites...Mais il me semble que les shaders utilisés ici sont encore de type "simple" c'est à dire inclus dans directx 8 et non DX8.1 (pixel shader 1.1). Donc en 1.4, l'écart sera encore plus grand... (attente confirmation).




 
Oui, c'est u_n des rares cas où la pratique rejoint d'assez près la théorie. A noter que tout de même Aquanox aura plus servi de bench pour les shaders que comme jeu. Sinon, bien vu SullivanXP et Ernestor.
 
Au départ Aquanox/mark ramait comme pas possible sur R8500 car utilisait les extensiosn nVIDIA seulement. Depuis la version 2.3, ils ont aussi optimisé pour les R8500 avec leurs instructions.
 
Chose que n'avait pas encore vraiment fait Carmack dans le plan que Thot n'arrête pas de citer.... Et le pire, c'est que Carmack avoue lui-même que ça faisait un bout de temps que ATI grondait pour qu'il se bouge le fion.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1907051
sullivanXP
Posté le 24-10-2002 à 20:05:25  profilanswer
 

La theorie et la pratique s'equilibreront quand les programmeurs trvailleront d'avantage  avec les radeons. Ca s'éuilibre peu à peu.  
Remarque : J 'ai verifié les dates
Quand Carmack a dit que les GF4 resteraient superieures aux Rad à cause des drivers limite en Ogl des radeons, c'etait AVANT les catalysts (quelques jours d'intervalles) . Pour avoir testé quasiment tous les pilotes, je peux dire que les 2.2 ont été un bond en avant terrible en Ogl. A ce moment on va vu les R200 se rapprocher beaucoup des GF4 (voir depasser dans JK2 et RTCW )
Alors ON VERRA BIEN POUR CE DOOM III. un peu de subjectivité c'est dur c'est dur ... :D

n°1907233
Dr Klein
C'est une souris nerdz..
Posté le 24-10-2002 à 21:05:10  profilanswer
 

Ici jusqu'a présent on parle d'appli tournant sous directx (8.x, 9)
Mais il y a eu une news assé interessante sur 3dchips...
 
 
http://www.3dchips-fr.com/images/news/nvidia/NV30ogl_slide.png
 

Citation :

l'API OpenGL est le seul qui permette d'exploiter toutes les fonctionnalités du NV30 , car cet API va bien a-delà de DirectX 9 dans ce domaine, l?API de Microsoft étant un compromis de ce qu?offrent les différents fabricants de chips graphiques.  
 
En effet, le NV30 adopte les extensions génériques de l'ARB quand elles sont disponibles, et utilise des extensions spécifiques quand il est loin devant ce que les autres fabricants proposent.


 
Enfin je sais pas vous, mais j'ai toujours trouver que les jeux tournant sous opengl était dans la plupart des cas plus beau et plus fluide que sous directx!
 
Et qu'en est'il des pixels shaders dans l'opengl actuel (geforce3/4, radeon 8500 et +) ?


---------------
Sans maîtrise, la puissance n'est rien...
n°1907382
Oxygen3
Tears from the moon
Posté le 24-10-2002 à 21:58:05  profilanswer
 

Dr Klein a écrit a écrit :

Ici jusqu'a présent on parle d'appli tournant sous directx (8.x, 9)
Mais il y a eu une news assé interessante sur 3dchips...
 
 
http://www.3dchips-fr.com/images/n [...] _slide.png
 

Citation :

l'API OpenGL est le seul qui permette d'exploiter toutes les fonctionnalités du NV30 , car cet API va bien a-delà de DirectX 9 dans ce domaine, l?API de Microsoft étant un compromis de ce qu?offrent les différents fabricants de chips graphiques.  
 
En effet, le NV30 adopte les extensions génériques de l'ARB quand elles sont disponibles, et utilise des extensions spécifiques quand il est loin devant ce que les autres fabricants proposent.


 
Enfin je sais pas vous, mais j'ai toujours trouver que les jeux tournant sous opengl était dans la plupart des cas plus beau et plus fluide que sous directx!
 
Et qu'en est'il des pixels shaders dans l'opengl actuel (geforce3/4, radeon 8500 et +) ?




 
dx9 devait renverser la tendance


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1907621
bjone
Insert booze to continue
Posté le 24-10-2002 à 23:14:44  profilanswer
 

magisim a écrit a écrit :

 
 
Oui, c'est u_n des rares cas où la pratique rejoint d'assez près la théorie. A noter que tout de même Aquanox aura plus servi de bench pour les shaders que comme jeu. Sinon, bien vu SullivanXP et Ernestor.
 
Au départ Aquanox/mark ramait comme pas possible sur R8500 car utilisait les extensiosn nVIDIA seulement. Depuis la version 2.3, ils ont aussi optimisé pour les R8500 avec leurs instructions.
 
Chose que n'avait pas encore vraiment fait Carmack dans le plan que Thot n'arrête pas de citer.... Et le pire, c'est que Carmack avoue lui-même que ça faisait un bout de temps que ATI grondait pour qu'il se bouge le fion.




 
oui mais bon lors de ses premiers essais, le driver opengl de la radeon8500 n'était pas capable de traçer la console correctement.
alors il a dû un peu se vexer :D

n°1908012
mareek
Et de 3 \o/
Posté le 25-10-2002 à 02:05:46  profilanswer
 

magisim a écrit a écrit :

 
 
Ne pas généraliser. Après, y'a les considérations personnelles. Reste que le niveau qu'utilisait Marc, je l'avais téléchargé, et jamais, ô rand jamais j'ai vu un bnding aussi fort sur ma V3.... mais postfilter règlé correctement.
 
Pour les utilisateurs de TnT, il ne faut pas généraliser...... Mais j'ai effectivement connu ça sur 3dfx Attack des nVIDIOTS finis au sens premier du terme qui vantaient le 32 bpp sur le ciel dans Q3 et jouaient sans le ciel..... MAIS, ils ne sont pas la majorité, heureusement...... Tout comme il n'y a qu'une majorité qui va désactiver des options graphiques dans UT 2003 pour passer de 60 à 120 fps par ex.......




[mode je troll + je fais des generalisation à 2 balles ON]
c'est marrant, tous les fanatiques de 3DFX ne veulent jamais reconnaitre que les voodoo 3 et 5 étaient pourries  :sarcastic:  
[mode je troll + je fais des generalisation à 2 balles OFF]
 
Sans rire, quand je poste des screenshots où on voit que le FSAA de la voodoo 5 rends l'image toute floue (beaucoup plus que les FSAA des radeon et geforce 2), les nostalgiques de 3DFX me disent que ça vient des réglages et que le testeur ne sait pas régler sa carte. Quand je poste des screenshots qui montrent que le 16bits amélioré de la voodoo 3 ne vaut pas mieux que le 16 bit des autres cartesles nostalgiques de 3DFX me disent que ça vient des réglages et que le testeur ne sait pas régler sa carte.  
Je veux bien vous croire les gars, mais faudrait me prouver que Marc et Anand sont dezs brèles qui ne savent pas régler correctement une CG. [:spamafote]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1908032
mareek
Et de 3 \o/
Posté le 25-10-2002 à 02:19:49  profilanswer
 

Dr Klein a écrit a écrit :

Ici jusqu'a présent on parle d'appli tournant sous directx (8.x, 9)
Mais il y a eu une news assé interessante sur 3dchips...
 
 
http://www.3dchips-fr.com/images/n [...] _slide.png
 

Citation :

l'API OpenGL est le seul qui permette d'exploiter toutes les fonctionnalités du NV30 , car cet API va bien a-delà de DirectX 9 dans ce domaine, l?API de Microsoft étant un compromis de ce qu?offrent les différents fabricants de chips graphiques.  
 
En effet, le NV30 adopte les extensions génériques de l'ARB quand elles sont disponibles, et utilise des extensions spécifiques quand il est loin devant ce que les autres fabricants proposent.


 
Enfin je sais pas vous, mais j'ai toujours trouver que les jeux tournant sous opengl était dans la plupart des cas plus beau et plus fluide que sous directx!
 
Et qu'en est'il des pixels shaders dans l'opengl actuel (geforce3/4, radeon 8500 et +) ?


trop cool, un document marketting de nvidia qui ne donne aucune information technique  [:tkilla]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1908036
mareek
Et de 3 \o/
Posté le 25-10-2002 à 02:22:13  profilanswer
 

Dr Klein a écrit a écrit :

Enfin je sais pas vous, mais j'ai toujours trouver que les jeux tournant sous opengl était dans la plupart des cas plus beau et plus fluide que sous directx!


ça dépends beaucoup plus du programmeur que de l'API utilisée.


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1908104
Fleau
New Style/Old School
Posté le 25-10-2002 à 03:48:27  profilanswer
 

Disons qu'à ces débuts Direct X 5 et 6 étaient de grosses usines à Gaz, et direct 3D en retard par rapport aux possibilités et à la vitesse des librairies Open GL.
 
Maintenant je pense que ce retard est comblé (ou presque)


---------------
Fléau
n°1908201
bichoco
Posté le 25-10-2002 à 08:54:39  profilanswer
 

Fleau a écrit a écrit :

Disons qu'à ces débuts Direct X 5 et 6 étaient de grosses usines à Gaz, et direct 3D en retard par rapport aux possibilités et à la vitesse des librairies Open GL.
 
Maintenant je pense que ce retard est comblé (ou presque)




 
ouais depuis dx7 il me semble, direct3D est passé devant opengl au niveau des fonctionnalités ( voir des performances koi ke pas sur) d'ailleurs opengl 1.2 ne gére pas les shaders. Opengl 2 devrait changer tout ca mais il a été maintes fois retardé... pourrait on y voir un lien avec le fait que microsoft fasse partir du groupe qui le dévelloppe  :heink:


Message édité par bichoco le 25-10-2002 à 08:55:20
n°1918549
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 28-10-2002 à 21:09:41  profilanswer
 

cai fini ?


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1918551
Oxygen3
Tears from the moon
Posté le 28-10-2002 à 21:10:02  profilanswer
 
n°1918768
MagiSim
Magique, et oui !
Posté le 28-10-2002 à 22:13:06  profilanswer
 

mareek a écrit a écrit :

 
[mode je troll + je fais des generalisation à 2 balles ON]
c'est marrant, tous les fanatiques de 3DFX ne veulent jamais reconnaitre que les voodoo 3 et 5 étaient pourries  :sarcastic:  
[mode je troll + je fais des generalisation à 2 balles OFF]
 
Sans rire, quand je poste des screenshots où on voit que le FSAA de la voodoo 5 rends l'image toute floue (beaucoup plus que les FSAA des radeon et geforce 2), les nostalgiques de 3DFX me disent que ça vient des réglages et que le testeur ne sait pas régler sa carte. Quand je poste des screenshots qui montrent que le 16bits amélioré de la voodoo 3 ne vaut pas mieux que le 16 bit des autres cartesles nostalgiques de 3DFX me disent que ça vient des réglages et que le testeur ne sait pas régler sa carte.  
Je veux bien vous croire les gars, mais faudrait me prouver que Marc et Anand sont dezs brèles qui ne savent pas régler correctement une CG. [:spamafote]  




 
1 : pour les V5 : oui sur un screen tu vois un effet de flou, et c'est normal, mais, quand ton jeu bouge, le flou tu le vois moins, par contre, ce qui te saute aux yeux, c'est de ne plus voir de pixel popping. Au final, l'impression en est améliorée de beaucoup (niveau limites de polys ou moirages).
 
Pour le filtre 16bpp des Voodoo3, je le dis et je le répète, et c'est pareil pour les V5, AUCUN logiciel de capture d'image ne capture correctement en 16bpp sur ces cartes.
 
Pourquoi ?
1 : l'image est déclarée être du 16bpp mais traitée en interne en + (je ne sais plus si c'est 22bpp, 32 bpp ou autre).
2 : l'image est envoyée telle qu'elle en sortie de pipeline ou elle subit un filtre de passage en 16bpp avec le moins de pertes possible (donc pas de vrais aplats).
3 : le soft capture AVANt le filtrage en 16bpp vrai. Il fait des approximations en 16bpp grossières.
 
Les résultats finaux sur écran et sur le screen apparaissent comme suit ou après peu près comme ceci.... (Simulation grossière mais plus réaliste qu'un bête screen !)
 
http://magicsim.free.fr/outside/couleur22.bmp
(obtenu à partir d'un sample 32 bits de ciel dans DM-antalus sous UT 2003 downsampling à 32 couleurs en pattern [colordiffusion de la Voodoo3/4/5]C'est ce que l'on verrait à l'écran, à peu près.... Disons théoriquement, l'aspect sera de plus ou moins ça parce que je ne connais pas la conversion photoshopienne et en plus le nombre de couleurs est en 16bpp à palette non adaptative, pas comme ici.).  
 
http://magicsim.free.fr/outside/couleur16.bmp
(obtenu à partir d'un sample 32 bits de ciel dans DM-antalus sous UT 2003 downsampling à 32 couleurs sans filtrage + mêem remarque qu'en ahut. A part qu'ici c'est ce que verrai le soft à screenshot, ou la fonction screenshot d'un jeu).
 
SI 3dfx a fini (trop tardivement) par incormporer une fonction screenshot dans ses drivers, il y a bien une raison, et les résultats sont très différents.
 
Moralité, je ne dis pas que les reviewers sont des empotés, je dis juste que screenshotés et montrer sur des screenshots, c'est réducteur. Pareil pour le FSAA, sur un screen, ça ne veut rien dire. Un jeu c'est fait pour être animé, donc il faut voir le résultat en mouvement.
 
Pour le sample en 32bpp, tu lance UT 2003 et tu regarde le ciel.
 
Pour finir, si le FSAA de 3dfx te gènait car trop, c'était aussi un peu normal, rien qu'un FSAA 2x avait la qualité d'un FSAA 4x de la concurrence (RGSS inside). Alors comme un FSAA 4x équivalait à un FSAA 16x en qualité, c'et très normal que cela t'ai pru "flou". Reste que plus un FSAA est puissant plus il génère un flou sur les screenshots. Maintena,t, ce flou, tu ne l'aperçoit plus en jeu. Ah, et ça sert à rien de jouer au guignol avec une loup ou un zoom sur des screens pour voir les "défauts", c'est pas zoomé sur un 10ème de l'écarn qu'on joue, c'est bel et bien en plein écran.
 
Pour en revenir au 16bpp 3dfx, certes c'est pas du 32bpp, mais au moins ça s'en rapproche sacrément (sauf si tu joue à screenshotmark), sans en avoir l'impact de perfs. C'est tout.
 
Et à part le non support t&l, très important dans treemark et 3dmark.... et rien d'autre pour l'époque, je vois pas ce que la V5 avait de pourri...... même les grosses textures non gèrées par le V3 (à part qq unes très rares dans Q3), il a fallut attendre un bon bout de temps pour les voir.
 
Au fait, le T&L, commence à peine à devenir utile (en dehors des fins benchmarkiestes). Parce que même avec le T&L, faut un gros CPU.


Message édité par MagiSim le 28-10-2002 à 22:18:40

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1918839
Voxel
Still empty...
Posté le 28-10-2002 à 22:36:30  profilanswer
 

A propos de 3dfx pour avoir possede une V5 et maintenant une GF4, je peu affirmer que la qualitee d'un jeu glide (16 bits) comme operation flashpoint sur une V5 et du meme jeu sur une GF4  en 32 bits n'a rien a voir.
Je n'ai jamais retrouve la meme qualitee au niveau du rendu des couleurs de la V5.Je ne parle meme pas de l'aa qui a commence a etre apporche en terme de qualitee uniquement avec la GF4...
 
Pour se faire une idee des chips qu'avait en preparation 3dfx et des raisons de son declin je conseil vivement cet article:
 
http://firingsquad.gamers.com/hard [...] efault.asp

n°1918902
MagiSim
Magique, et oui !
Posté le 28-10-2002 à 22:57:54  profilanswer
 

Arf, enfin quelqu'un de censé...... et au fait, pour égaler la qualité d'une V3/5 sur UT  en Glide 16bpp, fallait quand même qu'une GF tourne en 32 bpp, parce quen 16bpp mon dieu l'horreur (mais bon, UT était à la base optimisé glide aussi).....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1918999
zeratul
Empêcheur de tourner carré
Posté le 28-10-2002 à 23:27:46  profilanswer
 

magisim a écrit a écrit :

 
 
1 : pour les V5 : oui sur un screen tu vois un effet de flou, et c'est normal, mais, quand ton jeu bouge, le flou tu le vois moins, par contre, ce qui te saute aux yeux, c'est de ne plus voir de pixel popping. Au final, l'impression en est améliorée de beaucoup (niveau limites de polys ou moirages).
 
Pour le filtre 16bpp des Voodoo3, je le dis et je le répète, et c'est pareil pour les V5, AUCUN logiciel de capture d'image ne capture correctement en 16bpp sur ces cartes.
 
Pourquoi ?
1 : l'image est déclarée être du 16bpp mais traitée en interne en + (je ne sais plus si c'est 22bpp, 32 bpp ou autre).
2 : l'image est envoyée telle qu'elle en sortie de pipeline ou elle subit un filtre de passage en 16bpp avec le moins de pertes possible (donc pas de vrais aplats).
3 : le soft capture AVANt le filtrage en 16bpp vrai. Il fait des approximations en 16bpp grossières.
 
Les résultats finaux sur écran et sur le screen apparaissent comme suit ou après peu près comme ceci.... (Simulation grossière mais plus réaliste qu'un bête screen !)
 
http://magicsim.free.fr/outside/couleur22.bmp
(obtenu à partir d'un sample 32 bits de ciel dans DM-antalus sous UT 2003 downsampling à 32 couleurs en pattern [colordiffusion de la Voodoo3/4/5]C'est ce que l'on verrait à l'écran, à peu près.... Disons théoriquement, l'aspect sera de plus ou moins ça parce que je ne connais pas la conversion photoshopienne et en plus le nombre de couleurs est en 16bpp à palette non adaptative, pas comme ici.).  
 
http://magicsim.free.fr/outside/couleur16.bmp
(obtenu à partir d'un sample 32 bits de ciel dans DM-antalus sous UT 2003 downsampling à 32 couleurs sans filtrage + mêem remarque qu'en ahut. A part qu'ici c'est ce que verrai le soft à screenshot, ou la fonction screenshot d'un jeu).
 
SI 3dfx a fini (trop tardivement) par incormporer une fonction screenshot dans ses drivers, il y a bien une raison, et les résultats sont très différents.
 
Moralité, je ne dis pas que les reviewers sont des empotés, je dis juste que screenshotés et montrer sur des screenshots, c'est réducteur. Pareil pour le FSAA, sur un screen, ça ne veut rien dire. Un jeu c'est fait pour être animé, donc il faut voir le résultat en mouvement.
 
Pour le sample en 32bpp, tu lance UT 2003 et tu regarde le ciel.
 
Pour finir, si le FSAA de 3dfx te gènait car trop, c'était aussi un peu normal, rien qu'un FSAA 2x avait la qualité d'un FSAA 4x de la concurrence (RGSS inside). Alors comme un FSAA 4x équivalait à un FSAA 16x en qualité, c'et très normal que cela t'ai pru "flou". Reste que plus un FSAA est puissant plus il génère un flou sur les screenshots. Maintena,t, ce flou, tu ne l'aperçoit plus en jeu. Ah, et ça sert à rien de jouer au guignol avec une loup ou un zoom sur des screens pour voir les "défauts", c'est pas zoomé sur un 10ème de l'écarn qu'on joue, c'est bel et bien en plein écran.
 
Pour en revenir au 16bpp 3dfx, certes c'est pas du 32bpp, mais au moins ça s'en rapproche sacrément (sauf si tu joue à screenshotmark), sans en avoir l'impact de perfs. C'est tout.
 
Et à part le non support t&l, très important dans treemark et 3dmark.... et rien d'autre pour l'époque, je vois pas ce que la V5 avait de pourri...... même les grosses textures non gèrées par le V3 (à part qq unes très rares dans Q3), il a fallut attendre un bon bout de temps pour les voir.
 
Au fait, le T&L, commence à peine à devenir utile (en dehors des fins benchmarkiestes). Parce que même avec le T&L, faut un gros CPU.




 
waaaa!!!! :love:  :love:  :love:  
 
kelkun ki parle vrai!!! :love:  :love:  :love:

n°1919008
MagiSim
Magique, et oui !
Posté le 28-10-2002 à 23:31:56  profilanswer
 

:D  :ange:


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1919022
Oxygen3
Tears from the moon
Posté le 28-10-2002 à 23:42:07  profilanswer
 

en parlant de FSAA je trouve que ca fait un effet de flickering dans les jeux :/


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
APN 179? Kodak CX4210 2M pixels -Chez auchan- Photos inside RTC!!QQUN sait ce que c que sont les pixels shaders et vertex shaders ????
kodak (4 millions de pixels) ou canon (2 millions de pixels)Dossier informatique
Combien de pixels pour un appreil numérique faut-il pour avoir une ...gros prob suppression dun gros dossier
Vertex Shaders morts sur GF4ti4200 ?[ecran LCD] Les pixels morts, une fatalité?
dossier sur l'évolution des cartes graphiques ? 
Plus de sujets relatifs à : Dossier sur les Pixels Shaders !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)