Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3052 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  32  33  34  35  36  37
Auteur Sujet :

[Topic Officiel] Half-life 2 et les cg: infos, conseils, ..

n°2720667
Profil sup​primé
Posté le 11-09-2003 à 22:16:45  answer
 

Reprise du message précédent :

nicolas_b a écrit :

Pour le moment , je vois que du vent.  
 
Valve a publié un benchmark, et c'est Ati qui leur paye leur campagne de pub.
 
En gros, c'est comme si tu demandais à nvidia de faire des benchs d'ati.
 
Perso, je me ferais une opinion que quand je verrais la différence de rendu des graphismes, la différence de vitesse , etc ...
 


 
Bon rions un peu :
 
"Commentaires de Carmack (DOOM3) : les FX nécessitent de rogner les coins, sinon elles broutent. (les benchs estampillés nVIDIA étaient bien entendu bien préparés, Carmack a dû s'en mèler pour calmer le jeu, sinon on aurait eu des GFFX 5200 Ultra 10x plus rapides que des 9800 Pro.... Déjà là, les chiffres étaient exagérés car les cartes ne tournaient pas sur des codepaths équivalents)"   :D  
 
"Bien que HL2 soit officiellement lié à ATI (Accord sur la distributin du jeu en bundle avec le prochain haut de gamme qui devrait bientôt arriver), Half-Life 2 est aussi un jeu estampillé "The Way It's Meant To Be Played."   :lol:  
 
"Valve a mis 5x plus de temps à développer les optimisations pour que les FX puissent tourner potablement que pour faire le renderer DX9 standard "   :whistle:  
 
"nVIDIA a fait savoir que benchmarker HL2 avec des détonators antérieurs aux détonator 50 était proscrit parce que c'est pas bien....... Rooooh, les vilains de chez Valve.....
La réponse de Gabe Newell est tout de même très intéressante : Les Detonator 50 dégradent la qualité de l'image notablement. Ils désactivent le brouillard, entre autre. Et étrangement, quand une capture d'écran est faîte, tout est calculé à fond.... Etrange, non ? "  [:ninipc]  
 
Je n'ai qu'1 commentaire à faire :  [:falcon'eye]  
 
Je n'avais pas ri autant depuis la voodoo5 de 3dfx. Ah on sent effectivement que Nvidia a embauché des ingénieurs de chez 3dfx...  :o  
 

mood
Publicité
Posté le 11-09-2003 à 22:16:45  profilanswer
 

n°2720699
Profil sup​primé
Posté le 11-09-2003 à 22:30:17  answer
 

legreg a écrit :


 
Nicolas_b a tout a fait raison,
le brouillard ne coute rien depuis longtemps sur les hardware actuels.
 
Gabe a fumé, et il interprete des bugs présents sur des drivers "beta" (plutot alpha vu qu'ils ne vont pas sortir avant la fin du mois) comme une tentative de discrediter son beau jeu..
 
LeGreg
 


 
Il y a plusieurs manières de rendre le brouillard. Ici on parle d'un brouillard réaliste via pixels shaders comme çà été expliqué par quelqu'un ici même.
Faut suivre un peu  :sarcastic:

n°2720702
Profil sup​primé
Posté le 11-09-2003 à 22:33:34  answer
 

legreg a écrit :


 
le brouillard utilisé dans Half Life 2 est celui par pixel de Dx
et il est gratuit sur la plupart des hardware (sauf des vieux trucs comme la PowerVR 1 qui savait faire que du fog par vertex).
 
Ne me demande pas comment je sais ça :)
 
LeGreg
 
 


 
Ben si je le demande  :o

n°2720706
nicolas_b
Posté le 11-09-2003 à 22:36:05  profilanswer
 

Bof ... Je vais vous dire, ce que j'en pense. Les pixels shaders 2.0, ça joue normalement sur les perfs globales des bestioles que ça soient l'ati 9800 pro ou la geforce 5900 ultra.
 
Hors la, ces gentils messieurs de chez valve ils disent qu'en directx 8.1 donc sans les pixels shaders 2, la geforce fx5900 ultra est aussi rapide qu'une 9600 pro en directx9 ;))
 
Il faut arreter de prendre les gens pour des cons, tout les jeux actuels sont directx 8.1, et tout le monde voit bien la différence  de performances dans les jeux actuels  notamment en fps entre une fx5900ultra et une 9600 pro.
 
 Alors d'ici, à nous faire croire que déjà la 9600 pro qui est pas une fleche en directx8.1 serait encore plus rapide en directx9 qu'une gfx5900 ultra en directx 8.1, il faut pas abusé ...  
 
Soit ils ont touchés une somme bien grasse pour raconter des conneries, soit c'est leur moteur qui est completement flingué : ))
 
Je trouve ça ridicule quand il y en ai encore qui prennent pour du pains bénis ce genre d'annonces commerciales.


Message édité par nicolas_b le 11-09-2003 à 22:39:07
n°2720715
LeGreg
Posté le 11-09-2003 à 22:42:25  profilanswer
 

yoyo3d a écrit :


Ben si je le demande  :o  


 
desole je me suis encore laissé prendre a vos tentatives de troll..
 
LeGreg

n°2720719
Profil sup​primé
Posté le 11-09-2003 à 22:43:51  answer
 

legreg a écrit :


 
desole je me suis encore laissé prendre a vos tentatives de troll..
 
LeGreg


 
c'est la réponse que j'attendais. Le troll n'est visiblement pas celui que l'on croit  :o

n°2720721
blazkowicz
Posté le 11-09-2003 à 22:44:00  profilanswer
 

bah, si les shaders 1.4 sont complexes ils continuent à faire chier la 5900 ultra
 
pis la 5900 a un GPU à quatre pipelines, comme la 9600 pro :o

n°2720734
Profil sup​primé
Posté le 11-09-2003 à 22:47:56  answer
 

Blazkowicz a écrit :

bah, si les shaders 1.4 sont complexes ils continuent à faire chier la 5900 ultra
 
pis la 5900 a un GPU à quatre pipelines, comme la 9600 pro :o


 
Vui et je rajouterais ceci :
 
http://www.presence-pc.com/news/newsv3.php?news=1513
 
"Les coupables : 4 unités de calcul pour les PS 2.0 uniquement qui de plus ne peuvent pas fonctionner en même temps que le texturing, là où ATi en intègre 8 qui fonctionnent en même temps que celles de texturing. Dans la GeForce FX 5900, nVIDIA affirme avoir ajouté 4 unités en plus pour les PS 2.0. Mais elles semblent être très peu efficaces, limitées ou absentes, au choix. "
 
 

n°2720743
Profil sup​primé
Posté le 11-09-2003 à 22:51:47  answer
 

http://common.ziffdavisinternet.com/util_get_image/2/0,3363,i=28047,00.jpg
 
Notez l'excellent score de la GF4ti face aux GFFX.  :whistle:

n°2720756
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 11-09-2003 à 22:57:27  profilanswer
 

Il manque une image sur ce topic ;)
 
http://myweb.cableone.net/jrose/Jeremy/HL2.jpg

mood
Publicité
Posté le 11-09-2003 à 22:57:27  profilanswer
 

n°2720762
nicolas_b
Posté le 11-09-2003 à 22:59:23  profilanswer
 

yoyo3d a écrit :

http://common.ziffdavisinternet.co [...] 047,00.jpg
 
Notez l'excellent score de la GF4ti face aux GFFX.  :whistle:  


 
Bah ouai c'est marrant dans tout les jeux directx 8.1, il y a juste 50 fps de différence entre une ti 4600 et gfx 5900 ultra, et la sur halflife2 en directx 8.1 , il y en a meme pas 10.
 
Ha ça doit etre optimisé à fond pour les (a)ti...


Message édité par nicolas_b le 11-09-2003 à 23:00:08
n°2720765
blazkowicz
Posté le 11-09-2003 à 23:02:07  profilanswer
 


 
 
[:ministry]

n°2720768
blazkowicz
Posté le 11-09-2003 à 23:02:44  profilanswer
 

nicolas_b a écrit :


 
Bah ouai c'est marrant dans tout les jeux directx 8.1, il y a juste 50 fps de différence entre une ti 4600 et gfx 5900 ultra, et la sur halflife2 en directx 8.1 , il y en a meme pas 10.
 
Ha ça doit etre optimisé à fond pour les (a)ti...


 
 
 :sleep:  
 
les FX sont nulles en shader c tout :p
 

n°2720773
Lalorette
Posté le 11-09-2003 à 23:05:16  profilanswer
 

C'est si difficile que çà a admettre que les FX c'est de la merde sous DX 9 ?  :(  
 
Franchement ATI a respecter DX 9 , Valve aussi je  voit pas ou est le pb. Nvidia c'est planté , c'est tout  
 
c'est pas la faute a ati ni a valve

n°2720788
nicolas_b
Posté le 11-09-2003 à 23:10:19  profilanswer
 

Lalorette a écrit :

C'est si difficile que çà a admettre que les FX c'est de la merde sous DX 9 ?  :(  
 
Franchement ATI a respecter DX 9 , Valve aussi je  voit pas ou est le pb. Nvidia c'est planté , c'est tout  
 
c'est pas la faute a ati ni a valve


 
Il y a rien à admettre le benchmark est completement pipoté.
 
http://smilies.awake2life.com/gifs2/fetes/noel/27.gif

n°2720792
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 11-09-2003 à 23:12:07  profilanswer
 

nicolas_b a écrit :


 
Il y a rien à admettre le benchmark est completement pipoté.
 
http://smilies.awake2life.com/gifs2/fetes/noel/27.gif

Quand on pense que le T&L a été introduit avec le TNT2, on évite de parler 3D en public.

n°2720793
nicolas_b
Posté le 11-09-2003 à 23:12:55  profilanswer
 

Marc a écrit :

Quand on pense que le T&L a été introduit avec le TNT2, on évite de parler 3D en public.


 
Et quand on sait pas ça, on arrete tout simplement de parler de materiel.

n°2720795
hide
Posté le 11-09-2003 à 23:13:05  profilanswer
 

:lol: [:xp1700]


---------------
Et si c’était ça la vie / Et si on nous l’avait pas dit ?
n°2720797
blazkowicz
Posté le 11-09-2003 à 23:15:49  profilanswer
 

nicolas_b a écrit :


 
Et quand on sait pas ça, on arrete tout simplement de parler de materiel.


 
au moins les pilotes de ma 3DFX ont une option "emulate hardware TnL"..  mais pas la TNT2 :D

n°2720803
nicolas_b
Posté le 11-09-2003 à 23:18:30  profilanswer
 

Blazkowicz a écrit :


 
au moins les pilotes de ma 3DFX ont une option "emulate hardware TnL"..  mais pas la TNT2 :D


 
Bon écoutez, vous avez cas prendre une ati 128, et une tnt2, vous essayer de lancer un jeu qui utilise le t&l, je sais pas comme wolf , enemy territory, operation flash point, et vous verrez bien le resultat.
 
J'ai les deux cartes, et je sais ce que ça donne.

n°2720808
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 11-09-2003 à 23:20:15  profilanswer
 

nicolas_b a écrit :


 
Et quand on sait pas ça, on arrete tout simplement de parler de materiel.

T'es vraiment une quiche ma parole.
 
Pour faire une scène 3D, tu a en premier lieu ce qui touche à la géométrie, et en second lieu ce qui touche au traitement des pixels. Il faut LES DEUX pour faire une scène 3D.
 
Pour ce qui est de la géométrie, il s'agit du Transformation & Lighting (+ d'autres choses mais bon), et pour les pixels de la rasterization. Au debut les deux étaient effectués par le CPU. Puis sont venus les cartes graphiques accelerant la seconde partie. Et ensuite sont arrivées les puces qui déchargeaient le CPU du T&L en le prenant en charge en hardware, cad le GeForce256 via les API OpenGL et DirectX7. Mais avant, le T&L existait, en software, dans tous les cas, car sans T&L tu n'a pas de scène 3D, tu comprends ?

n°2720814
partymaker
Posté le 11-09-2003 à 23:24:17  profilanswer
 

MagiSim a écrit :

A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible.
 
http://www.vtr-hardware.com/news/
 
Y'a pas à dire, l'honnêteté, chez nVIDIA, on connaît pas......... Sodomiser le consommateur à fond, ils aiment :/


 
Bahhh NVidia, ils étaiben de la GEforce1 a la GEforce4... Avant et après ehh ben... j'dirais juste que ma dernière carte 3D Nvidia as été ma GEforce4 Ti4200... Pour la prochaine, j'va prendre du ATI!


---------------
"La douleur fait penser l'homme, la pensée rend l'homme sage, la sagesse rend la vie acceptable..."  
n°2720838
tixi
Posté le 11-09-2003 à 23:33:51  profilanswer
 

nicolas_b a écrit :


 
Et quand on sait pas ça, on arrete tout simplement de parler de materiel.


 
Tu as raison, Marc est nul, il connait rien au hardware, d'abord, son site , cé même pas sur le hardware  
 
 :lol:  :lol:  Cé vrai ke t une quiche qd même  :whistle:  :whistle:

n°2720839
ThePaladin
Admirateur de pierres
Posté le 11-09-2003 à 23:34:51  profilanswer
 

Je rajouterais à ce qu'a dit marc, que les shaders pour les vertex et les pixel sont les versions programmables des fonctions cablés en hard (donc fixe) des fonctions effectuant la rastérization et le T&L.
 
En résumé:
 
Etape 1:  Rasterization hardware fixe/T&L software fixe (voodoo 1,2,3,4,5 - Rage Pro, 128 - Riva 128,Zx, TnT1, TnT2, etc..)
 
Etape 2: Rasterization hardware fixe/T&L hardware fixe (Geforce256, Radeon 1, S3 Savage)
 
Etape 3: Rasterization Hardware programmable/T&L hardware programmable  (Geforce 3, Radeon 8500)
 
Maintenant Rasterization et T&L programmable avancé (Geforce FX, Radeon 9xxx).
 
Edit: effacement de fautes de frappe :sweat:


Message édité par ThePaladin le 11-09-2003 à 23:36:13

---------------
L'elfe: je vois très bien, je suis nictalope - Le nain: on sait que t'es une salope !
n°2720846
tixi
Posté le 11-09-2003 à 23:38:24  profilanswer
 

ThePaladin a écrit :

Je rajouterais à ce qu'a dit marc, que les shaders pour les vertex et les pixel sont les versions programmables des fonctions cablés en hard (donc fixe) des fonctions effectuant la rastérization et le T&L.
 
En résumé:
 
Etape 1:  Rasterization hardware fixe/T&L software fixe (voodoo 1,2,3,4,5 - Rage Pro, 128 - Riva 128,Zx, TnT1, TnT2, etc..)
 
Etape 2: Rasterization hardware fixe/T&L hardware fixe (Geforce256, Radeon 1, S3 Savage)
 
Etape 3: Rasterization Hardware programmable/T&L hardware programmable  (Geforce 3, Radeon 8500)
 
Maintenant Rasterization et T&L programmable avancé (Geforce FX, Radeon 9xxx).
 
Edit: effacement de fautes de frappe :sweat:


 
Moi je me suis arreté là :
Etape 2: Rasterization hardware fixe/T&L hardware fixe (Geforce256, Radeon 1, S3 Savage)
 
Donc qd je vais me payer un R9800pro,jvé prendre une sacrée calotte je crois  :heink:  :whistle:  :ouch:

n°2720848
Rio Grande
bande de nains
Posté le 11-09-2003 à 23:38:45  profilanswer
 

Marc laisse tomber on peut rien faire avec nicolas_b  
 sont nom de famille c'est Troll ....


---------------
Topics : NFSU2 - NFS : Most Wanted - Volant PC Site :  NFS-Mania.com
n°2720849
blazkowicz
Posté le 11-09-2003 à 23:39:22  profilanswer
 

nicolas_b a écrit :


 
Bon écoutez, vous avez cas prendre une ati 128, et une tnt2, vous essayer de lancer un jeu qui utilise le t&l, je sais pas comme wolf , enemy territory, operation flash point, et vous verrez bien le resultat.
 
J'ai les deux cartes, et je sais ce que ça donne.


 
wolf et enemy territory ne sont pas spécialement des jeux "TnL", quant à operation flashpoint je le fais tourner en glide, c'est bien plus beau que sur n'importe quelle carte nvidia :o

n°2720851
blazkowicz
Posté le 11-09-2003 à 23:40:34  profilanswer
 

tixi a écrit :


 
Moi je me suis arreté là :
Etape 2: Rasterization hardware fixe/T&L hardware fixe (Geforce256, Radeon 1, S3 Savage)
 
Donc qd je vais me payer un R9800pro,jvé prendre une sacrée calotte je crois  :heink:  :whistle:  :ouch:  


 
et moi j'ai la meilleure carte de l'étape 1 :D (après la voodoo5 6000 :o)
 

n°2720875
nicolas_b
Posté le 11-09-2003 à 23:55:23  profilanswer
 

Franchement, il y a une très belle équipe de boulet ici :) Bon, je vais vous remettre un peu en place, parce qu'apparamment vous avez des connaissances très limité en la matière.
 
L'ati 128 ne supportait pas le t&l tout simplement parce qu'ati à cette époque là, se paluchait, et désirait sortir son propre moteur géométrique charisma, en utilisant sa propre technologie le TCL(Transformation, Clipping and Lighting).  
 
Le Transform & lighting c'est nvidia qui l'a crée, et Ati qui c'est mis à l'utiliser avec leur radeon quand ils se sont completement fait torpiller.
 
Alors oui, je peux vous dire que l'ati 128 n'a pas utilisé le transform & lightning, et que s'il y a quelqu'un d'assez balaise qui arrive à faire tourner un jeu en utilisant le t&l software sur une ati128, je lui serais gré de m'indiquer la méthode.
 
Et puis si ça t'interresse autant que ça Marc, t as qu'a relire ces notes:
http://www.hardware.fr/articles/47/page1.html


Message édité par nicolas_b le 11-09-2003 à 23:59:23
n°2720889
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 12-09-2003 à 00:02:04  profilanswer
 

:heink:  :lol: Merci de citer ce que j'ai écris pour m'apprendre des trucs.
 
Le TCL et le T&L sont les deux appelations marketing choisies par ATI et NVIDIA pour appeler l'intégration du T&L HARDWARE au sein de leurs puces. Ces implémentations HARDWARE diffèrent légèrement (normal), mais ca reste la même fonction.
 
Un jeu qui utilise le T&L Software qui fonctionne sur Rage 128 ? Tous les jeux D3D, Incoming compris :lol: - a moins que tu connaisse un jeu 3D qui n'a pas de géométrie  [:zebra33]  
 
Un jeu qui sait exploiter le T&L Hardware et qui fonctionne en T&L software (via le CPU) sur TNT, Rage 128, et même Voodoo1 : Quake III.


Message édité par Marc le 12-09-2003 à 00:02:57
n°2720896
nicolas_b
Posté le 12-09-2003 à 00:08:37  profilanswer
 

Marc a écrit :

:heink:  :lol: Merci de citer ce que j'ai écris pour m'apprendre des trucs.
 
Le TCL et le T&L sont les deux appelations marketing choisies par ATI et NVIDIA pour appeler l'intégration du T&L HARDWARE au sein de leurs puces. Ces implémentations HARDWARE diffèrent légèrement (normal), mais ca reste la même fonction.
 
Un jeu qui utilise le T&L Software qui fonctionne sur Rage 128 ? Tous les jeux D3D, Incoming compris :lol: - a moins que tu connaisse un jeu 3D qui n'a pas de géométrie  [:zebra33]  
 
Un jeu qui sait exploiter le T&L Hardware et qui fonctionne en T&L software (via le CPU) sur TNT, Rage 128, et même Voodoo1 : Quake III.


 
Nope, prend un jeu optimisé pour nvidia t&l, quake 3 ça passe avec tout et n'importe quoi. Ce qui ne veut rien dire, Quake3 pouvait utiliser des fonctions particulières justement pour ne pas recourir au t&l.
 
Comme dit plus haut, des jeux comme opération flash point, medal of honnor, fonctionnent sans t&l juste avec glide, comment t'expliques ça ?
 

n°2720902
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 12-09-2003 à 00:16:08  profilanswer
 

nicolas_b a écrit a écrit :

Nope, prend un jeu optimisé pour nvidia t&l, quake 3 ça passe avec tout et n'importe quoi. Ce qui ne veut rien dire, Quake3 pouvait utiliser des fonctions particulières justement pour ne pas recourir au t&l.


NVIDIA T&L :lol:
 
Y'a pas de Glide NVIDIA hin, le T&L est une fonction standardisée implémentée dans OpenGL et Direct3D, ca n'a rien de propriétaire.
 

nicolas_b a écrit a écrit :

Comme dit plus haut, des jeux comme opération flash point, medal of honnor, fonctionnent sans t&l juste avec glide, comment t'expliques ça ?


Tu le fait exprès ou quoi ? Qu'est ce que le glide a à voir avec le choucroute ? Que tu dois en Glide ou sous n'importe quel API, le CPU a la possibilité de gérer les opérations de T&L en software.
 
Sur une TNT2, comme sur n'importe quelle carte graphique avant le GF256, le T&L est géré en software. Les Vertex Shader sont également gérés en Software avec ces cartes. Vas-tu m'affirmer que les TNT2 sont les premieres cartes a supporter le Vertex Shading programmable parce qu'un jeu utilisant cette fonction marche sur TNT2 ? (alors que c'est fait par le cpu ...) ?
 
(Décidement c'est un cas déspespéré que nous avons ici)


Message édité par Marc le 12-09-2003 à 00:17:34
n°2720905
Pentier
Posté le 12-09-2003 à 00:17:43  profilanswer
 

nicolas_b : le fils caché de Michel Merlin  :lol:  
 
Débat intéressant sinon  :)

n°2720956
mareek
Et de 3 \o/
Posté le 12-09-2003 à 01:01:06  profilanswer
 

Comment ai-je pu louper un tel topikatroll ? [:le kneu]
bon, alors commeçon par le commencement

PlayTime a écrit :

De plus, le dernier tomb raider, pourtant compilé en cg ( language graphique de nvidia ), a aussi tourné à l'avantage des ati mais il est nécessaire d'attendre la sortie d'autre jeux directx9 et peut-être d'aquamark2003 pr en tiré de vrai conclusions ( en clair, savoir si oui ou non, les cartes nvidia sont vraiment distancé clairement sur les jeux directx9 )


2 jeux (dont HL2, c'est quand même pas n'importe quoi), pleins de benchs plus ou moins connus (3DMark03, shaderMark, les benchs utilisés par Mark dans le tes de la GFFX5600Ultra "2" ), les démos nVidia qui tournent mieux sur les cartes Ati malgré le passage par un wrapper, les dires des programmeurs, etc ... ça te suffit pas pour dire que les GFFX sont à la rue pour ce qui est des fonctionnalités DX9 ? moi si
 

nathan a écrit :


 
peut etre nvidia pourra t il corriger le tir avec les fx5950
mais vu le biveau d'integration des shader ds une carte ca me semble difficile
vivement les le gefx6000 ;)  


Ou vivement la R9700Pro [:icon10]
Oups, ça fait un an qu'elle est sortie
[:neowen]
 

nicolas_b a écrit :

Moi ce qui me fait bien rire c'est ça:
 
GD: Why DirectX9 over OpenGL 2.0?
Gabe: OpenGL 2.0 isn't as mature as DX9.
 
Valve a depuis toujours mené une politique de soft propriétaire, ils sont completement opposés au portage de leur jeu sous linux, contrairement à des jeux comme quake3 qui a été une veritable démonstration et reference technologique. Quake3 tirait parti de toutes les cartes graphiques, et était multiplateforme.


OpenGL 2.0 n'est encore qu'à l'état de prototype alors que DX9 est officiellement sorti depuis plus de 6 mois. La dernière version officielle d'OpenGL est la 1.4 (bien que la 1.5 devrait sortir sous peu) et elle introduit juste les shaders alors qu'ils sont présents dans DirectX depuis la version 8 (sortie au printemps 2001). Si tu veux un avis sur la guerre OpenGL Vs DirectX, voici celui de John Carmack :
http://stud.fh-wedel.de/~ia5148/opengl/carmack.html
 

Ernestor a écrit :


Et pour info, TOUS les gros moteurs 3D qui vont sortir (HL 2, Doom3, Stalker ...) ont un code-path specifique aux FX. Tu crois vraiment que les types qui developpent ces moteurs sont des tanches en programmation ou des pro-ATIs en puissance ?


Oui, tous les programmeurs sont des vendus à Ati, c'est bien connu :o
 

nicolas_b a écrit :


 
Je viens d'aller voir ton site en lien plus haut:
 
"A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible."
 
Heu ... Ca pue le hoax : ))
 
1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  
2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
 
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...
 


1) achète toi des yeux. Exemple tout ccon: les smoke grenade dans Counter Strike ralentissent drollement le jeu (et là je parle d'un vieux brouillard à l'ancienne).
2) au début du FSAA, les screenshots donnaient des images toutes aliasées. Après maj des drivers, le pb n'existait plus, le FSAA était bien appliqué sur les screenshots. Pour moi, ça serait tout à fait possible d'augmenteer la qualité du rendu pour les screenshots  (quand on voit les optimisation faites dans 3DMark03, on se dit que tout est possible).
 

nicolas_b a écrit :

1)Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
 
2)C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.


1) Même les démos nVidia tournent mieux sur radeon 9700 et plus, je vois pas qui pourrait tirer les tripes des GFFX si même les ingés de nVidia n'en sont pas capables.
 
2) les jeux sous linux heuuuuuuuuu..... comme dirait l'autre: "Who cares ?"
 

_JbM a écrit :


M'enfin venant d'un zealot-pro-nvidia-et-linux, rien d'étonnant :p ;)


pourquoi zealot ? :??:  
 

nicolas_b a écrit :


Non pas du tout, j'ai pas dis que nvidia était parfait. J'ai dis qu'il y a un jeu qui sort qui tourne bien sur 50% des cartes graphiques.
 
Voila en gros, pour moi c'est pas un jeu performant. Si les développeurs partent dans cette optique la, autant qu'ils abandonnent le pc, pour développer sur xbox.  
 
C'est d'ailleurs, ce qu'ils ont du faire.


Attention, les résultats donnés sont avec tous les effets graphiques à fond, on peut toujours les désactiver sur les cartes moins puissantes.
 

nicolas_b a écrit :


 
Bah ils sont ou tes benchs ? J'ai vu du 3d mark 2003, un bench tomb raider et c'est tout ... Beaucoup de bruit pour pas grand chose.


Lis les test de hardware.fr sur les GFFX5600Ultra et 5900, lis aussi les articles de tt-hardware.com à ce sujet.
 

nicolas_b a écrit :


 
>> Et pourquoi ce sont les developpeurs qui sont mauvais et pas l'architecture de nVidia qui serait mauvaise ?  
 
C'est possible que ça soit l'archi, soit les dev, soit les deux qui soient mauvais.  


quand t'as une brouette, tu pourras faire tout ce que tu veux pour qu'elle fonce comme une F1, ça restera une brouette.| Pour les GFFX c'est pareil.
 

nicolas_b a écrit :


 
Non je ne suis pas de mauvaise foie, un moteur 3d ça sert à gerer le rendu, optimiser des fonctions de l'api qui justement sont trop lentes etc ...
 
En gros, quand tu développes un moteur 3d, tu remplaces/optimises regulierement des fonctions proposés par l'api. Toi ce que tu me dis c'est que le moteur 3d est placé sur l'api, et que l'api on y touche plus.  
 
Voila en gros, pourquoi je te réponds que ton moteur 3d vaut rien, il est optimisé pour les cartes ati, c'est bien. Mais bon qui va utiliser ça, si 50% des cartes du marché se trainent avec ...
 
Et bein excuse moi, mais j'ai des doutes sur l'avenir de ce moteur, et sur ces performances.


t'as l'air hyper fort en developpement toi [:grinking]
 
ça serait pas toi qui a dit:
"I can fix the compiler to optimize the code better."
 

nicolas_b a écrit :


 
Et bein moi, je m'en fous des fx, j'en ai pas : )) Je me dis juste que c'est une carte qui s'est fait brisé par la presse, et que pour le moment personne ne connait son potentiel.
 
Je me rappelle encore il y a 4 ans, tout la presse annonçait la rage fury 128 comme "LA CARTE" qui etait la plus puissante.  
 
Resultat, la tnt2 l'a completement explosé au bout d'1 ans, et est devenu une véritable reférence grace au hardware & lightning.
 
 Je m'en souviens car à l'époque j'avais pris une ati 128, le rendu etait niquel , ahhh c'était jolie il y avait l'antialising, et des effets puissants, mais qu'est ce que ça ramait ....


nicolas_b a écrit :


 
Oui car ça me fait marrer de deranger les moules pendant leurs séances masturbatoires 3d mark 2003.


nicolas_b a écrit :


 
Pour la tnt2, elle l'a étant donné que j'ai un pc avec une tnt2 qui l'a. :)


nicolas_b a écrit :

:pfff: aie aie ... que puis je faire pour toi ? La première génération de transform & lighting a été utilisé sur les tnt2, la seconde sur les geforce2 qui l'utilisait directement en hardware.


nicolas_b a écrit :

C'est pas que ça prete à confusion, la première génération de carte graphique à supporter le transform & lightning était les tnt2. Essaie de lancer un jeu t&l software avec une ati 128 pour voir ;)


 :lol:  :lol:  :lol:  :lol:  
Qu'est-ce que je regrette de pas avoir pu suivre ça en direct :lol:  
 

ixemul a écrit :


 
[:alex_] ou ex aequo avec dus06 ?  :whistle:  


dus06 c'était celui d'hier  ;) (et il a récidivé:D)
 

nicolas_b a écrit :


 
Je sais pas qui sont les boulets ici, mais il y en a une sacré dose...  
 
http://www.google.fr/search?q=cach [...] r&ie=UTF-8
 
 The main add-on of GeForce 256 is the Transform and Lighting [More Info..] in GPU and Cube Environment Mapping. Transform and Lighting was done in CPU with TNT2. However if using GeForce, the load of these processes will be in GPU, not CPU. It frees up more CPU load for other processes. Cube Environment Mapping can provide better reflection and lighting of an object.


En plus d'être un as du developpement, tu parle anglais courament, respect :jap:  
 

nicolas_b a écrit :

Messieurs, veuillez m'excusez d'avoir pollué ce topic.


Au moins il reste poli :jap:  
 

OW31 a écrit :

:sarcastic: A vous écouter on se croirait à l'église : Le dieu HL2 et Saint ATI vont encore règner... :lol:  
Belle liberté de penser !
 
Jeu + CG = 450? et vous criez encore ? :whistle:  


t'es lourd avec tes trolls :o
 

nicolas_b a écrit :

Pour le moment , je vois que du vent.  
 
Valve a publié un benchmark, et c'est Ati qui leur paye leur campagne de pub.
 
En gros, c'est comme si tu demandais à nvidia de faire des benchs d'ati.
 
Perso, je me ferais une opinion que quand je verrais la différence de rendu des graphismes, la différence de vitesse , etc ...


Ah bah non, il est reviendu :D
Je ne sais pas si tu as remarqué, mais au lancement d'unreal tournament, tu as un splash screen avec un gros logo nVidia en plein milieu ("nViddia the way it's meant to be played" ) et pourtant les Radeons tournent bien mieux que les GefroceFx sur ce jeu. Preuve s'il en est que les accord commerciaux n'ont rien à voir avec une quelconque optimisation au niveau technique.
 

yoyo3d a écrit :

Je n'avais pas ri autant depuis la voodoo5 de 3dfx. Ah on sent effectivement que Nvidia a embauché des ingénieurs de chez 3dfx...  :o


Pour une fois, c'est pas moi qui le dit [:grinking]
 

nicolas_b a écrit :

Bof ... Je vais vous dire, ce que j'en pense. Les pixels shaders 2.0, ça joue normalement sur les perfs globales des bestioles que ça soient l'ati 9800 pro ou la geforce 5900 ultra.
 
Hors la, ces gentils messieurs de chez valve ils disent qu'en directx 8.1 donc sans les pixels shaders 2, la geforce fx5900 ultra est aussi rapide qu'une 9600 pro en directx9 ;))
 
Il faut arreter de prendre les gens pour des cons, tout les jeux actuels sont directx 8.1, et tout le monde voit bien la différence  de performances dans les jeux actuels  notamment en fps entre une fx5900ultra et une 9600 pro.
 
 Alors d'ici, à nous faire croire que déjà la 9600 pro qui est pas une fleche en directx8.1 serait encore plus rapide en directx9 qu'une gfx5900 ultra en directx 8.1, il faut pas abusé ...  
 
Soit ils ont touchés une somme bien grasse pour raconter des conneries, soit c'est leur moteur qui est completement flingué : ))
 
Je trouve ça ridicule quand il y en ai encore qui prennent pour du pains bénis ce genre d'annonces commerciales.


Les jeux actuels sont plutot DX7 pour ce qui est des fonctionnalités utilisées. En effet, peu de jeux font appels aux shaders de DX8 (et encore moins à ceux de DX8.1) et quand ils le font, c'est de manière anecdotique (eau qui bouge, petit bump mapping dans un coin ...). Bref HL2 et le dernier tomb raider font parti des premiers jeux à faire massivement appel aux shaders.
 


Tu devrais avoir honte de lancer des trolls pareil mais [:rofl] quand même.
 

nicolas_b a écrit :


 
Et quand on sait pas ça, on arrete tout simplement de parler de materiel.


 :lol:  :lol:  :lol: ça faisait longtemps qu'on en avait pas eu un aussi beau :D
 

nicolas_b a écrit :

Et puis si ça t'interresse autant que ça Marc, t as qu'a relire ces notes:
http://www.hardware.fr/articles/47/page1.html


http://forum.hardware.fr/images/perso/rofl.gifhttp://forum.hardware.fr/images/perso/rofl.gifhttp://forum.hardware.fr/images/perso/rofl.gifhttp://forum.hardware.fr/images/perso/rofl.gifhttp://forum.hardware.fr/images/perso/rofl.gif
Mais quel boolay !
 
 
 
 
 
désolé pour ce long post, mais ça me faisait trop mal d'avoir loupé un tel topic :D


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2720963
nicolas_b
Posté le 12-09-2003 à 01:04:20  profilanswer
 

Marc a écrit :


publié le 8 Mars 2000
Le Charisme Engine est en fait le moteur géométrique de ATI. Ce TCL, tel que l´appelle ATI (Transformation, Clipping and Lighting) est en fait l´équivalent du T&L de NVIDIA, avec quelques plus bien sur.  


 
Les jeux 3d de l'époque n'utilisait pas le t&l, maintenant à posteriori et par abus de langage t'appelles ça comme ça, mais tu confonds deux choses. Le calcul bete d'une scene 3d, et son rendu avec le transform & lighting calculé par les gpu.
 
 

n°2720966
ThePaladin
Admirateur de pierres
Posté le 12-09-2003 à 01:04:59  profilanswer
 

Marc a écrit :

NVIDIA T&L :lol:
(Décidement c'est un cas déspespéré que nous avons ici)


 
Je pense que nicolas_b ne doit pas avoir plus de 12 ans :lol:
 
Il est incapable de faire la difference entre ce qui est API (directX), implémenté dans un driver (et donc cablé dans la carte graphique), et fonction utilisée dans un jeu (le moteur graphique).
 
Le jour où il aura fait de la programmation, ça deviendra plus claire pour lui :D.


---------------
L'elfe: je vois très bien, je suis nictalope - Le nain: on sait que t'es une salope !
n°2720968
mareek
Et de 3 \o/
Posté le 12-09-2003 à 01:05:39  profilanswer
 

nicolas_b a écrit :


 
Les jeux 3d de l'époque n'utilisait pas le t&l, maintenant à posteriori et par abus de langage t'appelles ça comme ça, mais tu confonds deux choses. Le calcul bete d'une scene 3d, et son rendu avec le transform & lighting calculé par les gpu.


tiens, tu ne nous parle plus du T&L software [:payzan]


Message édité par mareek le 12-09-2003 à 01:09:50

---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2720971
nicolas_b
Posté le 12-09-2003 à 01:09:24  profilanswer
 

mareek a écrit :

Comment ai-je pu louper un tel topikatroll ? [:le kneu]
bon, alors commeçon par le commencement
 
 


 
Non c'est bon, t es en plein dans le feu de l'action. Il y a de l'animation sur la plage : ))


Message édité par nicolas_b le 12-09-2003 à 01:11:50
n°2720972
nicolas_b
Posté le 12-09-2003 à 01:11:11  profilanswer
 

mareek a écrit :


tiens, tu ne nous parle plus du T&L software [:payzan]


 
C'est pareil le transform & lighting en software était calculé par le cpu avant. C'était indépendant de la geometrie, et du rendu.

n°2720976
mareek
Et de 3 \o/
Posté le 12-09-2003 à 01:18:43  profilanswer
 

nicolas_b a écrit :

C'est pareil le transform & lighting en software était calculé par le cpu avant. C'était indépendant de la geometrie, et du rendu.


bon, t'as assez trollé comme ça, il faut que tu t'arretes maintenant :o
 
(surtout qu'il n'y a plus que moi comme publique :o)


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2720978
ThePaladin
Admirateur de pierres
Posté le 12-09-2003 à 01:19:01  profilanswer
 

nicolas_b a écrit :


 
Les jeux 3d de l'époque n'utilisait pas le t&l, maintenant à posteriori et par abus de langage t'appelles ça comme ça, mais tu confonds deux choses. Le calcul bete d'une scene 3d, et son rendu avec le transform & lighting calculé par les gpu.


 
Bien sur que si que les jeux utilisait le T&L.  
Le T&L était réalisé par le CPU afin d'obtenir la bonne valeur de Pixel à mettre dans la zone mémoire vidéo, avant son affichage.


---------------
L'elfe: je vois très bien, je suis nictalope - Le nain: on sait que t'es une salope !
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  32  33  34  35  36  37

Aller à :
 

Sujets relatifs
[boitier] J'hésite et je cherche des conseils...ou trouver plus d'infos sur les parametres du bios de l'asus A7N8Xdel
upgrade pc , conseils?P4C800-E DELUXE / P4C800 : BIOS v1011 officiel !
[Avis, conseils] Trio cpu/mobo/ram correct ?Un point sur les bonnes configs pour jouer : des conseils ?
conseils pr une config optimisée pr la vidéo et l'image5900 Ultra ou 9800 Pro 256 pour Half-Life 2 ?
Plus de sujets relatifs à : [Topic Officiel] Half-life 2 et les cg: infos, conseils, ..


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR