Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1031 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  [Topic Officiel] Half-life 2 et les cg: infos, conseils, ..

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  32  33  34  35  36  37
Page Précédente
Auteur Sujet :

[Topic Officiel] Half-life 2 et les cg: infos, conseils, ..

n°2718904
PlayTime
Posté le 11-09-2003 à 03:26:57  profilanswer
 

Voila, Half-Life 2 va être à coup sur un énorme succès et j'aimerais que ce topic est pour but de donner les premières infos officielles sur half-life 2 qui ont rappport avec les carte graphiques puis à la sortie du jeux donner des conseils sur les options à cocher avec tel et tel cg, les explications sur les diférents réglages.... Merci d'éviter toutes guerre nvidia/ati mais au contraire se réserver à des informations techniques ou des conseils.
 
Informations du 11/09/2003 :
 
Tout d'abord, des tests de DirectX 9.0 se sont révélés être plus que concluants ! Un article a été publié à ce propos : Yahoo.com.
Parmis les avantages principaux que l'API DirectX 9.0 apporte à Half-Life 2, la vitesse est augmentée et les graphismes ont un bien meilleur rendu, de plus les textures en bump des personnages rendent la lumière plus nuancée et les ombres plus légéres.
La principale nouveauté de DirectX 9.0, le High-Level Shader Language (HLSL), permet d'obtenir un spectre complet de couleurs pour les graphismes, vidéos, animations 3D et des capacités audios augmentées.
 
De plus, le site AnandTech publie un article dont voici les conclusions :
 
ATI se trouve nettement en tête par rapport à NVidia en ce qui concerne les performances graphiques sous Half-Life 2.
 
La carte ATI Radeon 9800 Pro fonctionne à merveille avec Half-Life 2, donnant du 60 FPS continue( en 1280x1024x32 full options )- La 5900 Ultra est remmarquablement plus lente avec une configuration optimisée.
 
La carte ATI 9600 Pro fonctionne très bien, c'est une bonne concurrente de la 5900 Ultra sur ce jeux.
 
Valve recommande d'utiliser les 5200 FX et 5600 FX sous DirectX 8, afin d'avoir un frame rate convenable.
 
Valve insiste sur le fait qu'ils n'ont pas favorisé un constructeur plutôt qu'un autre. Bien que Valve a permis à ATI de fournir Half-Life 2 avec ses prochaines cartes graphiques et que le prochain évenement où Valve sera présent (à Alcatraz) est sponsorisé par ATI. Mais il y a encore 1 an, hl2 était developpé sur des cg nvidia...
 
De plus, le dernier tomb raider, pourtant compilé en cg ( language graphique de nvidia ), a aussi tourné à l'avantage des ati mais il est nécessaire d'attendre la sortie d'autre jeux directx9 et peut-être d'aquamark2003 pr en tiré de vrai conclusions ( en clair, savoir si oui ou non, les cartes nvidia sont vraiment distancé clairement sur les jeux directx9 )
 
En tout cas, tout cela ne ferait que décrédibiliser totalement 3dmark2003 vu qu'il semble pour le moment ne pas avoir donné de résultats représentatifs des cartes directx9 sur les jeux dx9.
 
Liens interessants :
 
http://www.gamersdepot.com/interviews/gabe/001.htm = interview de Gabe Newell sur l'utilisation du directx9, et tous ce qui est en rapport avec le hardwares pour half-life 2.
 
http://www.gamersdepot.com/hardwar [...] ks/002.htm = Tous les premiers benchmarks sur half-life 2
 
Liens de benchs :
 
http://www.gamersdepot.com/hardwar [...] up/002.htm
 
http://www.anandtech.com/video/sho [...] i=1863&p=1
 
Réponse de Nvidia pour le moment :
 
Tous ces benchmarks sont totalement invalide, ils faut attendre les detonator 50.xx
 
Réponse de Valve :
 
Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran.
 
Les vidéos de Half-Life 2 :
 
http://ftp.club-internet.fr/pub/ga [...] e2/videos/


Message édité par PlayTime le 12-09-2003 à 14:44:30
mood
Publicité
Posté le 11-09-2003 à 03:26:57  profilanswer
 

n°2718905
necris
J'ai connus bla²
Posté le 11-09-2003 à 03:41:20  profilanswer
 

Tu as signes ton arret de mort avec se topic,debut des hostilites.....
 
5
4
3
2
1
 
 
 
GOOOOOOOOOOOOOOOOOOO   :lol:  
 
 
ps: half life 2 est pas encore sortis  :kaola:

n°2718911
PlayTime
Posté le 11-09-2003 à 04:16:52  profilanswer
 

Cest le topic qui a le plus dinteret ici, pas les reponses car il ny a pas trop à discuter de ce topic pr linstant, cest juste des fais.
 
Par contre, à la sortie du hl2 benchmark, on pourra commencer à pas mal discuter

n°2718915
Jack_Power
Posté le 11-09-2003 à 04:49:47  profilanswer
 

La meilleur carte a l'heure actuelle pour HL2 nivo perf/prix
l'ati 9600 pro !
Tout est dans le topic unique half life 2 ; rubrique jeux !
Voila .
 
Ps : Et pas besoin de me dire que je suis un pro Ati ou je ne sais quoi lol , vous avez qu'a voir ma configue avant dire quoique se soit  :D .


Message édité par Jack_Power le 11-09-2003 à 04:54:24
n°2719400
PlayTime
Posté le 11-09-2003 à 13:26:41  profilanswer
 

Jadore, je fais ce topic est quest que je vois, un mec qui refais un topic résultats des benchmarks...... Yen a vraiment qui sont pour la multiplication inutile des topics, cest dommage :(.
 
Si vous avez d'autres liens, hesité pas à me le dire, je mettrai à jour le topic.


Message édité par PlayTime le 11-09-2003 à 13:39:46
n°2719462
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 13:48:47  profilanswer
 

A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible.
 
http://www.vtr-hardware.com/news/
 
Y'a pas à dire, l'honnêteté, chez nVIDIA, on connaît pas......... Sodomiser le consommateur à fond, ils aiment :/


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719472
Ernestor
modo-coco :o
Posté le 11-09-2003 à 13:54:15  profilanswer
 

PlayTime a écrit :


En tout cas, tout cela ne ferait que décrédibiliser totalement 3dmark2003 vu qu'il semble pour le moment ne pas avoir donné de résultats représentatifs des cartes directx9 sur les jeux dx9.


T'es vraiment sur de toi ?
 
Pour info, en PS 2.0 a 3D Mark 2003 les 9800 s'en sortent egalement bien mieux que les FX 5900 ;) (enfin, ca depend de la version des detos  :whistle:)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2719475
PlayTime
Posté le 11-09-2003 à 13:55:54  profilanswer
 

Ou je voulais dire quil décridibiliserai 3dmark2003, cest plutot au vu du score final tres proches sur les 2 cartes graphiques alors qu'aperement, les ati sont assez largement devant en directx 9.

n°2719479
Ernestor
modo-coco :o
Posté le 11-09-2003 à 13:57:02  profilanswer
 

Le score global a 3D Mark a jamais voulu rien dire. C'est pas nouveau a la version 2003 :D
 
Les tests theoriques de 3D Mark sont par contre plutot bon :)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2719513
nathan
Posté le 11-09-2003 à 14:07:13  profilanswer
 

Ernestor a écrit :


T'es vraiment sur de toi ?
 
Pour info, en PS 2.0 a 3D Mark 2003 les 9800 s'en sortent egalement bien mieux que les FX 5900 ;) (enfin, ca depend de la version des detos  :whistle:)


 
peut etre nvidia pourra t il corriger le tir avec les fx5950
mais vu le biveau d'integration des shader ds une carte ca me semble difficile
vivement les le gefx6000 ;)


---------------
Mourons pour des idées, d'accord, mais de mort lente, d'accord, mais de mort lente !
mood
Publicité
Posté le 11-09-2003 à 14:07:13  profilanswer
 

n°2719572
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 14:26:11  profilanswer
 

A mon avis, nvIDIA a voulu pèter plus haut que son cul. La campagne marketting du GFFX y'a un an était trop tapageuse pour être honnête. Et oui, c'est toute l'archi qui sera à revoir. Ou au minimum multimplier le nombre de pipelines. Mais quand on voit certains tests théoriques de PS 2.0 (même pas 2.0+) où une FX5900 Ultra traine 10x derrière uen R9800 Pro, on se pose des questions (drivers trichés ou pas, me souvient plus).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719613
nicolas_b
Posté le 11-09-2003 à 14:43:53  profilanswer
 

Moi ce qui me fait bien rire c'est ça:
 
GD: Why DirectX9 over OpenGL 2.0?
Gabe: OpenGL 2.0 isn't as mature as DX9.
 
Valve a depuis toujours mené une politique de soft propriétaire, ils sont completement opposés au portage de leur jeu sous linux, contrairement à des jeux comme quake3 qui a été une veritable démonstration et reference technologique. Quake3 tirait parti de toutes les cartes graphiques, et était multiplateforme.
 
Quand je vois les benchs de halflife, je me dis que valve a clairement voulu mettre en avant les cartes ati en concevant un jeu optimisé directx9 pour ati.  
 
Je veux pas dire, mais une conférence avec un bonhomme derrière un pupitre ATI qui démonte nvidia, ça fait pas très sérieux ...
 
http://www.tomshardware.com/techne [...] image1.jpg


Message édité par nicolas_b le 11-09-2003 à 14:48:35
n°2719632
steve2002
Posté le 11-09-2003 à 14:50:53  profilanswer
 

sur vtr hardware :
 
On apprend par exemple qu'en 1024*768, une Radeon 9800 Pro atteint 60 fps, la Radeon 9600 Pro atteint lui 49 fps, alors que du côté de nVidia, la GeforceFX 5900 Ultra n'obtient que 30 fps, la GeforceFX 5600 Ultra seulement 12 et moins de 10 pour la 5200 Ultra!  
 
tout ce pognon perdu, tout juste jouable avec une 9800. 9600,5600 poubelle, vraiment une génération perdue.

n°2719633
Ernestor
modo-coco :o
Posté le 11-09-2003 à 14:51:14  profilanswer
 

nicolas_b a écrit :


Quand je vois les benchs de halflife, je me dis que valve a clairement voulu mettre en avant les cartes ati en concevant un jeu optimisé directx9 pour ati.


ATI a construit pour les R9X00 une architecture totalement adaptee a DX 9. nVidia a choisi une architecture alternative pour ses cartes.
 
Ce qui fait que :
- un jeu "purement" DX 9 est optimise par principe sur une ATI et marche moins bien sur une nVidia
- pour que ca marche (au mieux) aussi bien sur une FX, faut reecrire une partie du moteur de rendu specifique aux FX.
 
En conclusion, c'est pas de la faute a Valve si nVidia a pas choisi de coller a DX9 mais bien de la faute a nVidia.
Et on ne va pas non plus reprocher a Valve de suivre le standard DX 9 (surtout qu'en plus, ils ont fait un code-path specifique FX).
 
La situation est identique avec l'OpenGL ...


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2719641
Ernestor
modo-coco :o
Posté le 11-09-2003 à 14:53:29  profilanswer
 

steve2002 a écrit :

sur vtr hardware :
tout ce pognon perdu, tout juste jouable avec une 9800. 9600,5600 poubelle, vraiment une génération perdue.


Trop gros ce troll, passera pas  [:ddr555]


Message édité par Ernestor le 11-09-2003 à 14:53:44

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2719654
nicolas_b
Posté le 11-09-2003 à 15:01:01  profilanswer
 

Ernestor a écrit :


ATI a construit pour les R9X00 une architecture totalement adaptee a DX 9. nVidia a choisi une architecture alternative pour ses cartes.
 
Ce qui fait que :
- un jeu "purement" DX 9 est optimise par principe sur une ATI et marche moins bien sur une nVidia
- pour que ca marche (au mieux) aussi bien sur une FX, faut reecrire une partie du moteur de rendu specifique aux FX.
 
En conclusion, c'est pas de la faute a Valve si nVidia a pas choisi de coller a DX9 mais bien de la faute a nVidia.
Et on ne va pas non plus reprocher a Valve de suivre le standard DX 9 (surtout qu'en plus, ils ont fait un code-path specifique FX).
 
La situation est identique avec l'OpenGL ...


 
Heu , je sais pas , je regarde autour de moi , et la seule chose que je vois c'est que Microsoft n'a jamais suivi de norme officiel en développement, et de parler de spécification microsoft c'est un non sens.  
 
Maintenant quand je regarde du coté des constructeurs de carte graphique , il y en a deux qui disont se partagent le marché à 50% - 50%.
 
Je trouve ça un peu gonflé quand on sort un jeu de l'envergure de halflife qui doit etre un modèle de performance, d'optimisation, etant donné que le moteur fera tourné d'autres jeux futurs, d'annoncer que les cartes graphiques nvidia auront des resultats médiocres.
 
En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  
 
C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...


Message édité par nicolas_b le 11-09-2003 à 15:02:14
n°2719660
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:03:39  profilanswer
 

nicolas_b a écrit :

Moi ce qui me fait bien rire c'est ça:
 
GD: Why DirectX9 over OpenGL 2.0?
Gabe: OpenGL 2.0 isn't as mature as DX9.
 
Valve a depuis toujours mené une politique de soft propriétaire, ils sont completement opposés au portage de leur jeu sous linux, contrairement à des jeux comme quake3 qui a été une veritable démonstration et reference technologique. Quake3 tirait parti de toutes les cartes graphiques, et était multiplateforme.
 
Quand je vois les benchs de halflife, je me dis que valve a clairement voulu mettre en avant les cartes ati en concevant un jeu optimisé directx9 pour ati.  
 
Je veux pas dire, mais une conférence avec un bonhomme derrière un pupitre ATI qui démonte nvidia, ça fait pas très sérieux ...
 
http://www.tomshardware.com/techne [...] image1.jpg


 
Demande A Zeross la situation pour les shaders en OpenGL, tun verras, c'est encore la jungle... d'où : oui, DX9 est plus mature, plus carré.  
 
Après, est-ce mieux ? Ben, on peut pas juger avec Doom3 qui utilise  les techs des GF256 (accélérées via shaders, certes sur plus récent, ais c'est tout).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719661
cyberfred
Posté le 11-09-2003 à 15:04:05  profilanswer
 

tout juste jouable??????????????????
Ca va pas non!!! 60 fps c'est excellent comme fluidité.
:hello:


Message édité par cyberfred le 11-09-2003 à 15:04:38
n°2719665
steve2002
Posté le 11-09-2003 à 15:04:42  profilanswer
 

faut pas être difficile

n°2719667
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:05:38  profilanswer
 

nicolas_b a écrit :


 
Heu , je sais pas , je regarde autour de moi , et la seule chose que je vois c'est que Microsoft n'a jamais suivi de norme officiel en développement, et de parler de spécification microsoft c'est un non sens.  
 
Maintenant quand je regarde du coté des constructeurs de carte graphique , il y en a deux qui disont se partagent le marché à 50% - 50%.
 
Je trouve ça un peu gonflé quand on sort un jeu de l'envergure de halflife qui doit etre un modèle de performance, d'optimisation, etant donné que le moteur fera tourné d'autres jeux futurs, d'annoncer que les cartes graphiques nvidia auront des resultats médiocres.
 
En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  
 
C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...

Euh, les shaders, que ce soit sous DX ou OpengL, c'est pareil, c'est l'exposition et la syntaxe qui est différente....... Donc, ils auraient fait du PS 2.0 sous OpenGL, ça aurait été pareil. On a des démos tech qui nous l'ont montré, dont la fée nudiste de nVIDIA......


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719670
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:07:05  profilanswer
 

steve2002 a écrit :

faut pas être difficile


 
Tous les jeux qui bousculent les standards de quaité sont dans ce cas :)


Message édité par MagiSim le 11-09-2003 à 15:07:48

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719673
nicolas_b
Posté le 11-09-2003 à 15:10:17  profilanswer
 

MagiSim a écrit :

Euh, les shaders, que ce soit sous DX ou OpengL, c'est pareil, c'est l'exposition et la syntaxe qui est différente....... Donc, ils auraient fait du PS 2.0 sous OpenGL, ça aurait été pareil. On a des démos tech qui nous l'ont montré, dont la fée nudiste de nVIDIA......


 
Je pensais pas spécialement aux shaders, je pensais par exemple aux textures.

n°2719677
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:11:31  profilanswer
 

Sauf qu'à la base, une unité de shading c'est quoi ? Un processeur qui va manipuler des textures...........


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719684
Ernestor
modo-coco :o
Posté le 11-09-2003 à 15:15:33  profilanswer
 

nicolas_b a écrit :


Heu , je sais pas , je regarde autour de moi , et la seule chose que je vois c'est que Microsoft n'a jamais suivi de norme officiel en développement, et de parler de spécification microsoft c'est un non sens.  


C'est une API DX 9. Bien sur, rien a voir avec les formats de Word ou tout ce que tu veux, je parle pas de ca ...
 

Citation :


En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  


T'as pas bien compris le probleme. Supposons que M$ definisse une fonction X dans son API de DX 9. Attention, c'est juste la signature de la fonction, rien de plus. Celle-ci est realisee par le driver de la carte graphique. Le jeu, pour etre independant justement de la carte graphique, appele cette fonction X de l'API DX 9. Donc, en terme de perfs et tout le reste, aucune faute a M$, ils interviennent pas.
 
Resultat : avec une carte ATI, la fonction X marche bien. Avec une carte nVidia, la fonction a des perfs mediocres.  
 
Schematiquement, c'est ca le truc ;)
 

Citation :


C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...


Si nVidia avait colle aux specs DX 9 (voir l'explication ci-dessus), ca n'aurait pas ete utile. C'est pas normal de devoir du code specifique a une carte en particulier.
 
Et pour info, TOUS les gros moteurs 3D qui vont sortir (HL 2, Doom3, Stalker ...) ont un code-path specifique aux FX. Tu crois vraiment que les types qui developpent ces moteurs sont des tanches en programmation ou des pro-ATIs en puissance ?


Message édité par Ernestor le 11-09-2003 à 15:16:57

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2719685
nicolas_b
Posté le 11-09-2003 à 15:16:52  profilanswer
 

MagiSim a écrit :

Sauf qu'à la base, une unité de shading c'est quoi ? Un processeur qui va manipuler des textures...........


 
Je viens d'aller voir ton site en lien plus haut:
 
"A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible."
 
Heu ... Ca pue le hoax : ))
 
1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  
2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
 
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...

n°2719692
_JbM
_Dense comme la brique
Posté le 11-09-2003 à 15:18:44  profilanswer
 

steve2002 a écrit :

tout ce pognon perdu, tout juste jouable avec une 9800. 9600,5600 poubelle, vraiment une génération perdue.


Mettre la 9600 et la 5600 dans la meme poubelle, c'est bien épais comme troll!
Excuse-moi, mais à partir d'une 50aine de fps, c'est jouable, et il faut vraiment etre exigent (ou trop habitué aux 600fps de Quake3 sur un moniteur 300Hz) pour dire le contraire.
 
nicolas_b >  nous savons bien que tu es un zealot anti-microsoft-et-intel ;) Pourtant, il faut bien le dire, direct3D est une norme. La différence avec openGL, c'est que la norme direct3D est créée, PUIS les fabricants adaptent leurs puces en conséquence. Ce que nVidia n'a visiblement pas fait avec les nv3x.
OpenGL c'est l'inverse, le standard évolue en fonction des acteurs du marché. Il est donc toujours en retard sur les capacités du matériel, d'ou la nécessité d'utiliser des extensions PROPRIETAIRES!

n°2719694
Ernestor
modo-coco :o
Posté le 11-09-2003 à 15:19:18  profilanswer
 

nicolas_b a écrit :


1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  


Tu le rend comment le brouillard ? C'est bien la CG qui doit bosser en plus non ?
 

Citation :


2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi


T'as suivi l'affaire 3D Mark 2003 ?
 

Citation :


et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...


Bon, techniquement visiblement t'as pas l'air de comprendre ce qu'il se passe. Pas bien grave. Mais bon, par contre t'es bien pro-nVidia a ce que je vois :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2719696
nicolas_b
Posté le 11-09-2003 à 15:19:48  profilanswer
 

Ernestor a écrit :


C'est une API DX 9. Bien sur, rien a voir avec les formats de Word ou tout ce que tu veux, je parle pas de ca ...
 

Citation :


En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  


T'as pas bien compris le probleme. Supposons que M$ definisse une fonction X dans son API de DX 9. Attention, c'est juste la signature de la fonction, rien de plus. Celle-ci est realisee par le driver de la carte graphique. Le jeu, pour etre independant justement de la carte graphique, appele cette fonction X de l'API DX 9. Donc, en terme de perfs et tout le reste, aucune faute a M$, ils interviennent pas.
 
Resultat : avec une carte ATI, la fonction X marche bien. Avec une carte nVidia, la fonction a des perfs mediocres.  
 
Schematiquement, c'est ca le truc ;)
 

Citation :


C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...


Si nVidia avait colle aux specs DX 9 (voir l'explication ci-dessus), ca n'aurait pas ete utile. C'est pas normal de devoir du code specifique a une carte en particulier.
 
Et pour info, TOUS les gros moteurs 3D qui vont sortir (HL 2, Doom3, Stalker ...) ont un code-path specifique aux FX. Tu crois vraiment que les types qui developpent ces moteurs sont des tanches en programmation ou des pro-ATIs en puissance ?


 
Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
 
C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.

n°2719703
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:22:30  profilanswer
 

nicolas_b a écrit :


 
Je viens d'aller voir ton site en lien plus haut:
 
"A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible."
 
Heu ... Ca pue le hoax : ))
 
1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  
2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
 
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...
 


 
Crois ce que tu veux, ça fait 6 mois au moins que l'on sait que les FX se trainent dés qu'on dépasse les PS 1.4.
 
Et si tu ne crois pas tout ça possible, et bien si c'est possible. Un screenshot, c'est une commande qui transite par le pilote pour capturer le framebuffer de la carte. Donc le pilote sait quand il va y avoir screenshot ;)
 
C'est con hein ? Mais c'est pas la première fois que nVIDIA prend ouvertement les gens pour des cons....
 
Et puis, qui te dit que le brouillard de HL2 n'est pas spécial ? Genre, pas un fog classique hérité de DX5, mais un vrai fog procédural avec shaders, par exemple ?


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719706
nicolas_b
Posté le 11-09-2003 à 15:24:43  profilanswer
 

Ernestor a écrit :


Tu le rend comment le brouillard ? C'est bien la CG qui doit bosser en plus non ?
 

Citation :


2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi


T'as suivi l'affaire 3D Mark 2003 ?
 

Citation :


et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...


Bon, techniquement visiblement t'as pas l'air de comprendre ce qu'il se passe. Pas bien grave. Mais bon, par contre t'es bien pro-nVidia a ce que je vois :D


 
Non j'ai pas vu pour 3d mark 2003. Sinon, je ne suis pas pro nvidia, j'ai eu de l'ati et du nvidia, chacun à ses avantages inconvénients.

n°2719708
josedsf
Posté le 11-09-2003 à 15:26:02  profilanswer
 

bonne idée ce topic


---------------
Guide cpu / Zen4
n°2719709
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:26:26  profilanswer
 

nicolas_b a écrit :


 
Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
 
C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.


 
Sauf que les limitations hardware des FX sont nombreuses, alors le potentiel, il est grillé dans le rattrappage de la vitesse. Regarde à quoi ça sert le partial precision ? ça sert à pas être largué par 2x devant une ATI........................................... GRAVE. Et t'enfermer dans ton approche nVIDIA l'e'sparfait MS il est méchant, c'est un peu réducteur. Fan d'opensource à tout va ?
 
Si Valve est passé d'un moteur principalement OpenGL (HL à DX (HL2), y'a  une raison technique. Point barre. Ils sont certainement bien plus au fat des choses que toi.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719710
Ernestor
modo-coco :o
Posté le 11-09-2003 à 15:26:31  profilanswer
 

nicolas_b a écrit :


 
Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
 
C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.


Une API comme DX 9 ou OpenGL (dispo sous Linux) a pour but de rendre independant le logiciel du hardware.
 
Pourquoi nVidia s'ecarte des standards. Voila mon avis (mais ca va pas te plaire :D) : nVidia pensait rester dominant avec ses FX mais n'a pas vu arriver les 9700 et la claque qu'ils ont pris. Etre dominant signifie que les developpeurs de jeux sont obliges de faire un jeu qui marche bien avec une carte nVidia. Et donc plutot suivre l'archi nVidia que les specs DX 9 ou OpenGL. Degat collateral : bcp de developpeurs n'auraient pas pris la peine de sortir une version normale DX 9 ou OpenGL cad une version optimisee ATI. C'est classique : on s'ecarte du standard et on force les gens a vous suivre, ca laisse les concurrents sur le carreau.
 
Pas de bol pour nVidia, ATI est repasse devant et y a eu pour eux un mechant retour de baton avec un joli "tel est pris qui croyait prendre" :D
 
T'as pas suivi l'affaire 3D Mark ? Tu devais hiberner :D
C'est simple, nVidia a triche en bidouillant ses drivers pour rendre une qualite d'image inferieure et donc ameliorer son score. Parmi d'autres tricheries ...


Message édité par Ernestor le 11-09-2003 à 15:30:03

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2719711
_JbM
_Dense comme la brique
Posté le 11-09-2003 à 15:26:38  profilanswer
 

nicolas_b a écrit :


1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  
2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
 
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...


1 - C'est pas du brouillard classique. J'ai lu ca sur un scan de magasine anglophone ou ils parlaient des fonctionnalités graphiques nouvelles du moteur. Il doit donc utiliser des shaders, donc c'est pas bon pour les fx.
2 - Je pense que Gabe Newell doit mieux voir ce qui se passe sous HL2 que toi ;)
 
M'enfin venant d'un zealot-pro-nvidia-et-linux, rien d'étonnant :p ;)

n°2719713
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:27:28  profilanswer
 

nicolas_b a écrit :


 
Non j'ai pas vu pour 3d mark 2003. Sinon, je ne suis pas pro nvidia, j'ai eu de l'ati et du nvidia, chacun à ses avantages inconvénients.

Et bien tu as raté de sacrés épisodes alors :D
 
nVIDIA n'est pas à son premier coup d'essai concernant les trichoptimisations....  :sweat:


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719717
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:28:35  profilanswer
 

Ernestor a écrit :


Une API comme DX 9 ou OpenGL (dispo sous Linux) a pour but de rendre independant le logiciel du hardware.
 
Pour nVidia s'ecarte des standards. Voila mon avis (mais ca va pas te plaire :D) : nVidia pensait rester dominant avec ses FX mais n'a pas vu arriver les 9700 et la claque qu'ils ont pris. Etre dominant signifie que les developpeurs de jeux sont obliges de faire un jeu qui marche bien avec une carte nVidia. Et donc plutot suivre l'archi nVidia que les specs DX 9 ou OpenGL. Degat collateral : bcp de developpeurs n'auraient pas pris la peine de sortir une version normale DX 9 ou OpenGL cad une version optimisee ATI. C'est classique : on s'ecarte du standard et on force les gens a vous suivre, ca laisse les concurrents sur le carreau.
 
Pas de bol pour nVidia, ATI est repasse devant et y a eu pour eux un mechant retour de baton avec un joli "tel est pris qui croyait prendre" :D  


 
En gros, Hen Hsun Huang fume le crack promis à Dave Orton.... :D


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719718
MagiSim
Magique, et oui !
Posté le 11-09-2003 à 15:30:15  profilanswer
 

_JbM a écrit :


1 - C'est pas du brouillard classique. J'ai lu ca sur un scan de magasine anglophone ou ils parlaient des fonctionnalités graphiques nouvelles du moteur. Il doit donc utiliser des shaders, donc c'est pas bon pour les fx.
2 - Je pense que Gabe Newell doit mieux voir ce qui se passe sous HL2 que toi ;)
 
M'enfin venant d'un zealot-pro-nvidia-et-linux, rien d'étonnant :p ;)


 
Je confirme pour le brouillard. Faut compter l'eau aussi (étendues d'eaau, pluie, eau sur le sol, etc, liquides, et aussi HDR lighting (adaptation de la vision à l'éclairage, effet de pupille ? Permettrait un rendu encore plus réaliste des transitions environnement ensoleillé et caves à charbon....)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2719720
nicolas_b
Posté le 11-09-2003 à 15:31:36  profilanswer
 

MagiSim a écrit :

Et bien tu as raté de sacrés épisodes alors :D
 
nVIDIA n'est pas à son premier coup d'essai concernant les trichoptimisations....  :sweat:  


 
 :lol:  :hello:


Message édité par nicolas_b le 11-09-2003 à 15:31:52
n°2719723
nicolas_b
Posté le 11-09-2003 à 15:32:30  profilanswer
 

MagiSim a écrit :


 
Je confirme pour le brouillard. Faut compter l'eau aussi (étendues d'eaau, pluie, eau sur le sol, etc, liquides, et aussi HDR lighting (adaptation de la vision à l'éclairage, effet de pupille ? Permettrait un rendu encore plus réaliste des transitions environnement ensoleillé et caves à charbon....)


 
Bon de toute manière, je crois qu'ils sortent des nouveaux benchs demain , non ?

n°2719728
flash_gord​on
Posté le 11-09-2003 à 15:33:19  profilanswer
 

Ernestor a écrit :


Une API comme DX 9 ou OpenGL (dispo sous Linux) a pour but de rendre independant le logiciel du hardware.
 
Pourquoi nVidia s'ecarte des standards. Voila mon avis (mais ca va pas te plaire :D) : nVidia pensait rester dominant avec ses FX mais n'a pas vu arriver les 9700 et la claque qu'ils ont pris. Etre dominant signifie que les developpeurs de jeux sont obliges de faire un jeu qui marche bien avec une carte nVidia. Et donc plutot suivre l'archi nVidia que les specs DX 9 ou OpenGL. Degat collateral : bcp de developpeurs n'auraient pas pris la peine de sortir une version normale DX 9 ou OpenGL cad une version optimisee ATI. C'est classique : on s'ecarte du standard et on force les gens a vous suivre, ca laisse les concurrents sur le carreau.
 
Pas de bol pour nVidia, ATI est repasse devant et y a eu pour eux un mechant retour de baton avec un joli "tel est pris qui croyait prendre" :D
 
T'as pas suivi l'affaire 3D Mark ? Tu devais hiberner :D
C'est simple, nVidia a triche en bidouillant ses drivers pour rendre une qualite d'image inferieure et donc ameliorer son score. Parmi d'autres tricheries ...


 
+1
 
peux pas mieux expliquer


---------------
Survivre à sa migration WP->Android /  Les features Windows que vous ne connaissez pas
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  32  33  34  35  36  37
Page Précédente

Aller à :
  FORUM HardWare.fr
  Hardware
  Carte graphique

  [Topic Officiel] Half-life 2 et les cg: infos, conseils, ..

 

Sujets relatifs
[boitier] J'hésite et je cherche des conseils...ou trouver plus d'infos sur les parametres du bios de l'asus A7N8Xdel
upgrade pc , conseils?P4C800-E DELUXE / P4C800 : BIOS v1011 officiel !
[Avis, conseils] Trio cpu/mobo/ram correct ?Un point sur les bonnes configs pour jouer : des conseils ?
conseils pr une config optimisée pr la vidéo et l'image5900 Ultra ou 9800 Pro 256 pour Half-Life 2 ?
Plus de sujets relatifs à : [Topic Officiel] Half-life 2 et les cg: infos, conseils, ..


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR