Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1958 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  20  21  22  23  24  25
Auteur Sujet :

[tomik sûrement officiel] NV 35 !

n°2318589
evildeus
Posté le 25-03-2003 à 13:30:32  profilanswer
 

Reprise du message précédent :

MagiSim a écrit :


 
Radeon 9200 seulement de niveau DX8.1.


Donc tu tappes aujourd'hui autant sur Ati que sur Nvidia avant? Non ah tu m'étonnes  :whistle:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
mood
Publicité
Posté le 25-03-2003 à 13:30:32  profilanswer
 

n°2318590
Jayk
Posté le 25-03-2003 à 13:30:44  profilanswer
 

MagiSim a écrit :


 
En théorie, oui, DirectX 9 devait apportée cette rétrocompatibilité... Mais il faut pour cela que la carte supporte au moins une première version de pixel shaders.


 
Ouais ben c'est très pénalisant ...

n°2318592
MagiSim
Magique, et oui !
Posté le 25-03-2003 à 13:31:19  profilanswer
 

Evildeus a écrit :


Donc tu tappes aujourd'hui autant sur Ati que sur Nvidia avant? Non ah tu m'étonnes  :whistle:  


 
T'es à la masse toi alors. Je vois pas pourquoi je ne reprocherait pas à ATI une faute que j'ai reprochée à nVIDIA.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2318598
MagiSim
Magique, et oui !
Posté le 25-03-2003 à 13:33:13  profilanswer
 

JayK a écrit :


 
Ouais ben c'est très pénalisant ...


 
Bah non, parce que imagine toi que faire des effets par shading ça ne se fait pas pareil du tout que par multitexturing, donc, il faut comprendre un minimum de choses, quitte à le faire en plusieurs passes..... Maintenant, imagine un peu un programme qui passe tout en PS, mais la carte ne comprend rien ! Elle affiche quoi ? Bah........ Suffit de lancer un test pixel shaders sur GF2 avec 3d analyze, et tu verras l'effet.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2318599
Jayk
Posté le 25-03-2003 à 13:34:14  profilanswer
 

MagiSim a écrit :


 
Bah non, parce que imagine toi que faire des effets par shading ça ne se fait pas pareil du tout que par multitexturing, donc, il faut comprendre un minimum de choses, quitte à le faire en plusieurs passes..... Maintenant, imagine un peu un programme qui passe tout en PS, mais la carte ne comprend rien ! Elle affiche quoi ? Bah........ Suffit de lancer un test pixel shaders sur GF2 avec 3d analyze, et tu verras l'effet.


 
Je veux dire que ça pénalise le pc en général, tant pis ...

n°2318601
evildeus
Posté le 25-03-2003 à 13:36:09  profilanswer
 

MagiSim a écrit :


 
T'es à la masse toi alors. Je vois pas pourquoi je ne reprocherait pas à ATI une faute que j'ai reprochée à nVIDIA.

Il y a une différence entre reprocher (ATI) et dénigrer (Nvidia), enfin passons.


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2318603
MagiSim
Magique, et oui !
Posté le 25-03-2003 à 13:36:49  profilanswer
 

JayK a écrit :


 
Je veux dire que ça pénalise le pc en général, tant pis ...


 
Et oui, mais, c'est ça, ou alors tu n'as pas de grosse évolution...........  Ou alors tu oblige les programmeurs à écrire deux moteurs qui de toute façon ne sortiront pas du tout la même chose......... Y'a que Carmack qui arrive à se débbrouiller pour Doom3, mais le shading sera relativement basique sur Doom3. (il existe un fallback vers le Dot3, mais les perfs s'en ressentent).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2318609
MagiSim
Magique, et oui !
Posté le 25-03-2003 à 13:38:21  profilanswer
 

Evildeus a écrit :

Il y a une différence entre reprocher (ATI) et dénigrer (Nvidia), enfin passons.


 
Et je ne sais pas si tu m'as lu, mais j'ai SALUE les versions bas de gamme de leur nouvelle gamme pour le support de DX9.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2318615
evildeus
Posté le 25-03-2003 à 13:41:56  profilanswer
 

MagiSim a écrit :


 
Et je ne sais pas si tu m'as lu, mais j'ai SALUE les versions bas de gamme de leur nouvelle gamme pour le support de DX9.

Je t'ai lu oui


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2318626
blazkowicz
Posté le 25-03-2003 à 13:47:36  profilanswer
 

MagiSim a écrit :


 
Radeon 9200 seulement de niveau DX8.1.


 
c'est vrai mais d'un autre côté une carte DX8 peut faire tourner un jeu DX9 ( :p )
 
notamment grâce à ces fameux Cg, HLSL.. dont on parle
les pixel shaders sont compilés en PS 1.1, 1.4 ou 2.0 selon les capacités de la carte
 
au final des shaders trop complexes rameront sur une carte DX8, c'est vrai, mais je pense que les premiers jeux DX9 passeront sans pb
 
 

mood
Publicité
Posté le 25-03-2003 à 13:47:36  profilanswer
 

n°2318707
evildeus
Posté le 25-03-2003 à 14:21:30  profilanswer
 

Blazkowicz a écrit :


 
c'est vrai mais d'un autre côté une carte DX8 peut faire tourner un jeu DX9 ( :p )
 
notamment grâce à ces fameux Cg, HLSL.. dont on parle
les pixel shaders sont compilés en PS 1.1, 1.4 ou 2.0 selon les capacités de la carte
 
au final des shaders trop complexes rameront sur une carte DX8, c'est vrai, mais je pense que les premiers jeux DX9 passeront sans pb


Heu tu reves un peu la non? Le HLSL est backward compatible pas forward ;) A ton avis pourquoi le GT4 ne marche pas sur les cartes DX8.1?  :whistle:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2318729
blazkowicz
Posté le 25-03-2003 à 14:29:27  profilanswer
 

Evildeus a écrit :


Heu tu reves un peu la non? Le HLSL est backward compatible pas forward ;) A ton avis pourquoi le GT4 ne marche pas sur les cartes DX8.1?  :whistle:  


 
euh ben si le HLSL est backward compatible, alors ça alimente mon point de vue :lol:
 
 
si le GT4 ne marche pas sur cartes DX8... ben c qu'il n'est pas prévu pour c tout :o
futuremark ne s'est préoccupé que des cartes full DX9 s'agissant de ce test.. donc VS et PS 2.0 sans se soucier d'avoir une version antérieure pour les effets concernés
(et peut-être ces shaders sont-ils en assembleur :??: )
 
pour un concepteur de jeu ce serait du suicide de procéder ainsi
ils tiendront compte un certain temps de la base de cartes DX8
 
je pense qu'à terme ils programmeront les shaders en langage de haut niveau avec deux niveau de complexité différents par exemple
les compilateurs se chargeant de traduire ça en PS 1.1, 1.4 et 2.0
même les cartes DX9 bas de gamme (R9500/9600, NV34 et NV31) en bénéficieraient du niveau de détail "faible" je pense
 
 
PS:
 
je pense qu'HLSL est également forward compatible :o
nan?
je pense que le langage restera le même, les capacités des cartes (et les compileurs associés) évoluant
ça me paraît logique :p
(le C, ça reste du C, que ce soit sur un mainframe des années 70 ou un opteron..)


Message édité par blazkowicz le 25-03-2003 à 14:30:35
n°2318784
mareek
Et de 3 \o/
Posté le 25-03-2003 à 14:53:32  profilanswer
 

JayK a écrit :


 
Ton post il est intéressant mais il change en rien l'avis que j'ai sur les languages unifiés. T'es gentil ... Et je n'ai absolument pas balancé n'importe quoi, j'ai donné mon avis sur la finalité du procédé. C'est pas moi qui ait joué les humoristes haut de gamme en pretextant que les jeux PC sont optimisés ...

les jeux PC sont optimisés, c'est un fait. Ils sont moins optimisés que les jeux console à cause de l'architecture des PC, mais il n'en reste pas moins qu'ils sont optimisés. Sans optimisétion, l'affichage d'un cube en flat shading se ferait à 10FPS sur un  P4 3GHz.  
A première vue tu ne connais rien au monde du developpement en général et au developpement des jeux en particulier alors arrete tes affirmations catégoriques dans les domaines que tu ne connais pas.
Et ne me sort pas l'argument bateau "Ouais, mais la console XYZ fait tourner machin sans pb alors qu'il faut une config 3x plus puissante pour le faire tourner sur PC". C'est un argument débile pour plusieurs raisons:

  • Les jeux qui tournent sur PC et console sont très souvent développé pour une console et portés ensuite sur PC. Les optimisations faite par les développeurs lors du developpement sur console ne sont plus forcement valable lors du passage sur PC, ce qui fait que le jeu rame sur PC alors qu'il est fluide sur console.
  • Quand un un programmeur developpe un jeux sur console, il sait exactement la configuration du joueur puisque celle ci n'aura pas bouger pas d'un poil à la sortie du jeux donc il peut optimiser son code à mort pour que ça rende le mieux possible. Sur PC, le developpeur peut se retrouver dans 2 situations: 1)  il a le temps, sa boite gagne un max de fric,C'est un génie et il s'appele John Carmack et il peut optimiser son moteur 3D pour toutes les Cartes 3D existantes quand son jeux sortira. 2) il bosse dans une boite normale et son chef le presse de se dépécher car ils sont hyper short au niveau délai et il fait des optimisations "génériques" qui marchent pour toutes les cartes et il y a forcement un nivellement par le bas.
  • Les attentes au niveau de la qualité graphique (et donc en puissance) des joueurs console n'est pas la même que celle des joueurs PC en grande partie à cause de la résolution limitée des TV.
  • Les consoles sont pensées uniquement pour le jeux et toute leur architecures est articulée là dessus. De leurs cotés, les PC se doivent d'être polyvalents et donc d'être performants dans une multitude de cas qui ne demandent pas forcement les mêmes ressource que les jeux. De plus les PC sont obligé de trimbaler un grand nombre de "fioritures" nécessaires à leur bon fonctionnement et à leur versatilité: un OS multitache, des drivers, une gestion souple des périphériques,une tonne de port d'E/S, etc...


 
Quand à ton affirmations que le Cg (ou tout autre HLSL) est la seule chance qu'a le monde du jeux PC de ne pas tomber dans la déchéance, elle me fait bien rire. Si l'industrie du jeux video sur PC est dans une mauvaise passe, c'est principallement à cause de la mauvaise santé financière des boites du secteur suite à l'effondrement bouriser de l'ére post "start-up" et à cause du piratage, certainement pas parce que c'est difficile de programmer sur PC. Si c'était vraiment un obstacle, la PS2 serait morte et enterrée depuis belle lurette.
 
 
P.S. si tu pouvais arreter tes "c'est pas moi, c'est l'autre qu'a commencé", ça éviterait de donner un aspect cour de maternelle à ce topic.


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318785
mareek
Et de 3 \o/
Posté le 25-03-2003 à 14:54:15  profilanswer
 

Blazkowicz a écrit :


 
euh le monkey on en a parlé, c'est pas un concurrent du Cg
 
comparons le Cg a l'html
dans ce cas rendermonkey c'est un logiciel dans le genre de frontpage, dreamweaver etc.
 
(en gros)

[:totoz]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318788
evildeus
Posté le 25-03-2003 à 14:54:52  profilanswer
 

Je crois que tu confonds un peu tout.
 
Une carte DX9 peut exécuter tous les types de shaders grace au HLSL, et donc PS 1.1 jusqu'a 2.0 etc. C'est ici qu'elle est backward compatible. Le HLSL permet à la carte DX9 d'utiliser le shader requis.
 
Une carte DX8.1 ne pourra jamais effectué les PS2.0, c'est impossible, DX9 n'aide pas dans ce domaine. C'est pour cela qu'une carte DX8.1 avec un système DX9 installé ne pourra qd meme jamais faire tourné les eléments DX9 d'un jeu!


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2318794
blazkowicz
Posté le 25-03-2003 à 14:57:48  profilanswer
 


 
c'était un exemple
pour que des gens comme jayk puissent comprendre :o
 
c'est vrai que si rendermonkey était l'équivalent de Frontpage ce serait un générateur de bugs graphiques :o

n°2318805
mareek
Et de 3 \o/
Posté le 25-03-2003 à 14:59:50  profilanswer
 

JayK a écrit :


 
C'est dommage
 
Il faudrait un language unifié compatibles avec toutes les marques.

t'as lu mon post ? je te demande parce que dedans, je cite 2 langages compatibles avec toutes les marques justement: le GLSlang (OpenGL 2.0) et le HLSL (DX9)
 
Mega grilled sur le coup.


Message édité par mareek le 25-03-2003 à 15:12:01

---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318806
Oxygen3
Tears from the moon
Posté le 25-03-2003 à 15:00:19  profilanswer
 

MagiSim a écrit :


 
Pourquoi ? Parce que les cartes les plus courantes sont les cartes DX7 ! Il y a largmeent plus de cartes DX7 (GF256, GF2, GF4MX) que de cartes DX8 ou DX9 !
 
Ou s'il n'y en plus '+', elles sont encore trop nombreuses...
 
C'est dramatique mais c'est comme ça !
 
Et ATI avec son Rv280 réitère la même erreur !
 
Certes le FX5200, surtout non ultra, n'aura pas assez de muscles pour DX9, mais le niveau ne sera pas tiré vers le bas au niveau des fonctionnalités !
 
ATI a fait la même erreur que nVIDIA avec les GF4MX...


 
oui et non
la situation est pas vraiement la mm que celle des GF4MX
y'a pour l'instant pas ou presque de chips DX9, et pas encore bcp de chips DX8
la ou y'avait un gros pb c'est que le GF4MX n'avait pas d'évolution par rapport à la GF2MX et donc restait sur un pauvre DX7+
 
je pense franchement qu'il vaut mieux aujourd'hui un bon chip DX8 (ie rapide en DX8) plutot qu'un semblant de DX9 dans un chip déjà pas super rapide en DX8 ...
(vaut ptet mieux avoir un 30fps en DX8 que 20 en DX8 et 5 en DX9)
 
enfin c'est mon avis perso hein ...


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2318810
blazkowicz
Posté le 25-03-2003 à 15:02:52  profilanswer
 

Evildeus a écrit :

Je crois que tu confonds un peu tout.
 
Une carte DX9 peut exécuter tous les types de shaders grace au HLSL, et donc PS 1.1 jusqu'a 2.0 etc. C'est ici qu'elle est backward compatible. Le HLSL permet à la carte DX9 d'utiliser le shader requis.
 
Une carte DX8.1 ne pourra jamais effectué les PS2.0, c'est impossible, DX9 n'aide pas dans ce domaine. C'est pour cela qu'une carte DX8.1 avec un système DX9 installé ne pourra qd meme jamais faire tourné les eléments DX9 d'un jeu!


 
c'est vrai
 
mais les compilateurs des langages de haut niveau compileront différemment pour les PS 1.1, 1.4 et 2.0
le résultat sera le même mais nécessitera plus de passes,  
sera moins efficace (plus lent)
et avec moins de précision (32bits pour les DX8.0 et 48 bits pour les DX8.1,en int, contre 64/96/128bits fp)
 
 
 
 
j'ai raison ou pas :p ?


Message édité par blazkowicz le 25-03-2003 à 15:03:54
n°2318815
Oxygen3
Tears from the moon
Posté le 25-03-2003 à 15:03:54  profilanswer
 

Blazkowicz a écrit :


 
c'est vrai
 
mais les compilateurs des langages de haut niveau compileront différemment pour les PS 1.1, 1.4 et 2.0
le résultat sera le même mais nécessitera plus de passes,  
sera moins efficace (plus lent)
et avec moins de précision (32bits pour les DX8.0 et 48 bits pour les DX8.1,en int, contre 64/96/128bits fp)
 


on voit ce que ca donne avec les GF4 et les R8500 dans le G2 et G3 de 3DM'03
~ les mm résultats a cause d'une double passe sur les GF4


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2318817
mareek
Et de 3 \o/
Posté le 25-03-2003 à 15:04:08  profilanswer
 

MagiSim a écrit :


 
N'importe qui peut effectivement créer un compilateur spécifique à son hardware pour le cG. c'était dit lors de l'annonce, enfin, c'est ce qu'il me semble.

il y a bien un compilateur open souce "avec un profil generique" (dixit nVidia) mais il est très limité (il fait juste une verification sémantique et affiche une représentation du code sous forme d'arbre) et en plus j'arrive pas à le télécharger [:ddr555]
 
pour ceux que ça intéresse:
http://developer.nvidia.com/view.a [...] piler_code


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318821
mareek
Et de 3 \o/
Posté le 25-03-2003 à 15:06:14  profilanswer
 

JayK a écrit :


 
Ben ouais mais dans ce cas, pq tout le monde dev des jeux DX7 ? Je suis dsl, y a abus ... Y a bien un pb pour moi, ça doit se faire n'importe comment.

parce que DX9 vient de sortir et qu'OpenGL2 n'est pas encore sorti officiellement [:spamafote]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318822
Oxygen3
Tears from the moon
Posté le 25-03-2003 à 15:06:23  profilanswer
 

mareek a écrit :

il y a bien un compilateur open souce "avec un profil generique" (dixit nVidia) mais il est très limité (il fait juste une verification sémantique et affiche une représentation du code sous forme d'arbre) et en plus j'arrive pas à le télécharger [:ddr555]
 
pour ceux que ça intéresse:
http://developer.nvidia.com/view.a [...] piler_code


le pb est que le cg reste majoritairement orienté nvidia...
 
le language de MS avait au moins l'intéret d'etre indépendant d'un hardware et d'un fabricant et donc d'etre plus homogene dans les résultats :p :)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2318832
mareek
Et de 3 \o/
Posté le 25-03-2003 à 15:11:43  profilanswer
 

Blazkowicz a écrit :


 
c'était un exemple
pour que des gens comme jayk puissent comprendre :o
 
c'est vrai que si rendermonkey était l'équivalent de Frontpage ce serait un générateur de bugs graphiques :o
 

[:totoz]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318836
mareek
Et de 3 \o/
Posté le 25-03-2003 à 15:13:21  profilanswer
 

Blazkowicz a écrit :


 
c'est vrai
 
mais les compilateurs des langages de haut niveau compileront différemment pour les PS 1.1, 1.4 et 2.0
le résultat sera le même mais nécessitera plus de passes,  
sera moins efficace (plus lent)
et avec moins de précision (32bits pour les DX8.0 et 48 bits pour les DX8.1,en int, contre 64/96/128bits fp)
 
 
 
 
j'ai raison ou pas :p ?

C'est aussi ce que j'ai lu/entendu :jap:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318840
mareek
Et de 3 \o/
Posté le 25-03-2003 à 15:14:17  profilanswer
 

Oxygen3 a écrit :


le pb est que le cg reste majoritairement orienté nvidia...
 
le language de MS avait au moins l'intéret d'etre indépendant d'un hardware et d'un fabricant et donc d'etre plus homogene dans les résultats :p :)

[:toad666] je l'ai déjà dit dans un post de cette nuit, tout le monde l'a zappé ou quoi ?  :fou:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318843
sullivanXP
Posté le 25-03-2003 à 15:14:52  profilanswer
 

Citation :

on voit ce que ca donne avec les GF4 et les R8500 dans le G2 et G3 de 3DM'03
~ les mm résultats a cause d'une double passe sur les GF4


Désolé mais je pense que cela ne prouve rien de rien.
Rien ne dit que le pixel shading soit le facteur limitant. As tu vu tourner la scene des vertex shaders sur une 8500 et sur une GF4? As tu vu tourner une demo en ps 1.4 sur les deux cartes ? Rajoute à cela les drivers magouillé made in nvidia  + l'interview de carmack sur le "way r200" et moi je dis que c'est tres tres discutable comme argument. A une image pres ca peut se tenir alors bon...

n°2318848
sullivanXP
Posté le 25-03-2003 à 15:17:42  profilanswer
 

J'ajoute que c'est pas une double passe en plus.
C'est 1 + 1 pour les radeons et 1 + (1+1+1) pour les gf4.

n°2318853
Ernestor
modo-coco :o
Posté le 25-03-2003 à 15:20:06  profilanswer
 

mareek a écrit :

[:toad666] je l'ai déjà dit dans un post de cette nuit, tout le monde l'a zappé ou quoi ?  :fou:  


Non moi je l'ai lu !
 
Il etait tres bien ton post  :love:  :jap:  
 
:D  
 
C'est un classique d'ailleurs [:spamafote]
Faire un truc avec des specs ouvertes mais ne fournir que des outils optimises pour son propre matos.
En laissant les autres se debrouiller pour creer les outils adaptes aux autres systemes, en sachant que ca prendra du temps et que ca sera pas forcement simple .
 
D'un cote, ca te donne une "bonne image" donc on ne peut pas trop t'accuser (spec ouvertes, t'essaye pas de fermer le marche), de l'autre cote, en pratique c'est un peu different.


Message édité par Ernestor le 25-03-2003 à 15:21:47

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2318862
Oxygen3
Tears from the moon
Posté le 25-03-2003 à 15:22:08  profilanswer
 

sullivanXP a écrit :

Citation :

on voit ce que ca donne avec les GF4 et les R8500 dans le G2 et G3 de 3DM'03
~ les mm résultats a cause d'une double passe sur les GF4


Désolé mais je pense que cela ne prouve rien de rien.
Rien ne dit que le pixel shading soit le facteur limitant. As tu vu tourner la scene des vertex shaders sur une 8500 et sur une GF4? As tu vu tourner une demo en ps 1.4 sur les deux cartes ? Rajoute à cela les drivers magouillé made in nvidia  + l'interview de carmack sur le "way r200" et moi je dis que c'est tres tres discutable comme argument. A une image pres ca peut se tenir alors bon...


 
c'est quoi alors le facteur limitant ? [:joce]
 
sinon:
oui et oui


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2318863
mareek
Et de 3 \o/
Posté le 25-03-2003 à 15:22:48  profilanswer
 

Ernestor a écrit :


Non moi je l'ai lu !
 
Il etait tres bien ton post  :love:  :jap:  
 
:D


[:zoubi]
 
Moi aussi, je le trouve très bien, surtout pour un post ecrit à 1H du mat' [:ddr555]
 

Ernestor a écrit :

C'est un classique d'ailleurs [:spamafote]
Faire un truc avec des specs ouvertes mais ne fournir que des outils optimises pour son propre matos  
En laissant les autres se debrouiller pour creer les outils adaptes aux autres systemes, en sachant que ca prendra du temps et que donc les gens vont pas vouloir attendre ...
 
D'un cote, ca te donne une legitime dont on ne peut pas t'accuser (spec ouvertes, t'essaye pas de fermer le marche), de l'autre cote, en pratique c'est un peu different.

c'est marrant on dirait la description de .NET de M$ [:meganne]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2318864
Ernestor
modo-coco :o
Posté le 25-03-2003 à 15:23:38  profilanswer
 

mareek a écrit :


c'est marrant on dirait la description de .NET de M$ [:meganne]


:whistle:  


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2318869
Oxygen3
Tears from the moon
Posté le 25-03-2003 à 15:25:18  profilanswer
 

mareek a écrit :


[:zoubi]
 
Moi aussi, je le trouve très bien, surtout pour un post ecrit à 1H du mat' [:ddr555]
 
c'est marrant on dirait la description de .NET de M$ [:meganne]


c'est ptet idiot, mais je préfere d'un truc du type .net fait par MS que par nvidia ...


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2318885
evildeus
Posté le 25-03-2003 à 15:32:35  profilanswer
 

Blazkowicz a écrit :


 
c'est vrai
 
mais les compilateurs des langages de haut niveau compileront différemment pour les PS 1.1, 1.4 et 2.0
le résultat sera le même mais nécessitera plus de passes,  
sera moins efficace (plus lent)
et avec moins de précision (32bits pour les DX8.0 et 48 bits pour les DX8.1,en int, contre 64/96/128bits fp)
 
j'ai raison ou pas :p ?

Non non. Enfin, c'est peut etre moi qui te comprends pas la :/
 
DX9 compilera directement dans le shader prévu pour une carte DX9 si c'est un jeu DX8.1 ou moins mais pour une carte DX8 elle ne compilera jamais les nouveautés DX9.
 
Un jeu DX9 ne marchera jamais sur une carte DX8 sauf si il a été aussi codé pour les cartes DX8. Ta carte DX8 ne fera jamais tourné les PS 2.0 ou VS2.0.  
 
*espère etre clair et avoir compris*


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2318900
evildeus
Posté le 25-03-2003 à 15:39:09  profilanswer
 

:sarcastic:  
 

Citation :

Hi guys,  
 
Just wanted to drop a note to clarify what actually happened yesterday (a few news sites are giving this a bit melodramatic spin):  
 
First what we've done is following:  
 
1) We've disabled unofficial or 'leaked' driver results based to detonator 42.67/42.68/42.69 from our Online Result Browser (ORB).  
2) The results are still available to anyone who's submitted their scores i.e. we haven't deleted anyone's scores and anyone can keep them as reference or compare their own results from different drivers. The result based on these drivers have been excluded them from the project search and compare functionalities.  
 
This is an exception and does not mean that we will be disabling all non-WHQL results in the future.  
 
Second, the reasons for doing such an exception are following:  
 
1) Our policy has always been to encourage use of WHQL certified drivers. If WHQL certified drivers are not available we recommend using shipping drivers i.e. drivers that are publicly available and officially included with IHV's commercial versions of their products.  
2) The reason we've made an exception and disabled above mentioned drivers is two fold; These drivers have been given to review web sites as a curiosity in order to prove that 3DMark03 optimizations can be done at driver level. This point has now been made, but results based on these drivers do not belong to our ORB. Result based on shipping drivers or with WHQL certificate are more reflective to the performance that people who purchase hardware will experience.  
3) We've taken this action because of constant requests from our users and beta members. We hope that this situation is an exception and we do not need to disable any scores in the future.  
 
Cheers,  
 
AJ
_________________
Aki Järvilehto  
VP, Benchmark Products  
Futuremark Corporation


http://www.beyond3d.com/forum/view [...] 7748#97748


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2318930
Zeross
Posté le 25-03-2003 à 15:52:17  profilanswer
 

Il faut bien comprendre que les HSLS ne limitent pas le problème de la compatibilité avec les cartes plus anciennes : ce n'est pas parce qu'un shader sera codé en HLSL qu'il tournera au mieux sur toutes les cartes. Le HLSL reste dépendant de l'implémentation de bas niveau du GPU.
 
Je n'ai pas encore programmé en Cg mais d'après ce que j'en ai compris tu compiles en fonction de profiles : NV30, NV20 etc... Cependant un programme peut être correct et ne pas compiler tout simplement parce qu'il excède les possibilités du profile en question.
 

Citation :

With Cg, a syntactically and semantically
correct program may still not compile due to limitations of the
profile for which you are compiling the program.
 
Other errors may be due to exceeding a capacity limit of current GPUs such as the maximum number of instructions or the number of texture units available.
 
Understand that these profile dependent errors do not reflect
limitations of the Cg language, but rather limitations of the current implementation of Cg or the underlying hardware limitations of your target GPU.


 
Il faut quand mêm comprendre que le passage des PS1.x aux 2.0 a changé beaucoup de choses et qu'ils n'ont plus grand chose à voir et ce n'est pas un langage qui peut masquer cette différence. Le seul avantage du Cg ou de tout autre HLSL c'est qu'il permet de développer des shaders plus rapidement vu qu'on évite la fastidieuse tâche de recourir à l'assembleur et permet donc grâce au temps gagné d'écrire deux versions : une pour les GPU DirectX8 et une pour les GPU DirectX9 mais ça reste encoe à la charge du programmeur. A terme l'objectf des HLSL sera de pouvoir recourir au rendu multipasse pour pouvoir être transparent au programmeur comme le C se fiche du nombre de registres du CPU sur lequel il est compilé et autres détails de bas niveau. C'est ce que souhaite John Carmack mais pour l'instant on en est pas encore là et pour y arriver il faudra supprimer tous les GPU DirectX 8 qui sont bien trop limités au niveau des PS.
 
J'espère que c'est plus clair.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2318970
MagiSim
Magique, et oui !
Posté le 25-03-2003 à 16:08:44  profilanswer
 

Oxygen3 a écrit :


 
oui et non
la situation est pas vraiement la mm que celle des GF4MX
y'a pour l'instant pas ou presque de chips DX9, et pas encore bcp de chips DX8
la ou y'avait un gros pb c'est que le GF4MX n'avait pas d'évolution par rapport à la GF2MX et donc restait sur un pauvre DX7+
 
je pense franchement qu'il vaut mieux aujourd'hui un bon chip DX8 (ie rapide en DX8) plutot qu'un semblant de DX9 dans un chip déjà pas super rapide en DX8 ...
(vaut ptet mieux avoir un 30fps en DX8 que 20 en DX8 et 5 en DX9)
 
enfin c'est mon avis perso hein ...


 
Je suis aussi d'accord avec cet avis là.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2318975
MagiSim
Magique, et oui !
Posté le 25-03-2003 à 16:09:58  profilanswer
 

Evildeus a écrit :

Je crois que tu confonds un peu tout.
 
Une carte DX9 peut exécuter tous les types de shaders grace au HLSL, et donc PS 1.1 jusqu'a 2.0 etc. C'est ici qu'elle est backward compatible. Le HLSL permet à la carte DX9 d'utiliser le shader requis.
 
Une carte DX8.1 ne pourra jamais effectué les PS2.0, c'est impossible, DX9 n'aide pas dans ce domaine. C'est pour cela qu'une carte DX8.1 avec un système DX9 installé ne pourra qd meme jamais faire tourné les eléments DX9 d'un jeu!


 
Bizarre, qui me disait qu'on pouvait faire tourner tous les shaders en PS 1.4 sur une carte < PS 1.4 ? Je sais pas si c'est toi, mais quelqu'un me l'a sorti....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2318981
MagiSim
Magique, et oui !
Posté le 25-03-2003 à 16:11:17  profilanswer
 

mareek a écrit :

C'est aussi ce que j'ai lu/entendu :jap:  


 
Itou. J'avais aussi compris que c'est le SDK qui faisait la trada pour les vieux crin-crins....


Message édité par MagiSim le 25-03-2003 à 16:11:53

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2318984
Oxygen3
Tears from the moon
Posté le 25-03-2003 à 16:11:43  profilanswer
 

j'ai peur que nvidia ait pas fait sa transition DX8/DX9 dans les regles de l'art
 
j'ai l'impression que les chips de nv sont trop orientés DX9 en fait  :heink:


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2318986
mareek
Et de 3 \o/
Posté le 25-03-2003 à 16:12:07  profilanswer
 

MagiSim a écrit :


 
Bizarre, qui me disait qu'on pouvait faire tourner tous les shaders en PS 1.4 sur une carte < PS 1.4 ? Je sais pas si c'est toi, mais quelqu'un me l'a sorti....

ya un peu plus de différence entre les PS 1.4 et 2.0 qu'entre les PS 1.1 et 1.4 aussi  :whistle:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
[TOPIC OFFICIEL] <<< Cartes mères SIS 655 - P4 HT - Dual DDR >>>[Topic officiel] ASUS A7V333
[Topic Officiel] ASUS i865PE & i875P Springdale[Topic officiel] ABIT NF7-S nForce 2
site officiel du constructeur de boitier de marque E-Star[topic officiel] Soltek SL-75FRN-L nforce2
Topic Officiel Cartes Mères i865/i875 P4 -Prescott + DUAL DDR 400MHz[TOPIC OFFICIEL] <<< Cartes mères SIS 655 - P4 HT - Dual DDR >>>
[Topic Officiel] Asus A7N8X (nForce2)[Topic officiel] Epox 8rda+ ,new bios, 230 fsb max en dual ddr
Plus de sujets relatifs à : [tomik sûrement officiel] NV 35 !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)