Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2496 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  11  12  13  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°2478812
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 19:28:01  profilanswer
 

Reprise du message précédent :

Ernestor a écrit :

J'ai meme l'impression que les jeux soit-disant DX 8 du moment sont plutot uniquement de vrais jeux DX 7 (comprenne qui pourra aussi :D)

Ah ben on est deux ;)
 
Enfin si parfois y'a un peu de flotte ... :D

mood
Publicité
Posté le 28-05-2003 à 19:28:01  profilanswer
 

n°2478818
Ernestor
modo-coco :o
Posté le 28-05-2003 à 19:30:33  profilanswer
 

Pour tes yeux bioniques, je suppose que c'est un modele unique qui se trouve pas en magasin  :whistle:  
 
Pas grave :)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2478826
Zeross
Posté le 28-05-2003 à 19:34:02  profilanswer
 

tridam a écrit :


 
Sur quoi te bases-tu pour prétendre si fermement que Futuremark a programmé son bench avec les pieds ?? Tu as pu analyser les shaders employés ? Les algorithmes utilisés ?
 
Je penses que les détracteurs de 3dmark mélangent pas mal de notions quand ça les arrange. D'un côté, il prétendent que ce n'est pas un jeu et qu'il ne faut donc pas interpréter ses résultats comme ceux d'un jeu et d'un autre ils utilisent les critères d'un moteur de jeu pour le démonter. Là j'ai du mal à comprendre...
 
3DMark est avant tout fait pour montrer comment réagissent les cartes sous une certaine charge. C'est la seule chose qui m'intéresse dans ce bench. Maintenant, savoir si artistiquement il est possible de faire quelque chose de plus joli avec la même charge (ou quelque chose d'aussi joli avec une charge réduite) est un autre débat. C'est assez clair que dans un jeu actuel ou à sortir bientôt, aucun programmeur ne va utiliser les algoritmes d'ombrage de 3dmark. Mais ce n'est pas un problème vu que ce qui est intéressant dans 3dmark est la charge soumise à la carte graphique et pas la rentabilité de cette charge.
 
Les shaders utilisés dans 3dmark vont clairement dans le sens de DX8 et de DX9. L'architecture des FX ne va pas complètement dans ce sens... Le sens des FX est bien adapté à DX8 (à condition d'avoir un code qui évite les dépendances) mais très mal à DX9.  
 
 
J'ai lu aussi que tu indiquais que 3dmark ne suivait pas complètement DX9 vu qu'il n'utilisait pas le HLSL. Le HLSL est uniquement une aide pour faciliter la programmation. L'utiliser n'est qu'une option. Qui plus est, le compilateur HLSL était assez pourri au moment où Futuremark a dû développer ses shader. Et puis il ne faut pas oublier que HLSL et Cg peuvent simplement pondre un code à copier/coller dans le moteur et pas uniquement fonctionner en runtime.
 
 
Enfin, je trouve un peu facile de critiquer la programmation de 3dmark aussi facilement... Mais bon, NVIDIA  tout fait pour pousser ce genre de raisonnement :(


 
Je ne suis pas complètement d'accord avec ton discours, il me semble que la postion de FM ne soit pas très claire : soit on considère 3DMark comme un bench purement théorique et on ne garde que les benchs synthétiques (qui ont effectivement pour but de "stresser" des parties du GPU au maximum). Soit on le considère comme un bench représentant une carte 3D en situation de jeu. J'ai l'impression que FM privilégie cette dernière après tout il y a bien les "Game Tests" ce qui est assez clair : dans leur esprit ces benchs sont là pour simuler ce qui se passe en condition de jeux.
 
Augmenter la charge pour voir le comportement d'une carte 3D dans cette situation est en effet une option intéressante, maintenant il y a façon et façon d'augmenter la charge d'une carte : si je passe mon temps à changer d'état j'augmente la charge (cest encore aujourd'hui une opération parlmi les plus couteuses pour un GPU) pourtant on ne peut pas dire que ce soit très intelligent comme méthode. Si je fais un rendu en back to front j'augmente l'overdraw donc la charge et au pasage je me prive des techniques apparues sur les cartes récentes : encore une fois je ne trouve pas ça très intelligent comme façon d'augmenter la charge du GPU. Idem si j'utilise des primitives indépendantes au lieu de vertex buffer je vais placer la charge à fond sur le GPU mais pour mesurer une situation absolument sans intérêt.
 
Comme je l'ai dis les optimisations d'architecture consistent à rendre le cas courant rapide, utiliser des méthodes peu courantes augmentera certe la charge GPU mais est en totale inadéquation avec ce que doit fair un programmeur 3D. Je ne demande pas des optimisations de bas niveau propres à chaque carte loi nde là mais juste respecter les principes de base faciles à mettre en oeuvre et qui profitent à tout le monde.


Message édité par Zeross le 28-05-2003 à 19:36:05

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478831
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 19:39:33  profilanswer
 

Marc a écrit :

Ah ben on est deux ;)
 
Enfin si parfois y'a un peu de flotte ... :D


 
C'est clair que les moteurs de shader nFinite FX, Cine FX, Smartshader etc. auraient pu s'appeler SmartWater FX :D

n°2478832
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 19:40:11  profilanswer
 

C'est vrai que pour le HSR ce n'est pas très logique, enfin d'un autre côté comme a priori il est plus performant chez ATI que chez NVIDIA c'était peut être pour favoriser NVIDIA ... ? (ok je sors).
 
P-e était ce pour avoir un certain % de PS 2.0 sur la scène ... enfin dans tous les cas c'est vrai que je suis également assez perplexe sur les charge de travails dans les tests théoriques de 3Dmark03.
 
D'ailleurs dans ma preview de 3DMark03 j'avais déjà dis que je regrettais le manque de test purement synthétique dans 3DMark03 :/

n°2478839
Ernestor
modo-coco :o
Posté le 28-05-2003 à 19:42:38  profilanswer
 

tridam a écrit :


 
C'est clair que les moteurs de shader nFinite FX, Cine FX, Smartshader etc. auraient pu s'appeler SmartWater FX :D


D'ailleurs, y a-t-il un jeu qui utilise les shaders pour modeliser autre chose que de la flotte :??:


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2478847
sombresong​e
Posté le 28-05-2003 à 19:45:44  profilanswer
 

tridam a écrit :


 
C'est clair que les moteurs de shader nFinite FX, Cine FX, Smartshader etc. auraient pu s'appeler SmartWater FX :D


 
Oué :p

n°2478853
jinxjab
Protection engendre sacrifice
Posté le 28-05-2003 à 19:47:36  profilanswer
 

HAHAHAHAHAHA   je suis ptdr !!!
 
Ca me fait marrer de lire ce debat, non pas que je me moque. Mais je ne comprend rien aux termes spécifiques employés.
 
De plus, sans parler de technique comment peut-on affirmer l'intégrité de FM.
Quelqu'un a-t-il les codes sources ??? non
Donc il est impossible de réellement faire confiance en FM.
(Dans le cas eventuel d'une optimisation pour une carte graphique et pas d'autres)
 
De plus un point important, il me semble, a été soulevé.
Les cartes ne peuvent etre comparée en toute objectivité connaissant leur spécifications physiques.
 
Or le monde est cruel, le but de la CG est, dans ce cas précis, le JEU. Il faut qu'il soit beau, fluide et "réaliste". On ne peut prendre en compte les differences technologiques apportées.("Matroxs' fall" ).  
Donc pour l'instant sur le "support" 3dmark03 c'est la R350 qui l'emporte apparemment.
En attendant une autre application Dx9, car pour moi FM n'est pas forcement pour rien dans cette histoire.


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°2478870
chrisleurn
Hardcore Will Never Die !
Posté le 28-05-2003 à 19:58:12  profilanswer
 

JinxJab a écrit :

En attendant une autre application Dx9, car pour moi FM n'est pas forcement pour rien dans cette histoire.


Faudrais voir si Tetris peut etre benché [:joce]

n°2478872
jherek
Roi de Prusse, Pennsylvanie
Posté le 28-05-2003 à 19:58:25  profilanswer
 

Juste pour vous donner l'avis d'un utilisateur averti mais moins "pro" que vous sur les techniques 3D : je suis plutôt d'accord avec Magisim et Tridam d'après TOUT le topic, le test de HFR et les news de Beyond3D.
 
Pour moi 3Dmark 2003 n'est pas parfait mais il reste le meilleur pour avoir un avis sur les perf théoriques sous DX8 et 9. D'ailleurs les jeux testés par Marc tendent vers les même résultat. Le patch b330 est efficace, non ?


---------------
Mon blog informatique - Faye Wong, le phenomene chinois
mood
Publicité
Posté le 28-05-2003 à 19:58:25  profilanswer
 

n°2478876
evildeus
Posté le 28-05-2003 à 20:00:34  profilanswer
 

Je n'ai jamais dis que 3DMark03 n'etait pas DX9 parce que ca n'utilisait pas le HLSL, mais que c'etait dommage, car c'est une option intéressante. Ne me fais pas dire ce que je ne dis pas.
 
Ensuite, je ne sais pas si c'est le cas, seulement que certaines personnes le pense, et que ces personnes sont des dév... Maintenant, je n'ai pas vu de dév faire l'appologie de la programmation de FM. Meme Ati a substitué des codes plus efficaces (+20% que grace au shaders qd meme).
 
Mais maintenant si tu trouves un lien intéressant je suis preneur.

tridam a écrit :

Blah blah blah


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2478878
jinxjab
Protection engendre sacrifice
Posté le 28-05-2003 à 20:01:41  profilanswer
 

tetris en Dx9 j'achete tout de suite, mais je ne C pas si ma gf3 suivra :pt1cable:  :lol:


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°2478881
chrisleurn
Hardcore Will Never Die !
Posté le 28-05-2003 à 20:03:04  profilanswer
 

JinxJab a écrit :

tetris en Dx9 j'achete tout de suite, mais je ne C pas si ma gf3 suivra :pt1cable:  :lol:  


L'es sympa [:sstarshoot]

n°2478904
chrisleurn
Hardcore Will Never Die !
Posté le 28-05-2003 à 20:14:21  profilanswer
 

http://perso.wanadoo.fr/chrisleurn [...] is_DX9.JPG
quand meme, y'a le framerate en bas a gauche [:willone] , bon le screen et mal fait j'etait en hight performance mais bon :o
 
EDIT: avec FSAA6x et Aniso 16x tout a fond
http://perso.wanadoo.fr/chrisleurn [...] 9_fsaa.JPG
Spa mal non plus :sol:


Message édité par chrisleurn le 28-05-2003 à 20:23:38
n°2478932
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 20:23:17  profilanswer
 

Zeross a écrit :


 
Je ne suis pas complètement d'accord avec ton discours, il me semble que la postion de FM ne soit pas très claire : soit on considère 3DMark comme un bench purement théorique et on ne garde que les benchs synthétiques (qui ont effectivement pour but de "stresser" des parties du GPU au maximum). Soit on le considère comme un bench représentant une carte 3D en situation de jeu. J'ai l'impression que FM privilégie cette dernière après tout il y a bien les "Game Tests" ce qui est assez clair : dans leur esprit ces benchs sont là pour simuler ce qui se passe en condition de jeux.
 
Augmenter la charge pour voir le comportement d'une carte 3D dans cette situation est en effet une option intéressante, maintenant il y a façon et façon d'augmenter la charge d'une carte : si je passe mon temps à changer d'état j'augmente la charge (cest encore aujourd'hui une opération parlmi les plus couteuses pour un GPU) pourtant on ne peut pas dire que ce soit très intelligent comme méthode. Si je fais un rendu en back to front j'augmente l'overdraw donc la charge et au pasage je me prive des techniques apparues sur les cartes récentes : encore une fois je ne trouve pas ça très intelligent comme façon d'augmenter la charge du GPU. Idem si j'utilise des primitives indépendantes au lieu de vertex buffer je vais placer la charge à fond sur le GPU mais pour mesurer une situation absolument sans intérêt.
 
Comme je l'ai dis les optimisations d'architecture consistent à rendre le cas courant rapide, utiliser des méthodes peu courantes augmentera certe la charge GPU mais est en totale inadéquation avec ce que doit fair un programmeur 3D. Je ne demande pas des optimisations de bas niveau propres à chaque carte loi nde là mais juste respecter les principes de base faciles à mettre en oeuvre et qui profitent à tout le monde.


 
Pour moi les Game Tests restent des benchs synthétiques. A la différence des autres tests spécifiques (pixel shader, vertex shader, fillrate), ils stressent la globalité de la machine ou de la carte graphique, comme c'est le cas dans un jeu. Bien entendu, dans un jeu, une carte sera stressée plus intelligement, mais est-ce que ça change quelque chose au final ?
 
 
- Le changement d'état, c'est clair que c'est coûteux, très coûteux même, encore plus sur des longs pipelines comme ceux des GefFX. Cependant, je pense qu'ils sont plus que nécessaires pour les pixel shader. Les Geffx ont d'ailleurs un système de pixel shader prévu pour des changements fréquents. Mais je ne sais pas ce que fait 3dmark à ce niveau.
 
- Le rendu back to front : je suis d'accord, c'est à éviter, même pour augmenter la charge vu que ça supprime l'influence des certaines unités des cartes graphiques. Cependant, parfois un rendu back to front est obligatoire. Futuremark l'utilise visiblement dans Mother Nature. Il y a peut-être une raison à cela ? Ou c'est fait tout simplement pour augmenter virtuellement la charge sans devoir effectuer un travail artistique supplémentaire. Les autres scènes fonctionnent peut-être en front to back par contre...
 
- 3dmark utilise des vertex buffer si je ne me trompe pas.
 
 
Le but de 3dmark n'est pas de montrer comment se comporte la carte dans une utilisation courante. Il y a les jeux pour ça. C'est de nous montrer ce que ça donne dans une utilisation moins courante, avec une charge plus importante comme ce sera le cas dans le futur.
 
Au niveau benchmarking, y a-t-il une différence entre un rendu back to front avec shader et géométrique de complexité 1 et un rendu front to back avec géométrie et shader de niveau 2 ? Pas vraiment même si au niveau des jeux la première solution ne sera jamais utilisée.
 
Futuremark indique clairement ce qui est rendu dans chaque scène donc on peut poser l'analyse en sachant à quoi correspondent les chiffres qu'on a obtenus. Dans ce cas il n'y a pas de problème, sauf si le testeur n'est pas capable de comprendre les chiffres qui sortent de 3dmark...  
 
3Dmark représente les capacités de la carte. Il devrait être différent pour indiquer les performances dans un jeu et inclure d'autres paramètres dans sa programmation comme le poids de chaque fabricant de puces vu que les développeurs se basent sur l'état du marché. Autrement dit, cela reviendrait à favoriser le FX12 parce que NVIDIA a plus de part de marché pour écouler ses GeForce FX au lieu d'utiliser du floating point parce que spécifié par défaut dans DirectX. Mais bon, personnellement, quand je bench une carte, ce sont ses capacités qui m'intéressent avant tout. Pas celles du service commercial de NVIDIA et de ses relations avec les développeurs/éditeurs.
 
Ceci dit, j'ai été déçu par 3dmark03. J'aurai par exemple préféré que le floating point ne soit pas utilisé uniquement pour le côté "augmenter la charge" mais surtout pour apporter un plus flagrant au niveau qualité de rendu. Ce serait pas mal que futuremark améliore ce point dans sa prochaine version. Je pense d'ailleurs qu'ils ont bien compris qu'ils devraient y faire attention à l'avenir. Mais bon, ça ne change rien au fait que 3dmark03 est un outil utile pour analyser une carte graphique. Le seul hic, c'est que certains testeurs sont incapables de l'utiliser... comme c'était déjà le cas avec 3dmark2001. Mais là ça ne dérangeait nullement NVIDIA :D

n°2478950
sombresong​e
Posté le 28-05-2003 à 20:35:54  profilanswer
 

tridam a écrit :


Le but de 3dmark n'est pas de montrer comment se comporte la carte dans une utilisation courante. Il y a les jeux pour ça. C'est de nous montrer ce que ça donne dans une utilisation moins courante, avec une charge plus importante comme ce sera le cas dans le futur.


 
Pas d'accord, 3DMark se veut avant tout un reflet de ce que font la plupart des jeux, c'est pourquoi ils integre le son et un moteur physique dans les game test. Pour voir ce que ca donne dans une utilisation moins courante bah ya les demos et les bench synthétique pour ça.

n°2478951
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 20:36:35  profilanswer
 

Evildeus a écrit :

Je n'ai jamais dis que 3DMark03 n'etait pas DX9 parce que ca n'utilisait pas le HLSL, mais que c'etait dommage, car c'est une option intéressante. Ne me fais pas dire ce que je ne dis pas.
 
Ensuite, je ne sais pas si c'est le cas, seulement que certaines personnes le pense, et que ces personnes sont des dév... Maintenant, je n'ai pas vu de dév faire l'appologie de la programmation de FM. Meme Ati a substitué des codes plus efficaces (+20% que grace au shaders qd meme).
 
Mais maintenant si tu trouves un lien intéressant je suis preneur.
 


 
Je ne veux pas te faire dire ce que tu n'as pas dit ;) Mais c'est ce que j'ai retenu en lisant ton post sur le sujet. Pourquoi est-ce une option intéressante d'utiliser le HLSL ???
 
C'est normal que des dev pensent ça. C'est clair que pour un jeu, ils n'auraient pas du tout utiliser les mêmes méthodes de rendu. Mais 3dmark sert uniquement de bench. C'est sous cette optique qu'il faut poser la critique. (Dans les boards développeurs, il y a toujours des dev d'ATI et NVIDIA qui ont pour mission de pousser ce qui arrange leur boîte).
 
Futuremark à utilisé des shader respectant les normes basiques définines par DirectX. ATI s'en est aussi légèrement écarté en proposant, en option, de rendre 1 scalaire et un vecteur en parallèle et par pipe (au passage, ils n'annoncent pas 16 pipes pour la cause). Donc ils peuvent réorganiser les shader et les dépendances pour en profiter. Ca montre d'ailleurs que Futuremark n'a pas pondu des shader pour Radeon ;)
 
Et là, je te rejoins plus ou moins sur le HLSL car si Futuremark avait utilisé des shader en langage de haut niveau convertis par les drivers en runtime, ça n'aurait pas posé de problème car ATI en faisant la même chose n'aurait pas "triché". NVIDIA ne l'aurait pas fait non plus s'ils avaient respecté la précision définie dans le langage de haut niveau. Mais bon, il ne faut pas être devin pour voir que les optimisations de NVIDIA c'est passer de réduire la précision pour pouvoir utiliser des unités de calculs supplémentaires.

n°2478958
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 20:41:18  profilanswer
 

sombresonge a écrit :


 
Pas d'accord, 3DMark se veut avant tout un reflet de ce que font la plupart des jeux, c'est pourquoi ils integre le son et un moteur physique dans les game test. Pour voir ce que ca donne dans une utilisation moins courante bah ya les demos et les bench synthétique pour ça.


 
Pas de ce que font mais de ce que feront. Vu que les dev de Futuremark ne sont pas devins, les gametest restent des benchs démo/synthétiques. Le moteur physique c'est logique qu'il soit intégré vu qu'il interragit avec les vertex shader logiquement.
 
Maintenant, Futuremark veut peut être faire passer 3dmark03 pour un équaivalent de bench jeu. Là je ne suis pas d'accord et je n'utilise pas 3dmark dans ce sens.
 
Le bench son n'est présent que dans le test 1 qui lui est assez basique et donc +/- représentatif des jeux actuels. Ce n'est pas le cas des tests 2, 3 et 4.

n°2478967
Ernestor
modo-coco :o
Posté le 28-05-2003 à 20:43:41  profilanswer
 

tridam a écrit :


Maintenant, Futuremark veut peut être faire passer 3dmark03 pour un équaivalent de bench jeu. Là je ne suis pas d'accord et je n'utilise pas 3dmark dans ce sens.


D'un point de vue marketing c'est mieux pour eux de dire que c'est un bench representatif des jeux futurs plutot qu'un bench tres lourd juste pour voir ce que les CG ont sous leur ventilo :D
 
Dans le premier cas, ca interesse potentiellement tout le monde, dans le second cas, seulement les gens qui trainent sur le genre de topic ou nous sommes.


Message édité par Ernestor le 28-05-2003 à 20:44:09

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2478982
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 20:51:07  profilanswer
 

Ernestor a écrit :


D'un point de vue marketing c'est mieux pour eux de dire que c'est un bench representatif des jeux futurs plutot qu'un bench tres lourd juste pour voir ce que les CG ont sous leur ventilo :D
 
Dans le premier cas, ca interesse potentiellement tout le monde, dans le second cas, seulement les gens qui trainent sur le genre de topic ou nous sommes.


 
Pas d'accord. Il y a beaucoup de gens qui aiment savoir à quoi s'attendre quand ils achètent une carte graphique. Pour un testeur, le seul moyen de faire des prévisions sur le comportement d'une carte dans le futur, est d'utiliser ce genre de softs.
 
Pour moi, 3dmark est représentatif de la lourdeur des jeux futurs. Mais pas directement des jeux eux-mêmes et de leurs techniques de rendu.

n°2478983
sombresong​e
Posté le 28-05-2003 à 20:51:11  profilanswer
 

Toute façon moi le meilleur bench c mes yeux :p qd les jeux auquelle je veux jouer marche pas bien bah je regarde chez mes potes celui chez qui ca marche le mieux et je prend pareil :p  :D Ensuite que la CG que j'ai pris est une grosse bouse sous 3DMark ou pas je m'en fous si je peux jouer aux jeux que je veux comme je le veux parceque je le vaut bien :D

n°2479005
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 21:00:34  profilanswer
 

sombresonge a écrit :

Toute façon moi le meilleur bench c mes yeux :p qd les jeux auquelle je veux jouer marche pas bien bah je regarde chez mes potes celui chez qui ca marche le mieux et je prend pareil :p  :D Ensuite que la CG que j'ai pris est une grosse bouse sous 3DMark ou pas je m'en fous si je peux jouer aux jeux que je veux comme je le veux parceque je le vaut bien :D  


 
Yep, mais imagine que tu sois un père de famille qui accepte de filer 300¤ à son fils pour qu'il arrête de lui casser les c....... pour avoir une carte qui fait pas ramer. Si tu as envie qu'il te les laches pendant plus d'un an, c'est intéressant de voir ce que ça donne dans des softs comme 3dmark ;)

n°2479006
sombresong​e
Posté le 28-05-2003 à 21:01:24  profilanswer
 

:lol: Oué c klr que dans ce cas :lol:

n°2479008
Ernestor
modo-coco :o
Posté le 28-05-2003 à 21:02:13  profilanswer
 

tridam a écrit :


Pas d'accord. Il y a beaucoup de gens qui aiment savoir à quoi s'attendre quand ils achètent une carte graphique.  


La majorite des gens utilisaient 3D Mark 2001 parce qu'ils pensaient que le score donne avait un sens pour connaitre les perfs de leur machine dans les jeux. C'est pas le cas. Enfin pas exactement. Certes, en analysant en detail, ca aide a connaitre le potentiel d'une machine. La je suis d'accord.
 
Regarde un bench comme CodeCreature : il a ete catalogue comme "benchmark de shaders". Pour le "grand public", il est pas tres connu. Donc mon propos etait de dire que d'un point de vue marketing c'est mieux de dire : "utiliser mon bench, vous saurez comment tourneront vos jeux". C'est plus vendeur. Apres que ca soit vraiment le cas ou pas, c'est un autre probleme :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2479021
Zeross
Posté le 28-05-2003 à 21:05:38  profilanswer
 

tridam a écrit :


Et là, je te rejoins plus ou moins sur le HLSL car si Futuremark avait utilisé des shader en langage de haut niveau convertis par les drivers en runtime, ça n'aurait pas posé de problème car ATI en faisant la même chose n'aurait pas "triché".


 
Malheureusement DirectX 9 ne fonctionne pas comme ça le HLSL est converti par un compilateur MS dans le langage assembleur de DirectX :(
 
OpenGL2 en revanche place le compilateur au niveau du driver lui permettant d'effectuer des optimisations spècifiques (vu que c'est au fabriquant de carte 3D d'écrire son compilateur).
 
Pour en revenir à 3DMark2003 les techniques que j'ai données n'étaient pas tirées de 3DMark c'était juste des exemples d'augmentation de la charge qui n'était pas judicieux, j'espère que 3DMark utilise des vertex buffers sinon ce serait encore pire que je ne le pensais ;)
 
Sinon concernant le bench en lui même là c'est à chacun de faire son opinion pour toi sa lourdeur est proche de ce que l'on retrouvera dans les futurs jeux (ou tout du moins représentatif) moi je ne le pense pas vraiment. Pour tester vraiment efficacement je préfèrerais un bench avec moins de contenu artistique moins de "bells & whistles" sans le côté jolie démo et qui à mon avis handicape plus la fiabilité du bench qu'autre chose. Mais je ne cherche pas à l'adapter à la société dominante dans le secteur de la 3D loin de là, d'ailleurs je préfère rester loin des querelles de religion ATI VS nVidia personnelement ça ne m'intéresse pas.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2479045
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 21:18:52  profilanswer
 

Zeross a écrit :


 
Malheureusement DirectX 9 ne fonctionne pas comme ça le HLSL est converti par un compilateur MS dans le langage assembleur de DirectX :(
 
OpenGL2 en revanche place le compilateur au niveau du driver lui permettant d'effectuer des optimisations spècifiques (vu que c'est au fabriquant de carte 3D d'écrire son compilateur).
 
Pour en revenir à 3DMark2003 les techniques que j'ai données n'étaient pas tirées de 3DMark c'était juste des exemples d'augmentation de la charge qui n'était pas judicieux, j'espère que 3DMark utilise des vertex buffers sinon ce serait encore pire que je ne le pensais ;)
 
Sinon concernant le bench en lui même là c'est à chacun de faire son opinion pour toi sa lourdeur est proche de ce que l'on retrouvera dans les futurs jeux (ou tout du moins représentatif) moi je ne le pense pas vraiment. Pour tester vraiment efficacement je préfèrerais un bench avec moins de contenu artistique moins de "bells & whistles" sans le côté jolie démo et qui à mon avis handicape plus la fiabilité du bench qu'autre chose. Mais je ne cherche pas à l'adapter à la société dominante dans le secteur de la 3D loin de là, d'ailleurs je préfère rester loin des querelles de religion ATI VS nVidia personnelement ça ne m'intéresse pas.  


 
Arf je pensais que le HLSL pouvait aussi être converti en runtime :( Yep dans ce cas pas vraiment d'intérêt à l'utiliser sauf pour se faciliter la tâche.
 
Yep, le compilateur OGL2 est mieux foutu à ce niveau. Mais ça implique que les fabricants acceptent d'optimiser et pas de changer le niveau de précision demandé par le développeur.
 
Je suis d'accord, le côté jolie démo n'a que peu d'intérêt. Mais 3dmark reste le seul outil lourd à notre disposition donc il est le bienvenu ;) C'est clair que ce serait encore mieux si 3dmark pouvait être lourd et réaliste mais bon...
 
Pour les querelles de religion, je suis aussi d'accord, c'est lourd. Perso, ce qui m'intéresse c'est uniquement l'évolution de la 3D et là j'ai un malaise avec NVIDIA vu que j'ai l'impression que leur gamme GeForce FX (excepté la 5900) bride cette évolution plus qu'autre chose. Au départ je me suis dit "Chouette, DX9 même dans l'entrée de gamme". Puis là je me dis que les perfs sont tellement faibles que ça limitera encore plus son utilisation. D'autant plus que pour éviter que les développeurs utilisent certaines fonctions de DX9, NVIDIA a oublié de les intégrer dans ses drivers. Enfin, le côté lourd, c'est que les cartes ATI sont capables de faire certaines choses et que les cartes de NVIDIA ne le sont pas. Résultat, NVIDIA fait le forcing pour que les développeurs n'utilisent pas ce qui ne va pas bien sur les GeFFX. Ce n'est pas top pour aider l'évolution.

n°2479069
sombresong​e
Posté le 28-05-2003 à 21:24:48  profilanswer
 

C klr que la game DX9 de nvidia est bizard on a l'impression qu'ils ont implémenté le support de DX9 malgrès eux :sweat:  
 
D'un point de vu de codeur je trouve qd meme DX mal fichu (me suis arreter à DX7) et je prefere nettement OGL

n°2479153
evildeus
Posté le 28-05-2003 à 22:07:14  profilanswer
 

tridam a écrit :


Je ne veux pas te faire dire ce que tu n'as pas dit ;) Mais c'est ce que j'ai retenu en lisant ton post sur le sujet. Pourquoi est-ce une option intéressante d'utiliser le HLSL ???


Tu réponds toi meme à ta question non? ;)

Citation :

Et là, je te rejoins plus ou moins sur le HLSL car si Futuremark avait utilisé des shader en langage de haut niveau convertis par les drivers en runtime, ça n'aurait pas posé de problème car ATI en faisant la même chose n'aurait pas "triché". NVIDIA ne l'aurait pas fait non plus s'ils avaient respecté la précision définie dans le langage de haut niveau. Mais bon, il ne faut pas être devin pour voir que les optimisations de NVIDIA c'est passer de réduire la précision pour pouvoir utiliser des unités de calculs supplémentaires.


 

Citation :

C'est normal que des dev pensent ça. C'est clair que pour un jeu, ils n'auraient pas du tout utiliser les mêmes méthodes de rendu. Mais 3dmark sert uniquement de bench. C'est sous cette optique qu'il faut poser la critique. (Dans les boards développeurs, il y a toujours des dev d'ATI et NVIDIA qui ont pour mission de pousser ce qui arrange leur boîte).


Hmmm, alors en quoi FM peut se targuer d'etre future proof, si en fait cela n'a rien à voir avec le futur des jeux? Le fait que ce ne soit pas un jeu n'empeche pas que l'on peut faire quelquechose de clean ou de plus alambiqué :)
 


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2479195
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 22:30:45  profilanswer
 

Evildeus a écrit :


Tu réponds toi meme à ta question non? ;)
 
 
Hmmm, alors en quoi FM peut se targuer d'etre future proof, si en fait cela n'a rien à voir avec le futur des jeux? Le fait que ce ne soit pas un jeu n'empeche pas que l'on peut faire quelquechose de clean ou de plus alambiqué :)
 
 


 
Pas vraiment car si on remet en cause le remplacement de shaders, ça n'a plus de sens. De toute manière, le HLSL ne fonctionne ps en runtime :p J'avais parlé trop vite.
 
Ils sont futur proof car ils expriment la "lourdeur" des futurs jeux. Même si dans les jeux, cette lourdeur se fera peut-être d'une manière différente, ce sont les mêmes unités qui seront mises à genou donc...

n°2479474
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 00:22:10  profilanswer
 

C'est pareil qu'un exam : la llourdeur sera comparable à la réalité, sans stresser de la même façon les unités....... J'l'aime bien cette analogie....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2479825
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 10:43:00  profilanswer
 

Tiens, Evildeus, regarde ce que Extremtech dit des chiffres bas des Radeon après le patch 330.........
 
pas ce que tu croyais....
 
http://www.extremetech.com/article [...] 259,00.asp


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2479879
evildeus
Posté le 29-05-2003 à 11:22:19  profilanswer
 

MagiSim a écrit :

Tiens, Evildeus, regarde ce que Extremtech dit des chiffres bas des Radeon après le patch 330.........
 
pas ce que tu croyais....
 
http://www.extremetech.com/article [...] 259,00.asp


Oui j'ai vu cela il y a peu. :)


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2479896
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 11:28:52  profilanswer
 

Evildeus a écrit :


Oui j'ai vu cela il y a peu. :)


 
 :na:  ;)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2479926
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 29-05-2003 à 11:42:39  profilanswer
 

Zeross : Toi qui est un fan de Carmack, est ce que tu sais si il y'aura la possibilité de forcer les FP16 tout en utilisant tout de même le path ARB2 ? Ce serait interressant, pour les benchs :)

n°2479960
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 12:04:07  profilanswer
 

ça serait déjà dériver de l'ARB2 qui spécifie la précision maximale pure......  :sweat:  
 
ça va être un gros merdier pour bencher les perfs brutes des cartes..... D'ailleurs, beaucoup d emonde considère que ça vaudra rien comme bench.....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2479979
Fendnts
My fading voice sings of love
Posté le 29-05-2003 à 12:14:53  profilanswer
 

MagiSim a écrit :

ça serait déjà dériver de l'ARB2 qui spécifie la précision maximale pure......  :sweat:  
 
ça va être un gros merdier pour bencher les perfs brutes des cartes..... D'ailleurs, beaucoup d emonde considère que ça vaudra rien comme bench.....


 
j'aime bien ces phrases jetées en l'air :lol:  
qui ça, à part toi ?


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2480088
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 12:54:35  profilanswer
 

Les gens qui se rendent compte que pour faire une comparaiton de pefs brutes, c'est con de comparer à des niveaux de charge différentes. Il y en a un peu ici, sur B3D, sur Rage3D (mais eux je les cite uniquement comme ça, on les traitera de biaisés, ce qui n'est pas faux)....
 
Tu vas me dire "gniah-gniah gniah ATI tourne qu'en FP24."
 
Ok, je suis d'accord. Mais nVIDIA, qui marketise à fond le FP32 ne l'éxécute que marginalement.......  
 
Et personne ne les a forcé à faire du FP32.
 
Par contre, eux, ils forcent beaucoup le FP16, voire le FX12......... donc au final, on te vend une carte markettisée pour le FP32, mais on se presse de l'éluder dans les benchs.... Si c'était pour retourner en FP24, OK. En FP16, pourquoi pas, à la rigueur. Mais en FX12...... c'est du DX8.1 ça....
 
suffit de voir la comparaison qualitative (et en perfs) sur la page DX9 du test de marc, les FX ont pas un résultat digne de ce nom !
 
Alors, OK, tu veux bencher en nV30 sur Doom3 ? Soit, mais ce n'est pas une comparaison équitable dans le sens où une des deux archi se voit optimisée, parce qu'elle n'est pas équilibrée pour fonctionner correctemtn quand on lui dit : tu fonctionne au mieux de tes capacités graphiques.
 
Alors, en tant que jeu, aucun pb, les différences seront négligeables niveau graphismes (certaines parties en FP32 mieux que FP24 chez ATI, et beaucoup de FP16 / FX12 pas vraiment plus mauvais que le FP24 (ça dépend des effets, etc).
 
En bref, point de vue jeu, c'est kif-kif, à part que le développeur doit consacrer plus de temps pour une archi en plus.
 
D'un point de vue benchmark, c'est débile. Tu vas pas "bencher" deux voitures différentes sur un terrain différent.
 
Tu les feras rouler sur la même route, et tu feras le même parcours.
 
Dans un examen, tu donne pas un sujet différent à un étudiant parce qu'il a pas retenu les même choses. Tout le monde planche sur la même chose, ou c'est caduc.
 
C'est cette notrion de rigueur dans l'évaluation qui a l'air de passer au dessus de plein de monde.


Message édité par MagiSim le 29-05-2003 à 12:56:22

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2480208
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 13:51:07  profilanswer
 

A prendre avec des pincetes, mais intéressant :
 
http://www.rage3d.com/board/showth [...] d=33688843
 

Citation :

The thing with Nv3x cards and FP32.
 
R350 has 8 FP24 units.
 
Nv3x has 4 FP32 units
 
The 4 FP32 units can execute 2 FP16 instructions per clock each. Thus in FP16 they are the logical Equivalent of ATi's 8 FP units.
 
{simplified}
At the exact same Core speed The R350 and Nv35 break down like this
 
in FP32 Nv35 is exactly 1/2 the Speed of R350.
 
in FP16 Nv35 is exactly the Same Speed as the R350.
 
{/simplified}
 
Thus the major differences in execution have nothing to do with one being 16/24/32 at all. But the sheer number of execution units coupled with the Core Speed.  
 
That is why
 
Nv35 FP16 =logical 8 FP units= 450mhz core
 
R350 FP24 =8 actual FP units=380 MHz core
 
Thus in FP16 Nvidia will always be faster than ATi's R350. Thats the bottom line. In FP32 they have half the execution units but slightly higher clock speed which is why they are only about 2/3 the speed of the R350.
 
The Moral of the Story is Nvidia could have and Should have used 8 FP32 units but didnt. At least thats my personal take on it. This is why its pretty obvious that the Nv40 WILL have full FP32 support all they have to do is add 4 FP32 processsing units. In the same way ATi's next big one will likely also have 8 FP32 units. Thus they will in all likelyhood be identical and this whole issue a moot point.
 


 

Citation :

About Doom. When they Run the ARB2 path they use FP32 and are 1/2 the speed of the Radeon cards. When they run the Nv30 path they use FP16 and are 10-15 FPS faster than Radeon cards. As you can see the same pattern of execution units and Core speed holds true for both Dx9 and OpenGL.
 
The falacy made by the Nvidia camp is that Its not Fair for Nvidia to have to use FP32 becuase its *harder* than FP24. Which I have shown you is completely Ridiculous. The Truth is Nvidia made the Design choice to go with 4 FP32 Units instead of 8. Just like they are not a true 8 pipeline card, just like they went with 128bit bus origionally. see the pattern?  
 
Had Nvidia put 8 FP execution units in the Nv30/35 they would not be in the predicament they are now. And it has nothing to do with FP32 being more hardware intensive/Slower than FP24.


 
 
http://216.239.37.104/translate_c? [...] uage_tools
 
Il citent même HFR (Marc pour pas le citer) :
 
Had Nvidia put 8 FP execution units in the Nv30/35 they would not be in the predicament they are now. And it has nothing to do with FP32 being more hardware intensive/Slower than FP24.
 

Citation :

tnx for posting that Hellbinder... I've followed many discussions on the different internal precisions of the r300 and NV30, and whether or not the NV30 was a true 8 pipeline GPU... and what you posted is the simplest, clearest explanation I've seen.
 
However, a while ago I bookmarked this thread on Ars which had about the best discussion of it going a few months back.  
If you read the last post by MrNSX he says "Actually, the real scheduling problems have not even been exposed yet." with regards to programming for the NV30, and together with what you said, I think he could well have been referring to the trickery involved in running some pipelines in 32bit mode and some in 16 (or 12, or 2 or whatever nvidia goes down to).
DX9 wise, and putting precision aside, the NV3x seem weak anyway as they lag way way behind r3x0 on any shader-based tests.
As for nvidia's high transistor count... well, at a guess a lot of it must surely be there to enable all this trickery to be possible... switching precisions on the fly and what not. I remember when NV30 was first shown back in October Nvidia's marketing machine made a great deal of noise about NV30's programmability and how it would offer so much more possibility than the 'limited' r300... well I think its now clear that they were talking about being able to use different precisions and what not in some kind of uber-l33t-3d-code-jigummy kind of way... and its turned out to be NV3x's downfall.
Heh, roll on Halflife2... should be well funny when all the NV3x owners start asking why its only running at 10fps  


 
Comme je le disais, à tempérer, mais il y a de bons points dans cette discussion....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2480233
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 29-05-2003 à 14:06:11  profilanswer
 

MagiSim a écrit :

ça serait déjà dériver de l'ARB2 qui spécifie la précision maximale pure......  :sweat:  
 
ça va être un gros merdier pour bencher les perfs brutes des cartes..... D'ailleurs, beaucoup d emonde considère que ça vaudra rien comme bench.....

Arrête espece de pro ATI ex pro 3dx pas objectif :D
 
Justement le fait de pouvoir a la fois tester en FP16 et en FP32 via le path ARB serait très interressant!

n°2480248
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 14:10:41  profilanswer
 

C'est sûr, y'aurait que ça qui jouerait dans les scores, et ça permettrait de voir à quel point le path nV30 est optimisé par rapport à juste passer en FP16, OU, voir à quel point il aurait mixé FX12/FP16/FP32 pour garder une bonne qualité avec de la vitesse.....
 
Spèce de webmaster rebelz qui se fait citer dans le monde entier par les pro-ATI parce que tu remues le caca (LTo, il a poussé quand meêm, mdr !) :na:  
 
 
 ;)


Message édité par MagiSim le 29-05-2003 à 14:11:42

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2480321
MagiSim
Magique, et oui !
Posté le 29-05-2003 à 14:54:28  profilanswer
 

Mon dieu, quelle horreur..... la news était déjà zarbiment traduite, mais le reste suit.... http://forum.clubic.com/forum2.php [...] =cache&p=1


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  11  12  13  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)