Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1200 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  10  11  12  ..  1003  1004  1005  1006  1007  1008
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°2478422
Fendnts
My fading voice sings of love
Posté le 28-05-2003 à 16:54:50  profilanswer
 

Reprise du message précédent :

JinxJab a écrit :

nop C pas ce ke je voulais dire
ma ge3 fe tourner tout les jeux pour l instant.
C ke je ne voix personnellement pas la difference entre un jeux ki tourne a 80fps et un otre a 50fps si je ne me trompe pas nous ne voyons pas o dessus de 25fps (25fps etant le fluidité pour l oeuil humain), non???


 
en théorie, l'oeil ne perçoit même pas au dessus de 10Hz, mais l'oeil travaille avec le cerveau et ce dernier travaille différemment et fait que tu "ressens" les saccades jusqu'à (officiellement) 72Hz (du moins, c'est la limite légale)

mood
Publicité
Posté le 28-05-2003 à 16:54:50  profilanswer
 

n°2478425
krumli
Posté le 28-05-2003 à 16:55:03  profilanswer
 

JinxJab a écrit :

nop C pas ce ke je voulais dire
ma ge3 fe tourner tout les jeux pour l instant.
C ke je ne voix personnellement pas la difference entre un jeux ki tourne a 80fps et un otre a 50fps si je ne me trompe pas nous ne voyons pas o dessus de 25fps (25fps etant le fluidité pour l oeuil humain), non???


 
:non:  
 
vieux debat sterile sans fin
 
on va pas remettre ça, ça n'a rien à voir avec le smilblick

n°2478443
jinxjab
Protection engendre sacrifice
Posté le 28-05-2003 à 16:59:24  profilanswer
 

les hz d'accord mais pour moi le fps c la traduction anglaise pour image par seconde.donc!!!!
Pour etre bien et large je concede l obligation des 30fps pour la fluidité.
alors pourkoi acheter une carte ki me fe paC de 30 a 110fps. mmmh
a part les options du type FSAA et AA je ne vois pas.

n°2478455
Fendnts
My fading voice sings of love
Posté le 28-05-2003 à 17:01:56  profilanswer
 

JinxJab a écrit :

les hz d'accord mais pour moi le fps c la traduction anglaise pour image par seconde.donc!!!!
Pour etre bien et large je concede l obligation des 30fps pour la fluidité.
alors pourkoi acheter une carte ki me fe paC de 30 a 110fps. mmmh
a part les options du type FSAA et AA je ne vois pas.


 
comme bcp de choses, tu le vois pas tant que t'y a pas gouté vraiment : c'est pas tellement au niveau des yeux, mais le cerveau qui s'habitue. tant que les moniteurs dépassaient pas le 60Hz, personne aurait pensé à le monter quasiment, mais tu fais gouter le 75 ou le 85 hz à quelqu'un, si tu lui remets 60, il en chiale...

n°2478469
MagiSim
Magique, et oui !
Posté le 28-05-2003 à 17:05:57  profilanswer
 

+1 c'est comme un bon kit d'enceintes. Tu te dis que ça vaut pas le coup, jusqu'au jour où tu y goûte.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2478502
Zeross
Posté le 28-05-2003 à 17:13:02  profilanswer
 

MagiSim a écrit :

Sinon, si tu veux un bench qui tourne à 200 fps prends 3dmark 2000  :heink:  
 
Tous les 3dmark tournaient mal au début. C'est tout à fait normal.....


 
Pas d'accord : la version 2001 tournait correctement sur une GF DDR alors qu'il est sortie à l'époque des GF3, la version 2003 rame honteusement sur une GF4 TI alors qu'il est sorti à l'époque des GF FX.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478518
Zeross
Posté le 28-05-2003 à 17:16:04  profilanswer
 

mareek a écrit :


pourquoi il serait programmé avec les pieds ? parce qu'il n'utilise pas le HLSL ?


 
Non parce qu'il effectue le rendu de manière bizarroïde.
 

Citation :

le Cg est mort né. Il n'y a aucune raison d'utiliser le Cg puisque les 2 Apis les plus utilisées on chacune leur langage de shader.


 
Ah ben voyons... la dernière fois que j'ai vérifié on venait juste d'avoir un langage de shaders de bas niveau en OpenGL  :sarcastic:


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478522
Zeross
Posté le 28-05-2003 à 17:17:12  profilanswer
 

Blazkowicz a écrit :


 
DX9 c'est peu de choses à part les shaders 2.0 :p
 
le pb c'est que l'intérêt du displacement mapping est limité :p
c une méthode d'amplification géométrique de plus, non compatible avec les stencils shadows, et mal supporté par nvidia (qui zappe la tessellation adaptive, annihilant l'intérêt du truc)


 
C'est pareil chez ATI, pour faire du vrai Displacement Mapping il faut une unité d'adressage de texture dans le vertex shaders aucune carte n'en dispose exceptée la Parhelia.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478564
Zeross
Posté le 28-05-2003 à 17:29:56  profilanswer
 

MagiSim a écrit :


 
Le but n'est pas que ce soit jouable, le but est que ce soit équitable. Donc, certains trucs peuvent paraître abscons, ça n'empêche que si la chose est tout à fait équitable, elle rempli son rôle.
 
Un benchmark n'est pas fait pour fournir un framerate de tueur. Regarde Codecreatures, personne n'a queulé parce qu'il était programmé avec les pieds (aka : tournait comme un veau).
 
Le but est d'afficher des performances en dehors de toute optimisation spécifique à un GPU. Donc forcément, ça chagrine parce que qui dit non optimisé, dit programmé avec les pieds. Mais........ Si tu optimise ton bench, tu t'écarte du but du bench, car tu ne peux pas optimiser de la même façon pour tous les chips, et donc, l'équité, elle disparaît.
 
Seule le construteur a à optimiser ses chips pour qu'ils tournent au mieux, sans modifier la charge de travail (et aussi, si possible, sans permutter les opérations).


 
Pas d'accord : il y a des optimisations communes à tous les chips 3D, le genre d'optimisations de haut niveau qui sont pratiquées dans les jeux. Le but de 3DMark est d'offrir un outil de bench simulant le comportement de cartes en situation réelle là ça n'est vraiment pas le cas.
 
Désolé pour le flood hein  ;)  je réponds au fur et à mesure j'ai une journée de retard sur ce topic


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478593
Zeross
Posté le 28-05-2003 à 17:45:50  profilanswer
 

MagiSim a écrit :


 
Si un chip est favorisé par DX9, c'est peut-être parce que ce chip colle mieux à DX9. Réfléchis-y.
 
Un bench n'a pas à adapter sa programmation pour un chip. si le truc est DX9, il est programmé par défaut comme DX9 l'entend. Point barre.
 
Je ne dis pas que ça reflète la réalité des jeux.
 
Maintenant, fais l'analogie avec des examens. des examens, c'est pour bencher les étudiants. Ils suivent un standard. Maintenant, les examens ne sont pas optimisés pour tel ou tel étudiant. Peut-on dire pour autant qu'ils sont fais avec les pieds ? Je ne crois pas.
 
Si l'étudiant n'est pas fichu de s'en sortir parce qu'il n'a pas fait comme les règles du jeu l'entende, alors il n'a rien à dire.
 
Le fait que Microsoft est hautement impliqué dans le contrôle du suivi de DX dans ces benchs montre qu'ils suivent la normae QUE Microsoft a fixée. Cette norme doit être respectée pour qu'un chip soit estampillé DX9 par ex. Si nVIDIA est obligé de tout contourner poour avoir des perfs décentes, ce n'est pas la faute à Futuremark qui programeerait avec les pieds, ni à Microsoft parce qu'ils ont fait une API telle qu'ils l'ont voulue eux. C'est nVIDIA qui n'a pas suivi les règles et qui a oulu faire les fanfarons.
 
On est dans le cas d'un bench qui se base sur une API telle qu'elle a été prévue, pas sur comment ça doit rendre dans des cas spécifiques.


 
Encore une fois pas d'accord je peux te faire du code DirectX 9 qui sera très lent, qui mettra à mal toutes les cartes et qui n'aura rien à voir avec la façon dont sont programmés les jeux. Ce n'est pas parce que tu utilises DirectX 9 que ton code est représentatif. Il y a une règle de base dans l'archi des machines : "rendre le cas courant rapide" en s'obstinant à ne pas utiliser la manière standard de faire tu obtiens un résultat absolument incohérent, après la baisse peut être plus ou moins importante selon les cartes en fonction de la façon dont le cas courant est optimisé.
 
ça me fait penser à un bench fait par un membre du forum qui tournait infiniment plus rapidement sur Athlon que sur P4, son code était correct mais en utilisant un vieux compilo il ne tenait pas compte des archis des processeurs modernes les deux processeurs étaient pénalisés mais le P4 souffrait beaucoup plus que l'Athlon. Est ce représentatif de la situation réelle ? Non pas du tout.
 
Et pour ton analogie : n'a tu jamais subis un examen qui t'as semblé injuste ? genre un examen favorisant les étudiants s'étant contentés d'apprendre par coeur le cours sans rien avoir compris ou n'importe quoi dans le même genre ? Si non tu as bien de la chance ;)


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
mood
Publicité
Posté le 28-05-2003 à 17:45:50  profilanswer
 

n°2478631
syntaxx_er​ror
Posté le 28-05-2003 à 18:03:45  profilanswer
 

http://www.clubic.com/n/n8948.html
 
"Dans un papier publié par Slashdot, Carmack déclare aujourd'hui que réécrire un shader dans le dos de l'application qui l'exploite de façon à modifier la sortie est absolument indéfendable. Par contre réécrire un shader de façon à ce qu'il fasse la même chose mais d'une manière plus efficace est selon lui acceptable (NDLR : ce qu'a fait NVIDIA avec les Detonator FX).  
 
Carmack revient également sur la différence d'architecture entre les VPU ATI et NVIDIA. Le GeForce FX du NVIDIA peut travailler avec une précision de 12bit, 16 bit et 32 bit alors que le Radeon 9700 d'ATI ne fonctionne qu'en 24 bit (qui est la spécification officielle Microsoft DirectX 9.0). Partant de ce constat Carmack explique qu'il n'est pas possible d'établir une comparaison honnête entre les deux processeurs. Selon lui un GPU NVIDIA opérant en 16 bit (floating) sera plus rapide qu'une puce ATI, et inversement lorsque le GPU NVIDIA fonctionne en 32 bit (floating).  
 
Enfin Carmack assène que ce que NVIDIA a pu faire en convertissant des opérations 32 bits en opérations 16 ou 12 bit est totalement acceptable, tant qu'aucune perte de fonctionnalité ou de qualité n'est à regrette".....

n°2478635
MagiSim
Magique, et oui !
Posté le 28-05-2003 à 18:04:37  profilanswer
 

Si, mais j'ai pas été faire du PR de merde pour décrédibiliser le prof qui avait pondu ça. :D
 
Que veux-tu, c'est les règles du jeu. C'est celui qui les fixe qui décide. qu'il ai tord ou raison.
 
Donc, si nVIDIA trouve l'examen débile, ils n'ont pas à s'inscrire (c'est ce qu'ils ont fait), donc pas à tricher. Or, si ils ont triché si ouvertement, c'est parce qu'effectivement, ils y accordent de l'importance.
 
Note que de toute façon, les FX se ramassent en général sur DX9... comme quoi, soit DX9 est fait avec les pieds, soit c'est les FX qui le sont.... Y'a pas que 3dmark dans ce cas.....
 
Tiens, irais-tu jusqu'à dire que le ray-tracing est fait avec les pieds ? Pourtant, c'est ULTRA lent comme méthode, alors qu'on pourrait avoir un rendu similaire plus rapidement..............
 
3D Mark est un bench pour le futur, pas pour le passé. Si une version sort en 2003, c'est pour faire souffrir les cartes de 2003, pas pour que les cartes d'il y a deux ans se baladent.
 
Si tu veux voir un rendu rapide, tu lance la démo, et ô, bizarrement, ça va plus vite. Normal, là ils ont amélioré les choses pour que les gens puissent voir la chose en temps réel avec des cartes dépassées...


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2478641
MagiSim
Magique, et oui !
Posté le 28-05-2003 à 18:07:26  profilanswer
 

syntaxx_error a écrit :

http://www.clubic.com/n/n8948.html
 
"Dans un papier publié par Slashdot, Carmack déclare aujourd'hui que réécrire un shader dans le dos de l'application qui l'exploite de façon à modifier la sortie est absolument indéfendable. Par contre réécrire un shader de façon à ce qu'il fasse la même chose mais d'une manière plus efficace est selon lui acceptable (NDLR : ce qu'a fait NVIDIA avec les Detonator FX).  
 
Carmack revient également sur la différence d'architecture entre les VPU ATI et NVIDIA. Le GeForce FX du NVIDIA peut travailler avec une précision de 12bit, 16 bit et 32 bit alors que le Radeon 9700 d'ATI ne fonctionne qu'en 24 bit (qui est la spécification officielle Microsoft DirectX 9.0). Partant de ce constat Carmack explique qu'il n'est pas possible d'établir une comparaison honnête entre les deux processeurs. Selon lui un GPU NVIDIA opérant en 16 bit (floating) sera plus rapide qu'une puce ATI, et inversement lorsque le GPU NVIDIA fonctionne en 32 bit (floating).  
 
Enfin Carmack assène que ce que NVIDIA a pu faire en convertissant des opérations 32 bits en opérations 16 ou 12 bit est totalement acceptable, tant qu'aucune perte de fonctionnalité ou de qualité n'est à regrette".....


 
Interprète pas, le rendu avec les shaders à la sauce n ne rendent pas pareil. Si ce ne sont pas tes clonclusions, mais celles de Clubic, Shame on you de te baser dessus.... :/ Quand on voit qu'ils gardent leur méthodologie de test malgré les récents événements...... Marc est bien plus professionnel.
 
http://www.beyond3d.com/forum/viewtopic.php?t=6042
 
Premier post (screens)
dernier post (zip qui contient des comparaisons par soustractions).


Message édité par MagiSim le 28-05-2003 à 18:08:50

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2478658
jinxjab
Protection engendre sacrifice
Posté le 28-05-2003 à 18:14:52  profilanswer
 

de toute facon rare est la personne ki est totalement objectif dans cette affaire (et sur ce forum), il fo bien le reconnaitre.
ps: moi en premier lieu
donc ca va etre dure de se mettre d accord


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.”
n°2478670
Ernestor
modo-coco :o
Posté le 28-05-2003 à 18:21:38  profilanswer
 

KRUMLI a écrit :


 
On dit: "cachalot sous gravillon"  :pfff:


 :non:  
 
C'est "buzuck sous le dolmen"  :o  
 
Je vous laisse mediter cela  :whistle:  
 
JinxJab > si tout le monde est d'accord : pas de polemique, pas de discussion. Ca serait pas rigolo :D
 
 


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2478674
jinxjab
Protection engendre sacrifice
Posté le 28-05-2003 à 18:24:17  profilanswer
 

;)  kler


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.”
n°2478684
evildeus
Posté le 28-05-2003 à 18:26:20  profilanswer
 

Heu tu te rends compte de ce que tu dis? En gros pour toi tant qu'on suit le standard on ne programme pas comme un pieds?  :sarcastic: Ben faut croire qu'on doit pas avoir la meme notion de programmer comme un pieds et suivre le standard. C'est pas parce qu'on est DX9 compliant que l'on fait pas une merde de moteur graphique, je vois vraiment pas le rapport. Tous les jeux suivent les standards, pourtant certains sont prog avec les pieds et d'autres non.
 
Pour en revenir à ton exemple, il y a aussi la manière de poser les aquestion. Elle peut etre claire ou ambigu. Ce n'est pas la faute de l'étudiant si un exam est ambigu, mais bien de l'ensaignant ;). Je dirais meme plus, tu peux connaitre le standard, mais c'est pas pour autant que tu fais une bonne analyse ou que tu relis correctement les parties...
 
Je crois que tu confonds 2 choses:
- 1 Les NV3* sont basés sur une architecture merdique en perf en FP  
- FM a prog son bench merdiquement
 
C'est pas parce que l'un est merdique que l'autre l'es (ex R3*0 est une bonne archi), mais les 2 combiner ca fait mal ;)

MagiSim a écrit :


 
Si un chip est favorisé par DX9, c'est peut-être parce que ce chip colle mieux à DX9. Réfléchis-y.
 
Un bench n'a pas à adapter sa programmation pour un chip. si le truc est DX9, il est programmé par défaut comme DX9 l'entend. Point barre.
 
Je ne dis pas que ça reflète la réalité des jeux.
 
Maintenant, fais l'analogie avec des examens. des examens, c'est pour bencher les étudiants. Ils suivent un standard. Maintenant, les examens ne sont pas optimisés pour tel ou tel étudiant. Peut-on dire pour autant qu'ils sont fais avec les pieds ? Je ne crois pas.
 
Si l'étudiant n'est pas fichu de s'en sortir parce qu'il n'a pas fait comme les règles du jeu l'entende, alors il n'a rien à dire.
 
Le fait que Microsoft est hautement impliqué dans le contrôle du suivi de DX dans ces benchs montre qu'ils suivent la normae QUE Microsoft a fixée. Cette norme doit être respectée pour qu'un chip soit estampillé DX9 par ex. Si nVIDIA est obligé de tout contourner poour avoir des perfs décentes, ce n'est pas la faute à Futuremark qui programeerait avec les pieds, ni à Microsoft parce qu'ils ont fait une API telle qu'ils l'ont voulue eux. C'est nVIDIA qui n'a pas suivi les règles et qui a oulu faire les fanfarons.
 
On est dans le cas d'un bench qui se base sur une API telle qu'elle a été prévue, pas sur comment ça doit rendre dans des cas spécifiques.


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2478687
evildeus
Posté le 28-05-2003 à 18:27:30  profilanswer
 

Marc a écrit :

Non pas d'exe, demoplay hfrut?timedemo et zou ;)
 

Bon test,
 
Tu pourrais pas faire une petite comparo 43.**/44.** avec une de tes démos?


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2478700
Zeross
Posté le 28-05-2003 à 18:33:05  profilanswer
 

MagiSim a écrit :

Si, mais j'ai pas été faire du PR de merde pour décrédibiliser le prof qui avait pondu ça. :D
 
Que veux-tu, c'est les règles du jeu. C'est celui qui les fixe qui décide. qu'il ai tord ou raison.
 
Donc, si nVIDIA trouve l'examen débile, ils n'ont pas à s'inscrire (c'est ce qu'ils ont fait), donc pas à tricher. Or, si ils ont triché si ouvertement, c'est parce qu'effectivement, ils y accordent de l'importance.
 
Note que de toute façon, les FX se ramassent en général sur DX9... comme quoi, soit DX9 est fait avec les pieds, soit c'est les FX qui le sont.... Y'a pas que 3dmark dans ce cas.....
 
Tiens, irais-tu jusqu'à dire que le ray-tracing est fait avec les pieds ? Pourtant, c'est ULTRA lent comme méthode, alors qu'on pourrait avoir un rendu similaire plus rapidement..............
 
3D Mark est un bench pour le futur, pas pour le passé. Si une version sort en 2003, c'est pour faire souffrir les cartes de 2003, pas pour que les cartes d'il y a deux ans se baladent.
 
Si tu veux voir un rendu rapide, tu lance la démo, et ô, bizarrement, ça va plus vite. Normal, là ils ont amélioré les choses pour que les gens puissent voir la chose en temps réel avec des cartes dépassées...


 
Attention : entendons nous bien : je ne défends absolument pas nVidia sur le coup de la triche dans 3DMark ! Au contraire, j'ai déjà exposé mon avis sur ce sujet dans ce topic : http://forum.hardware.fr/forum2.ph [...] subcat=109 et j'ai bien pris le temps de faire comprendre à JayK que c'était plus grâve qu'il ne le pensait car effectivement c'est une attitude déplorable qu'il ne faut pas prendre à la légère. Sur ce point nous sommes entièrement d'accord.
 
Reste le 3DMark bench valide, j'ai l'impression que pour toi c'est le cas car :

  • c'est lent
  • c'est programmé en DirectX 9

Et là je ne suis pas d'accord, un exemple à la sortie d'Aquanox

  • le jeu était lent
  • le jeu était DirectX 8

Et pourtant ce n'était pas un bon bench représentatif des performances tu le dis toi même. Tu parles de Codes Creatures mais c'est pareil : ce bench n'est pas apprécié et c'est logique ces résultats ne sont pas très cohérents. Pour 3DMark je persiste à dire que la façon dont il a été programmé est "spèciale" j'irais pas jusqu'à dire mauvaise vu que pour ça il faudrait quand même avoir une meilleure vue d'ensemble mais en tout cas ce bench n'est pas représentatif à mes yeux. Pas parce qu'il utlise les shaders 1.4 au lieu des 1.1 ou que sais je. Non parce que visiblement leur algorithme de stencil shadows est pas bon, parce que visiblemement ils effectuent le rendu du ciel avant le rendu de tout le reste maximisant l'overdraw et ne permettant pas de tirer parti du HSR... ce genre d'optimisations de haut niveau qui profitent à tous les chips et que les développeurs de jeux emploient !
 
Concernant la news de Clubic je n'avais pas interprété les propos de Carmack de cette façon et à mon avis ce n'est pas moi qui me plante :whistle:  les drivers nVidia modifie le rendu, même ATI n'a pas un rendu parfait même si c'est très très très proche du reference rasterizer. En ce qui me concerne une optimisation que je juge comme valable serait le même genre d'ordonnancement qu'effectue un CPU pour maximiser l'usage des resources : il suffirait de prendre une fenêtre d'analyse assez large et d'observer le shader, par exemple le NV30 partage des ressources entre l'ALU flottante et l'unité d'adressage de texture ce qui implique qu'il est impossible de les utiliser simultanément une bonne optimisation serait de chercher une autre opération (non dépendante du résultat de la première) qui pourrait s'exécuter de manière concurrente.Ceci résulterait dans une maximisation de l'utilisation des ressources et c'est une BONNE optimisation. Après dans quelle mesure c'est faisable (et rentable : si la réorganisation des instructions est plus lente que l'exécution de la version non optimisée c'est inutile, encore qu'un fragment program est utilisé un grand nombre de fois et que le réordonnancement ne se ferait qu'une fois) et quel travail ça demanderait alors là...
 
Mais une optimisation du style :
if (appName == 3DMark2003)
  substitute (shader, customShaderRoughlyEquivalent);
 
ça c'est zéro  :pfff:


Message édité par Zeross le 28-05-2003 à 18:35:50

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478713
MagiSim
Magique, et oui !
Posté le 28-05-2003 à 18:40:08  profilanswer
 

Je n'ai jamais dit que 3DMark était bien programmé parce qu'il faisait ramer. Je disais juste que ce n'est pas parce qu'il rame qu'il est mal programmé. ça ne veut pas dire la même chose les mecs.
 
Et Evildeus, tu tends à fortement oublier que le papa de DX9, qui en connaît donc tous les aspects logicieles et matériels faisait partie du béta test. Ils ont certainement dû prendre une part très active......
 
Ils ont certainement moins de chance de pondre un code pourri qu'un développeur de jeux.
 
Certains points sont bizarres concernant le rendering, mais ce n'est pas eux qui pénalisent une carte et pas l'autre, à moins que les Radeon aient une unité pour faire du stecil shadow à la 3dmark, et un machin pour détecter l'overdraw à l'envers... tiré par les cheveux votre truc. Alors oui, ils ont fait des trucs bizarres, mais qui ne dit pas qu'un développeur emprunterait ce voie ? Si on vous écoutait, tout le monde ferait pareil ? Alrs pourquoi tous les moteurs ne se comportent pas pareil ?
 
Aquanox, lui a été programmé autour des extensions openGL de nVIDIA. D'ailleurs, pendant longtemps ce jeu buggait avec tout ce qui n'était pas nVIDIA... Comment peut-on le crédibiliser comme bench ?


Message édité par MagiSim le 28-05-2003 à 18:41:56

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2478730
Zeross
Posté le 28-05-2003 à 18:48:17  profilanswer
 

MagiSim a écrit :

Je n'ai jamais dit que 3DMark était bien programmé parce qu'il faisait ramer. Je disais juste que ce n'est pas parce qu'il rame qu'il est mal programmé. ça ne veut pas dire la même chose les mecs.
 
Et Evildeus, tu tends à fortement oublier que le papa de DX9, qui en connaît donc tous les aspects logicieles et matériels faisait partie du béta test. Ils ont certainement dû prendre une part très active......
 
Ils ont certainement moins de chance de pondre un code pourri qu'un développeur de jeux.
 
Certains points sont bizarres concernant le rendering, mais ce n'est pas eux qui pénalisent une carte et pas l'autre, à moins que les Radeon aient une unité pour faire du stecil shadow à la 3dmark, et un machin pour détecter l'overdraw à l'envers... tiré par les cheveux votre truc. Alors oui, ils ont fait des trucs bizarres, mais qui ne dit pas qu'un développeur emprunterait ce voie ? Si on vous écoutait, tout le monde ferait pareil ? Alrs pourquoi tous les moteurs ne se comportent pas pareil ?
 
Aquanox, lui a été programmé autour des extensions openGL de nVIDIA. D'ailleurs, pendant longtemps ce jeu buggait avec tout ce qui n'était pas nVIDIA... Comment peut-on le crédibiliser comme bench ?


 
Aquanox est pour ce que j'en sais Dx8 et il n'y a pas d'extension en DirectX.
 
Pour le reste tu n'as pas lu ce que j'ai dit : ce n'est pas parce que le R300 est moins pénalisé que le NV30 que le R300 n'est pas pénalisé !!! avec une meilleure programmation le R300 pourrait aussi faire de meilleur scores. Relis mon exemple sur l'Athlon et le P4 : l'Athlon est moins pénalisé par du code non optimisé que le P4 qui lui s'écroule complètement, mais avec du bon code l'Athlon gagne quand même. C'est la même analogie.


Message édité par Zeross le 28-05-2003 à 18:48:56

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478733
evildeus
Posté le 28-05-2003 à 18:48:51  profilanswer
 

MagiSim a écrit :

Et Evildeus, tu tends à fortement oublier que le papa de DX9, qui en connaît donc tous les aspects logicieles et matériels faisait partie du béta test. Ils ont certainement dû prendre une part très active......

Le papa n'est que beta member et pas partie prenante à la prog. De plus, c'est pas parce que DX9 est créé par Micro$ que sont utilisation par M$ ne peut pas etre inefficace...


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2478734
evildeus
Posté le 28-05-2003 à 18:49:31  profilanswer
 

Zeross a écrit :

ce n'est pas parce que le R300 est moins pénalisé que le NV30 que le R300 n'est pas pénalisé !!! avec une meilleure programmation le R300 pourrait aussi faire de meilleur scores.

Voilà  :jap:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2478747
MagiSim
Magique, et oui !
Posté le 28-05-2003 à 18:54:01  profilanswer
 

sais-t'on dans quelle mesure les deux chips sont pénalisés ? Non. Sait-on si c'est à cause de cela que les GFFX sont à la ramasse ? Non. Tout ce que l'on sait, c'est que quelque chose les fout à la ramasse.
 
Pour la partie DX9, on sait, c'est le chip en lui-même.
 
Sinon, pour Aquanox, à priori, après des recherches, il a l'air de supporter les deux api. N'ayant pas le jeu, je ne peux vérifier.
 
Reste qu'il me semble bien qu'à l'origine c'était OpengL.......
 
Mes souvenirs me trompent peut-être. Par contre, le machin spécial GF3 et les bugs avec les autres cartes que GF, ça.... c'est pour de vrai (surtout R8500 à ses débuts, mais ça c'est une autre histoire).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2478751
sombresong​e
Posté le 28-05-2003 à 18:55:19  profilanswer
 

A mon avis le probleme c que DX9 est sortit bcp trop tôt donc à part avec 3DMark03 on a rien d'autre pour comparer. Déjà que les PixelShader 1.0 sont pas utiliser en masse aujourd'hui parceque qd les jeux sortent faut qu'ils soit "compatible" avec les vieille carte et l'entrer de game. Faut pas oublier que ya enormement de personne qui ont encore des GF4MX par exemple :o

n°2478758
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 18:59:10  profilanswer
 

Zeross > C'est bizarre j'ai pas du tout la même interprétation non plus :D

n°2478760
Zeross
Posté le 28-05-2003 à 19:01:10  profilanswer
 

MagiSim a écrit :

sais-t'on dans quelle mesure les deux chips sont pénalisés ? Non. Sait-on si c'est à cause de cela que les GFFX sont à la ramasse ? Non. Tout ce que l'on sait, c'est que quelque chose les fout à la ramasse.
 
Pour la partie DX9, on sait, c'est le chip en lui-même.
 
Sinon, pour Aquanox, à priori, après des recherches, il a l'air de supporter les deux api. N'ayant pas le jeu, je ne peux vérifier.
 
Reste qu'il me semble bien qu'à l'origine c'était OpengL.......
 
Mes souvenirs me trompent peut-être. Par contre, le machin spécial GF3 et les bugs avec les autres cartes que GF, ça.... c'est pour de vrai (surtout R8500 à ses débuts, mais ça c'est une autre histoire).


 
Honnêtement :
3DMark ne m'importe pas vraiment, le NV3x VS le R3x0 non plus je n'a iaucune des deux cartes, la seule chose que je voulais prèciser c'était 3DMark bench valide ou pas. Pour moi la réponse est non.
 
Ce qui est amusant c'eest qu'il était de bon ton à l'époque de dire que le 3DMark2001 était vendu à nVidia, absolument pas représentatif etc... et maintenant 3DMark2003 devient un bench objectif qu'on a plus le droit de critiquer j'ai du mal à saisir ce changement brutal de position  :??:  
 
Pour moi 3DMark ça reste une jolie démo que je lance une fois en tout et pour tout et qui ensuite encombre mon disque dur jusqu'à ce que je le vire :D et ça n'a jamais changé quelle que soit la société obtenant les meilleurs scores


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478761
MagiSim
Magique, et oui !
Posté le 28-05-2003 à 19:01:19  profilanswer
 

Pourquoi sorti trop tôt ? plus l'API sort tôt en ayant des spécifications fixées, plus vite les développeurs peuvent travailler dessus sans s'enquiquiner avec des corrections entre versions béta... De même, plus l'api est fixée rapidment, plus vite les IHV peuvent bosser sur leurs GPU et les construire autour....
 
C'est sûr, il ne faut pas aller trop vite.... Mais, à mon humble avis, l'API est loin d'être immature. Personnellement, je n'ai pas à me plaindre de perfs et de qualité catastrophique quand je lance quelque chose de niveau DX9 (démos, etc).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2478764
MagiSim
Magique, et oui !
Posté le 28-05-2003 à 19:04:11  profilanswer
 

Zeross a écrit :


 
Honnêtement :
3DMark ne m'importe pas vraiment, le NV3x VS le R3x0 non plus je n'a iaucune des deux cartes, la seule chose que je voulais prèciser c'était 3DMark bench valide ou pas. Pour moi la réponse est non.
 
Ce qui est amusant c'eest qu'il était de bon ton à l'époque de dire que le 3DMark2001 était vendu à nVidia, absolument pas représentatif etc... et maintenant 3DMark2003 devient un bench objectif qu'on a plus le droit de critiquer j'ai du mal à saisir ce changement brutal de position  :??:  
 
Pour moi 3DMark ça reste une jolie démo que je lance une fois en tout et pour tout et qui ensuite encombre mon disque dur jusqu'à ce que je le vire :D et ça n'a jamais changé quelle que soit la société obtenant les meilleurs scores


 
Le fait que la balance ne penche pas toujours d même côté prouve qu'on avait de grande chance d'avoir tord en accusant Futuremark d'être vendu. Y'a que les cons qui ne changent pas d'avis........
 
Enfin, en tout cas, au jeu du PR, ils sont plus convainquants que nVIDIA....
 
http://www.winternet.com/~mikelr/assets/Crybaby.jpg


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2478766
Zeross
Posté le 28-05-2003 à 19:04:21  profilanswer
 

Marc a écrit :

Zeross > C'est bizarre j'ai pas du tout la même interprétation non plus :D


 
Ouais je viens de voir ça dans ta news :D
ça me rassure on a compris la même chose ;)


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478769
evildeus
Posté le 28-05-2003 à 19:06:13  profilanswer
 

MagiSim a écrit :

sais-t'on dans quelle mesure les deux chips sont pénalisés ? Non. Sait-on si c'est à cause de cela que les GFFX sont à la ramasse ? Non. Tout ce que l'on sait, c'est que quelque chose les fout à la ramasse.
 
Pour la partie DX9, on sait, c'est le chip en lui-même.


Ben tant qu'il n'y aura pas d'autres tests intégrant DX9....


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2478770
sombresong​e
Posté le 28-05-2003 à 19:06:29  profilanswer
 

Bah disons que nivo jeux DX9 j'en vois pas bcp d'annoncé et que DX9 ça existe qd meme depuis 6 mois environ. Me rapelle que qd DX8 etait dispo en telechargement y avait déjà bcp de jeux annoncé (Aquanox, Morrowind etc) pareil avec DX7 (Giants, Sacrifice, B&W etc)

n°2478771
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 19:07:34  profilanswer
 

Zeross a écrit :


 
Ouais je viens de voir ça dans ta news :D
ça me rassure on a compris la même chose ;)
 

Ca me rassure aussi, j'ai eu peur d'être à côté :D

n°2478772
Zeross
Posté le 28-05-2003 à 19:08:09  profilanswer
 

Je ne considère pas FM comme des vendus et je ne les ai jamais considérés comme ça mais je n'ai jamais été un grand partisan de leur bench, à part pour m'amuser comme je l'ai dis.
 
Au fait Marc bien trouvé le coup de la démo Mandelbrot d'Humus pour tester la prècision réelle de la carte :jap: ça c'est imparable, est ce que tu as eu l'occasion de la tester avec une 5900 ?


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2478773
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 19:08:42  profilanswer
 

Evildeus a écrit :


Je crois que tu confonds 2 choses:
- 1 Les NV3* sont basés sur une architecture merdique en perf en FP  
- FM a prog son bench merdiquement


 
Sur quoi te bases-tu pour prétendre si fermement que Futuremark a programmé son bench avec les pieds ?? Tu as pu analyser les shaders employés ? Les algorithmes utilisés ?
 
Je penses que les détracteurs de 3dmark mélangent pas mal de notions quand ça les arrange. D'un côté, il prétendent que ce n'est pas un jeu et qu'il ne faut donc pas interpréter ses résultats comme ceux d'un jeu et d'un autre ils utilisent les critères d'un moteur de jeu pour le démonter. Là j'ai du mal à comprendre...
 
3DMark est avant tout fait pour montrer comment réagissent les cartes sous une certaine charge. C'est la seule chose qui m'intéresse dans ce bench. Maintenant, savoir si artistiquement il est possible de faire quelque chose de plus joli avec la même charge (ou quelque chose d'aussi joli avec une charge réduite) est un autre débat. C'est assez clair que dans un jeu actuel ou à sortir bientôt, aucun programmeur ne va utiliser les algoritmes d'ombrage de 3dmark. Mais ce n'est pas un problème vu que ce qui est intéressant dans 3dmark est la charge soumise à la carte graphique et pas la rentabilité de cette charge.
 
Les shaders utilisés dans 3dmark vont clairement dans le sens de DX8 et de DX9. L'architecture des FX ne va pas complètement dans ce sens... Le sens des FX est bien adapté à DX8 (à condition d'avoir un code qui évite les dépendances) mais très mal à DX9.  
 
 
J'ai lu aussi que tu indiquais que 3dmark ne suivait pas complètement DX9 vu qu'il n'utilisait pas le HLSL. Le HLSL est uniquement une aide pour faciliter la programmation. L'utiliser n'est qu'une option. Qui plus est, le compilateur HLSL était assez pourri au moment où Futuremark a dû développer ses shader. Et puis il ne faut pas oublier que HLSL et Cg peuvent simplement pondre un code à copier/coller dans le moteur et pas uniquement fonctionner en runtime.
 
 
Enfin, je trouve un peu facile de critiquer la programmation de 3dmark aussi facilement... Mais bon, NVIDIA  tout fait pour pousser ce genre de raisonnement :(

n°2478780
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 19:13:31  profilanswer
 

Zeross a écrit :

Je ne considère pas FM comme des vendus et je ne les ai jamais considérés comme ça mais je n'ai jamais été un grand partisan de leur bench, à part pour m'amuser comme je l'ai dis.
 
Au fait Marc bien trouvé le coup de la démo Mandelbrot d'Humus pour tester la prècision réelle de la carte :jap: ça c'est imparable, est ce que tu as eu l'occasion de la tester avec une 5900 ?  

Malheureusement non, vivement que je la récupère :)

n°2478783
tridam
Profil : Equipe HardWare.fr
Posté le 28-05-2003 à 19:14:17  profilanswer
 

Marc a écrit :

Zeross > C'est bizarre j'ai pas du tout la même interprétation non plus :D


 
Je crois que Clubic a un dictionnaire anglais très particulier :D

n°2478795
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 19:21:25  profilanswer
 

De toute facon si les jeux DX9 sont autant DX9 que les jeux DX8 sont DX8 ... on est pas près d'avoir des jeux tirant vraiment partis de DX9 (comprenne qui pourra) :/

n°2478805
Ernestor
modo-coco :o
Posté le 28-05-2003 à 19:23:36  profilanswer
 

J'ai meme l'impression que les jeux soit-disant DX 8 du moment sont plutot uniquement de vrais jeux DX 7 (comprenne qui pourra aussi :D)
 
Au fait Marc, est-ce que tu pourrais repondre a ma question sur tes benchs : comment t'as fait pour bencher des jeux qui ont pas de fonctionnalite de ce type integree ?
Si c'est pas top-secret bien sur  :whistle:


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2478811
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 19:27:38  profilanswer
 

Mes nyeux bioniks

n°2478812
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-05-2003 à 19:28:01  profilanswer
 

Ernestor a écrit :

J'ai meme l'impression que les jeux soit-disant DX 8 du moment sont plutot uniquement de vrais jeux DX 7 (comprenne qui pourra aussi :D)

Ah ben on est deux ;)
 
Enfin si parfois y'a un peu de flotte ... :D

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  10  11  12  ..  1003  1004  1005  1006  1007  1008

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR