Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1846 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°2468898
Fendnts
My fading voice sings of love
Posté le 24-05-2003 à 19:15:51  profilanswer
 

Reprise du message précédent :

Pgase a écrit :


 
Pour être plus clair et là ou je fulmine c'est que ces pratiques ont toujours existées...
Faut vraiment être con pour en douter.
Ce qui est lamentable dans l'attitude de FutureMark est de vouloir ce la jouer blanche Colombe alors que sur le precedent opus de 3DMerde, celà ne les derangeait pas à ce que autres optimisations soient appliquées...
Il aura fallu que NVIDIA crache dans la soupe pour que cette simple creme de legumes vire à la garbure genre vomi d'un apres apéro bien arrosé...
NVIDIA coupable, entièrement d'accord sur les faits qui lui sont repprochés.
Maintenant, que l'on me fasse pas avaler que la Colombe est pure...Désolé, j'ai un renvoi tout d'un coup.... [:eric_draven]  


 
+1
 
dans toute l'histoire de l'économie, quand un organisme de contrôle dépendait du fric de celui qu'il devait contrôler, ça a fini en sucette : le scandale Enron/Andersen en est un bel exemple.
 
Comme dit marc, ce genre de triche a forcément existé avant, et ils ne le dénoncent que depuis qu'nvidia s'est barré en les envoyant chier. quant à la soi-disant dénonciation des 2% d'ATI pour faire croire qu'ils ne visent pas particulièrement nvidia, heu, vous êtes pas sérieux j'espère ? avec la même config sans rien changer, ni en driver ni en quoique ce soit, on obtient des différences plus importantes entre deux lancements de test que 2% !
 


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
mood
Publicité
Posté le 24-05-2003 à 19:15:51  profilanswer
 

n°2468961
stilgars
Posté le 24-05-2003 à 19:47:00  profilanswer
 

fendnts a écrit :


 
+1
 
dans toute l'histoire de l'économie, quand un organisme de contrôle dépendait du fric de celui qu'il devait contrôler, ça a fini en sucette : le scandale Enron/Andersen en est un bel exemple.
 
Comme dit marc, ce genre de triche a forcément existé avant, et ils ne le dénoncent que depuis qu'nvidia s'est barré en les envoyant chier. quant à la soi-disant dénonciation des 2% d'ATI pour faire croire qu'ils ne visent pas particulièrement nvidia, heu, vous êtes pas sérieux j'espère ? avec la même config sans rien changer, ni en driver ni en quoique ce soit, on obtient des différences plus importantes entre deux lancements de test que 2% !
 
 


 
 
Pas d'accord, c'est 2% sur le résultat global, mais -8% en fait localisés uniquement sur le GT4, celui des VS2.0 ...
Quant aux mesures, je pense que Futuremark a fait tourner le bench plus d'une fois pour donner des résultats chiffrés  :sarcastic:

n°2468983
Fendnts
My fading voice sings of love
Posté le 24-05-2003 à 19:55:16  profilanswer
 

Stilgars a écrit :


 
 
Pas d'accord, c'est 2% sur le résultat global, mais -8% en fait localisés uniquement sur le GT4, celui des VS2.0 ...
Quant aux mesures, je pense que Futuremark a fait tourner le bench plus d'une fois pour donner des résultats chiffrés  :sarcastic:  


 
oui enfin c'était pas la partie importante de mon post et tu ne réponds qu'à celle-là :(


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2468994
mareek
Et de 3 \o/
Posté le 24-05-2003 à 20:03:30  profilanswer
 

yalouf a écrit :


 
ça devient bien compliqué tout ça , rien n'est encore etabli donc ...
Sinon à part ça, je pense que si les developpeurs doivent bosser avec les extentions nv pour faire cracher ses tripes au nv3x alors ils bosseront avec les extentions nv (cf doom3) . Et si 3dbouze 200X ne prend pas en compte les extensions nv et que les perfs des cg Nvidia puent c tant pis pour nvidia...
Donc si Nv est plus rapide avec ses extensions proprio  que les ATI , Ati devrait sortir ses extensions proprio ( a moins que ca reste a 100% sur Dx9 et Ogl2 )et puis voilou.
 
Moi je dis ca mais je n'y connais rien  :kaola:  


ya pas d'extension propriétaire dans DX9 et vue que la majorité des moteurs 3D sont aujourd'hui programmé en DX9 [:spamafote]
 
 

fendnts a écrit :

je me rappelle quand même de l'époque de Q2 : carmack avait utilisé une tripotée d'extensions commençant par "nv_" depuis, elles sont toutes devenues standard...


ça m'étonnerai, nVidia n'avait même pas de drivers openGL non beta à la sortie de Quake 2 (décembre 1997) :lol:  
 
P.S. marque page (vie sociale à la con :fou: )


Message édité par mareek le 25-05-2003 à 11:36:01

---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2469008
Fendnts
My fading voice sings of love
Posté le 24-05-2003 à 20:12:06  profilanswer
 

mareek a écrit :

ça m'étonnerai, nVidia n'avait même pas de drivers openGL non beta à la sortie de Quake 2 (décembre 1997) :lol:  
 
P.S. marque page (vie sociale à la con :fou: )


 
erratum : sortie de Q3 pas de Q2  :jap:


---------------
(un posteur anonyme m'a renseigné là dessus tout à l'heure)
n°2469121
sr16
@*#%$*%§!!
Posté le 24-05-2003 à 21:17:30  profilanswer
 

JinxJab a écrit :

de toute facon nvidia decoit sur cette cg et je pense ke l equipe de 3dfx n y est pas pour rien. On ne met pas des "louzeur" (ceci est seulement mon avis) sur un tel proges.


 
Voici l'avis de quelqu'un qui n'a surement jamais développé quoi que ce soit.
 
Le jour ou tu sera sorti de tes etudes et ou tu bossera sur des projets réels et concrets tu ne traitera pas les gens de loosers, fais moi confiance.


Message édité par sr16 le 24-05-2003 à 21:25:40

---------------
TOPIC PERMANENT Matrox Parhelia
n°2469132
evildeus
Posté le 24-05-2003 à 21:28:07  profilanswer
 

derriere en perf brutes devant en AA/AF.. Enfin  :sarcastic:  
http://www.hothardware.com/reviews/images/r9800pro256_update/3dmrk03_330.png


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2469205
sr16
@*#%$*%§!!
Posté le 24-05-2003 à 22:01:52  profilanswer
 

Evildeus a écrit :

derriere en perf brutes devant en AA/AF.. Enfin  :sarcastic:  
http://www.hothardware.com/reviews [...] 03_330.png


 
Et en 1600x1200 ça donne kwa ?


---------------
TOPIC PERMANENT Matrox Parhelia
n°2469227
fenhrir
Posté le 24-05-2003 à 22:11:03  profilanswer
 

J'aimerai apporté une petite précision en ce qui concerne les bench "trafiqué" :
 
nVidia a fait en sorte qu'avec ses news driver Fx les parties invisibles des scenes 3D du bench ne sois pas calculées ce qui par conséquence monte le score de la Fx5900. Avec le patch ces parties sont obligatoirement calculer, par conséquent on y voit une baisse de l'indice de performance 3DM de la nVidia. Il faut savoir que nVidia se base sur le faite que les scenes sont sur des parcours fixes donc prévisibles dans à rendre par la carte. Néanmoins en ce qui concerne les jeux, ces scène ne sont pas fixes et dépendes du déplacement du joueur. En d'autres termes tout ce qui touche la baisse sous 3DM par ce patch ne va pas faire baisser le nombre de FPS sous les jeux. Jusqu'à preuve du contraire ces cartes hautes gammes sot destinés à rendre les jeux plus agréable à jouer. A vous d'en faire votre propre opinion

n°2469256
evildeus
Posté le 24-05-2003 à 22:26:45  profilanswer
 

Sr16 a écrit :


 
Et en 1600x1200 ça donne kwa ?
 

Je sais pas, c'est pas moi qui teste  :ange:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
mood
Publicité
Posté le 24-05-2003 à 22:26:45  profilanswer
 

n°2469491
thekiller3
Posté le 25-05-2003 à 00:49:07  profilanswer
 

Stilgars a écrit :


 
:jap:  
 
graphic du test FX5900 par marc, révélateur :
 
 
http://www.hardware.fr/medias/phot [...] 006203.gif
 
 
Le T&L, couramment utilisé dans les benchs (et pour cause, il n'existe aucun jeu gérant les nouveautés des PS2.0 ou VS2.0) est fortement optimisé sur les FX, sans doute toujours entiérement cablé en hard ...
Par contre, les PS ne sont concrétement pas vraiment mieux gérés en entiers sur la FX5900 par rapport à la FX5800, et la baisse de perfs s'explique par les 50 mhz disparus avec le FX flow ...
 
D'autres graphs :
 
http://www.hardware.fr/medias/phot [...] 006196.gif
http://www.hardware.fr/medias/phot [...] 006197.gif
 
Comment prétendre que la FX5900 est mieux taillée que la 9800 pour les jeux à venir ?


 
quand les jeux à venir seront là, la FX5900 aura une remplacante... qui boostera 2 fois + ... et meme + encore sera optimisé enfin comme y faut pour les PS 2.0 ect ect...

n°2469499
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 00:53:33  profilanswer
 

Stilgars a écrit :


 
 
En poussant un peu la réflexion après l'affaire des drivers trafiqués pour 3DMark03, tu devrais être en mesure de trouver une piste ... [:joce]


 
Aquanox est le type de jeu spécialement sorti POUR nVIDIA, vitrine technologique du GF3...........


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2469502
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 00:56:03  profilanswer
 

JinxJab a écrit :

rien a voir avec ton permis de tuer laaaa.
 
je dis k ici personne ne travail cher futurmark ni nvidia ni ATI pour savoir ce ki se pass reellement


 
Toutes les sociétés membres du programme de béta test ont accés à ce qui se passe chez futuremerk. Regarde les remerciemenst à la fin de la démo 3dmark.
 
Ah, et il serait aussi simple de tricher sur un timedemo qua sur 3dmark, les contrôles en moins. sauf que ça se répercuterait pas non plus sur le gameplay.....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2469507
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 01:01:24  profilanswer
 

JinxJab a écrit :

de toute facon nvidia decoit sur cette cg et je pense ke l equipe de 3dfx n y est pas pour rien. On ne met pas des "louzeur" (ceci est seulement mon avis) sur un tel proges.


 
Les loser en question ont quand même fait du très bon matériel qui a tenu longtemps.
 
La volonté de nvIDIA de bricoler sa vieille architecture GeForce est la seule coupable. Le design du GFFX ne s'apparent finalement qu'à un GF4TI patch DX9.... En très très grossier.
 
3dfx n'a pas su s'adapter au marché et aux fonctions benchiesques (T&L surtout). En contrepartie, leur matériel était très bon (Putain de FSAA !)... Mais déjà à l'époque, il fallait avoir ze fonction markettisée qui fait rouler plus vite les benchs..... L'histoire est un éternel recommencement................
 
A part que 3dfx avait pas triché, et le GFFX ne manque pas fonctions, à priori, importante......
 
Et puis, les ingés de 3dfx ont certes bossé sur le nV30, mais ça veut pas dire que y'a eu qu'eux, les ingés do'rigine nV eux sont restés... Par contre, Brian Burks et David Kirks, ils auraient dû s'en passer. Chief Scientist et Pr Manager de merdes de chez 3dfx (dans le désordre).
 
Ils auraient mieux fait de prendre tarolli....
 
Quant aux pratiques douteuses, nvIDIA n'est pas à son coup d'essai et n'est pas le seul.....
 
Mais comme certains l'ont déjà dit, là, ils se tirent eux même une balle dans le panard.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2469526
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 01:13:42  profilanswer
 

Pgase a écrit :


 
Arrête malheureux...
 
Certains vont te dirent que pour ce faire, les editeurs de jeux utilisent des "codepath" qui ne sont pas standards... [:lorill]  
Un crime...
 
Celà dit, je me pose une question...
L'interet d'un editeur n'est -il pas de concevoir un produit apte à tourner sur tout "hard" prêt à le recevoir et proffiter des optimisations disponibles (...n'importe lesquelles...) ????... [:figti]  


 
Si le constructeur savait construire sans que le développeur aie à s'embourber dans une trifouillée de codepaths spécifiques, ce serait MIEUX.  :jap:  
 
Si par exemple au lieu de nommer des extensiosn qui reviennent au même en ATI_blax ou NV_blay en attendant l'extensions ARB_bla, le premier à sortir l'extension la nommé ARBTEMP_bla, et que tout le monde s'y conformait, ça serait déjà plus simple.......
 
Imaginez un peu si tous les constrcteurs de chignolles s'amusaient à faire des trous différents pour les réservoirs de carburant ! Y'aurait des embouts peugeot, citroën, renault, ferrarri, trabant, lada, ford, lamborghini et j'en passse.....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2469699
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 03:33:06  profilanswer
 

Ce que je veux dire, c'est que nVIDIA a d'abord à s'occupper de fonctionner correctement avec les trucs qui semblent plus ou moins reconnus comme normaux (ARB2) avant de pondre des extensions qui certes valent le coup, mais nécessitent au développeur de travailler plus, de doulber les chances de faire des conneries, etc.......
 
C'est de cela que l'on parle.
 
Bien sûr que pour l'utilisatur final, si y'a des trucs qui fonctionnent, tant mieux, mais il serait plus simple que nVIDIA bouge son cul pour d'abod s'adapter à l'existant avant de pondre des trucs qui font la même chose différemment.
 
après, ces extensiosn apportent peut-être des choses, mais pas à doom3 vu qu'il tourne graphiquement quasi identiquement (seul celui qui sait peut montrer les différences). Moralité, on peut considèrer que ce codepath nV30 est une perte de temps pour ID, pour les gars de Stalker, pour d'autres encore, tout ça parce que de SON côté, nVIDIA n'a pas fait l'effort de faire les choses bien dés le départ......
 
A toujours vouloir aller à sa manière, forcément ça coince....... Comme s'entêter à ne supporter que les PS 1.3 sur les GFFX..... nVIDIA n'est pas au courant que les 1.4 sont sortis ? Ils étaient même sortis avant les GF4Ti.
 
Voilà mon point. Si on continue ta logique, bientôt on va revenir au temps des API par marques avec des moteurs différents (qui se souvent du temps où Screamer Rally par avait un exe pour les 3dfx, un pour les mystiques, un pour les rendition, un pour powervr.........................................................................
 
Introduire des nouveaux trucs : OK.
 
Pallier son inefficacité en inondant une API d'extensions : pas d'accord. C'est une régression. D'un point de vue utilisateur final, c'est kif kif, sauf que : ça améliore pas le bordel que sont les API actuellment. Et si il n'est pas question d'extensions sous DX, il s'agit tout du moins de façon de parler entre cartes......
 
Y'a pas à dire, nVIDIA commence à jouer les sales gosses de la 3D (mauvaise foi, triche, bricolage)....
 
Et dire que ce sont eux qui disaient il y a encore quelque temps vouloir simplifier les choses dans les API avec le Cg...... Surtout les simplifier pour eux, oui....
 
PS : le carburant, c'était les données envoyées par le jeu au GPU.


Message édité par MagiSim le 25-05-2003 à 03:33:48

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2469709
Zeross
Posté le 25-05-2003 à 03:53:29  profilanswer
 

MagiSim a écrit :

Ce que je veux dire, c'est que nVIDIA a d'abord à s'occupper de fonctionner correctement avec les trucs qui semblent plus ou moins reconnus comme normaux (ARB2) avant de pondre des extensions qui certes valent le coup, mais nécessitent au développeur de travailler plus, de doulber les chances de faire des conneries, etc.......
 
C'est de cela que l'on parle.
 
Bien sûr que pour l'utilisatur final, si y'a des trucs qui fonctionnent, tant mieux, mais il serait plus simple que nVIDIA bouge son cul pour d'abod s'adapter à l'existant avant de pondre des trucs qui font la même chose différemment.
 
après, ces extensiosn apportent peut-être des choses, mais pas à doom3 vu qu'il tourne graphiquement quasi identiquement (seul celui qui sait peut montrer les différences). Moralité, on peut considèrer que ce codepath nV30 est une perte de temps pour ID, pour les gars de Stalker, pour d'autres encore, tout ça parce que de SON côté, nVIDIA n'a pas fait l'effort de faire les choses bien dés le départ......
 
A toujours vouloir aller à sa manière, forcément ça coince....... Comme s'entêter à ne supporter que les PS 1.3 sur les GFFX..... nVIDIA n'est pas au courant que les 1.4 sont sortis ? Ils étaient même sortis avant les GF4Ti.
 
Voilà mon point. Si on continue ta logique, bientôt on va revenir au temps des API par marques avec des moteurs différents (qui se souvent du temps où Screamer Rally par avait un exe pour les 3dfx, un pour les mystiques, un pour les rendition, un pour powervr.........................................................................
 
Introduire des nouveaux trucs : OK.
 
Pallier son inefficacité en inondant une API d'extensions : pas d'accord. C'est une régression. D'un point de vue utilisateur final, c'est kif kif, sauf que : ça améliore pas le bordel que sont les API actuellment. Et si il n'est pas question d'extensions sous DX, il s'agit tout du moins de façon de parler entre cartes......
 
Y'a pas à dire, nVIDIA commence à jouer les sales gosses de la 3D (mauvaise foi, triche, bricolage)....
 
Et dire que ce sont eux qui disaient il y a encore quelque temps vouloir simplifier les choses dans les API avec le Cg...... Surtout les simplifier pour eux, oui....
 
PS : le carburant, c'était les données envoyées par le jeu au GPU.


 
Je suis globalement d'accord sauf que je trouve une légère contradiction dans ton discours a un point :
tu reproches à nVidia de ne pas avoir adopté les PS1.4 avec les GF4 et là ça me gêne car ce qu'a fait ATI à cette époque c'est exactement ce que fait nVidia aujourd'hui.
 
Désolé mais le parallélisme me semble troublant : pourquoi ATI a-t-il développé une nouvelle extension pour exposer cette fonctionnalité et fait des pieds et des mains pour imposer les PS1.4 dans Dx8.1 imposant un schisme dans Dx qu'on avait jamais vu avant ? Pourquoi n'ont ils pas supportés l'extension OpenGL de nVidia déjà présente (c'est tout à fait possible c'est ce que fait par exemple 3DLabs) ?  
 
Bref reste cohérent dans ton discours ;)
 
Edit : j'avais mal lu je pensais que tu parlais des GF4 mais les GF FX supportent les PS1.4.


Message édité par Zeross le 25-05-2003 à 03:54:42

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2469714
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 25-05-2003 à 04:27:46  profilanswer
 

Bon je viens de refaire ma méthodologie de test "jeu" , elle inclue les (4) jeux actuellements utilisés mais avec des démos maisons, auxquels sont rajoutés 4 autres jeux ...
 
Dommage je n'ai pas C&C Générals j'aurais bien essayé de voir si il était possible de faire un truc avec. P-e pour plus tard :)


Message édité par Marc le 25-05-2003 à 04:28:58
n°2469810
jherek
Roi de Prusse, Pennsylvanie
Posté le 25-05-2003 à 10:04:05  profilanswer
 

Marc :jap:  
 
Dans 3Dmark 2003, seul un test gère DX9. Mais est-ce qu'il est 100% DX9 ou plutot 8.5 ? J'ai lu que le GT1 était DX7.1, c'est pas plutot DX8.0 ?


---------------
Mon blog informatique - Faye Wong, le phenomene chinois
n°2469846
juno
Posté le 25-05-2003 à 10:33:33  profilanswer
 

MagiSim a écrit :


 
La volonté de nvIDIA de bricoler sa vieille architecture GeForce est la seule coupable. Le design du GFFX ne s'apparent finalement qu'à un GF4TI patch DX9.... En très très grossier.
 


 
En plus d'etre developpeur, tu fais du design de chip aussi? :sarcastic:

n°2469866
evildeus
Posté le 25-05-2003 à 10:49:15  profilanswer
 

Tu as fais un test vite fait pour voir ce que cela donne?

Marc a écrit :

Bon je viens de refaire ma méthodologie de test "jeu" , elle inclue les (4) jeux actuellements utilisés mais avec des démos maisons, auxquels sont rajoutés 4 autres jeux ...
 
Dommage je n'ai pas C&C Générals j'aurais bien essayé de voir si il était possible de faire un truc avec. P-e pour plus tard :)


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2469875
evildeus
Posté le 25-05-2003 à 10:54:13  profilanswer
 

Sr16 a écrit :


Et en 1600x1200 ça donne kwa ?


http://common.ziffdavisinternet.com/util_get_image/2/0,3363,i=24411,00.jpg
 
La 9800 pro perd plus en 16*12 que la 5900U  :heink:  :ouch:  :whistle:  
   
 

Code :
  1. % Drop
  2. Radeon 9800 Pro ? 16x12
  3. 11.4%
  4. GFFX 5900 Ultra ? 16x12
  5. 10.1%
  6. GFFX 5800 Ultra ? 16x12
  7. 12.4%
  8. Radeon 9800 Pro ? 12x9
  9. 11.0%
  10. GFFX 5900 Ultra - 12X9
  11. 16.8%
  12. GFFX 5800 Ultra ? 12x9
  13. 12.7%


Message édité par evildeus le 25-05-2003 à 10:55:58

---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2469951
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 25-05-2003 à 11:38:11  profilanswer
 

Evildeus a écrit :

Tu as fais un test vite fait pour voir ce que cela donne?
 

Under process ...

n°2469954
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 25-05-2003 à 11:38:52  profilanswer
 

Jherek a écrit :

Marc :jap:  
 
Dans 3Dmark 2003, seul un test gère DX9. Mais est-ce qu'il est 100% DX9 ou plutot 8.5 ? J'ai lu que le GT1 était DX7.1, c'est pas plutot DX8.0 ?

GT4 intègre à la fois des shader 2.0 et inférieurs à 2.0 ... pourquoi en faire lorsque l'effet ne le nécessite pas ?

n°2469965
evildeus
Posté le 25-05-2003 à 11:44:32  profilanswer
 

Marc a écrit :

Under process ...


Thx  :jap:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2469974
thekiller3
Posté le 25-05-2003 à 11:48:35  profilanswer
 

Evildeus a écrit :


http://common.ziffdavisinternet.co [...] 411,00.jpg
 
La 9800 pro perd plus en 16*12 que la 5900U  :heink:  :ouch:  :whistle:  
   
 

Code :
  1. % Drop
  2. Radeon 9800 Pro ? 16x12
  3. 11.4%
  4. GFFX 5900 Ultra ? 16x12
  5. 10.1%
  6. GFFX 5800 Ultra ? 16x12
  7. 12.4%
  8. Radeon 9800 Pro ? 12x9
  9. 11.0%
  10. GFFX 5900 Ultra - 12X9
  11. 16.8%
  12. GFFX 5800 Ultra ? 12x9
  13. 12.7%




 
ce graphique me redonne chaud au coeur  :love:   :wahoo:   :)  
 
 [:xp1700]   :D   :p   :whistle:

n°2469999
mikestewar​t
Air Roll Spinnin'
Posté le 25-05-2003 à 12:00:42  profilanswer
 

Y a un truc qui me choque : comment ça se fait que la FX5900 perde moins de perfs en 1600x1200 qu'en 1024x768, à priori ça devrait être l'inverse... :/
 
C'est compréhensible que l'écart de perfs de la R9800 entre la 320 et la 330 augmente avec la résolution parce que la charge sur la carte graphique est plus importante. Mais pour la FX5900...


Message édité par mikestewart le 25-05-2003 à 12:22:24
n°2470021
jherek
Roi de Prusse, Pennsylvanie
Posté le 25-05-2003 à 12:11:37  profilanswer
 

ce truc en 1600 par 1200 est bien louche, la radeon perd bien plus et la FX bien moins... :heink:


---------------
Mon blog informatique - Faye Wong, le phenomene chinois
n°2470028
Profil sup​primé
Posté le 25-05-2003 à 12:14:25  answer
 

MagiSim a écrit :


La volonté de nvIDIA de bricoler sa vieille architecture GeForce est la seule coupable. Le design du GFFX ne s'apparent finalement qu'à un GF4TI patch DX9.... En très très grossier.


 
Pas pire que 3dfx qui nous a resservi la même architecture de la voodoo1 à la voodoo5...  :whistle:

n°2470058
mikestewar​t
Air Roll Spinnin'
Posté le 25-05-2003 à 12:25:27  profilanswer
 

Même que tu l'as vu toi-même Evildeus sur Beyond3D, des tests fait par des possesseurs de Radeons. Ils ne donnent pas du tout les mêmes résultats que ceux que tu affiches.

n°2470078
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 12:33:25  profilanswer
 

Zeross a écrit :


 
Je suis globalement d'accord sauf que je trouve une légère contradiction dans ton discours a un point :
tu reproches à nVidia de ne pas avoir adopté les PS1.4 avec les GF4 et là ça me gêne car ce qu'a fait ATI à cette époque c'est exactement ce que fait nVidia aujourd'hui.
 
Désolé mais le parallélisme me semble troublant : pourquoi ATI a-t-il développé une nouvelle extension pour exposer cette fonctionnalité et fait des pieds et des mains pour imposer les PS1.4 dans Dx8.1 imposant un schisme dans Dx qu'on avait jamais vu avant ? Pourquoi n'ont ils pas supportés l'extension OpenGL de nVidia déjà présente (c'est tout à fait possible c'est ce que fait par exemple 3DLabs) ?  
 
Bref reste cohérent dans ton discours ;)
 
Edit : j'avais mal lu je pensais que tu parlais des GF4 mais les GF FX supportent les PS1.4.


 
La question des PS 1.4 ne se pose pas : y'a eu standardisation, comme le seront les extensiosnde nvIDIA en OpenGL sûrement. spa de la faute à ATI si Microsoft se bouge plus vite que l'ARB.....
 
Et je suis pas certain que le GFFX supporte les 1.4, il me semble que c'était un reproche qui leur avait été fait. Bizarrement, y'a un autre chip qui les supporte (Deltachrome ? Le retardataire ?)......
 
Enfin, quoi quil en soit, on peut en dire autant des PS 1.3 sous DX8 partiellement .1 aussi..... (qui sont eux supportés par tout le monde)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2470098
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 12:39:18  profilanswer
 

yoyo3d a écrit :


 
Pas pire que 3dfx qui nous a resservi la même architecture de la voodoo1 à la voodoo5...  :whistle:  


 
C'est vrai, 3dfx est mort, nVIDIA non. En plus nVIDIA a vu le fiasco de 3dfx....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2470101
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 12:40:30  profilanswer
 

mikestewart a écrit :

Même que tu l'as vu toi-même Evildeus sur Beyond3D, des tests fait par des possesseurs de Radeons. Ils ne donnent pas du tout les mêmes résultats que ceux que tu affiches.


 
Ah Beyond 3D, ça sert de source quand ça arrange, mais quand ça arrange pas.....
 
J'te charrie Evikdeus, hein  ;)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2470160
evildeus
Posté le 25-05-2003 à 13:10:30  profilanswer
 

mikestewart a écrit :

Même que tu l'as vu toi-même Evildeus sur Beyond3D, des tests fait par des possesseurs de Radeons. Ils ne donnent pas du tout les mêmes résultats que ceux que tu affiches.


Il n'y a qu'un test fait par quelqu'un sur on ne sait quelle machine. ET me parait plus fiable, ce qui veut pas dire qu'ils ce sont pas trompés :D


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2470166
evildeus
Posté le 25-05-2003 à 13:14:03  profilanswer
 

MagiSim a écrit :


 
Ah Beyond 3D, ça sert de source quand ça arrange, mais quand ça arrange pas.....
 
J'te charrie Evikdeus, hein  ;)  


Evildeus.
 
mikestewart c'est bien de regarder les réponses de personnes plus crédible genre:
 

Citation :

ET is testing at high resolutions, and not the 3DMark default. The net result of this is that the parts that are Pixel Shader optimised will have a greater difference, but the buffer clears will have a lesser difference (the more frames being drawn the more not clearing buffers gains you).


http://www.beyond3d.com/forum/viewtopic.php?t=6061


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2470182
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 13:20:30  profilanswer
 

Evildeus a écrit :


Evildeus.
 
mikestewart c'est bien de regarder les réponses de personnes plus crédible genre:
 

Citation :

ET is testing at high resolutions, and not the 3DMark default. The net result of this is that the parts that are Pixel Shader optimised will have a greater difference, but the buffer clears will have a lesser difference (the more frames being drawn the more not clearing buffers gains you).


http://www.beyond3d.com/forum/viewtopic.php?t=6061


 
ça reste pas logique : en 1280 les différences des R3x0 sont bien trop grandes par rapport au 1024 sur d'autres sites... Dont HFR.......
 


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2470193
evildeus
Posté le 25-05-2003 à 13:28:24  profilanswer
 

Peut etre devriez vous lire l'article :)
Le test est en 12*9 et 16*12 + AA/AF alors que le test du mec est en 16*12, d'ailleurs il a des chiffres bcp plus importants en GT2,3,4
http://common.ziffdavisinternet.com/util_get_image/2/0,3363,i=24408,00.jpg
http://common.ziffdavisinternet.com/util_get_image/2/0,3363,i=24409,00.jpg
http://common.ziffdavisinternet.com/util_get_image/2/0,3363,i=24410,00.jpg
Contre:
 
1600x1200  
320 | 330  
 
Test 1. 78.2|77.9  
Test 2. 16.0|16.0  
Test 3. 15.2|15.2  
Test 4. 21.4|19.0  
 
http://www.beyond3d.com/forum/viewtopic.php?t=6061


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2470201
Dkiller
Posté le 25-05-2003 à 13:33:39  profilanswer
 

Je débarque  :whistle:  
 
La 5900 Ultra est prévu pour le mois de juin à ~500?  :??:  
C'est une sortie mondiale ou d'abords au soleil levant  :??:  :heink:  
 
 :jap:

n°2470206
thekiller3
Posté le 25-05-2003 à 13:35:44  profilanswer
 

sur les test 2 et 3, ceux qui représentent le plus les jeux actuels et à venir ds un avenir proche, la FX5900 reste devant  :)  
sur le test 4 là oui elle traine :/
mais d'ici là qu'il y ai des jeux qui utilisent à fond les fonction du test 4, là la 5900 est à la ramasse, la FX**** (le NV40 quoi) sera là et avec des perf surement à la hauteur. :)  
et quand le NV40 sera là je change de carte 3D. :pt1cable:  :D

n°2470305
MagiSim
Magique, et oui !
Posté le 25-05-2003 à 14:21:50  profilanswer
 

Evildeus, la prochaine fois que tu poste un joli petit graphique, précise ce qui n'est pas précisé dessus ou donne le lien. On est pas sensés devoir aller là bas manuellement pour retrouver les informations en question qui manquaient comme AA + AF. Le graph ne montrait que les résolutions. On était pas censés savoir qu'ils ne mettaient pas le reste dessus..
 
 :kaola:  
 
Non mais.....
 
Maintenant, peut-être qu'ATI bricole en AA + AF ? Là, ce serait intéressant que quelqu'un dont c'est le job confirme ou infirme ces résultats. Il faut aller à fond dans cette histoire.
 
ça dépasse 3dmark et nVIDIA.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2470315
evildeus
Posté le 25-05-2003 à 14:25:35  profilanswer
 

Peut etre ferais tu bien de lire les liens que tu donnes toi meme  :sarcastic:  

MagiSim a écrit :

Evildeus, la prochaine fois que tu poste un joli petit graphique, précise ce qui n'est pas précisé dessus ou donne le lien. On est pas sensés devoir aller là bas manuellement pour retrouver les informations en question qui manquaient comme AA + AF. Le graph ne montrait que les résolutions. On était pas censés savoir qu'ils ne mettaient pas le reste dessus..
 
 :kaola:  
 
Non mais.....
 
Maintenant, peut-être qu'ATI bricole en AA + AF ? Là, ce serait intéressant que quelqu'un dont c'est le job confirme ou infirme ces résultats. Il faut aller à fond dans cette histoire.
 
ça dépasse 3dmark et nVIDIA.


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR