Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2430 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  118  119  120  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°2829439
sealbirman
Rhhha ha hahaha...
Posté le 15-11-2003 à 15:14:09  profilanswer
 

Reprise du message précédent :
[Mode HS ON] pour notre messie des cartes graphiques
n_b > Pour info, t'as oublié de mettre ton nouveau SLK800 dans ta config... [:sealbirman]  
http://forum.hardware.fr/forum2.ph [...] subcat=169
[Mode HS off]

mood
Publicité
Posté le 15-11-2003 à 15:14:09  profilanswer
 

n°2829441
bjone
Insert booze to continue
Posté le 15-11-2003 à 15:14:26  profilanswer
 

de toutes façon, valve c'est tous des pourris vendus à ATI, la preuve ATI a proposé plus de fric que nVidia pour l'exclu du jeu... (quoi Halflife 2 il était pas écrit partout sur le site nVidia à un moment ?)

n°2829452
hikoseijur​o
Posté le 15-11-2003 à 15:17:23  profilanswer
 

BJOne a écrit :


tout le monde il est bo il est gentil....


 
sauf ATI et futuremark, ah oui et valve aussi

n°2829479
Oxygen3
Tears from the moon
Posté le 15-11-2003 à 15:25:15  profilanswer
 

et microsoft aussi :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2829504
hikoseijur​o
Posté le 15-11-2003 à 15:34:40  profilanswer
 

sealbirman a écrit :

[Mode HS ON] pour notre messie des cartes graphiques
n_b > Pour info, t'as oublié de mettre ton nouveau SLK800 dans ta config... [:sealbirman]  
http://forum.hardware.fr/forum2.ph [...] subcat=169
[Mode HS off]
 


 
il l'a mis sur sa GF4ti qui fait du 10°C à l'ombre

n°2829729
tridam
Profil : Equipe HardWare.fr
Posté le 15-11-2003 à 17:14:06  profilanswer
 

OW31 a écrit :

Ceci dit, 3D mark, c'est quoi au juste ?


 
Un benchmark synthétique pour pouvoir comparer les performances synthétiques d'une carte. Synthétique signifie que le travail doit être parfaitement identique sur les 2 cartes. Le but est de connaître les performances 'brutes' d'un GPU, de voir ce qu'il a dans le ventre. Le but n'est pas de voir jusqu'à quel point il est possible de simplifier le rendu sans qu'on n'y voit rien.
 
C'est très différent d'un jeu. Quel intérêt aurait 3Dmark s'il nous disait la même chose que Quake III ?

n°2829862
Tangzzz
Posté le 15-11-2003 à 18:10:45  profilanswer
 

[:zytra]  
 
me voila avec les resultats de la gf4 ti4200 frequences de base
j'ai donc installé les 52.16 off et benché 3 fois pour obtenir une moyenne avec respectivement le patch 330 et 340 sur 3dmark03
 
Premiere série v330 :
 
1403, 1408, 1406 => 1405,7
 
Deuxieme série v340 :
 
1501, 1506, 1505 => 1504
 
Donc la différence est relativement significative, environ 7%
 
Voila  [:zytrayaisse]  

n°2829940
Oxygen3
Tears from the moon
Posté le 15-11-2003 à 18:50:52  profilanswer
 

:wam:
c'est assez important oué


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°2830075
LeGreg
Posté le 15-11-2003 à 20:11:50  profilanswer
 

The Inquirer a eu une réponse de Futuremark:
 

Citation :

Well, I do not think that it adds any value to go back and forth on this forever. Us and them simply disagree on this one thing: Should application specific optimizations be allowed in 3DMark03. We continue to opinion no, while they argue yes.
 
Thus, 3DMark03 will not show the optimised performance for any hardware, not Nvidia's, not ATI's, not Matrox', etc. That is why we say that the performance scores are comparable. If someone wants to know what is the performance on a specific game with specific drivers, 3DMark03 is not the
tool to use. In that case, the user should use that specific application
with those drivers.
 
However, I'd like to say that it will be interesting to see how well Nvidia is able to develop the Unified Compiler Technology. I think it has a great potential. Let's give them time to work on that and hopefully we'll see great generic performance improvements in all applications as their technology matures.
 
Best regards,
 
Tero


 
Pour ceux qui ont des pbs avec l'anglais :
"Bien, je ne pense pas que ça ait aucun intérêt de passer et de repasser sur cette histoire. Nous avons simplement un désaccord sur une chose (NDGreg: Nous = Futuremark vs Nvidia, je rajouterai probablement ATI et Sis du coté de Nvidia meme s'ils s'en défendent en public..): est-ce que les optimisations spécifiques devraient être autorisées dans 3Dmark? Notre
opinion est non, ils argumentent pour que ce soit le cas."
"Selon ce principe, 3DMark montrera les performances non optimisées (ndgreg : si cela avait un sens) de chacun des hardware que ce soit ATI, Matrox, Nvidia etc.. C'est pour cela que nous considérons que nos scores sont comparables. Si quelqu'un veut le score de tel hardware sur tel jeu avec
tels drivers, alors 3dmark n'est pas l'outil à utiliser, dans ce cas, l'utilisateur devrait utiliser cette application spécifique avec ces drivers."
"Cependant, j'aimerai dire qu'il sera très interessant de voir comment Nvidia est capable de développer la technologie de l'Unified Compiler. Je pense qu'elle a montré un grand potentiel. Donnons leur un peu de temps pour travailler sur cela et espérons que nous verrons de larges améliorations génériques dans toutes les applications au fur et à mesure que leur technologie mûrit."
"Veuillez agréer.."
"Tero" (de Futuremark)
 
Je pense que cela résume bien la situation.
 
Par ailleurs j'ai entendu une autre rumeur:
Grosso modo, les gars de Futuremark n'avait plus rien à redire à la qualité d'image qui était excellente sur les derniers hardware Nvidia avec tous les patchs et les derniers drivers (5x.xx). Si il y avait des optimisations "excessives" au mois de mai, celles-ci avaient été virées et comme résultat la performance globale avait augmenté. Cependant la raison de
la sortie du patch c'est principalement du à la pression des autres membres du programme beta de Futuremark (qui paient jusqu`à des centaines de milliers de dollars pour faire partie de ce programme). Certains avancent le nom de Dell bizarrement mais pour une raison claire: leurs configs haut de gamme utilisent des Radeon, et comme ils n'utilisent quasiment QUE 3dmark dans leurs pubs, ils veulent afficher un "net avantage" sur des configs concurrentes dans les chiffres qu'ils publient.
(Dell et d'autres OEMs sont aussi la raison principale pour laquelle la Fx5200 est Dx9. Checkboxes..)
 
LeGreg

n°2830115
bjone
Insert booze to continue
Posté le 15-11-2003 à 20:26:47  profilanswer
 

ouais mé bon je sais plus où dans le topic, l'histoire de Dell+Radeon, elle été plus ou moins reprise par le mec de Gainward.....
 
moi à partir du moment où une boite sors des gros troll (beuh notre compilateur l'est désactivé), alors que tu es d'accord avec moi c'est quand même pas mal un troll monstrueux venant de boites comme nVidia & Gainward, j'évite d'écouter toutes les autres rumeur sans preuves qui découlent du truc....  
 
quand une boite sors des trolls incroyables, ça sert à rien de chercher à écouter la moindre rumeur invérifiable....

mood
Publicité
Posté le 15-11-2003 à 20:26:47  profilanswer
 

n°2830128
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 20:30:56  profilanswer
 

legreg a écrit :

Par ailleurs j'ai entendu une autre rumeur:
Grosso modo, les gars de Futuremark n'avait plus rien à redire à la qualité d'image qui était excellente sur les derniers hardware Nvidia avec tous les patchs et les derniers drivers (5x.xx). Si il y avait des optimisations "excessives" au mois de mai, celles-ci avaient été virées et comme résultat la performance globale avait augmenté. Cependant la raison de
la sortie du patch c'est principalement du à la pression des autres membres du programme beta de Futuremark (qui paient jusqu`à des centaines de milliers de dollars pour faire partie de ce programme). Certains avancent le nom de Dell bizarrement mais pour une raison claire: leurs configs haut de gamme utilisent des Radeon, et comme ils n'utilisent quasiment QUE 3dmark dans leurs pubs, ils veulent afficher un "net avantage" sur des configs concurrentes dans les chiffres qu'ils publient.
(Dell et d'autres OEMs sont aussi la raison principale pour laquelle la Fx5200 est Dx9. Checkboxes..)
 
LeGreg


 
Là c'est pu une rumeur, c'est du délire...
 
NVidia a resigné avec les oignons fous après le passage "gonflage de score", donc, d'un coup, ça tient pu debout [:darkwalker_skyvador]

n°2830145
nicolas_b
Posté le 15-11-2003 à 20:39:18  profilanswer
 

Oxygen3 a écrit :

:wam:
c'est assez important oué


 
C'est énorme meme : )) Vous avez pas l'impression d'être ridicule avec vos suppositions à deux balles ? C'est pas avec une hausse de 100 points à 3d mark 2003 après l'application d'un patch(je suis curieux de voir comment ça marche à l'interieur), que vous prouverez que nvidia veut déliberement brider ses ti, pour qu'elles ne fassent pas de l'ombre aux fx 5600 ...
 
Remarquez c'est vrai 1500 points à 3dmark, c'est tellement ridicule, que ça met la ti au moins au dessus de la fx 5200(qui coute 40à50? moins cher).
 
Moi, je me souviens d'un autre histoire plus marrante(celle ci vrai), l'histoire d'une carte moyenne game qui s'appellait la 9500 pro qui a été retiré de la vente par ati, car elle faisait de l'ombre aux cartes haut de gamme 9700 qui coutait 150? plus cher.
 
Enfin,  vous avez la mémoire courte, c'était la stratégie made in ati ou " comment prendre le client pour un con".  
 
Ati a remplacé rapidement cette carte en voyant son erreur, par une carte carrement moins performante au même prix, sous l'appelation 9600 pour faire croire aux clients à une évolution.  
 
Vous parlez d'une évolution, on divise par 2 le nombres de pipelines, et on retire combien 20% des performances de la carte ?
 
On peut dire aujourd'hui que si vous vous tappez des 9700-9800, c'est parce que vous n'avez pas eu le choix, vous avez été dupé sur la qualité, car aucune carte moyenne gamme chez ati ne tenait la route.  
 
Je ne parle meme pas des 9800 se, qui sont aussi rapide que les 9600....
 
Du coté de nvidia, ça été progressif, les fx5600 -> fx5600 ultra -> fx 5700, logique, transparent, il y pas de magouilles.
 
Vous avez un probleme ... Vous remettez sur le dos de nvidia les griefs que vous rencontrez avec vos ati au point que vous vous rendez meme plus compte de là ou vous en etes arrivé.  
 
Si vous avez un probleme avec vos jeux, drivers, cartes, ou le marketing d'ati, contactez le support ati, c'est pas la peine d'écrire à nvidia.
 
Les cartes nvidia marchent très bien, c'est chez vous que ça bug.

n°2830161
LeGreg
Posté le 15-11-2003 à 20:51:57  profilanswer
 

Gigathlon a écrit :


Là c'est pu une rumeur, c'est du délire...


 
Bah c'est déjà Dell qui avait obligé Nvidia a revenir dans le programme Beta de Futuremark au mois de mai.
 
(en gros message de Michael dell diffusé publiquement disant: "nous attachons une grande importance aux scores 3dmark03 que nous considerons comme un benchmark valide" etc..)
 
LeGreg

n°2830162
Ernestor
modo-coco :o
Posté le 15-11-2003 à 20:52:12  profilanswer
 

OW31 a écrit :


Ce post est-il pour moi ?

Non il était pour Nicolas_B mais j'avais mal lu sa réponse (ou il dit qu'il en sait rien) et nous sors la théorie du complot comme d'hab [:ddr555]


Message édité par Ernestor le 15-11-2003 à 20:52:29

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2830169
werebear
Posté le 15-11-2003 à 20:54:55  profilanswer
 

Ca me paraît évident que ce sont les oignons fous qui ont eu des remords d'avoir desoptimiser les GF4 ti dans leur version précédente et qui ont corrigé ca avec la 340 !! :D  :lol:


---------------
un bon troll est un troll mort
n°2830172
Ernestor
modo-coco :o
Posté le 15-11-2003 à 20:55:24  profilanswer
 

nicolas_b a écrit :


Moi, je me souviens d'un autre histoire plus marrante(celle ci vrai), l'histoire d'une carte moyenne game qui s'appellait la 9500 pro qui a été retiré de la vente par ati, car elle faisait de l'ombre aux cartes haut de gamme 9700 qui coutait 150? plus cher.
 
Enfin,  vous avez la mémoire courte, c'était la stratégie made in ati ou " comment prendre le client pour un con".  
 
Ati a remplacé rapidement cette carte en voyant son erreur, par une carte carrement moins performante au même prix, sous l'appelation 9600 pour faire croire aux clients à une évolution.  
 
Vous parlez d'une évolution, on divise par 2 le nombres de pipelines, et on retire combien 20% des performances de la carte ?


Tu nous prend vraiment pour des jambons ou quoi :D
 
C'est l'hopital qui se fout de la charité  :sarcastic:  
 
Tiens, rappele toi, oui toi qui a la mémoire courte, une carte : GF 4 Mx. Alors, tu vas dire quoi la ?
 
Et ouais dans les deux cas, ca s'appele du marketing et c'est puant.
 
En tout cas, troll original sur ce coup la. Niveau faible, c'est un peu nul comme troll mais je félicite tout de même l'effort de recherche d'originalité  :jap:


Message édité par Ernestor le 15-11-2003 à 20:59:08

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2830178
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 20:57:45  profilanswer
 

Ernestor a écrit :


Et ouais dans les deux cas, ca s'appele du marketing et c'est puant.
 


 
Sauf qu'entre une 9500 (9700 déclassée à la base, donc rien de louable) et une 9600 la différence est très réduite... si bien que la 9600xt a des perfs très proches d'une 9700.
 
Faudrait m'expliquer un truc là :pt1cable:  [:gratgrat]

n°2830181
Ernestor
modo-coco :o
Posté le 15-11-2003 à 20:58:40  profilanswer
 

Expliquer quoi ? C'est un argiument de Nicolas_B, y a rien a expliquer, ca se déguste c'est tout :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2830182
Dark Schne​iderr
⭐⭐
Posté le 15-11-2003 à 20:58:52  profilanswer
 

nicolas_b a écrit :


 
 
Du coté de nvidia, ça été progressif, les fx5600 -> fx5600 ultra -> fx 5700, logique, transparent


 
http://www.hardware.fr/articles/482/page9.html
 
"Si le Radeon 9600XT n?est qu?un Radeon 9600 Pro boosté, avec des performances en hausse de 10% environ, ce n?est pas le cas du GeForce FX 5700 Ultra par rapport au GeForce FX 5600 Ultra. En effet, NVIDIA est parvenu à identifier et résoudre les défauts de son ancien chip de milieu de gamme et nous propose avec le GeForce FX 5700 Ultra une solution qui est enfin digne de son rang."
 

nicolas_b a écrit :


 
 
y pas de magouilles.
 


 
 
http://www.hardware.fr/articles/468/page14.html
 
"Bref, le lourd héritage du GeForce FX 5800 (CineFX 1.0) pèse beaucoup sur le 5600, qui n´a pour le moment pas d´argument de poids face à l´offre ATI et qui est dans certains cas chamboulé par ces bonnes vieilles GeForce4 Ti qui sont désormais très abordables. A quand un GeForce FX 5700 dérivé du GeForce FX 5900 et son CineFX 2.0 ?"
 
 
 


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°2830187
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 15-11-2003 à 21:01:20  profilanswer
 

Pour les GeForce4 Ti;
 
Etant donné que
 
44.03 : 330 = 340
45.23 : 330 < 340
52.16 : 330 < 340
 
Et donc que  
 
330 : 44.03 = 45.23 = 52.16
340 : 44.03 < 45.23 / 52.16
 
Il me parait pour le moins MagiSimeste de dire que NVIDIA a volontairement bridé ses GeForce4 ... si le score avec les 44.03 et le patch 340 était équivalent à celui avec les 45.23/52.16, pourquoi pas mais là ...
 
Par contre, il y'a semble t il une optimisation dans les driver 45.23/52.16 qui n'impactait pas sur le score de 3DMark03 v.330 et qui a un impact positif sur le score de 3DMark03 v.340.
 
Pourquoi ? Plus difficile à dire par contre ... :o

n°2830198
nicolas_b
Posté le 15-11-2003 à 21:07:27  profilanswer
 

Ernestor a écrit :


Tu nous prend vraiment pour des jambons ou quoi :D
 
C'est l'hopital qui se fout de la charité  :sarcastic:  
 
Tiens, rappele toi, oui toi qui a la mémoire courte, une carte : GF 4 Mx. Alors, tu vas dire quoi la ?
 
Et ouais dans les deux cas, ca s'appele du marketing et c'est puant.
 
En tout cas, troll original sur ce coup la. Niveau faible, c'est un peu nul comme troll mais je félicite tout de même l'effort de recherche d'originalité  :jap:


 
Bah excuse moi, mais la g4 mx c'est un bas de gamme, et pour une carte 60?, personne s'attendait à quelque chose de transcendant.  
 
C'était clairement indiqué 420 - 440 - 460 inférieur à 4200 - 4400 - 4600 et ça l'utilisateur le moins averti l'a compris.
 
Alors que chez ati, c'est pas pareil. On fait dans la grande mesure, on vend du matos 190? pièce ... 9600 c'est supérieur à 9500, et c'est bien prévu pour confondre l'utilisateur le moins averti.
 
Il y a pas de complot, c'est juste qu'ati vend du materiel sous des appelations qui ne refletent pas ce qu'il est censé faire. Il y a eu les numéros de versions, puis le directx9. Enfin bref, on va pas refaire le monde ati...
 

n°2830201
Dark Schne​iderr
⭐⭐
Posté le 15-11-2003 à 21:09:43  profilanswer
 

nicolas_b a écrit :


 
C'était clairement indiqué 420 - 440 - 460 inférieur à 4200 - 4400 - 4600 et ça l'utilisateur le moins averti l'a compris.
 
 


 
t'as pas été dans les FNAC, ou au Leclerc du coin.
Déconnecté de la life, va


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°2830202
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 21:11:01  profilanswer
 

nicolas_b a écrit :


 
Bah excuse moi, mais la g4 mx c'est un bas de gamme, et pour une carte 60?, personne s'attendait à quelque chose de transcendant.  
 
C'était clairement indiqué 420 - 440 - 460 inférieur à 4200 - 4400 - 4600 et ça l'utilisateur le moins averti l'a compris.
 
Alors que chez ati, c'est pas pareil. On fait dans la grande mesure, on vend du matos 190? pièce ... 9600 c'est supérieur à 9500, et c'est bien prévu pour confondre l'utilisateur le moins averti.
 
Il y a pas de complot, c'est juste qu'ati vend du materiel sous des appelations qui ne refletent pas ce qu'il est censé faire. Il y a eu les numéros de versions, puis le directx9. Enfin bref, on va pas refaire le monde ati...
 
 


 
Et GF2 MX < GF 256, qu'est-ce que t'as de bô à dire là dessus?
 
L'utilisateur peu averti il voit GF2, il est super content, il croît qu'il a le top du top...
 
En remontant encore, y'avait les TNT2 m64, ouech, 32Mo et AGP 4x c'est trop d'la bombé!! [:darkwalker_skyvador]

n°2830205
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 15-11-2003 à 21:13:53  profilanswer
 

C'est clair que du côté des dénominations, ATI c'est pas la joie.
 
Mais NVIDIA, ce n'est pas non plus au top pour le grand public  ...
 
GeForce4 MX < GeForce3
GeForce 4 Ti 4800SE < GeForce4 Ti 4600
GeForce FX 5200 < GeForce4 Ti 4200
...

n°2830206
LeGreg
Posté le 15-11-2003 à 21:15:16  profilanswer
 

Oui il vaudrait sans doute mieux choisir le score 3dmark pour les dénominations des chips.
 
Ceci dit, le bordel quand il faut changer la boite parce qu'un nouveau patch ou un nouveau driver est sorti :D
 
LeGreg

n°2830207
Dark Schne​iderr
⭐⭐
Posté le 15-11-2003 à 21:15:53  profilanswer
 

nicolas_b a écrit :


 
Moi, je me souviens d'un autre histoire plus marrante(celle ci vrai), l'histoire d'une carte moyenne game qui s'appellait la 9500 pro qui a été retiré de la vente par ati, car elle faisait de l'ombre aux cartes haut de gamme 9700 qui coutait 150? plus cher.
 
Enfin,  vous avez la mémoire courte, c'était la stratégie made in ati ou " comment prendre le client pour un con".  
 


 
les possesseurs de 9500 Pro adoreraient qu'à l'avenir ATI continue à les prendre pour des cons.  
 
nicolas_b, please, prend des cours de logique, ça peut t'aider.
 
Tu me remercieras plus tard.


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°2830209
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 15-11-2003 à 21:16:25  profilanswer
 

Gigathlon a écrit :

En remontant encore, y'avait les TNT2 m64, ouech, 32Mo et AGP 4x c'est trop d'la bombé!! [:darkwalker_skyvador]

4 an après, on a encore des 9200/9600 utilisant des bus mémoire 64 bits (le SE), donc bon ... ils ne sont pas mieux l'un que l'autre, et NVIDIA est même mieux que ATI car il ne me semble pas qu'il y ai de 5600 avec bus 64 bits (à confirmer), seulement des 5200.

n°2830213
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 21:18:13  profilanswer
 

legreg a écrit :

Oui il vaudrait sans doute mieux choisir le score 3dmark pour les dénominations des chips.


Sans aller jusque là, utiliser un assemblage des chiffres clés du chip:
 
A: génération
X: pixels pipelines
Y: textures pipelines
Z: fréquence
 
Ca tient en 4 chiffres, donc c'est loin d'être ingérable...
 

n°2830215
dje33
Posté le 15-11-2003 à 21:19:57  profilanswer
 

dans tout les cas ils arriveraient a nous faire penser qu'une carte graphique bas de gamme est tres bonne

n°2830217
LeGreg
Posté le 15-11-2003 à 21:20:26  profilanswer
 

oui mais tu pourrais tricher sur ces chiffres et offrir des perfs moins bonnes au final.
Sans compter que les drivers font aussi la différence ainsi que des features on chip dont on ne fait pas trop la pub.
 
Alors ?
Le chiffre Unreal Tournament (qui ne semble pas trop bouger de sonn coté) ?
 
LeGreg

n°2830218
Dark Schne​iderr
⭐⭐
Posté le 15-11-2003 à 21:20:32  profilanswer
 

Gigathlon a écrit :


Sans aller jusque là, utiliser un assemblage des chiffres clés du chip:
 
 
Z: fréquence
 
Ca tient en 4 chiffres


 
les Cg ne sont pas encore au Ghz, donc cela ne fera pas 4 chiffres. Logique.


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°2830219
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 21:20:57  profilanswer
 

Marc a écrit :

4 an après, on a encore des 9200/9600 utilisant des bus mémoire 64 bits (le SE), donc bon ... ils ne sont pas mieux l'un que l'autre, et NVIDIA est même mieux que ATI car il ne me semble pas qu'il y ai de 5600 avec bus 64 bits (à confirmer), seulement des 5200.


 
J'ai cru voir des 5600SE, de là à dire que c'est des 64 bits j'en sais rien, j'ai pas poussé mes recherches...
 
Dans tous les cas des 2 côtés il y a des dénominations trompeuses, des sorties "en retard" de versions lights etc... Bref: ATI n'a pas fait pire que NVidia de ce côté là, je leur mettrais même une meilleure appréciation.

n°2830222
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 15-11-2003 à 21:22:17  profilanswer
 

C'est vrai que c'est vachement parlant pour le grand public ca Gigathlon :lol:
 
En plus, avec les pipes programmables, le pipe d'une puce X n'a plus grand chose à voir avec celle d'une puce Y. Et puis il manque les infos concernant la puissance géométrique :D
 
Et quand ce sont des demi pipe (comme chez SiS), on fait quoi ?
 
Et quand la carte graphique peut faire deux fois plus de Z-Write que de pipe on le met ou ?

n°2830229
dje33
Posté le 15-11-2003 à 21:25:42  profilanswer
 

Marc a écrit :


Et quand ce sont des demi pipe (comme chez SiS), on fait quoi ?


 
8*1/2  :o

n°2830242
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 21:31:01  profilanswer
 

Dark Schneiderr a écrit :


 
les Cg ne sont pas encore au Ghz, donc cela ne fera pas 4 chiffres. Logique.


 
La fréquence peut s'exprimer de nombreuses façons, regarde chez ATI:
 
- rien: fréquence 1
- pro: fréquence 2
- XT: fréquence 3
 
Une 9600XT est indéniablement moins rapide qu'une 9800 puisqu'elle a 2 fois moins de pipelines, donc on a:
 
9600 < 9600pro < 9600XT < 9800 < 9800pro < 9800XT
 
Sur le schéma que je "propose" on pourrait les renommer 9208-350/400/500 et 9416-350/380/412, on voit d'emblée le changement de gamme (à l'instar des GF3-4), la fréquence de fonctionnement pouvant être précisée via un suffixe numérique ou "codé".

n°2830252
dje33
Posté le 15-11-2003 à 21:34:25  profilanswer
 

oui mais a la generation suivant tu aurai des
10208-400 qui serait moins puissante que des 9416-400 alors qu'au premier coup d'oeuil on pourrait penser le contraire

n°2830258
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 21:36:41  profilanswer
 

Marc a écrit :


En plus, avec les pipes programmables, le pipe d'une puce X n'a plus grand chose à voir avec celle d'une puce Y. Et puis il manque les infos concernant la puissance géométrique :D
 
Et quand la carte graphique peut faire deux fois plus de Z-Write que de pipe on le met ou ?


 
Ca reste des optimisations constructeur, évoluant pour la plupart avec la génération (7200->8500->9700), par contre la puissance géométrique devient assez difficile à exprimer pour le coup, mais bon, z'avez qu'à chercher, tous :p  
 

n°2830262
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 21:40:17  profilanswer
 

dje33 a écrit :

oui mais a la generation suivant tu aurai des
10208-400 qui serait moins puissante que des 9416-400 alors qu'au premier coup d'oeuil on pourrait penser le contraire


 
 
Bah après c'est une question de "formation" du client, hein :p
 
Si on regarde bien, quand un site un tant soit peu sérieux teste une carte il donne ces infos, que les "power users" engrangent et utilisent pour faire leurs choix, donc ça ne serait que du décodage...
 
 
 
D'ailleurs pour en revenir au débat ATI/NVidia et remettre un peu d'huile histoire que le feu glisse mieux... la dernière trouvaille de NVidia en terme de marketing ne serait-elle pas l'appellation XT de ses cartes bridées? :whistle:


Message édité par Gigathlon le 15-11-2003 à 21:41:04
n°2830263
Ernestor
modo-coco :o
Posté le 15-11-2003 à 21:41:23  profilanswer
 

nicolas_b a écrit :


 
Bah excuse moi, mais la g4 mx c'est un bas de gamme, et pour une carte 60?, personne s'attendait à quelque chose de transcendant.  
 
C'était clairement indiqué 420 - 440 - 460 inférieur à 4200 - 4400 - 4600 et ça l'utilisateur le moins averti l'a compris.
 
Alors que chez ati, c'est pas pareil. On fait dans la grande mesure, on vend du matos 190? pièce ... 9600 c'est supérieur à 9500, et c'est bien prévu pour confondre l'utilisateur le moins averti.
 
Il y a pas de complot, c'est juste qu'ati vend du materiel sous des appelations qui ne refletent pas ce qu'il est censé faire. Il y a eu les numéros de versions, puis le directx9. Enfin bref, on va pas refaire le monde ati...


Eh, je t'ai dit d'arreter de nous prendre pour des jambons :p
 
Et la GF 4 Mx elle était meilleure que la GF 3 peut-être ?
 
De plus, à l'époque de la sortie de la GF 4 Mx elle coutait bien plus que 60?. D'ailleurs les 460 avait un prix proche de 190?. Donc situation EXACTEMENT identique, on est d'accord ;)
 
Et encore, exactement non, car il y a largement plus de choses de la 9500 dans la 9600 que de morceaux de GF 4 Ti dans la GF 4 Mx [:ddr555]


Message édité par Ernestor le 15-11-2003 à 21:46:10

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2830270
Dark Schne​iderr
⭐⭐
Posté le 15-11-2003 à 21:44:08  profilanswer
 

Gigathlon a écrit :


 
 
Sur le schéma que je "propose" on pourrait les renommer 9208-350/400/500 et 9416-350/380/412, on voit d'emblée le changement de gamme (à l'instar des GF3-4), la fréquence de fonctionnement pouvant être précisée via un suffixe numérique ou "codé".


 
là je me suiciderai (pendaison, je pense)  :D


---------------
Darsch - https://bartwronski.com/2020/12/27/ [...] lgorithms/ + https://www.cosmo0.fr/retrogaming-h [...] /1979-1983
n°2830272
Gigathlon
Quad-neurones natif
Posté le 15-11-2003 à 21:45:00  profilanswer
 

Dark Schneiderr a écrit :


 
là je me suiciderai (pendaison, je pense)  :D  


 
 :cry:  
 
Bon, tant pis, j'aurai essayé :sweat:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  118  119  120  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)