Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
780 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6
Auteur Sujet :

DTC Nvidia nous Ments :-(

n°1450524
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-05-2002 à 19:07:46  profilanswer
 

Reprise du message précédent :
au fait comment ca se fait qu'il y a plus perssonne sur 3dfxspirit
vous n'aimmer pas le nouveau forum ?

mood
Publicité
Posté le 18-05-2002 à 19:07:46  profilanswer
 

n°1450527
alexreunio​n
Posté le 18-05-2002 à 19:08:15  profilanswer
 

Bon les enfants je crois qu'il y a une crepe qui vous appelle.
 
Allez on rentre a la maison et on laisse l'ordi a papa, ok?
 
Quand meme PALME de WINNER a celui qui croit que sa Vodoo3 torche une 2GTS....
 
Je n'ai que ca a dire: accablant!!!!!
 
Je me tire de ce forum c la zone depuis quelques temps!!!!!!!!


---------------
Mon feedback
n°1450563
pizzajambo​n
Posté le 18-05-2002 à 19:17:39  profilanswer
 

fgruat a écrit a écrit :

:eek2: 0000000000000000 :eek2:  
 
regarder la news sur la quadro www.x86-secret.com
ca fait pitié pour du soit disant haut de gamme  :sweat:  
 
 :eek2: 0000000000000000 :eek2:  
 
bientot on apprendra que les geforce 4 sont de simple geforce 3 overclocker si ils continue dans cette voie qu'est ce qui faut pas faire pour vendre  :sarcastic:  




 
donc si je pige bine toi entre ton post ou tu defonce les nvidia au profit des radeons et celui là , tu as decidé de chier sur nvidia:
 
Très interessant, et constructif.


---------------
Waaaaah  plus aucun jeu ne me plaît , z"aime plus les zv :(
n°1450577
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-05-2002 à 19:22:10  profilanswer
 

???? Mon post ou je defonce les nvidia au profit des radeon ????
 
c lequel ca  je connais pas mais bon fo avouer que les radeon 8500 son mieux que les gforce 3 la geforce 4 n'est pas de la meme generation donc... et encore c pas prouvé qu'elle soit vraiment plus rapide a la meme qualité

 

[jfdsdjhfuetppo]--Message édité par fgruat le 18-05-2002 à 19:23:31--[/jfdsdjhfuetppo]

n°1450579
vachefolle
russian knights en action
Posté le 18-05-2002 à 19:22:30  profilanswer
 

napalm57 a écrit a écrit :

NV...... ces des tarba , des narco , des dp , des chopsy , bref on les emmerdes, moi aussi g la voodoo3 en version pci , elle cartonne mais malheuresement commence a se faire vieille, mais je ne la changerai que pour un 8500 ou une 9000 , mais nv sucks his mother  :gun:  
 
 
LES NVIDIA ET LES NVIDIOTS CAI DES PDS :o  :fuck:  :hello:  




non mais ca devieny n'importe quoi ici


---------------
La douleur n'est qu'une information
n°1450587
AMG
Watercooled :D
Posté le 18-05-2002 à 19:24:41  profilanswer
 

napalm57 a écrit a écrit :

NV...... ces des tarba , des narco , des dp , des chopsy , bref on les emmerdes, moi aussi g la voodoo3 en version pci , elle cartonne mais malheuresement commence a se faire vieille, mais je ne la changerai que pour un 8500 ou une 9000 , mais nv sucks his mother  :gun:  
 
 
LES NVIDIA ET LES NVIDIOTS CAI DES PDS :o  :fuck:  :hello:  



ban pliz


---------------
www.wizit.fr
n°1450593
vachefolle
russian knights en action
Posté le 18-05-2002 à 19:26:27  profilanswer
 

fgruat a écrit a écrit :

???? Mon post ou je defonce les nvidia au profit des radeon ????
 
c lequel ca  je connais pas mais bon fo avouer que les radeon 8500 son mieux que les gforce 3 la geforce 4 n'est pas de la meme generation donc... et encore c pas prouvé qu'elle soit vraiment plus rapide a la meme qualité  
 
 




bon allez WE'VE GOT A WINNER
 
et monte dans ta chambre garnement


---------------
La douleur n'est qu'une information
n°1450595
doum
Mentalita nissarda
Posté le 18-05-2002 à 19:26:53  profilanswer
 

Zboss a écrit a écrit :

 
Avec un Tbird@1200 et une GeForce 256 SDR, c'était le score que je faisais ! Donc y'a un pb là, ou alors entre une TNT2 Ultra et une GeForce 256 y'a aucune différence....
 
Sinon à l'époque ou j'avais encore ma GeForce256, ce qui m'avait marqué c'était les drivers détonators : les seuls qui marchaient parfaitement étaient les 12.41. Les 21.xx faisaient des erreurs dans ma ram  :heink:  (véridique), et les 23.xx faisaient augmenter fabuleusement mon score à 3dmark2001 (+ de 20 % d'augmentation  :ouch: ), mais fallait vraiment être aveugle pour pas voir la différence de qualité ! 3dmark2001 avant et après les détonators 23.xx , c'était le jour et la nuit.
 
Sinon je suis d'accord qu'une Voodoo3 ne vaut pas une GeForce 2, mais dire qu'une Voodoo3 est moins puissante qu'une TNT2, faut pas rêver non plus...  




 
Non non je t'assures avec mon tbird OC a 1470 et ma tnt2Ultra @ 190/210 je fais 2090 je crois.Avec les deto 29.20 sous WinXP.
Apres c'est toi qui reve un peu parcequ'une Voodoo 3 est moins puissante qu'une TNT2Ultra sous tous les jeux actuels.

n°1450629
Zboss
Si tu doutes, reboot...
Posté le 18-05-2002 à 19:40:59  profilanswer
 

doum a écrit a écrit :

 
 
Non non je t'assures avec mon tbird OC a 1470 et ma tnt2Ultra @ 190/210 je fais 2090 je crois.Avec les deto 29.20 sous WinXP.
Apres c'est toi qui reve un peu parcequ'une Voodoo 3 est moins puissante qu'une TNT2Ultra sous tous les jeux actuels.  




OK, je veux bien te croire, pcq çà fait qd même 300 Mhz de plus que mon proc, ta TNT2 Ultra est encore overclockée (elle l'est déjà do'rigine), et puis j'ai jamais testé les drivers 29.20.
 
Et après je t'assure que c toi qui rêve, pcq j'ai comparé la Voodoo3 avec une TNT2, pas une TNT2 ULTRA.


---------------
Mario Kart for Ever
n°1450701
AMG
Watercooled :D
Posté le 18-05-2002 à 20:05:14  profilanswer
 

napalm57 a écrit a écrit :

 :lol:  :lol:  :lol:  :lol:  :lol:  :lol:  :lol:  
 
 
MDR!!!!!!!!!! , moi g une voodoo3 avec PIII 667 Eb et je vais plus vite qu un pote avec sa tnt2 + athlon 800 :na:  :hello:  



oui maisq tas un gros avantage ... tes un gros myto  ;)


---------------
www.wizit.fr
mood
Publicité
Posté le 18-05-2002 à 20:05:14  profilanswer
 

n°1450722
phalanxr
Posté le 18-05-2002 à 20:14:56  profilanswer
 

napalm57 a écrit a écrit :

 :lol:  :lol:  :lol:  :lol:  :lol:  :lol:  :lol:  
 
 
MDR!!!!!!!!!! , moi g une voodoo3 avec PIII 667 Eb et je vais plus vite qu un pote avec sa tnt2 + athlon 800 :na:  :hello:  




 
j'halucine carrement comme le fanatisme peut rendre completement aveugle !!!!!!!!!!!!!!!!!!!
 
3DFX est LA marque qui m'a fait decouvrir la 3d (j'ai eu 2 cartes 3DFX voodoo 1&2), clairement les plus grosses claques que j'ai eu en jeu video
 
 
mais faut pas déconner, la voodoo 3 etait moins performante que des voodoo2 en SLI, ça a vraiment été le déclin de la société une carte si nulle, tout juste du niveau de la concurence (TNT2, G400 Max) en 16bits, pas d'effet, pas de memoire ou presque, alors que 3FDX enterrait jusqu alors la concurence
 
moi malgré mon atachement à la société je suis passé à Nvidia, c'est clair que j'allais pas suivre 3DFX dans la tombe
 
 
OUVRE LES YEUX bon sang ! qu'est ce que 3DFX a apporté à la 3d depuis la Voodoo 2 ??? RIEN
 
3dfx était un société inovante, mais avec la voodoo3 ils ont voulu faire du fric sans innover et se servir de leur notoriété pour vendre une carte identique aux voodoo2 (si on excepte les frequences et les perfs)

n°1450724
doum
Mentalita nissarda
Posté le 18-05-2002 à 20:15:03  profilanswer
 

Zboss a écrit a écrit :

 
OK, je veux bien te croire, pcq çà fait qd même 300 Mhz de plus que mon proc, ta TNT2 Ultra est encore overclockée (elle l'est déjà do'rigine), et puis j'ai jamais testé les drivers 29.20.
 
Et après je t'assure que c toi qui rêve, pcq j'ai comparé la Voodoo3 avec une TNT2, pas une TNT2 ULTRA.




 
Ok excuse j'ai rien dit alors :)

n°1450729
grohad
Dans l'doute, frappe encore !
Posté le 18-05-2002 à 20:18:16  profilanswer
 

Ca me fait marrer cette discution entre les "nvidios" qui argumentent et ont parfaitement raison et les 3dfxiens bornés qui croit encore en des cartes qui ne marchaient bien qu'avec une API prioritaire..  :lol:  
 
A l'époque, je faisait beaucoup de réseaux avec mon céleron 366@550 et une TNT 1 overcloaké (un tout petit peu), et un ami avait une voodoo banshee sur un PII-400 et devinez quoi ? Et bien je tournait à 2-3 images par secondes de moins que lui sous Unreal en OpenGL en 32 bits contre 16 (ou 24, je sais plus) pour lui en Glide  :lol:  :lol: Et c'était kif-kif avec Half-Life sauf qu'il était plus beau chez moi ;^p
 
Alors faudrait peut-être arrêter de réver les pro-3DFX, Nvidia a toujours devancé 3dfx depuis l'appartion du TNT avec une qualité bien meilleure. Car (je parle en connaissance de cause) la TNT 1 est sortie presque en même temps que la voodoo 2, et franchement, je préférais jouer en 1024*768 et 32 bits en OpenGL qu'en 800*600 et 24bits en Glide... :hap:  :fuck:  
 
à +

 

[jfdsdjhfuetppo]--Message édité par Grohad le 18-05-2002 à 20:19:33--[/jfdsdjhfuetppo]

n°1450740
phalanxr
Posté le 18-05-2002 à 20:24:50  profilanswer
 

Grohad a écrit a écrit :

Ca me fait marrer cette discution entre les "nvidios" qui argumentent et ont parfaitement raison et les 3dfxiens bornés qui croit encore en des cartes qui ne marchaient bien qu'avec une API prioritaire..  :lol:  
 
A l'époque, je faisait beaucoup de réseaux avec mon céleron 366@550 et une TNT 1 overcloaké (un tout petit peu), et un ami avait une voodoo banshee sur un PII-400 et devinez quoi ? Et bien je tournait à 2-3 images par secondes de moins que lui sous Unreal en OpenGL en 32 bits contre 16 (ou 24, je sais plus) pour lui en Glide  :lol:  :lol: Et c'était kif-kif avec Half-Life sauf qu'il était plus beau chez moi ;^p
 
Alors faudrait peut-être arrêter de réver les pro-3DFX, Nvidia a toujours devancé 3dfx depuis l'appartion du TNT avec une qualité bien meilleure. Car (je parle en connaissance de cause) la TNT 1 est sortie presque en même temps que la voodoo 2, et franchement, je préférais jouer en 1024*768 et 32 bits en OpenGL qu'en 800*600 et 24bits en Glide... :hap:  :fuck:  
 
à +  
 
 




 
 
toi aussi tu joue ton numéro de mytho...
 
le 1024*768 32bits a jamais été fluide sur TNT1, la premiere carte à le faire tourner de façon à peu prés correcte a été la GEforce 256...
 
ensuite la TNT1 proposait le 32Bits, mais les chutes de perfs étaient tellement monstrueuse que c'etait pas la peine (j'ai encore les magazine qui testaient ça sous les yeux)
 
enfin, le glide a toujours été 100* plus beau que l'OPEngl sous Unreal, meme en 32bits, me rappelle quand j'ai changé ma voodoo2 pour une Geforce, j'ai éffacé le jeu illico tellement c'etait moche en comparaison

n°1450748
phalanxr
Posté le 18-05-2002 à 20:28:41  profilanswer
 

napalm57 a écrit a écrit :

[:rotflmao][:rotflmao][:rotflmao][:rotf
 
lmao][:rotflmao][:rotflmao][:rotflmao][:rotflmao][
 
:rotflmao][:rotflmao]  




 
pour la voodoo3 comparé aux voodoo2 SLI, je parle pas de la 3500, mais plutot de la 2000 et 3000 dont le fillrate et inferieur 286 MP/S et 333 MP/S contre 360 MP/s pour les voodoo2 sli, et sur certains benchs c'etait visible
 
rappelons que la technologie voodoo3 est quasiment identique à la tech voodoo2
 
mais bon on peut pas demander à un fanatique de voir la réalité en face, meme quand le gourou a disparu

n°1450757
kokolekoko
Posté le 18-05-2002 à 20:33:21  profilanswer
 

nikoluc a écrit a écrit :

 
 
C la loi du marcher, 3DFX n'ont pas ete assez efficace et se sont fait racheter, normal il faut l'accepter!!!
 
En plus Nvidia a bien sorti des chip plus performant que 3DFX, y pas photo!!!
C pas d'avoir 36 technologies qui compte, c d'etre le plus efficace!!  
 
 




 
:sarcastic: la loi du marché, c est pas "le meilleur produit se vend le +", c est "le meilleur marketing vend le + de produit"
mouton va...

n°1450760
Nikoluc
Posté le 18-05-2002 à 20:34:29  profilanswer
 

phalanxr a écrit a écrit :

 
 
 
toi aussi tu joue ton numéro de mytho...
 
le 1024*768 32bits a jamais été fluide sur TNT1, la premiere carte à le faire tourner de façon à peu prés correcte a été la GEforce 256...
 
ensuite la TNT1 proposait le 32Bits, mais les chutes de perfs étaient tellement monstrueuse que c'etait pas la peine (j'ai encore les magazine qui testaient ça sous les yeux)
 
enfin, le glide a toujours été 100* plus beau que l'OPEngl sous Unreal, meme en 32bits, me rappelle quand j'ai changé ma voodoo2 pour une Geforce, j'ai éffacé le jeu illico tellement c'etait moche en comparaison  




 
Entierement d'accord pour le fait que la GeForce256 a ete la premiere carte a faire tourné un jeux 3D de facon fluide, et faut avoué que le passege au 32bit fesait chuter les perf, Nvidia ne fait pas la meilleure qualité graphique, mais ce n'est pas aussi moche que ca tout de meme!!!
Meme si j'ai changer de marque pour avoir une meilleure qualité graphique(j'ai acheter une radeon8500), je ne pense pas que l'on puisse dire que Nvidia c de la merde!!!

n°1450763
belgique
Posté le 18-05-2002 à 20:34:39  profilanswer
 
n°1450769
phalanxr
Posté le 18-05-2002 à 20:37:38  profilanswer
 

nikoluc a écrit a écrit :

 
 
Entierement d'accord pour le fait que la GeForce256 a ete la premiere carte a faire tourné un jeux 3D de facon fluide, et faut avoué que le passege au 32bit fesait chuter les perf, Nvidia ne fait pas la meilleure qualité graphique, mais ce n'est pas aussi moche que ca tout de meme!!!
Meme si j'ai changer de marque pour avoir une meilleure qualité graphique(j'ai acheter une radeon8500), je ne pense pas que l'on puisse dire que Nvidia c de la merde!!!  




 
il n'y a aucun problème avec la qualité graphique nVidia !
 
c'est juste que le GLIDE a toujours été vraiment plus beau que l'OPenGL ou le direct3D surtout sous Unreal
 
tu prends des 3DFX, ATI et Nvidia en D3D et OGL et c'est kif kif

n°1450773
phalanxr
Posté le 18-05-2002 à 20:39:18  profilanswer
 

napalm57 a écrit a écrit :

http://www.hardware.fr/html/articl [...] =29&page=2
 
[:audi][:audi][:audi][:audi][:audi][:audi]  




 
ben la t'enfonce grave la voodoo3

n°1450781
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-05-2002 à 20:40:35  profilanswer
 

Citation :

OUVRE LES YEUX bon sang ! qu'est ce que 3DFX a apporté à la 3d depuis la Voodoo 2 ??? RIEN


 
 
LE Fsaa hardware
le t-buffer qui n'as jamais ete utilisé ou presque a cause de nvidia qui a donner plein de blé a microsoft pour que sa carte soit la carte de directx 8
et puis d'autres chose encore .....

n°1450786
grohad
Dans l'doute, frappe encore !
Posté le 18-05-2002 à 20:41:23  profilanswer
 

phalanxr > désolé, mais sous unreal 1 ou encore half-life et bien d'autres encore, je jouais en 1024 et 32bits de manière fluide, mais uniquement en OpenGL : D3D était pas très au point dans ces résolutions, je dois dire. Le bench du chateau au début ne déscendait sous 25 fps qu'à un seul moment et la moyenne durant la démo était de 29 fps environs  :fuck:  
Et contrairement à ce que tu dis, je trouve (et je suis pas le seul) que Unreal 1 est pareil en opengl et en glide quand tu actives les options avancées de l'opengl au niveau graphique sauf qu'à la sortie du jeux, les chips voodoos permettaient uniquement le 800*600 :fuck: à moins d'avoir 2 voodoo 2 en SLI, mais perso, j'ai jamais eu envie de débourser autant de fric dans une, que dis-je deux cartes graphiques :o et je trouve ça honteux.
Depuis ce temps, j'ai juste racheté une Geforce 256 DDR et franchement, je suis pas encore prêt d'en changer : aucun jeux ne me la met à genoux en 1024 et 32 bits toutes options :kaola:  
 
voilà pour mon avis sur la chose :jap:

n°1450792
Nikoluc
Posté le 18-05-2002 à 20:42:39  profilanswer
 

phalanxr a écrit a écrit :

 
 
ben la t'enfonce grave la voodoo3  




 
Vi la difference entre le 16 et 32 bit y pas photo!!!

n°1450796
phalanxr
Posté le 18-05-2002 à 20:43:32  profilanswer
 

fgruat a écrit a écrit :

Citation :

OUVRE LES YEUX bon sang ! qu'est ce que 3DFX a apporté à la 3d depuis la Voodoo 2 ??? RIEN


 
 
LE Fsaa hardware
le t-buffer qui n'as jamais ete utilisé ou presque a cause de nvidia qui a donner plein de blé a microsoft pour que sa carte soit la carte de directx 8
et puis d'autres chose encore .....  




 
le FSAA était en hard dans le GF256 (j'en ai eu une), et le T buffer c'est carrement ridicule
 
faut pas déconner c'est pas 2 innovation merdik ki allait redorer le blason de 3DFX

n°1450800
Nikoluc
Posté le 18-05-2002 à 20:45:34  profilanswer
 

Grohad a écrit a écrit :

phalanxr > désolé, mais sous unreal 1 ou encore half-life et bien d'autres encore, je jouais en 1024 et 32bits de manière fluide, mais uniquement en OpenGL : D3D était pas très au point dans ces résolutions, je dois dire. Le bench du chateau au début ne déscendait sous 25 fps qu'à un seul moment et la moyenne durant la démo était de 29 fps environs  :fuck:  
Et contrairement à ce que tu dis, je trouve (et je suis pas le seul) que Unreal 1 est pareil en opengl et en glide quand tu actives les options avancées de l'opengl au niveau graphique sauf qu'à la sortie du jeux, les chips voodoos permettaient uniquement le 800*600 :fuck: à moins d'avoir 2 voodoo 2 en SLI, mais perso, j'ai jamais eu envie de débourser autant de fric dans une, que dis-je deux cartes graphiques :o et je trouve ça honteux.
Depuis ce temps, j'ai juste racheté une Geforce 256 DDR et franchement, je suis pas encore prêt d'en changer : aucun jeux ne me la met à genoux en 1024 et 32 bits toutes options :kaola:  
 
voilà pour mon avis sur la chose :jap:  




 
La GeForce256DDR, c'est une carte que j'aime bien, la mienne fait encore tourné de bon jeux!!! :love:

n°1450801
phalanxr
Posté le 18-05-2002 à 20:45:56  profilanswer
 

Grohad a écrit a écrit :

phalanxr > désolé, mais sous unreal 1 ou encore half-life et bien d'autres encore, je jouais en 1024 et 32bits de manière fluide, mais uniquement en OpenGL : D3D était pas très au point dans ces résolutions, je dois dire. Le bench du chateau au début ne déscendait sous 25 fps qu'à un seul moment et la moyenne durant la démo était de 29 fps environs  :fuck:  
Et contrairement à ce que tu dis, je trouve (et je suis pas le seul) que Unreal 1 est pareil en opengl et en glide quand tu actives les options avancées de l'opengl au niveau graphique sauf qu'à la sortie du jeux, les chips voodoos permettaient uniquement le 800*600 :fuck: à moins d'avoir 2 voodoo 2 en SLI, mais perso, j'ai jamais eu envie de débourser autant de fric dans une, que dis-je deux cartes graphiques :o et je trouve ça honteux.
Depuis ce temps, j'ai juste racheté une Geforce 256 DDR et franchement, je suis pas encore prêt d'en changer : aucun jeux ne me la met à genoux en 1024 et 32 bits toutes options :kaola:  
 
voilà pour mon avis sur la chose :jap:  




 
MDR MDR MDR
 
essai MEDAL OF HONOR, scéne de la foret toutes options à donf comme ta dit en 32bits, ta carte va pleurer sa mére
 
et c'est qu'un exemple

n°1450802
kokolekoko
Posté le 18-05-2002 à 20:46:45  profilanswer
 

phalanxr a écrit a écrit :

 
 
le FSAA était en hard dans le GF256 (j'en ai eu une), et le T buffer c'est carrement ridicule
 
faut pas déconner c'est pas 2 innovation merdik ki allait redorer le blason de 3DFX  




 
faux, c est pas du vrai. (et en + ca faisait chuter le framerate de facon vertigineuse )

n°1450810
phalanxr
Posté le 18-05-2002 à 20:50:02  profilanswer
 

kokolekoko a écrit a écrit :

 
 
faux, c est pas du vrai. (et en + ca faisait chuter le framerate de facon vertigineuse )  




 
ça faisait chuter le frame rate tout comme sur VOODOO 5, et c'etait du vrai hard, juste la méthode differait (supersampling contre oversampling je crois)
 
le FSSA n'a jamais été fluide en fait avant la GEFORCE 3 et le Quicunx, meme sur Voodoo5 c'etait pas jouable, ou alors au prix d'un sacrifice de framerate

 

[jfdsdjhfuetppo]--Message édité par phalanxr le 18-05-2002 à 20:50:50--[/jfdsdjhfuetppo]

n°1450824
Nikoluc
Posté le 18-05-2002 à 20:54:00  profilanswer
 

au nostalgique de 3DFX:
 
Vous voulez une carte avec des technologies 3DFX, ben acheter Nvidia!!! :hello:

n°1450826
grohad
Dans l'doute, frappe encore !
Posté le 18-05-2002 à 20:54:24  profilanswer
 

phalanxr, t'es gentil, je t'aime bien mais medal of honor, je l'ai terminé y'à une semaine, et toutes options à donf en 1024*768 32 bits, j'ai pas eu un seul ralentissement :non:  
De plus, j'aurais plutôt penser que c'est la scène du débarquement qui ferait ramer. ;)  
Au fait, c'est une geforce DDR que j'ai, car la 256 rame, je l'ai vu chez un pote mais c'est peut-être son proc aussi (celeron 400). :gun:

n°1450830
Arcapt
Tout ça c la faute d'Obiwan!
Posté le 18-05-2002 à 20:56:51  profilanswer
 

  • Dans les faits, seule la V3 3 2000 etait a peine du niveau des V2 en sli. Le fillrate théorique supérieur des v2 en sli était assez inefficace.

Mais vu comme les V3 2000 sont des reines de l'overclocking pour peu qu'on leur mettre un ventilateur 3cm sur le radial...
 

  • La V3 marchait bien sur les jeux non-glide, je ne vois pas où était le probleme? et pas forcément besoin d'avoir un driver minigl avec contrairement aux V2.


 

  • dans la comparaison C366@550 en d3d+tnt contre p2 400+banshee, vous ne voyez pas une legere inégalité? :sarcastic: ? les celeron en bus 100 valaient les p2 en bus 100 de meme frequence. autrement dit, je retourne la comparaison: c vraiment pas mal qu'une banshee, moins bonne qu'une voodoo2 arrive a combler un ecart de 150Mhz (et c'est beaucoup 150Mhz sur une base de 400Mhz)


 

  • Pour ce qui me concerne je trouve Unreal en opengl 32bits bien plus beau qu'en glide, dont en plus l'image est légèrement plus floue.


 

  • La V3 rend en 22bits (et non 24 comme on le lit sur le topic)) "prétendus" en pratique il suffit de regarder le test de marc sur la V3 pour se rendre compte que 16 bits 3dfx=16bits nvidia.

n°1450838
Nikoluc
Posté le 18-05-2002 à 21:00:52  profilanswer
 

napalm57 a écrit a écrit :

[:wisetechi][:wisetechi][:wisetechi][:w
 
isetechi][:wisetechi][:wisetechi][:wisetechi][:wis
 
etechi][:wisetechi][:wisetechi]  




 
Desolé de te decevoir mais c la realité, les technologies 3DFX sont dans les cartes Nvidia maintenant, c'est pas pour qu'il ont racheter 3DFX!!

n°1450843
grohad
Dans l'doute, frappe encore !
Posté le 18-05-2002 à 21:02:51  profilanswer
 

Arcapt> les celerons de ce niveau était des merdes comparés au PII, je le sais car j'ai changé un PII-350 contre le celeron me disant : ouah, à 550 ça va déchirer, mais que dalle, c'était à peine plus performant et encore pas toujours :cry:  
Moi, ce qui me choquait le plus avec le glide, c'est effectivement l'effet flou (blur) prononcé dans TOUS les jeux. Quand t'y es habitué, ça passe mais quand je voyais la différence sur 2 écrans côte à côte, y'a pas photo !

n°1450846
Arcapt
Tout ça c la faute d'Obiwan!
Posté le 18-05-2002 à 21:04:13  profilanswer
 

napalm57 a écrit a écrit :

[:wisetechi][:wisetechi][:wisetechi][:wisetechi]  




 
mais apres toi, je t'en prie :D

n°1450857
phalanxr
Posté le 18-05-2002 à 21:05:56  profilanswer
 

Grohad a écrit a écrit :

phalanxr, t'es gentil, je t'aime bien mais medal of honor, je l'ai terminé y'à une semaine, et toutes options à donf en 1024*768 32 bits, j'ai pas eu un seul ralentissement :non:  
De plus, j'aurais plutôt penser que c'est la scène du débarquement qui ferait ramer. ;)  
Au fait, c'est une geforce DDR que j'ai, car la 256 rame, je l'ai vu chez un pote mais c'est peut-être son proc aussi (celeron 400). :gun:  




 
arrete de faire ton mytho, tu prends la scéne de la foret en 1024*32bits toutes options à donfs (texture 32bits et tout le reste) et tu tape fps 1 à l'entré sans bouger ta sourie
 
je trouve que ce jeu est juste sur un Athlon 1,3 + GF2 ULTRA alors viens pas me dire qu'il tourne à 60fps sur une GF1DDR...
 
pour voir le rapport entre une GF2ULtra et une GFDDR va jeter un oeil ici :
 
http://www.tomshardware.fr/article [...] &NumPage=1
 
NOTE : j'ai rien contre la GFDDR qui est pour moi la carte la plus géniale sortie aprés les voodoo 1&2

n°1450863
phalanxr
Posté le 18-05-2002 à 21:10:01  profilanswer
 

c'est vrai cela dit en passant que la GF4 integre deja les technologies 3DFX, et qua le NV30 integrera toutes les technologies 3DFX qui devaient sortir avec le rampage
 
 
en somme on peut dire que le NV30 sera la résurection du rampage.
 
ce qui est con pour 3DFX, c'est que juste au momment ou la société redevenait innovante, elle a du fermé rattrapé par ses investissements douteux (gigapixel) et une politique marketing exclusivement centré retail (ou 3DFX marchait trés fort)

n°1450867
grohad
Dans l'doute, frappe encore !
Posté le 18-05-2002 à 21:13:43  profilanswer
 

Je t'assure qu'il est fluide, comme l'eau qui coule !!!
Je sais pas comment voir le framerate dans ce jeux, mais je te rappelle qu'il est basé sur le moteur de Quake 3, et le T&L de ma Geforce DDR permet que ça rame pas, ceci avec un Athlon 700@800 seulement...
C'est pas une question de bench qui va changer quoi que ce soit, car même s'il se cantonne à 30-35 fps (n'oublie pas que j'en sais rien), il est parfaitement fluide.

n°1450874
Arcapt
Tout ça c la faute d'Obiwan!
Posté le 18-05-2002 à 21:15:11  profilanswer
 

Grohad a écrit a écrit :

Arcapt> les celerons de ce niveau était des merdes comparés au PII, je le sais car j'ai changé un PII-350 contre le celeron me disant : ouah, à 550 ça va déchirer, mais que dalle, c'était à peine plus performant et encore pas toujours :cry:  




 
c'est vrai que ca vaut peut-etre  pas purement et simplement un p2 de meme frequences, mais l'ecart n'etait pas aussi prononcé qu'il le fut entre celeron2 et p3e plus tard.
 
le c550 reste quand meme un ton au dessus du p2 400!
 
Je me souviens personnellement que mon p2 350@392 était quasiment au niveau des C300@450 de mes amis, mais qu'en revanche en passant @472 je les tôlais tres tres largement.

n°1450877
vachefolle
russian knights en action
Posté le 18-05-2002 à 21:16:56  profilanswer
 

Grohad a écrit a écrit :

phalanxr > désolé, mais sous unreal 1 ou encore half-life et bien d'autres encore, je jouais en 1024 et 32bits de manière fluide, mais uniquement en OpenGL : D3D était pas très au point dans ces résolutions, je dois dire. Le bench du chateau au début ne déscendait sous 25 fps qu'à un seul moment et la moyenne durant la démo était de 29 fps environs  :fuck:  
Et contrairement à ce que tu dis, je trouve (et je suis pas le seul) que Unreal 1 est pareil en opengl et en glide quand tu actives les options avancées de l'opengl au niveau graphique sauf qu'à la sortie du jeux, les chips voodoos permettaient uniquement le 800*600 :fuck: à moins d'avoir 2 voodoo 2 en SLI, mais perso, j'ai jamais eu envie de débourser autant de fric dans une, que dis-je deux cartes graphiques :o et je trouve ça honteux.
Depuis ce temps, j'ai juste racheté une Geforce 256 DDR et franchement, je suis pas encore prêt d'en changer : aucun jeux ne me la met à genoux en 1024 et 32 bits toutes options :kaola:  
 
voilà pour mon avis sur la chose :jap:  




Citation :

aucun jeux ne me la met à genoux en 1024 et 32 bits toutes options


put*** mais ca pue le troll par ici
aucun jeux ne met a genoux une 256 DDR  essaie il-2 sturmovick tout a fond avec les textures hautes resolutions  :lol:  
y a plus de g-force DDR


---------------
La douleur n'est qu'une information
n°1450887
vachefolle
russian knights en action
Posté le 18-05-2002 à 21:23:01  profilanswer
 

Grohad a écrit a écrit :

Je t'assure qu'il est fluide, comme l'eau qui coule !!!
Je sais pas comment voir le framerate dans ce jeux, mais je te rappelle qu'il est basé sur le moteur de Quake 3, et le T&L de ma Geforce DDR permet que ça rame pas, ceci avec un Athlon 700@800 seulement...
C'est pas une question de bench qui va changer quoi que ce soit, car même s'il se cantonne à 30-35 fps (n'oublie pas que j'en sais rien), il est parfaitement fluide.  




ah oui ?????????
et dans la scene de la foret tout a fond en 1024*32 avec les ombres activees   bref la totale c'est tjs fluide  ?  NON
meme sur une g-force 2 ultra ca rame  alors  :fou:


---------------
La douleur n'est qu'une information
n°1450892
Nikoluc
Posté le 18-05-2002 à 21:27:23  profilanswer
 

vachefolle a écrit a écrit :

 
ah oui ?????????
et dans la scene de la foret tout a fond en 1024*32 avec les ombres activees   bref la totale c'est tjs fluide  ?  NON
meme sur une g-force 2 ultra ca rame  alors  :fou:  




 
Une Geforce2ultra, t'as reussi a la faire ramer a cette resolution!!! :eek2:
T'es sur que tu as pas un probleme???
 
Par contre il est clair que l'on peut faire facilement ramer une GeForce256 en 1024*768*32!!!

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6

Aller à :
 

Sujets relatifs
sortie svideo nvidiaNVidia Riva TNT 2 model 64 et MAtrox MGA G200 : c'est quoi le mieux ??
Optimiser les réglages de NVMAX pour son NVIDIA Meilleur driver Nvidia Detonator pour Geforce4 Ti4400
Nvidia 2884 et Nvidia refresh rate fixNvidia me gave avec son 60 Hz ...
Voici la carte qui vaut 2* les perfs geforce4 4600 La fin pour NvidiaNVidia = Swap et bugs a mort!!!!
Conflit Nvidia/MicrosoftATI répond a NVIDIA!!!
Plus de sujets relatifs à : DTC Nvidia nous Ments :-(


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR