Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2940 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Suivante
Auteur Sujet :

GEFORCE4 c' est vrai ca ??

n°1175707
darkangel
C2FFA
Posté le 11-02-2002 à 12:49:38  profilanswer
 

Reprise du message précédent :

THE REAL KRYSTOPHE a écrit a écrit :

a bon la puissance de leur kartes dooble too les 6 moa ?  
 
ca ont peux le verifier et cai archy fo !!  alors le  reste ca doa etre pareil  
 
 :sarcastic:  :sarcastic:  
 
 :lol:  




 
Weeeeeeeeeee comme je le mis ds un post plus haut

mood
Publicité
Posté le 11-02-2002 à 12:49:38  profilanswer
 

n°1175810
phalanxr
Posté le 11-02-2002 à 13:32:02  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

a bon la puissance de leur kartes dooble too les 6 moa ?  
 
ca ont peux le verifier et cai archy fo !!  alors le  reste ca doa etre pareil  
 
 :sarcastic:  :sarcastic:  
 
 :lol:  




 
la puissance théorique, celle qu'ils annoncent dans leurs chiffres !
 
si tu suis cette puissance, une Radéon 8500 affiche 69 Millions polys/s et une playstation 2   66 Millions polys/s
 
aprés pourquoi on a pas ça en pratique, c'est à cause du BUS AGP, de la mémoire ect...
 
pour le rendu des dinosaurs c'est tout à fait possible, mais il précise pas la qualité de rendu ! ceux de Jurassic ont surement été rendu en Ray-tracing, et ça je pense qu'on le verra jamais en temps réel (il faudrait à peu prés un processeur par pixel pour un rendu parfait)
 
 
le truc c'est que vous laisser impréssionner par des chiffres (ex le coup des dino) qui n'ont vraiment rien d'extraordinaire

 

[jfdsdjhfuetppo]--Message édité par phalanxr--[/jfdsdjhfuetppo]

n°1175825
bozo le cl​own
Posté le 11-02-2002 à 13:38:16  profilanswer
 

nik, tjrs premier  :D


---------------
Les cons ça ose tout ! C'est même à ça qu'on les reconnaît
n°1175864
power600
Toujours grognon
Posté le 11-02-2002 à 13:52:45  profilanswer
 

tapiocca a écrit a écrit :

j'avais compris que c'est pas lui,


Ah ben j'en étais pas sur!..
 

Citation :

c'est koi ton topic, le pèt que t'as c't'année là, devait être bon pour te coller au plafond autant d'années, alors comment tu trouves notre epoque, t'arrives à respirer dans cette merde?

Tu semblais pas t'adresser à Nvidia..:d:d

 

[jfdsdjhfuetppo]--Message édité par power600--[/jfdsdjhfuetppo]


---------------
Tiens? Y a une signature, là.
n°1175867
phalanxr
Posté le 11-02-2002 à 13:53:22  profilanswer
 

c'est vrai que le calcul à la nvidia c spécial :
 
 
GeForce4 Ti 4600      
Triangles per Second: 136 Million
Fill Rate: 4.8 Billion AA Samples/Sec
Operations per Second: 1.23 Trillion
Memory Bandwidth: 10.4GB/Sec
Maximum Memory: 128MB

n°1175884
epiceas
Posté le 11-02-2002 à 13:58:50  profilanswer
 

Avant de faire des pseudo cartes hyper puissantes , il devrait commencer par faire des bon drivers pour ke les jeux ne bug pas ou ne se mettent pas en 60 Hz!   ;)

n°1175992
Rayaki
Posté le 11-02-2002 à 14:34:51  profilanswer
 

les bugs de jeux, il ne doit pas y en avoir des tonnes  :heink:  
 
pour le 60hz, c'est clair que y a surtout du baffage coté microsoft !...


---------------
Clan Torysss.
n°1176000
]sTa[$hark
Posté le 11-02-2002 à 14:36:36  profilanswer
 

epiceas a écrit a écrit :

Avant de faire des pseudo cartes hyper puissantes , il devrait commencer par faire des bon drivers pour ke les jeux ne bug pas ou ne se mettent pas en 60 Hz!   ;)  




ya un fix pour ca , c'est vraiment de la mauvaise foix de ne pas le mettre !

n°1176841
nik166
-=°.Space.°=-
Posté le 11-02-2002 à 18:48:08  profilanswer
 

tapiocca a écrit a écrit :

oulala  :pt1cable:  j'pete les plombs
m'enfin ya autant de rapport entre ce que j'ai dit que ton topic
 :crazy:  ;)  




 
jean-claude??
c' est toi jean-claude???  
 
:D


---------------
nouveau pseudo: Nicky66 , merci ;)  
n°1176937
Max Headro​om
Posté le 11-02-2002 à 19:17:50  profilanswer
 

100 dino à 30 fps. Merde ils sont cons à Hollywood. Ils utilisent des centaines voir des milliers de bécanes (jusqu'à 2000) pour calculer le rendu des scènes 3D dans certains films. Un chtit PC avec un GF4 et ça suffit. J'appel Lucas tout de suite, pas croyable les thunes qu'ils vont sauver. Sont fort chez Nvidia.

mood
Publicité
Posté le 11-02-2002 à 19:17:50  profilanswer
 

n°1176946
Ernestor
modo-coco :o
Posté le 11-02-2002 à 19:20:52  profilanswer
 

]sta[$hark a écrit a écrit :

 
ya un fix pour ca , c'est vraiment de la mauvaise foix de ne pas le mettre !  




:D  
C'est le seul argument que t'as trouve pour defendre ton nVidia adore sur ce coup la. C'est pas top comme defense :lol:
 
Aller ]sta[$hark, dis nous ce que t'en pense de cette affaire:D

n°1177535
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 11-02-2002 à 21:33:39  profilanswer
 

alors ?  :D

n°1177537
vachefolle
russian knights en action
Posté le 11-02-2002 à 21:34:32  profilanswer
 

epiceas a écrit a écrit :

Avant de faire des pseudo cartes hyper puissantes , il devrait commencer par faire des bon drivers pour ke les jeux ne bug pas ou ne se mettent pas en 60 Hz!   ;)  




ca peut pas etre pire qu'ATI


---------------
La douleur n'est qu'une information
n°1178711
]sTa[$hark
Posté le 12-02-2002 à 10:56:19  profilanswer
 

Ernestor a écrit a écrit :

 
:D  
C'est le seul argument que t'as trouve pour defendre ton nVidia adore sur ce coup la. C'est pas top comme defense :lol:
 
Aller ]sta[$hark, dis nous ce que t'en pense de cette affaire:D  




 
C'est un fix de WinXP et non pas des drivers Nvidia

n°1178993
Rayaki
Posté le 12-02-2002 à 12:51:23  profilanswer
 

sauf qu'il ne marche pas avec les ATI et qu'il faut prendre l'équivalent pour radeon .... ?
 
 
en plus, le nom c'est nv-fix ...


---------------
Clan Torysss.
n°1179102
ZeBorG
Yes we can!
Posté le 12-02-2002 à 13:27:48  profilanswer
 

corrigez moi si je me trompe mais "la loi de Moore" prend comme unité de mesure le nombre de transistors dans un CPU et non pas la puissance de calcul.

n°1179248
JESUSARMY
Posté le 12-02-2002 à 14:14:44  profilanswer
 

:bounce:


---------------
ben c bozo mais je peut plus poster a cause de mon mot de passe qui deconne :cry:
n°1179519
Ernestor
modo-coco :o
Posté le 12-02-2002 à 15:41:31  profilanswer
 

]sta[$hark a écrit a écrit :

 
C'est un fix de WinXP et non pas des drivers Nvidia  




 
Aheeemmmm  :D
 
Deux hypotheses:
1) t'as pas compris la question
2) t'es emmerde sur ce coup la et tu te derobes pour pas a avoir a repondre
 
Dans le cas ou ca serait la premiere hypothese la bonne (ce qui m'etonnerait  ;)), je reformule ma question: que penses-tu des elucubrations de nVidia sur les performances fanstastiques de leur nouvelle GeForce 4 (cf le premier post du topic) ?  
 
Ca serait bien qu'un pro-nVidia comme toi nous donne son avis sur le sujet. Merci  :)

n°1179576
pred_wan
Posté le 12-02-2002 à 15:55:51  profilanswer
 

ya ecrit 1000 milliards d'ops per second
ca veux dire quoi ?
 
1000000² operation per second per second ?
 
c quoi une operation pour eux ?

n°1179586
pred_wan
Posté le 12-02-2002 à 15:57:53  profilanswer
 

Citation :

que penses-tu des elucubrations de nVidia sur les performances fanstastiques de leur nouvelle GeForce 4


 
bah c des vendeurs c tout :D
 
ils vont pas dire que ca fait 0.3 fps sur un dyno de jp4 (si c en projet par ex)

 

[jfdsdjhfuetppo]--Message édité par pred_wan--[/jfdsdjhfuetppo]

n°1179649
Ernestor
modo-coco :o
Posté le 12-02-2002 à 16:07:26  profilanswer
 

C'est clair que c'est que du marketing. Mais bon, j'aimerais bien avoir l'avis de notre pro-nVidia adore qui reste etrangement muet sur ce coup la  :D
 
D'ailleurs ca plait pas a notre ami John les coups de marketing de nVidia :
 
John Carmack, auteur de Quake I, Quake II et Quake III vient de réagir sur l'arrivé des nouvelles cartes 3D GeForce4 MX.  
 
Selon lui ces nouvelles cartes auraient du être baptisées autrement. En effet, sous son prochain jeu : Doom III, pour ne pas le citer, les GeForce4 MX du fait de leur architecture utiliseront les mêmes extensions OpenGL que le GeForce2. Les GeForce4 MX seront donc capables de faire tourner le jeu correctement mais sans vértitables fioritures graphiques.  
 
Contrairement aux GeForce3 et aux ATI Radeon 8500 qui grâce à leurs moteurs Vertex & Pixels Shaders offriront des performances bien plus élevées et des effets 3D bien au dessus de ce que pourra offrir une GeForce4 MX.  
 
Par conséquent le nom de "GeForce4 MX" semble avoir été un peu taillé pour le marketing et non pour indiquer une véritable hérédité des principales caractéristiques de l'architecture GeForce4.

 
Source: http://www.clubic.com/n/n5125.html
 
Edit: la version anglaise originale
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use four textures and vertex programs, but damn, I wish they had named it something else.
 
Source et lien pour version complete: http://www.nofrag.com

 

[jfdsdjhfuetppo]--Message édité par Ernestor--[/jfdsdjhfuetppo]

n°1179676
barbarella
Posté le 12-02-2002 à 16:14:16  profilanswer
 

Ernestor a écrit a écrit :

C'est clair que c'est que du marketing. Mais bon, j'aimerais bien avoir l'avis de notre pro-nVidia adore qui reste etrangement muet sur ce coup la  :D
 
D'ailleurs ca plait pas a notre ami John les coups de marketing de nVidia :
 
John Carmack, auteur de Quake I, Quake II et Quake III vient de réagir sur l'arrivé des nouvelles cartes 3D GeForce4 MX.  
 
Selon lui ces nouvelles cartes auraient du être baptisées autrement. En effet, sous son prochain jeu : Doom III, pour ne pas le citer, les GeForce4 MX du fait de leur architecture utiliseront les mêmes extensions OpenGL que le GeForce2. Les GeForce4 MX seront donc capables de faire tourner le jeu correctement mais sans vértitables fioritures graphiques.  
 
Contrairement aux GeForce3 et aux ATI Radeon 8500 qui grâce à leurs moteurs Vertex & Pixels Shaders offriront des performances bien plus élevées et des effets 3D bien au dessus de ce que pourra offrir une GeForce4 MX.  
 
Par conséquent le nom de "GeForce4 MX" semble avoir été un peu taillé pour le marketing et non pour indiquer une véritable hérédité des principales caractéristiques de l'architecture GeForce4.

 
Source: http://www.clubic.com/n/n5125.html  




 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.

 

[jfdsdjhfuetppo]--Message édité par Barbarella--[/jfdsdjhfuetppo]

n°1179677
]sTa[$hark
Posté le 12-02-2002 à 16:14:27  profilanswer
 

Ernestor a écrit a écrit :

 
 
Aheeemmmm  :D
 
Deux hypotheses:
1) t'as pas compris la question
2) t'es emmerde sur ce coup la et tu te derobes pour pas a avoir a repondre
 
Dans le cas ou ca serait la premiere hypothese la bonne (ce qui m'etonnerait  ;)), je reformule ma question: que penses-tu des elucubrations de nVidia sur les performances fanstastiques de leur nouvelle GeForce 4 (cf le premier post du topic) ?  
 
Ca serait bien qu'un pro-nVidia comme toi nous donne son avis sur le sujet. Merci  :)  




 
Je vois pas trop ou se trouvent les élucubrations ... ?
http://www.hothardware.com/reviews/images/nv25-nv17/q32xaa.gif
 
http://www.hothardware.com/reviews/images/nv25-nv17/q34xaa.gif
 
Je pense que ce qu'on peut retirer de la GF4 c'est le boost incroyable pour ce qui est du FSAA !  
 
http://www.hothardware.com/reviews/images/nv25-nv17/3dmrk4xaa.gif
 
http://www.hothardware.com/reviews/images/nv25-nv17/serioussam2xaa.gif
 
http://www.hothardware.com/reviews/images/nv25-nv17/serioussam4xaa.gif

n°1179695
]sTa[$hark
Posté le 12-02-2002 à 16:17:35  profilanswer
 

Barbarella a écrit a écrit :

 
 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.
 
 




 
Voila, faut pas stresser, on sera déjà à la GF5 voir GF6 !  
la GF4 Ti sera la carte bas de gamme à ce moment la et il n'y aura pas de problème !
 
La MX aurait du s'appeler autrement, mais d'un autre coté elle intègre des nouvelles technologies qui n'existaient pas dans la GF2 !

n°1179696
Ernestor
modo-coco :o
Posté le 12-02-2002 à 16:17:44  profilanswer
 

Merci pour le complement Barbarella.  :)  
 
J'avais d'ailleurs edite mon message pour rajouter l'original de Carmarck.

n°1179714
Ernestor
modo-coco :o
Posté le 12-02-2002 à 16:21:39  profilanswer
 

]sta[$hark a écrit a écrit :

 
 
Je vois pas trop ou se trouvent les élucubrations ... ?




 
:sarcastic:  
On s'en fout de ces benchs. On sait bien ce qu'elle vaut la GeForce 4.
 
La question est la suivante :
 
Est-ce que tu penses que les affirmations suivantes (repompees sur le premier post de nik car t'as pas l'air de vouloir les lire) venant de nVidia sont credibles ou c'est juste du delire provenant du marketing (tres fort d'ailleurs le departement marketing de nVidia) :  
 
- La puissance de la FPU du GeForce4 peut faire 1000 Milliards d'opérations à la seconde et est supérieure à la puissance cumulée de toutes les FPU présentes sur la terre en 1985.  
- Huit GeForce4 Ti ont une puissance géométrique plus importante que toutes les Voodoo1 commercialisées...  
- Le GeForce4 peut rendre 100 dinosaures issus de Jurassic Park à 30 FPS.  
- Pour l'évolution des GPU nVidia, il faut utiliser la loi de Moore à la puissance 3, ce qui veut dire que la puissance du GPU NVidia double tous les 6 mois.  
- La GeForce 4 Ti a la puissance de 384 Millions de PC IBM de 1985, qui auraient coûtés 2000 Milliards de $ à l'époque et qui auraient pesés autant que l'ensemble de la population Française.
 
 
Alors ?

 

[jfdsdjhfuetppo]--Message édité par Ernestor--[/jfdsdjhfuetppo]

n°1179730
Ernestor
modo-coco :o
Posté le 12-02-2002 à 16:26:34  profilanswer
 

]sta[$hark a écrit a écrit :

 
Voila, faut pas stresser, on sera déjà à la GF5 voir GF6 !  
la GF4 Ti sera la carte bas de gamme à ce moment la et il n'y aura pas de problème !
 
La MX aurait du s'appeler autrement, mais d'un autre coté elle intègre des nouvelles technologies qui n'existaient pas dans la GF2 !  




 
On stresse pas, t'inquietes  :D
 
C'est juste qu'avec le nom choisi, y a tromperie sur la marchandise. Tout comme avec les GeForce 2 Mx et surtout cette saloperie de Mx 200.  
 
Au niveau marketing c'est bien joue. Au niveau respect du client, c'est autre chose. Mais bon, comme toute entreprise, ils sont d'abord la pour faire de la thune.

 

[jfdsdjhfuetppo]--Message édité par Ernestor--[/jfdsdjhfuetppo]

n°1179744
trunks
ZzzzZZzzzZ
Posté le 12-02-2002 à 16:30:19  profilanswer
 

Barbarella a écrit a écrit :

 
 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.  
 
 




 
c clair que la traduction de klibik est TRES clemente pour les gf4 mx...

n°1179754
]sTa[$hark
Posté le 12-02-2002 à 16:32:46  profilanswer
 

Je pense que c'est un peu l'arnaque mais pas trop finalement,car les moteurs de jeux comme DooM III sortiront quand les GF4 Ti seront le bas/moyen de gamme ....... et pour l'instant la GF4 MX 460 offre d'énormes perfs pour une carte de cette gamme de prix , surtout pour le FSAA !!!
 
maintenant pour ce dont tu parles la, des chiffres de folie, j'en sais trop rien mais ca ne m'étonnerai pas, car l'augmentation des possibilités est exponentiel tandisque logarythmique pour ce qui est de l'utilisation réelle ... c'est domage mais c'est un problème qui est récurent aux PC et ca ne changera jamais ... le hard n'est pas propriétaire, ainsi que le soft d'ailleurs !  
 
Sans doute que sur le papier le GPU de la GF4 est capable de choses fabuleuses, mais faut le soft qui irait avec ... éventuellement aussi du hard complètement propriétaire pour profiter au maximum de la puissance du GPU.

n°1180053
Ernestor
modo-coco :o
Posté le 12-02-2002 à 18:03:33  profilanswer
 

Le probleme des GeForce 4 Mx ne concerne pas les 460. Mais plutot les 420 qui vont se retrouver dans les configs de supermarche ou chez des assembleurs douteux avec ecrit dessus en gros "GeForce 4 Mx" qui va se terminer dans l'esprit des moins informes par "GeForce 4 tout court" :/
Et la 420, elle est loin des perfs d'une 460 malheuresement.
 
Ok pour ton point de vue sur les chiffres  ;)
 
Le probleme c'est que c'est pas vraiment verifiable, c'est facile de les balancer comme ca. Si apres on sait pas comment c'est calcule et a quoi ca correspond reellement, ca manque de credibilite.

n°1180064
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 12-02-2002 à 18:05:41  profilanswer
 

Barbarella a écrit a écrit :

 
 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.  
 
 




 
BEN ET LA TRADUK ?????


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1180078
Kouye
Posté le 12-02-2002 à 18:09:55  profilanswer
 

apolon34 a écrit a écrit :

le marketing c'est de trouver le neuneu qui va te sortir un tas de conneries tout en ayant l'air convaincu...
 
pari que c'est un prof ??  




 
lol  :lol:

n°1180275
pred_wan
Posté le 12-02-2002 à 18:52:25  profilanswer
 

Citation :

GEFORCE4 c' est vrai ca ??


 
bon pour vraiment répondre: oui c vrai
c hyper puissant mais c totalement sous exploiter par le materiel.
 
la carte en elle même est surpuissante mais rien n'est optimiser donc les perfs sont pas terribles sur les jeux actuels qui n'utilisent qu'un % infime des reels capacites de la carte ex les test q3... q3 ne gére pas le tl
 
si q3 pouvait avoir un patch 100% optimiser q3 sur une plateforme optimisée q3 le jeu tournerais a 2000 fps sur un p4n 3.5ghz...
 
mais bon personne ne cherche s'emmeder ... ya de la puissance donc on peut bacler a notre GRAND REGRET  :(
 
donc le hard est vrai mais les soft eux aussi sont malheureusement vrai ... windaube oblige.
c normal c pas une console avec un hard précis.
ya des milliards de poss pour un pc donc faut prévoir un os pour tous reconnaitre donc ajouter des fichier , variable...
 
c comme pour q3
 
q3 1.17 140 fps pour moi
1.31 ajout de bcp de cmd et de maps 120 fps
1.31 + osp (plein de cmd et variables plein de gestion en  +) 100 fps.
 
donc OUI LA GEFORCE 4 C LA PUISSANCE ULTIME  
(mais sur le papier pour l'instant car aucune appli/jeux n'est optimiser pour)
 
une voodoo 5 est plus rapide qu'une gf4 ti 4600 sur certains prog comme ut sur certains endroit... car optimisation glide = +20-50% suivant le moment.
 
sous le bench ut2 la elle est 30 fois plus rapide car tl.

n°1180291
Sachy
Posté le 12-02-2002 à 18:55:29  profilanswer
 

Tout ça c'est du pipeau  
Destiné à vendre...
 
Impressionner avec des chiffres invérifiables, et hop, 3500F en plus dans le porte monnaie.
 
Elle est pas belle la vie ?  :gun:

n°1180321
pred_wan
Posté le 12-02-2002 à 19:02:29  profilanswer
 

nan c pas du pipeau c vrai en pure hard
ce que personne ne peut faire en grand public...
 
donc c comme du pipeau car tu pourra jamais faire 100 dynos de jp sur ton pc tous au plus 5-15 et ce sera lent ca se trouve...

n°1180404
Eli@Z
Posté le 12-02-2002 à 19:24:07  profilanswer
 

Bah moi ma radéon 64 elle peut meme afficher des scenes complettes de Jurassic Park en live !!!!divx powaaaaa
 
non sans rire meme si les rendus on ete fais par des studios holywoodien (ils sont la pour sa...)moi sa me sufit
 
et on n'est pas encore des créateurs de scene 3D pour films holywoodien
 
j'espert garder ma radeon le + longtemps possible g peur pour la rentrée prochaine avec UT2 etc... elle va en prendre un coup
 
 
et hop un reply inutile de plus :)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
G une Geforce4 : je vais vous faire de beau ptit bench geforce4 mx 460
GeForce4Sortie des Geforce4 Ti et pas MX
[Geforce4] carte mère du test de HFRGeforce4 & AGP 8x ?
SEX INSIDE : NVIDIA GeForce4 Ti 4600 VS ATI 8500 ???????????????Nvidia GeForce4 440 Go (Toshiba)
Quel vrai ensemble home video acheter pour mon PC ?Le NV25 (GeForce4) = ni plus ni moins que le proco de la XBOX ???
Plus de sujets relatifs à : GEFORCE4 c' est vrai ca ??


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)