Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3023 connectés 

 


Dernière réponse
Sujet : GEFORCE4 c' est vrai ca ??
Eli@Z Bah moi ma radéon 64 elle peut meme afficher des scenes complettes de Jurassic Park en live !!!!divx powaaaaa
 
non sans rire meme si les rendus on ete fais par des studios holywoodien (ils sont la pour sa...)moi sa me sufit
 
et on n'est pas encore des créateurs de scene 3D pour films holywoodien
 
j'espert garder ma radeon le + longtemps possible g peur pour la rentrée prochaine avec UT2 etc... elle va en prendre un coup
 
 
et hop un reply inutile de plus :)

Votre réponse
Nom d'utilisateur    Pour poster, vous devez être inscrit sur ce forum .... si ce n'est pas le cas, cliquez ici !
Le ton de votre message                        
                       
Votre réponse


[b][i][u][strike][spoiler][fixed][cpp][url][email][img][*]   
 
   [quote]
 

Options

 
Vous avez perdu votre mot de passe ?


Vue Rapide de la discussion
Eli@Z Bah moi ma radéon 64 elle peut meme afficher des scenes complettes de Jurassic Park en live !!!!divx powaaaaa
 
non sans rire meme si les rendus on ete fais par des studios holywoodien (ils sont la pour sa...)moi sa me sufit
 
et on n'est pas encore des créateurs de scene 3D pour films holywoodien
 
j'espert garder ma radeon le + longtemps possible g peur pour la rentrée prochaine avec UT2 etc... elle va en prendre un coup
 
 
et hop un reply inutile de plus :)
pred_wan nan c pas du pipeau c vrai en pure hard
ce que personne ne peut faire en grand public...
 
donc c comme du pipeau car tu pourra jamais faire 100 dynos de jp sur ton pc tous au plus 5-15 et ce sera lent ca se trouve...
Sachy Tout ça c'est du pipeau  
Destiné à vendre...
 
Impressionner avec des chiffres invérifiables, et hop, 3500F en plus dans le porte monnaie.
 
Elle est pas belle la vie ?  :gun:
pred_wan

Citation :

GEFORCE4 c' est vrai ca ??


 
bon pour vraiment répondre: oui c vrai
c hyper puissant mais c totalement sous exploiter par le materiel.
 
la carte en elle même est surpuissante mais rien n'est optimiser donc les perfs sont pas terribles sur les jeux actuels qui n'utilisent qu'un % infime des reels capacites de la carte ex les test q3... q3 ne gére pas le tl
 
si q3 pouvait avoir un patch 100% optimiser q3 sur une plateforme optimisée q3 le jeu tournerais a 2000 fps sur un p4n 3.5ghz...
 
mais bon personne ne cherche s'emmeder ... ya de la puissance donc on peut bacler a notre GRAND REGRET  :(
 
donc le hard est vrai mais les soft eux aussi sont malheureusement vrai ... windaube oblige.
c normal c pas une console avec un hard précis.
ya des milliards de poss pour un pc donc faut prévoir un os pour tous reconnaitre donc ajouter des fichier , variable...
 
c comme pour q3
 
q3 1.17 140 fps pour moi
1.31 ajout de bcp de cmd et de maps 120 fps
1.31 + osp (plein de cmd et variables plein de gestion en  +) 100 fps.
 
donc OUI LA GEFORCE 4 C LA PUISSANCE ULTIME  
(mais sur le papier pour l'instant car aucune appli/jeux n'est optimiser pour)
 
une voodoo 5 est plus rapide qu'une gf4 ti 4600 sur certains prog comme ut sur certains endroit... car optimisation glide = +20-50% suivant le moment.
 
sous le bench ut2 la elle est 30 fois plus rapide car tl.

Kouye

apolon34 a écrit a écrit :

le marketing c'est de trouver le neuneu qui va te sortir un tas de conneries tout en ayant l'air convaincu...
 
pari que c'est un prof ??  




 
lol  :lol:

THE REAL KRYSTOPHE

Barbarella a écrit a écrit :

 
 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.  
 
 




 
BEN ET LA TRADUK ?????

Ernestor Le probleme des GeForce 4 Mx ne concerne pas les 460. Mais plutot les 420 qui vont se retrouver dans les configs de supermarche ou chez des assembleurs douteux avec ecrit dessus en gros "GeForce 4 Mx" qui va se terminer dans l'esprit des moins informes par "GeForce 4 tout court" :/
Et la 420, elle est loin des perfs d'une 460 malheuresement.
 
Ok pour ton point de vue sur les chiffres  ;)
 
Le probleme c'est que c'est pas vraiment verifiable, c'est facile de les balancer comme ca. Si apres on sait pas comment c'est calcule et a quoi ca correspond reellement, ca manque de credibilite.
]sTa[$hark Je pense que c'est un peu l'arnaque mais pas trop finalement,car les moteurs de jeux comme DooM III sortiront quand les GF4 Ti seront le bas/moyen de gamme ....... et pour l'instant la GF4 MX 460 offre d'énormes perfs pour une carte de cette gamme de prix , surtout pour le FSAA !!!
 
maintenant pour ce dont tu parles la, des chiffres de folie, j'en sais trop rien mais ca ne m'étonnerai pas, car l'augmentation des possibilités est exponentiel tandisque logarythmique pour ce qui est de l'utilisation réelle ... c'est domage mais c'est un problème qui est récurent aux PC et ca ne changera jamais ... le hard n'est pas propriétaire, ainsi que le soft d'ailleurs !  
 
Sans doute que sur le papier le GPU de la GF4 est capable de choses fabuleuses, mais faut le soft qui irait avec ... éventuellement aussi du hard complètement propriétaire pour profiter au maximum de la puissance du GPU.
trunks

Barbarella a écrit a écrit :

 
 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.  
 
 




 
c clair que la traduction de klibik est TRES clemente pour les gf4 mx...

Ernestor

]sta[$hark a écrit a écrit :

 
Voila, faut pas stresser, on sera déjà à la GF5 voir GF6 !  
la GF4 Ti sera la carte bas de gamme à ce moment la et il n'y aura pas de problème !
 
La MX aurait du s'appeler autrement, mais d'un autre coté elle intègre des nouvelles technologies qui n'existaient pas dans la GF2 !  




 
On stresse pas, t'inquietes  :D
 
C'est juste qu'avec le nom choisi, y a tromperie sur la marchandise. Tout comme avec les GeForce 2 Mx et surtout cette saloperie de Mx 200.  
 
Au niveau marketing c'est bien joue. Au niveau respect du client, c'est autre chose. Mais bon, comme toute entreprise, ils sont d'abord la pour faire de la thune.

 

[jfdsdjhfuetppo]--Message édité par Ernestor--[/jfdsdjhfuetppo]

Ernestor

]sta[$hark a écrit a écrit :

 
 
Je vois pas trop ou se trouvent les élucubrations ... ?




 
:sarcastic:  
On s'en fout de ces benchs. On sait bien ce qu'elle vaut la GeForce 4.
 
La question est la suivante :
 
Est-ce que tu penses que les affirmations suivantes (repompees sur le premier post de nik car t'as pas l'air de vouloir les lire) venant de nVidia sont credibles ou c'est juste du delire provenant du marketing (tres fort d'ailleurs le departement marketing de nVidia) :  
 
- La puissance de la FPU du GeForce4 peut faire 1000 Milliards d'opérations à la seconde et est supérieure à la puissance cumulée de toutes les FPU présentes sur la terre en 1985.  
- Huit GeForce4 Ti ont une puissance géométrique plus importante que toutes les Voodoo1 commercialisées...  
- Le GeForce4 peut rendre 100 dinosaures issus de Jurassic Park à 30 FPS.  
- Pour l'évolution des GPU nVidia, il faut utiliser la loi de Moore à la puissance 3, ce qui veut dire que la puissance du GPU NVidia double tous les 6 mois.  
- La GeForce 4 Ti a la puissance de 384 Millions de PC IBM de 1985, qui auraient coûtés 2000 Milliards de $ à l'époque et qui auraient pesés autant que l'ensemble de la population Française.
 
 
Alors ?

 

[jfdsdjhfuetppo]--Message édité par Ernestor--[/jfdsdjhfuetppo]

Ernestor Merci pour le complement Barbarella.  :)  
 
J'avais d'ailleurs edite mon message pour rajouter l'original de Carmarck.
]sTa[$hark

Barbarella a écrit a écrit :

 
 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.
 
 




 
Voila, faut pas stresser, on sera déjà à la GF5 voir GF6 !  
la GF4 Ti sera la carte bas de gamme à ce moment la et il n'y aura pas de problème !
 
La MX aurait du s'appeler autrement, mais d'un autre coté elle intègre des nouvelles technologies qui n'existaient pas dans la GF2 !

]sTa[$hark

Ernestor a écrit a écrit :

 
 
Aheeemmmm  :D
 
Deux hypotheses:
1) t'as pas compris la question
2) t'es emmerde sur ce coup la et tu te derobes pour pas a avoir a repondre
 
Dans le cas ou ca serait la premiere hypothese la bonne (ce qui m'etonnerait  ;)), je reformule ma question: que penses-tu des elucubrations de nVidia sur les performances fanstastiques de leur nouvelle GeForce 4 (cf le premier post du topic) ?  
 
Ca serait bien qu'un pro-nVidia comme toi nous donne son avis sur le sujet. Merci  :)  




 
Je vois pas trop ou se trouvent les élucubrations ... ?
http://www.hothardware.com/reviews [...] q32xaa.gif  
 
http://www.hothardware.com/reviews [...] q34xaa.gif  
 
Je pense que ce qu'on peut retirer de la GF4 c'est le boost incroyable pour ce qui est du FSAA !  
 
http://www.hothardware.com/reviews [...] rk4xaa.gif  
 
http://www.hothardware.com/reviews [...] am2xaa.gif  
 
http://www.hothardware.com/reviews [...] am4xaa.gif  

barbarella

Ernestor a écrit a écrit :

C'est clair que c'est que du marketing. Mais bon, j'aimerais bien avoir l'avis de notre pro-nVidia adore qui reste etrangement muet sur ce coup la  :D
 
D'ailleurs ca plait pas a notre ami John les coups de marketing de nVidia :
 
John Carmack, auteur de Quake I, Quake II et Quake III vient de réagir sur l'arrivé des nouvelles cartes 3D GeForce4 MX.  
 
Selon lui ces nouvelles cartes auraient du être baptisées autrement. En effet, sous son prochain jeu : Doom III, pour ne pas le citer, les GeForce4 MX du fait de leur architecture utiliseront les mêmes extensions OpenGL que le GeForce2. Les GeForce4 MX seront donc capables de faire tourner le jeu correctement mais sans vértitables fioritures graphiques.  
 
Contrairement aux GeForce3 et aux ATI Radeon 8500 qui grâce à leurs moteurs Vertex & Pixels Shaders offriront des performances bien plus élevées et des effets 3D bien au dessus de ce que pourra offrir une GeForce4 MX.  
 
Par conséquent le nom de "GeForce4 MX" semble avoir été un peu taillé pour le marketing et non pour indiquer une véritable hérédité des principales caractéristiques de l'architecture GeForce4.

 
Source: http://www.clubic.com/n/n5125.html  




 
Voici le text original de Carmack qui est bcp plus directe : (2/20 pour la traduc clubic ;) )
 
Do not buy a GeForce4-MX for Doom.  
 
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.  
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use  
four textures and vertex programs, but damn, I wish they had named it something else.  
 
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.

 

[jfdsdjhfuetppo]--Message édité par Barbarella--[/jfdsdjhfuetppo]

Ernestor C'est clair que c'est que du marketing. Mais bon, j'aimerais bien avoir l'avis de notre pro-nVidia adore qui reste etrangement muet sur ce coup la  :D
 
D'ailleurs ca plait pas a notre ami John les coups de marketing de nVidia :
 
John Carmack, auteur de Quake I, Quake II et Quake III vient de réagir sur l'arrivé des nouvelles cartes 3D GeForce4 MX.  
 
Selon lui ces nouvelles cartes auraient du être baptisées autrement. En effet, sous son prochain jeu : Doom III, pour ne pas le citer, les GeForce4 MX du fait de leur architecture utiliseront les mêmes extensions OpenGL que le GeForce2. Les GeForce4 MX seront donc capables de faire tourner le jeu correctement mais sans vértitables fioritures graphiques.  
 
Contrairement aux GeForce3 et aux ATI Radeon 8500 qui grâce à leurs moteurs Vertex & Pixels Shaders offriront des performances bien plus élevées et des effets 3D bien au dessus de ce que pourra offrir une GeForce4 MX.  
 
Par conséquent le nom de "GeForce4 MX" semble avoir été un peu taillé pour le marketing et non pour indiquer une véritable hérédité des principales caractéristiques de l'architecture GeForce4.

 
Source: http://www.clubic.com/n/n5125.html
 
Edit: la version anglaise originale
 
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use four textures and vertex programs, but damn, I wish they had named it something else.
 
Source et lien pour version complete: http://www.nofrag.com

 

[jfdsdjhfuetppo]--Message édité par Ernestor--[/jfdsdjhfuetppo]

pred_wan

Citation :

que penses-tu des elucubrations de nVidia sur les performances fanstastiques de leur nouvelle GeForce 4


 
bah c des vendeurs c tout :D
 
ils vont pas dire que ca fait 0.3 fps sur un dyno de jp4 (si c en projet par ex)

 

[jfdsdjhfuetppo]--Message édité par pred_wan--[/jfdsdjhfuetppo]

pred_wan ya ecrit 1000 milliards d'ops per second
ca veux dire quoi ?
 
1000000² operation per second per second ?
 
c quoi une operation pour eux ?
Ernestor

]sta[$hark a écrit a écrit :

 
C'est un fix de WinXP et non pas des drivers Nvidia  




 
Aheeemmmm  :D
 
Deux hypotheses:
1) t'as pas compris la question
2) t'es emmerde sur ce coup la et tu te derobes pour pas a avoir a repondre
 
Dans le cas ou ca serait la premiere hypothese la bonne (ce qui m'etonnerait  ;)), je reformule ma question: que penses-tu des elucubrations de nVidia sur les performances fanstastiques de leur nouvelle GeForce 4 (cf le premier post du topic) ?  
 
Ca serait bien qu'un pro-nVidia comme toi nous donne son avis sur le sujet. Merci  :)

JESUSARMY :bounce:
ZeBorG corrigez moi si je me trompe mais "la loi de Moore" prend comme unité de mesure le nombre de transistors dans un CPU et non pas la puissance de calcul.
Rayaki sauf qu'il ne marche pas avec les ATI et qu'il faut prendre l'équivalent pour radeon .... ?
 
 
en plus, le nom c'est nv-fix ...
]sTa[$hark

Ernestor a écrit a écrit :

 
:D  
C'est le seul argument que t'as trouve pour defendre ton nVidia adore sur ce coup la. C'est pas top comme defense :lol:
 
Aller ]sta[$hark, dis nous ce que t'en pense de cette affaire:D  




 
C'est un fix de WinXP et non pas des drivers Nvidia

vachefolle

epiceas a écrit a écrit :

Avant de faire des pseudo cartes hyper puissantes , il devrait commencer par faire des bon drivers pour ke les jeux ne bug pas ou ne se mettent pas en 60 Hz!   ;)  




ca peut pas etre pire qu'ATI

THE REAL KRYSTOPHE alors ?  :D
Ernestor

]sta[$hark a écrit a écrit :

 
ya un fix pour ca , c'est vraiment de la mauvaise foix de ne pas le mettre !  




:D  
C'est le seul argument que t'as trouve pour defendre ton nVidia adore sur ce coup la. C'est pas top comme defense :lol:
 
Aller ]sta[$hark, dis nous ce que t'en pense de cette affaire:D

Max Headroom 100 dino à 30 fps. Merde ils sont cons à Hollywood. Ils utilisent des centaines voir des milliers de bécanes (jusqu'à 2000) pour calculer le rendu des scènes 3D dans certains films. Un chtit PC avec un GF4 et ça suffit. J'appel Lucas tout de suite, pas croyable les thunes qu'ils vont sauver. Sont fort chez Nvidia.
Il ont tout à fait pour les 100 dinausore de jurassic park à 30fps... en résolution 8*8 en 16 couleurs c possible...
nik166

tapiocca a écrit a écrit :

oulala  :pt1cable:  j'pete les plombs
m'enfin ya autant de rapport entre ce que j'ai dit que ton topic
 :crazy:  ;)  




 
jean-claude??
c' est toi jean-claude???  
 
:D

]sTa[$hark

epiceas a écrit a écrit :

Avant de faire des pseudo cartes hyper puissantes , il devrait commencer par faire des bon drivers pour ke les jeux ne bug pas ou ne se mettent pas en 60 Hz!   ;)  




ya un fix pour ca , c'est vraiment de la mauvaise foix de ne pas le mettre !

Rayaki les bugs de jeux, il ne doit pas y en avoir des tonnes  :heink:  
 
pour le 60hz, c'est clair que y a surtout du baffage coté microsoft !...
epiceas Avant de faire des pseudo cartes hyper puissantes , il devrait commencer par faire des bon drivers pour ke les jeux ne bug pas ou ne se mettent pas en 60 Hz!   ;)
phalanxr c'est vrai que le calcul à la nvidia c spécial :
 
 
GeForce4 Ti 4600      
Triangles per Second: 136 Million
Fill Rate: 4.8 Billion AA Samples/Sec
Operations per Second: 1.23 Trillion
Memory Bandwidth: 10.4GB/Sec
Maximum Memory: 128MB
power600

tapiocca a écrit a écrit :

j'avais compris que c'est pas lui,


Ah ben j'en étais pas sur!..
 

Citation :

c'est koi ton topic, le pèt que t'as c't'année là, devait être bon pour te coller au plafond autant d'années, alors comment tu trouves notre epoque, t'arrives à respirer dans cette merde?

Tu semblais pas t'adresser à Nvidia..:d:d

 

[jfdsdjhfuetppo]--Message édité par power600--[/jfdsdjhfuetppo]

bozo le clown nik, tjrs premier  :D
phalanxr

THE REAL KRYSTOPHE a écrit a écrit :

a bon la puissance de leur kartes dooble too les 6 moa ?  
 
ca ont peux le verifier et cai archy fo !!  alors le  reste ca doa etre pareil  
 
 :sarcastic:  :sarcastic:  
 
 :lol:  




 
la puissance théorique, celle qu'ils annoncent dans leurs chiffres !
 
si tu suis cette puissance, une Radéon 8500 affiche 69 Millions polys/s et une playstation 2   66 Millions polys/s
 
aprés pourquoi on a pas ça en pratique, c'est à cause du BUS AGP, de la mémoire ect...
 
pour le rendu des dinosaurs c'est tout à fait possible, mais il précise pas la qualité de rendu ! ceux de Jurassic ont surement été rendu en Ray-tracing, et ça je pense qu'on le verra jamais en temps réel (il faudrait à peu prés un processeur par pixel pour un rendu parfait)
 
 
le truc c'est que vous laisser impréssionner par des chiffres (ex le coup des dino) qui n'ont vraiment rien d'extraordinaire

 

[jfdsdjhfuetppo]--Message édité par phalanxr--[/jfdsdjhfuetppo]

darkangel

THE REAL KRYSTOPHE a écrit a écrit :

a bon la puissance de leur kartes dooble too les 6 moa ?  
 
ca ont peux le verifier et cai archy fo !!  alors le  reste ca doa etre pareil  
 
 :sarcastic:  :sarcastic:  
 
 :lol:  




 
Weeeeeeeeeee comme je le mis ds un post plus haut


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)