Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2591 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  11  12  13  ..  20  21  22  23  24  25
Auteur Sujet :

[Topic Unique] GeForce FX (NV30) [Spécifications Inside]

n°1974125
Zeross
Posté le 18-11-2002 à 19:19:55  profilanswer
 

Reprise du message précédent :

mareek a écrit a écrit :

petite question sur la compression des couleurs: ça fait pas double emploi avec le S3TC ?
 
(bis)




 
Le S3TC compresse les textures là il s'agit de compresser le frame buffer.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
mood
Publicité
Posté le 18-11-2002 à 19:19:55  profilanswer
 

n°1974127
Ernestor
modo-coco :o
Posté le 18-11-2002 à 19:20:31  profilanswer
 

Fais pas trop le fanfaron Mike  :D  
 
Mais bon, c'est vrai que le R300 a bien vole la vedette au NV30, c'est clair.


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°1974128
mareek
Et de 3 \o/
Posté le 18-11-2002 à 19:20:34  profilanswer
 

mikestewart a écrit a écrit :

C'est un bide quand même cette annonce du GeForceFX : le 18/07 à l'annonce du R9700 y avait dix fois plus de réaction sur le topic R9X00 ! :D



auto-lançage de fleur spoted  :D


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1974134
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-11-2002 à 19:22:18  profilanswer
 

mareek a écrit a écrit :

petite question sur la compression des couleurs: ça fait pas double emploi avec le S3TC ?
 
(bis)




 
non le s3tc c de la compression de texture  
 
la c les couleur qui vont etre compressé mais je voit pas comment il ont fait ca  :heink:  
car les couleur sont deja codé  sur des petits chiffre et ne prenne pas beaucoup de place en dac  
c plutot marketing c truc surtout que on pert toujour avec de la compression et la il dise que non  :sweat:  
 
je sais en fait le nv30 travaille en 16bits  :D  
 


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1974135
mikestewar​t
Air Roll Spinnin'
Posté le 18-11-2002 à 19:22:27  profilanswer
 

mareek a écrit a écrit :

auto-lançage de fleur spoted  :D  




 
:D ;)

n°1974136
mareek
Et de 3 \o/
Posté le 18-11-2002 à 19:22:43  profilanswer
 

Zeross a écrit a écrit :

 
 
Le S3TC compresse les textures là il s'agit de compresser le frame buffer.



je parle de ça:

Citation :

En ce qui concerne l´optimisation de la bande passante mémoire disponible, le GeForce FX est à notre connaissance le premier GPU implémentant en hardware un algorithme de compression des informations liées aux couleurs. Ce type d´information, qui représente une grosse partie des accès mémoire, peu en effet désormais être compressé avec un ratio de 1/4 sans aucune perte de qualité.


Les informations liées au couleurs on les trouve où si ce n'est dans les textures ?


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1974139
Mgegege Mg​egege Baba
Wouate ?!?
Posté le 18-11-2002 à 19:23:35  profilanswer
 

mareek a écrit a écrit :

comment tu le sais ? :heink:  




 
Mareek, la radeon tourne a 325Mhz, et elle aligne 325-Millions de vertices/sec avec cette frequence. La geforceFX roule a 500Mhz pour 350M de vertices. simple regle de trois. Nvidia a probablement mise sur le .13Microns comme dernier recours. parceque de base la radeon etale le nv30 sur le geometrie, ptet pas pour la programabilite des shaders mais bon..... d'ici a ce qu'on voit des jeux qui se servent des shaders 2.0+ on pourra voir des playstation3, des xbox2, et meme des pentiums 5 qui sait  :pt1cable: ....
Je croies que 3dfx a trop deteint sur nvdia sur ce coup la.


---------------
hmmmmmm...... j'y pense... j'y pense
n°1974143
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:24:48  profilanswer
 

mareek a écrit a écrit :

je parle de ça:

Citation :

En ce qui concerne l´optimisation de la bande passante mémoire disponible, le GeForce FX est à notre connaissance le premier GPU implémentant en hardware un algorithme de compression des informations liées aux couleurs. Ce type d´information, qui représente une grosse partie des accès mémoire, peu en effet désormais être compressé avec un ratio de 1/4 sans aucune perte de qualité.


Les informations liées au couleurs on les trouve où si ce n'est dans les textures ?




 
Sur les pixels.
 
Differencie texture une fois appliquees et couleurs, spa la meme chose :)


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974144
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:24:51  profilanswer
 

Tetedeiench a écrit a écrit :

 
 
A la difference que changer un controleur SDR en DDR spa tro dur.
 
Un bus 128 en 256 Euh ca change tout :/
 
Donc a mon avis, va falloir un certain temps :/




 
oui mais a mon avis ils doavent s en mordes les doa la.
 
paske les bench en haute rezo anizo et fsaa ca va faire mal


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974145
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-11-2002 à 19:25:05  profilanswer
 

mareek a écrit a écrit :

petite question sur la compression des couleurs: ça fait pas double emploi avec le S3TC ?
 
(bis)



Non, cela agit au moment de l'écriture dans le frame buffer de l'image qui est rendue (le S3TC agit au niveau des textures qui sont chargées en mémoire afin d'être utilisées)


---------------
Moi, j'aime pas les signatures
mood
Publicité
Posté le 18-11-2002 à 19:25:05  profilanswer
 

n°1974152
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:26:16  profilanswer
 

mareek a écrit a écrit :

petite question sur la compression des couleurs: ça fait pas double emploi avec le S3TC ?
 
(bis)




 
cai kompressé ds dans de frame buffer  la !
 
 
 
sinon cai utlilizé le st3c ds les jeux d aujoorduy  :??:  
 
poor ut2k3 g des dootes vu la place ke ca prend en texture.....


Message édité par THE REAL KRYSTOPHE le 18-11-2002 à 19:27:19

---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974153
Mgegege Mg​egege Baba
Wouate ?!?
Posté le 18-11-2002 à 19:26:26  profilanswer
 

Nvidia s'est vraiment pris pour 3dfx la, ils auraient du appeller cette puce la voodoo5-2  :lol:  :lol:  :lol:


---------------
hmmmmmm...... j'y pense... j'y pense
n°1974154
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:26:37  profilanswer
 

Pour etre plus clair, tu as EN GROS :
 
Texture => image => Framebuffer
 
Le S3TC agit au niveau des textures, et la compression de Nvidia au niveau du framebuffer.
 
Marc me corrigera si j'ai dit une connerie.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974155
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-11-2002 à 19:27:09  profilanswer
 

mareek a écrit a écrit :

je parle de ça:

Citation :

En ce qui concerne l´optimisation de la bande passante mémoire disponible, le GeForce FX est à notre connaissance le premier GPU implémentant en hardware un algorithme de compression des informations liées aux couleurs. Ce type d´information, qui représente une grosse partie des accès mémoire, peu en effet désormais être compressé avec un ratio de 1/4 sans aucune perte de qualité.


Les informations liées au couleurs on les trouve où si ce n'est dans les textures ?




 
 
bah c poas la scene 3d mais l'image finale celle en 2d qui s'affiche sur l'ecran qui va etre compresse  
un peut comme faire passer une image 32bit en 16bit sous photoshop pour que ca prenne moin de place en memoire


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1974159
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:27:31  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

 
 
cai kompressé ds dans de frame buffer  la !
 
 
 
sinon cai utlilizé le st3c ds les jeux d aujoorduy  :??:  
 
poor ut2k3 g des dootes vu la place ke prend en texture.....




 
non, mais l'avantage de la compression introduite par Nvidia, c'est qu'elle n'a pas besoin d'etre specialement programmee...e t n'apporte pas de gain visuel. Juste une reduction de l'utilisation de la bande passante.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974162
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:28:54  profilanswer
 

Mgegege Mgegege Baba a écrit a écrit :

Nvidia s'est vraiment pris pour 3dfx la, ils auraient du appeller cette puce la voodoo5-2  :lol:  :lol:  :lol:  




 
 
la vodoo 5 etait nul en noovelles teknologies suportées yavais meme pas de suport tnl hardware   la le nv30 inov un max lui  trop peut etre ........


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974167
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:29:31  profilanswer
 

Tetedeiench a écrit a écrit :

 
 
non, mais l'avantage de la compression introduite par Nvidia, c'est qu'elle n'a pas besoin d'etre specialement programmee...e t n'apporte pas de gain visuel. Juste une reduction de l'utilisation de la bande passante.




 
 :??:


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974178
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-11-2002 à 19:31:33  profilanswer
 

Tetedeiench a écrit a écrit :

 
 
non, mais l'avantage de la compression introduite par Nvidia, c'est qu'elle n'a pas besoin d'etre specialement programmee...e t n'apporte pas de gain visuel. Juste une reduction de l'utilisation de la bande passante.




 
et de la qualité une compression ne se fait jamais sans perte   :sweat: dommage pour nvidia ct bien tenté pour soulager leur memoire mais bon .....
 
nvidia il aurais du apelle leur gpu xabre 2


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1974184
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:32:00  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

 
 
 :??:  




 
Ben le S3TC a besoin de textures speciales pour etre utilise.  
 
Comme le bump mapping.
 
La, c'est du hardware, et ca interviens automatiquement quoi que tu fasses, juste pour economiser de la bande passante.
 
Stoo.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974188
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:32:35  profilanswer
 

fgruat a écrit a écrit :

 
 
et de la qualité une compression ne se fait jamais sans perte   :sweat: dommage pour nvidia ct bien tenté pour soulager leur memoire mais bon .....
 
nvidia il aurais du apelle leur gpu xabre 2  




 
Tiens, quand tu utilises Winzip ton document word est de moins bonne qualite :??:
 
Tu sors.
 
Il existe des algorithmes de compression non destructeurs et tres efficaces ( tu en utilises tous les jours : zip, rar, etc).
 
C'est pas du jpeg hein.


Message édité par Tetedeiench le 18-11-2002 à 19:33:19

---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974193
mareek
Et de 3 \o/
Posté le 18-11-2002 à 19:33:53  profilanswer
 

Mgegege Mgegege Baba a écrit a écrit :

 
 
Mareek, la radeon tourne a 325Mhz, et elle aligne 325-Millions de vertices/sec avec cette frequence. La geforceFX roule a 500Mhz pour 350M de vertices. simple regle de trois. Nvidia a probablement mise sur le .13Microns comme dernier recours. parceque de base la radeon etale le nv30 sur le geometrie, ptet pas pour la programabilite des shaders mais bon..... d'ici a ce qu'on voit des jeux qui se servent des shaders 2.0+ on pourra voir des playstation3, des xbox2, et meme des pentiums 5 qui sait  :pt1cable: ....
Je croies que 3dfx a trop deteint sur nvdia sur ce coup la.



exact, j'avais pas tilté que le nv30 avait une unité de vertice en moins que la R9700. mais quid du fillrate, de l'AA, de l'Aniso, de l'optimisation de la BP, etc...
 
en fait on se pose encore plus de question maintenant qu'avant la preview techno  :pt1cable:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1974196
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-11-2002 à 19:34:11  profilanswer
 

Citation :

Tiens, quand tu utilises Winzip ton document word est de moins bonne qualite    
 
Tu sors.
 
Il existe des algorithmes de compression non destructeurs et tres efficaces ( tu en utilises tous les jours : zip, rar, etc).
 
C'est pas du jpeg hein.


 
 
c pas pareil l'image ne seras pas decompressé a la fin du processus a ce que je sache  :heink:


Message édité par fgruat le 18-11-2002 à 19:34:56

---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1974198
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:35:04  profilanswer
 

Tetedeiench a écrit a écrit :

 
 
Ben le S3TC a besoin de textures speciales pour etre utilise.  
 
Comme le bump mapping.
 
La, c'est du hardware, et ca interviens automatiquement quoi que tu fasses, juste pour economiser de la bande passante.
 
Stoo.




 
mais de koa tu parle kel raport avelk la kompretion du le frame bufffer ?  
 
c 2 chozes kompletement differentes et kumulables.


Message édité par THE REAL KRYSTOPHE le 18-11-2002 à 19:38:37

---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974199
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:35:12  profilanswer
 

fgruat a écrit a écrit :

c pas pareil l'image ne seras pas decompressé a la fin du processus a ce que je sache  :heink:  




 
Les Ramdacs sont toujours des Ramdacs, ils marchent sur des grilles de pixels, donc oui, ce sera decompresse a l'arrivee, evidemment...
 
Tu delires completement la.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974201
Mgegege Mg​egege Baba
Wouate ?!?
Posté le 18-11-2002 à 19:36:13  profilanswer
 

nvidia a fait un chti bide la quand meme mais moi j'ai tjs pas trop confiance aux drivers ATI, c'est psychologique, bon on va rester au geforce2 GTS un chti bout de temps encore....


---------------
hmmmmmm...... j'y pense... j'y pense
n°1974203
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:36:50  profilanswer
 

THE REAL KRYSTOPHE a écrit a écrit :

 
 
mais de koa tu parle kel raport avelk la kompretion dus le frame bufffer ?  
 
c 2 choze kompletement differentes et kumulable.




 
Bien entendu, mais je croyais que tu demandais si le S3TC etait utilise en insinuant que la compression du frame buffer ne sera pas utilisee...
 
Pour fgruat, d'ailleurs, meme si l'image n'est pas decompressee, elle le sera tjs a la volee pour etre affichee, ou alors, faudra que tu m'expliques comment un JPG s'affiche sur ton ecran comme une image et non comme une sutie de chiffres...


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974205
Zeross
Posté le 18-11-2002 à 19:37:03  profilanswer
 

fgruat a écrit a écrit :

 
 
non le s3tc c de la compression de texture  
 
la c les couleur qui vont etre compressé mais je voit pas comment il ont fait ca  :heink:  
car les couleur sont deja codé  sur des petits chiffre et ne prenne pas beaucoup de place en dac  
c plutot marketing c truc surtout que on pert toujour avec de la compression et la il dise que non  :sweat:  
 
je sais en fait le nv30 travaille en 16bits  :D  
 
 




 
Heureusement qu'il existe des algorithmes sans perte ! C'est le même principe que la compression du ZBuffer t'imagines s'il y avait des pertes ? Les polygones qui se passent l'un devant l'autre à cause de la compression :lol: et pourtant le ZBuffer est sur 24 bits et ça apporte un gain quand même. Mais comme c'est un algo sans perte au final tu ne gagnes pas de la place en mémoire (vu qu'au pire il n'y a pas de compression) tu gagnes juste de la bande passante.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°1974209
Tetedeienc​h
Head Of God
Posté le 18-11-2002 à 19:37:42  profilanswer
 

Zeross a écrit a écrit :

 
 
Heureusement qu'il existe des algorithmes sans perte ! C'est le même principe que la compression du ZBuffer t'imagines s'il y avait des pertes ? Les polygones qui se passent l'un devant l'autre à cause de la compression :lol: et pourtant le ZBuffer est sur 24 bits et ça apporte un gain quand même. Mais comme c'est un algo sans perte au final tu ne gagnes pas de la place en mémoire (vu qu'au pire il n'y a pas de compression) tu gagnes juste de la bande passante.




 
En mieux dit, voila ce que je pense aussi.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v12 OUT !
n°1974216
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-11-2002 à 19:38:32  profilanswer
 

Tetedeiench a écrit a écrit :

 
 
Les Ramdacs sont toujours des Ramdacs, ils marchent sur des grilles de pixels, donc oui, ce sera decompresse a l'arrivee, evidemment...
 
Tu delires completement la.




 
 
bah alors ca va bouffé plus de puissance que ca en economise  
 
si c compressé puis apres decompressé  elle est batarde cette technologie
 
tu as vu le temps que tu met a compressé ou decompressé avec un rapport 4/1 avec winrar ou winzip  :heink:


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1974221
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:39:08  profilanswer
 

sinon personne sait si la kompretion de texture est utilizé ds ut2k3 ?


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974223
mikestewar​t
Air Roll Spinnin'
Posté le 18-11-2002 à 19:39:13  profilanswer
 

fgruat > je crois que t'es à côté de la plaque là... ;)

n°1974224
Zeross
Posté le 18-11-2002 à 19:39:19  profilanswer
 

Mgegege Mgegege Baba a écrit a écrit :

 
 
Mareek, la radeon tourne a 325Mhz, et elle aligne 325-Millions de vertices/sec avec cette frequence. La geforceFX roule a 500Mhz pour 350M de vertices. simple regle de trois. Nvidia a probablement mise sur le .13Microns comme dernier recours. parceque de base la radeon etale le nv30 sur le geometrie, ptet pas pour la programabilite des shaders mais bon..... d'ici a ce qu'on voit des jeux qui se servent des shaders 2.0+ on pourra voir des playstation3, des xbox2, et meme des pentiums 5 qui sait  :pt1cable: ....
Je croies que 3dfx a trop deteint sur nvdia sur ce coup la.




 
d'ici à ce qu'on voit des jeux utilisant ouat millions de polygones on peut attendre aussi  :heink:  
Ensuite i lfaut voir selon anad le vector engine a été complètement refait il ne s'agit plus d'unités distinctes mais d'un array de processeurs ce qui peut s'avérer plus efficace (comme sur le P10). Bref c'est vrai qu'étant donné la fréquence le chip est décevant mais ça n'est pas un défaut en soit il faut juger en pratique.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°1974231
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:40:50  profilanswer
 

Zeross a écrit a écrit :

 
 
d'ici à ce qu'on voit des jeux utilisant ouat millions de polygones on peut attendre aussi  :heink:  
Ensuite i lfaut voir selon anad le vector engine a été complètement refait il ne s'agit plus d'unités distinctes mais d'un array de processeurs ce qui peut s'avérer plus efficace (comme sur le P10). Bref c'est vrai qu'étant donné la fréquence le chip est décevant mais ça n'est pas un défaut en soit il faut juger en pratique.




 
ooé on veux dai bench !  
 
sinon cai kool le prix des 9700 va fondre :)


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974234
pastor
٩(•̪̀●́)۶ ٩(●̮̮̃•̃)۶ ٩͡๏̯͡๏)۶
Posté le 18-11-2002 à 19:41:19  profilanswer
 

marc , pourquoi tom's hardware il a des plus beau screenshots que toi ? ( $£? ? )
 
http://www4.tomshardware.com/graph [...] /image16.j
 
p1 ça tue tout ça !!!!  :ouch:


Message édité par pastor le 18-11-2002 à 19:44:57
n°1974236
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 18-11-2002 à 19:41:42  profilanswer
 

joli marto


Message édité par THE REAL KRYSTOPHE le 18-11-2002 à 19:41:49

---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°1974238
daft974
Un Noizo...
Posté le 18-11-2002 à 19:41:53  profilanswer
 

Moi je pense qu'avec ce nouveau GPU, la série issue du Geforce 256 jusqu'au geforce 4, c'est du passé, aujourd'hui n'vidia sort Geforce Fx qui est une vitine technologique et une nouvelle base pour évoluer sa game pour l'avenir. C'est clair, le temps que toutes les fonctionalités de cette puce soient exploitées, il y aura le NV40 et NV45 qui sortirons.

n°1974239
Zeross
Posté le 18-11-2002 à 19:41:56  profilanswer
 

fgruat a écrit a écrit :

 
 
 
bah alors ca va bouffé plus de puissance que ca en economise  
 
si c compressé puis apres decompressé  elle est batarde cette technologie
 
tu as vu le temps que tu met a compressé ou decompressé avec un rapport 4/1 avec winrar ou winzip  :heink:  




 
Taratata c'est câblé : activer le S3TC te fait pas perdre de perfs que je sache ? Ben pourtant les textures sont bien décompressées à un moment donc là c'est pareil, ça bouffe de la puissance oui vu qu'il faut inclure une unité chargée de compresser/décompresser tout ça mais ça fait gagner des perfs.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°1974240
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-11-2002 à 19:42:12  profilanswer
 

Zeross a écrit a écrit :

 
 
Heureusement qu'il existe des algorithmes sans perte ! C'est le même principe que la compression du ZBuffer t'imagines s'il y avait des pertes ? Les polygones qui se passent l'un devant l'autre à cause de la compression :lol: et pourtant le ZBuffer est sur 24 bits et ça apporte un gain quand même. Mais comme c'est un algo sans perte au final tu ne gagnes pas de la place en mémoire (vu qu'au pire il n'y a pas de compression) tu gagnes juste de la bande passante.




 
si si compresse le zbuffer crée des bug j'ai des exemple en se moment sous 3dsmax sans compression pas de bug avec compression ca foire  
 
dans les scene complexe j'ai des poly qui se chevauche et qui se passe l'un devant l'autre   :cry:


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1974242
hide
Posté le 18-11-2002 à 19:42:26  profilanswer
 

Citation :

Mareek, la radeon tourne a 325Mhz, et elle aligne 325-Millions de vertices/sec avec cette frequence. La geforceFX roule a 500Mhz pour 350M de vertices.

THEORIQUES !

n°1974243
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-11-2002 à 19:42:26  profilanswer
 

Mgegege Mgegege Baba a écrit a écrit :

 
 
Mareek, la radeon tourne a 325Mhz, et elle aligne 325-Millions de vertices/sec avec cette frequence. La geforceFX roule a 500Mhz pour 350M de vertices. simple regle de trois. Nvidia a probablement mise sur le .13Microns comme dernier recours. parceque de base la radeon etale le nv30 sur le geometrie, ptet pas pour la programabilite des shaders mais bon..... d'ici a ce qu'on voit des jeux qui se servent des shaders 2.0+ on pourra voir des playstation3, des xbox2, et meme des pentiums 5 qui sait  :pt1cable: ....
Je croies que 3dfx a trop deteint sur nvdia sur ce coup la.



Oui enfin bon  :sarcastic:  
 
R8500 : 75 Millions de triangles /s
GF4 Ti 4200 : 53 Millions de triangles /s
 
Pourtant la GF4 Ti est plus rapide en géométrie.
 
Donc => Wait & See


Message édité par Marc le 18-11-2002 à 19:42:54

---------------
Moi, j'aime pas les signatures
n°1974248
mareek
Et de 3 \o/
Posté le 18-11-2002 à 19:43:31  profilanswer
 

fgruat a écrit a écrit :

bah c poas la scene 3d mais l'image finale celle en 2d qui s'affiche sur l'ecran qui va etre compresse  
un peut comme faire passer une image 32bit en 16bit sous photoshop pour que ca prenne moin de place en memoire



ben le gain est minime en BP dans ce cas:
 
pour un jeux en 1600*1200*32 à 100FPS, si le ratio de 1/4 est respecté, on économise au maximum 576 Mo (1600*1200*4*100*3/4) de BP. c'est pas ça qui comblera le deficit de BP par rapport à la R9700. :/


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  11  12  13  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
Pilotes geforce 256enfin un moniteur LCD pour les jeux (hitachi CML174 test inside)!
geforce 4200 : probleme affichage TVTwinView et Geforce 2 gts pro..
Sortie TV GeForce 256 NVidia / pinnacle pctvProbleme avec Geforce 2 MX 400
Problème d'affichage : Geforce 2 Ti + ecran Studioworks 700s + win xp->tof inside<- [Cherche] : ceci ->tof inside<-
GeForce 4 Ti 4200 sur brouette?Qui a une connexion plus rapide que la mienne(frime inside :-)
Plus de sujets relatifs à : [Topic Unique] GeForce FX (NV30) [Spécifications Inside]


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)