Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2047 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  ..  20  21  22  23  24  25
Auteur Sujet :

[Topic Unique] GeForce FX (NV30) [Spécifications Inside]

n°1971260
XTinX
Amicalement votre
Posté le 17-11-2002 à 19:10:38  profilanswer
 

Reprise du message précédent :
Ils me font marrer nVidia avec leur CineFX !
Depuis la voodo5, on sait gerer le depth of field, le motion blur etc ... (ce qui etait inclu dans le T-buffer rappelez vous) et j ai vu aucun jeu sur pécé utiliser de telle effets (bon, la demo de quake3 ca compte pas hein :p)
Donc leurs nouveau effets :/
 
Enfin de toute maniere s ils osent dire que FF et Toy Story peuvent etre rendu en RT avec cette carte, c est clair que ca va etre une evolution incroyable comparer aux Gforce4. Meme si comme pour le premier film de pixar qui avait été rendu en RT sur une geforce3, la qualité du rendu été abaissée!
 


---------------
Reveillez vous, tout ceci n est qu une mascarade...
mood
Publicité
Posté le 17-11-2002 à 19:10:38  profilanswer
 

n°1971293
fgruat
1 c'est bien 2 c'est mieux
Posté le 17-11-2002 à 19:19:06  profilanswer
 

ahhh ahhh ahhh  
 
pour le film FF une seule machine pour l'instant de le faire en rt et encore en 320*160  :sweat:  
et elle s'appelle GS c une machine composé de 16 playstation 2  
alors si un petit 3ghz et une nv30 peut le faire ca sera une revolution  :whistle:


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1971301
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 17-11-2002 à 19:21:19  profilanswer
 

XTinX > Je ne vois pas le rapport entre le depth of field ou le motion blur et des shaders qui offrent une etendue de possibilité autrement plus importante.


---------------
Moi, j'aime pas les signatures
n°1971310
evildeus
Posté le 17-11-2002 à 19:22:48  profilanswer
 

fgruat a écrit a écrit :

les pixel shader 2.0+ ne seront jamais utilisé car c pas universel et appartient a nvidia  
 
donc a moins que un editeur veut faire un prog juste pour le nv30
sa seras jamais utilisé  :fou:  
 
nvidia il sont pas malin il aurais pus baisser le nombre de transistor et donc le cout de production si il avait pris comme base le pixel shader 2.0 comme ati  
 
 
mais bon marketing quand tu nous tien  :sweat:  



Cela dépend de
- la part de marché des 2
- ce qu'apporte en plus ses shaders
- du marché visé :D

n°1971316
evildeus
Posté le 17-11-2002 à 19:23:47  profilanswer
 

Marc a écrit a écrit :

XTinX > Je ne vois pas le rapport entre le depth of field ou le motion blur et des shaders qui offrent une etendue de possibilité autrement plus importante.



Alors ca avance cet article? ;)

n°1971320
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 17-11-2002 à 19:24:57  profilanswer
 

Je le ferais demain, toute facon vu ce qu'il y'a a faire ...


---------------
Moi, j'aime pas les signatures
n°1971339
fgruat
1 c'est bien 2 c'est mieux
Posté le 17-11-2002 à 19:29:38  profilanswer
 

Evildeus a écrit a écrit :

 Cela dépend de
- la part de marché des 2
- ce qu'apporte en plus ses shaders
- du marché visé :D




 
encore un gars qui rentre dans le marketing nvidia tete la premmiere attention quand tu va te reveiller ca va faire mal  :sweat:  
 
les pixel shader 2.0+ ne serons jamais utilisé car pas inplementé dans direct x 9 donc ...
ptet dans direct x 9.1 mais bon a ce moment la je pense q'uon seras au moins au shader 2.5 alors...


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1971343
Oxygen3
Tears from the moon
Posté le 17-11-2002 à 19:31:31  profilanswer
 

Marc a écrit a écrit :

Je le ferais demain, toute facon vu ce qu'il y'a a faire ...



[:guish]


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1971365
evildeus
Posté le 17-11-2002 à 19:35:27  profilanswer
 

Marc a écrit a écrit :

Je le ferais demain, toute facon vu ce qu'il y'a a faire ...



Copier Coller :D

n°1971367
evildeus
Posté le 17-11-2002 à 19:36:11  profilanswer
 

fgruat a écrit a écrit :

 
 
encore un gars qui rentre dans le marketing nvidia tete la premmiere attention quand tu va te reveiller ca va faire mal  :sweat:  
 
les pixel shader 2.0+ ne serons jamais utilisé car pas inplementé dans direct x 9 donc ...
ptet dans direct x 9.1 mais bon a ce moment la je pense q'uon seras au moins au shader 2.5 alors...



Il n'y a pas que les jeux dans la vie.  :sarcastic:

mood
Publicité
Posté le 17-11-2002 à 19:36:11  profilanswer
 

n°1971491
Zeross
Posté le 17-11-2002 à 20:09:33  profilanswer
 

Marc a écrit a écrit :

Je le ferais demain, toute facon vu ce qu'il y'a a faire ...




 
Ohla comment il calme nos attentes le Marc
En gros demain on a le nom et deux trois specs qu'on connaît déjà si j'ai bien compris :D
allez avec un peu de chance la fréquence du chip et de la mémoire... Au fait c'est à quelle heure (française) qu'il tombe le NDA ?


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°1971492
evildeus
Posté le 17-11-2002 à 20:10:04  profilanswer
 

Zeross a écrit a écrit :

 
 
Ohla comment il calme nos attentes le Marc
En gros demain on a le nom et deux trois specs qu'on connaît déjà si j'ai bien compris :D
allez avec un peu de chance la fréquence du chip et de la mémoire... Au fait c'est à quelle heure (française) qu'il tombe le NDA ?



En milieu d'aprem :)

n°1971496
XTinX
Amicalement votre
Posté le 17-11-2002 à 20:13:18  profilanswer
 

fgruat a écrit a écrit :

ahhh ahhh ahhh  
 
pour le film FF une seule machine pour l'instant de le faire en rt et encore en 320*160  :sweat:  
et elle s'appelle GS c une machine composé de 16 playstation 2  
alors si un petit 3ghz et une nv30 peut le faire ca sera une revolution  :whistle:  




 
GS cube d ailleur :)


---------------
Reveillez vous, tout ceci n est qu une mascarade...
n°1971499
Zeross
Posté le 17-11-2002 à 20:15:26  profilanswer
 

fgruat a écrit a écrit :

ahhh ahhh ahhh  
 
pour le film FF une seule machine pour l'instant de le faire en rt et encore en 320*160  :sweat:  
et elle s'appelle GS c une machine composé de 16 playstation 2  
alors si un petit 3ghz et une nv30 peut le faire ca sera une revolution  :whistle:  




 
Oui et encore : on a pas vu la démo (parce que si c'est comme celle de Nvidia sur Quadro  :sarcastic: ) et ils avaient déjà précisé que la qualité des textures étaient diminuée.


Message édité par Zeross le 17-11-2002 à 20:15:49

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°1971501
XTinX
Amicalement votre
Posté le 17-11-2002 à 20:16:06  profilanswer
 

Marc a écrit a écrit :

XTinX > Je ne vois pas le rapport entre le depth of field ou le motion blur et des shaders qui offrent une etendue de possibilité autrement plus importante.




 
Pke les gars de Nvidia parlent d effets cinematographique. Bon ok, les shader et le motion blur ou le depth of field c est pas le meme type d effet puisque les shaders c est le traitement des ombres et le reste c est plus du traitement de l image. Mais quoiqu il en soit, les technologies implanté dans la voodoo 5 ne sont que tres trs peu exploitées et j ai peur que ca fasse ca aussi pr les nv shader du nv30.


---------------
Reveillez vous, tout ceci n est qu une mascarade...
n°1971504
XTinX
Amicalement votre
Posté le 17-11-2002 à 20:18:12  profilanswer
 

Zeross a écrit a écrit :

 
 
Oui et encore : on a pas vu la démo (parce que si c'est comme celle de Nvidia sur Quadro  :sarcastic: ) et ils avaient déjà précisé que la qualité des textures étaient diminuée.




 
De quelle demo tu parles ?


---------------
Reveillez vous, tout ceci n est qu une mascarade...
n°1971513
calumet
Posté le 17-11-2002 à 20:20:24  profilanswer
 

ça veut dire quoi TMU ?
je crois que c'est des unités de textures, mais je ne me rappelle plus de ce que veulent exacetent dire les initiales...
 
quelqu'un s'en rappelle ?

n°1971530
fgruat
1 c'est bien 2 c'est mieux
Posté le 17-11-2002 à 20:26:37  profilanswer
 

XTinX a écrit a écrit :

 
 
Pke les gars de Nvidia parlent d effets cinematographique. Bon ok, les shader et le motion blur ou le depth of field c est pas le meme type d effet puisque les shaders c est le traitement des ombres et le reste c est plus du traitement de l image. Mais quoiqu il en soit, les technologies implanté dans la voodoo 5 ne sont que tres trs peu exploitées et j ai peur que ca fasse ca aussi pr les nv shader du nv30.  




 
 
c meme surement ce qui va ce passer les fonction speciale nv30 vont jamais etre utilisé a part dans les demo nvidia
 
a chaque fois qu'un construteur a lancé des instruction tout seul dans son coin elle ont ete oublie et pas utilisé pourquoi ca changerais aujourd'hui


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1971540
fgruat
1 c'est bien 2 c'est mieux
Posté le 17-11-2002 à 20:29:53  profilanswer
 

Evildeus a écrit a écrit :

Il n'y a pas que les jeux dans la vie.  :sarcastic:  




 
 
et tu parle de quoi alors ...
si tu parle des appli 3d pro elle utilise opengl ou direct x donc elle ne vont pas non plus utiliser les shader 2.0+ de la nv 30  
 
la le truc a nvidia c bien mais bon c comme mettre un moteur de ferari dans une 2cv si ont peut pas les utilisers ca sert a rien ces shader 2.0+


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1971583
evildeus
Posté le 17-11-2002 à 20:47:07  profilanswer
 

fgruat a écrit a écrit :

 
 
 
et tu parle de quoi alors ...
si tu parle des appli 3d pro elle utilise opengl ou direct x donc elle ne vont pas non plus utiliser les shader 2.0+ de la nv 30  
 
la le truc a nvidia c bien mais bon c comme mettre un moteur de ferari dans une 2cv si ont peut pas les utilisers ca sert a rien ces shader 2.0+  



Mais oui bien sur, c'est pour cela qu'en Open GL il n'y a pas d'extensions propriétaire. :sarcastic:  
 
La plupart du temps cela permettra de faire en une passe ce que d'autres cartes font en plusieurs.
 
PS: Dans la version alpha de doom, les différentes cartes sont différenciées, donc ...

n°1971584
supermimy
L' AC3/DTS ca roxxe sa maman
Posté le 17-11-2002 à 20:47:23  profilanswer
 

Texture Mapping Unit = TMU

n°1971589
evildeus
Posté le 17-11-2002 à 20:49:53  profilanswer
 

XTinX a écrit a écrit :

 
 
Pke les gars de Nvidia parlent d effets cinematographique. Bon ok, les shader et le motion blur ou le depth of field c est pas le meme type d effet puisque les shaders c est le traitement des ombres et le reste c est plus du traitement de l image. Mais quoiqu il en soit, les technologies implanté dans la voodoo 5 ne sont que tres trs peu exploitées et j ai peur que ca fasse ca aussi pr les nv shader du nv30.  



Beaucoups de rumeurs parlent de tech 3DFx dans le NV30 ;)

n°1971639
daft974
Un Noizo...
Posté le 17-11-2002 à 21:02:07  profilanswer
 

Evildeus a écrit a écrit :

Beaucoups de rumeurs parlent de tech 3DFx dans le NV30 ;)




 
Cé pas une rumeur, ya du "3Dfx Inside" dans le NV30, les ingénieurs des voodoo ne se sont pas tournés les pouces à mon avis depuis leur rachat :wahoo:

n°1971663
jc the gre​at
Posté le 17-11-2002 à 21:14:48  profilanswer
 

fgruat a écrit a écrit :

 
 
 
c meme surement ce qui va ce passer les fonction speciale nv30 vont jamais etre utilisé a part dans les demo nvidia
 
a chaque fois qu'un construteur a lancé des instruction tout seul dans son coin elle ont ete oublie et pas utilisé pourquoi ca changerais aujourd'hui




A l'exception notable du marché des processeurs ..(cf Intel et SSE, SSE2). Pourquoi ? je te laisse repondre. A+

n°1971801
blazkowicz
Posté le 17-11-2002 à 22:11:31  profilanswer
 

fgruat a écrit a écrit :

 
Les pixel shader 2.0+ ne serons jamais utilisé car pas inplementé dans direct x 9 donc ...
ptet dans direct x 9.1 mais bon a ce moment la je pense q'uon seras au moins au shader 2.5 alors...




 
 
 :sleep:  :sleep:  :sleep:  
Tu n'as jamais entendu parler de Cg, HLSL et de ce qu'est OpenGL 2.0? Les shaders seront programmés dans un langage de haut niveau et compilés pour chaque GPU (exploitant toutes les fonctionnalités disponibles)

n°1972038
evildeus
Posté le 17-11-2002 à 23:35:42  profilanswer
 

Un ti dernier avant dodo
 
http://www.warp2search.net/images/geforce_fx/before.jpg

n°1972041
fgruat
1 c'est bien 2 c'est mieux
Posté le 17-11-2002 à 23:38:48  profilanswer
 

et tu croit que les devellopeur vont se faire chier avec le cg language qui est pas compatible ati  
 
il vont pas se faire chier a creer un  moteur graphique pour chaque carte  :heink:  
 
 
pour les ss et sse2 c pas la meme chose c des extension qui permette l'execution plus rapide des tache qui peuvent etre deja fait mais plus lentement par le cpu  
il suffit juste au cpu de dire tu utilse le sse le mmx ect...
 
pour les shader 2.0+ il fo recrer les effet completement car la complexité est de 1024 instruction pour un shader  
 
pour creer un effet en 2.0 il a moin d'instruction possible donc ...
 
et c 1024 instruction ne feron pas tourner les extension 2.0 plus vite car le pipeline sera chargé de 256 instruction par cycle et pas plus donc
 
 
tout ca c une question de compilation soit un shader sera compilé en bloc de 1024 instruction shader 2.0+ qui ne seras pas compatible avec les carte 2.0 et dx 9
soit il seras codé en 2.0 et codé en  bloc de 256 par cycle mais ne pouras pas etre lu 4 x plus vite sur 2.0+
les shaders sont pas encore multitread  :(


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1972047
evildeus
Posté le 17-11-2002 à 23:42:54  profilanswer
 

Le CG est compatible avec les cartes ati, arretes de dire n'importe quoi. Par contre le CG peut etre optimis' pour certaines cartes.

n°1972062
fgruat
1 c'est bien 2 c'est mieux
Posté le 17-11-2002 à 23:48:18  profilanswer
 

le cg est compatible ati si tu utilise le code direct x si tu utilse les extension propre au cg  
c dtc les carte ati peuvent pas le lire  
 
essaye de faire tourner les derniere demo nvidia sur une ati elle sont programmé avec le cg tu va voire  :D


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1972262
mareek
Et de 3 \o/
Posté le 18-11-2002 à 03:11:50  profilanswer
 

fgruat a écrit a écrit :

le cg est compatible ati si tu utilise le code direct x si tu utilse les extension propre au cg  
c dtc les carte ati peuvent pas le lire  
 
essaye de faire tourner les derniere demo nvidia sur une ati elle sont programmé avec le cg tu va voire  :D  



t'as pas compris l'intéret du Cg. Le programmeur n'a pas à se soucier de la carte graphique pour laquelle il promgramme, c'est le compilateur qui fait le boulot. Si le compilo est bien fait il utilisera les capacités de chaque carte graphique au maximum et ça restera transparent pour le programmeur.


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1972268
gecko
J'suis vert
Posté le 18-11-2002 à 03:31:48  profilanswer
 

mareek a écrit a écrit :

t'as pas compris l'intéret du Cg. Le programmeur n'a pas à se soucier de la carte graphique pour laquelle il promgramme, c'est le compilateur qui fait le boulot. Si le compilo est bien fait il utilisera les capacités de chaque carte graphique au maximum et ça restera transparent pour le programmeur.




C'est pas nvidia qui le fait le compilo? J'ai lu un article déjà qui disait que les cartes nvidia seront plus performante avec le Cg que les cartes concurentes because optimisation nvidia plus poussée.

n°1972270
mareek
Et de 3 \o/
Posté le 18-11-2002 à 03:34:48  profilanswer
 

gecko a écrit a écrit :

C'est pas nvidia qui le fait le compilo? J'ai lu un article déjà qui disait que les cartes nvidia seront plus performante avec le Cg que les cartes concurentes because optimisation nvidia plus poussée.


oui, d'où mon "Si".


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1972318
evildeus
Posté le 18-11-2002 à 07:38:29  profilanswer
 

mareek a écrit a écrit :

oui, d'où mon "Si".



Et normalement chaque constructeur peut l'optimiser

n°1972366
Oxygen3
Tears from the moon
Posté le 18-11-2002 à 09:23:33  profilanswer
 

le pb du CG et des sh2.0+ sera le mm que les pshaders 1.4 sur les 8500
ca sera pas utilisé car le parc est trop restreint
enfin imho


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1972422
fgruat
1 c'est bien 2 c'est mieux
Posté le 18-11-2002 à 10:19:17  profilanswer
 

le cg est un compilo  
 
les devellopeur vont pas faire une compilation de leur programmme pour chaque carte fo pas rever il font une compilation generique qui utiliseras au max les capacité de la plus petite des carte  :fou:  
 
donc avant de voir des pixel shader 2.0 voir meme 2.0+  :whistle:


---------------
[:fgruat]3dfx c de la balle c quand qu'il sort le rampage ??? jamais a cause de nvidia ??? et aussi webmaster du site www.cleder.com une jolie petite ville pour vos vacances
n°1972453
chrisbk
-
Posté le 18-11-2002 à 10:37:37  profilanswer
 

XTinX a écrit a écrit :

Ils me font marrer nVidia avec leur CineFX !
Depuis la voodo5, on sait gerer le depth of field, le motion blur etc ... (ce qui etait inclu dans le T-buffer rappelez vous) et j ai vu aucun jeu sur pécé utiliser de telle effets (bon, la demo de quake3 ca compte pas hein :p)
Donc leurs nouveau effets :/
 
Enfin de toute maniere s ils osent dire que FF et Toy Story peuvent etre rendu en RT avec cette carte, c est clair que ca va etre une evolution incroyable comparer aux Gforce4. Meme si comme pour le premier film de pixar qui avait été rendu en RT sur une geforce3, la qualité du rendu été abaissée!
 
 




 
l'accumulation buffer de la voodoo 5 n'a jamais été supporté par DX, ca a pas du aider

n°1972455
chrisbk
-
Posté le 18-11-2002 à 10:41:03  profilanswer
 

fgruat a écrit a écrit :

le cg est un compilo
 
les devellopeur vont pas faire une compilation de leur programmme pour chaque carte fo pas rever il font une compilation generique qui utiliseras au max les capacité de la plus petite des carte  :fou:  
 
donc avant de voir des pixel shader 2.0 voir meme 2.0+  :whistle:  




 
qui d'ailleurs compile comme un porc [:ddr555]
Bah, le code compilé tourne aussi bien sur ATI que sur NVidia, pas de soucis, ca sera la meme chose pour les 2.0.  Pour les +, fodra voir, mais y'a quand meme fort a parier que ca soit intégrer d'office dans DX, ou rapidement

n°1972587
MagiSim
Magique, et oui !
Posté le 18-11-2002 à 11:35:31  profilanswer
 

chrisbk a écrit a écrit :

 
 
l'accumulation buffer de la voodoo 5 n'a jamais été supporté par DX, ca a pas du aider




 
Si, fait partie de DX8.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°1972594
evildeus
Posté le 18-11-2002 à 11:38:03  profilanswer
 

Citation :

Jour J pour NVIDIA  
Publié le 18/11/2002 par Julien
 
 Depuis que NVIDIA s'est fait distancé de manière surprenante et innatendue par son rival ATI avec la Radeon 9700 Pro, le fabricant californien de puces graphiques 3D a mis les bouchées doubles pour finaliser sa prochaine puce haut de gamme connue sous le nom de NV30.  
 
Depuis plusieurs semaines maintenant les rumeurs vont bon train au sujet de cette puce, maintes fois reportée et retardée. Toutefois les analystes unanimes s'accordent à dire que NVIDIA devrait officiellement lancer le NV30 lors de l'ouverture du Comdex. Nous ne manquerons pas de vous tenir informé sur les spécifications officielles de la bête dès que celles-ci seront connues. Mais serez-vous prêt ?
 

:lol:

n°1972626
glood@
Posté le 18-11-2002 à 11:52:20  profilanswer
 

:lol:  :lol:  
"Toutefois les analystes unanimes s'accordent à dire que NVIDIA devrait officiellement lancer le NV30 lors de l'ouverture du Comdex" ou "s'autorisent à penser"
 
c 'est du coluche  
 
 
 
cela va casser ferme  
mais dispo vers fevrier c 'est pas glop


Message édité par glood@ le 18-11-2002 à 11:56:46
n°1972640
evildeus
Posté le 18-11-2002 à 11:57:00  profilanswer
 

C'est une info clubic au fait ;)
 
Pour la dispo, février, c'est pas top non  :pfff:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
Pilotes geforce 256enfin un moniteur LCD pour les jeux (hitachi CML174 test inside)!
geforce 4200 : probleme affichage TVTwinView et Geforce 2 gts pro..
Sortie TV GeForce 256 NVidia / pinnacle pctvProbleme avec Geforce 2 MX 400
Problème d'affichage : Geforce 2 Ti + ecran Studioworks 700s + win xp->tof inside<- [Cherche] : ceci ->tof inside<-
GeForce 4 Ti 4200 sur brouette?Qui a une connexion plus rapide que la mienne(frime inside :-)
Plus de sujets relatifs à : [Topic Unique] GeForce FX (NV30) [Spécifications Inside]


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)