Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2692 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  ..  20  21  22  23  24  25
Auteur Sujet :

[Topic Unique] GeForce FX (NV30) GeForce FX Ultra Annulé ?

n°2217325
MagiSim
Magique, et oui !
Posté le 13-02-2003 à 23:45:42  profilanswer
 

Reprise du message précédent :

Zeross a écrit :


à titre d'indications GL_ARB_vertex_program et GL_ARB_fragment_program viennenet d'être approuvés par l'ARB alors que ça fait un moment qu'on a des cartes supportant ce genre d'opérations. Dès que l'extension officielle est approuvée les autres sont abandonnées c'est juste temporaire c'est comme ça que marche OpenGL je ne vois pas ce que Nvidia vient faire là dedans  :heink:  
 
En plus ces extensions ne sont pas propriétaires 3DLabs supportent les extensions Nvidia par exemple pour son P10.


 
Et bien moralité, comme je le disais juste au dessus, c'est ce qui fait la force de DX et la faiblesse de openGL... C'est que si Kro s'y prend bien, il peut tout harmoniser à ses idées deés le début. en revanche, sous OpenGL, c'est plus "démocratique". Mais plus long...... En attendant, au lieu d'avoir 36 noms pour la même chose, les constructeurs pourraient être moins gamins pour s'arranger pour utiliser le même nom, je sais pas moi, GL_TEMP_FRAGMENT_PROGRAM c'est quand même moins chiant pour un développeur que d'appeler GL_ATI... GL_NV... GL_S3..... etc.
 
En fait, ça a un peu été le pb pour DX 8.x, avec toutes ces versions.....
 
DirectX 9 DEVRAIT pallier à ces pbs...


Message édité par MagiSim le 13-02-2003 à 23:47:14

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
mood
Publicité
Posté le 13-02-2003 à 23:45:42  profilanswer
 

n°2217331
Zeross
Posté le 13-02-2003 à 23:48:06  profilanswer
 

MagiSim a écrit :


 
Comme le fait de mettre un joli nv ou un joli ati devant une extension opengl en attendant que le procédé, même si il est effectué de manières différentes, soit reconnu.
 
On devrait purement et simplment abolir ces préfixes et le premier qui trouve un moyen de faire quelque chose pond un nom d'extension, et si quelqu'un arrive à faire la même chose avec un procédé similaire ou équivalent, tout en étant 100% compatible, il puisse enregistrer les appels à cette fonction avec le même nom....
 
ça éviterait aux programmeurs d'appeler les extensiosn ATI_www, nV_xxx, S3_xxx, etc, tout ça pour au final faire la même chose sur les cartes......
 
Après, si les constructeurs veulent séparer leurs méthhodes, qu'ils utilisent des alias... Enfin, bref, de toute façon, ces trucs là, c'est un peu de l'esprit de clocher de toute façon... ET c'est ce qui fait la force de DirectX, Mircrosoft voit ce qu'on lui propose et choisi, il a des comptes à rendre à personne.


 
Et on se retrouve avec des PS 1.1-1.3 et des PS1.4 n'ayant pas la même interface et on en revient au même problème [:spamafote]
En ce qui concerne OpenGL si ça marchait comme ça les fabriquants se plaindraient immédiatement, ce n'est pas ainsi que fonctionne l'ARB (qui est formé de ses mêmes constructeurs). Nvidia présente une extension pour les Pixels Shaders d'après ce que j'en sais Matrox et 3DLabs utilise la même (car leurs shaders sont v1.3 donc tout va bien) mais ATI qui a des shaders plus évolués se retrouve coincé s'ils doivent utiliser l'extension Nvidia. Alors il crée leur extension et ainsi de suite... l'ARB est constitué de plusieurs membres un seul peut bloquer les décisions s'il n'est pas d'accord sans les extensions OpenGL aurait u nretard énorme sur DirectX. Mais bon avec OpenGL2 on va repartir sur des bases saines :)


Message édité par Zeross le 13-02-2003 à 23:51:19

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2217350
MagiSim
Magique, et oui !
Posté le 13-02-2003 à 23:53:58  profilanswer
 

Voui, alors, OpenGL 2 et DirectX 9 ? Même combat ? (Encore un sujet à discussions intéressant :D)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2217362
Zeross
Posté le 13-02-2003 à 23:58:18  profilanswer
 

MagiSim a écrit :

Voui, alors, OpenGL 2 et DirectX 9 ? Même combat ? (Encore un sujet à discussions intéressant :D)


 
Oui un sujet intéressant mais ça mériterait ptet un topic au lieu de parler de ça dans celui de la Geforce FX ;)
 
Ceci dit OpenGL/DirectX ça devient plus une question de préférences personnelles que de qualités intrinsèques des API en question. Personnellement j'ai commencé avec OpenGL je ne vois pas de raisons de changer donc je continue en plus ça a a encore un dernier avantage sur DirectX : c'est portable.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2217374
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 14-02-2003 à 00:03:54  profilanswer
 

au fait zeros tu bosse ds koa ?   t programeur ?


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°2217393
Zeross
Posté le 14-02-2003 à 00:09:02  profilanswer
 

THE REAL KRYSTOPHE a écrit :

au fait zeros tu bosse ds koa ?   t programeur ?


 
Ouais :)


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2217397
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 14-02-2003 à 00:10:10  profilanswer
 

de jeu ?  ou zetudes rulez :)


Message édité par THE REAL KRYSTOPHE le 14-02-2003 à 00:10:31

---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°2217416
Zeross
Posté le 14-02-2003 à 00:19:07  profilanswer
 

J'ai fini mes études y a pas longtemps, bosser dans les jeux j'aimerais bien mais en ce moment c'est pas vraiment la joie  :(  
 
Alos j'en profite pour programmer un peu des projets persos vu que j'avais pas eu beaucoup le temps depuis un moment.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2217429
THE REAL K​RYSTOPHE
ストリートファイターBrasileiro NTSC-J
Posté le 14-02-2003 à 00:22:49  profilanswer
 

ok mercy :)


---------------
AC : SW-5993-1459-0978 / dani / THE REAL KRYSTOPHE (Miss) / Pinacolada   Hémisphère sud
n°2217643
evildeus
Posté le 14-02-2003 à 09:20:36  profilanswer
 

En tout cas il fait du bruit ce 3DMark ;)
 

Citation :

Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.


http://www.tomshardware.com/column [...] 03-03.html
 
Card         Radeon 9700 PRO GeForce FX 5800U GeForce FX 5800U  
Driver       v6.14.01.6292   v42.63           v42.68  
3DMark Score 4718 3DMarks    3468 3DMarks     5253 3DMarks  


Message édité par evildeus le 14-02-2003 à 09:21:51

---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
mood
Publicité
Posté le 14-02-2003 à 09:20:36  profilanswer
 

n°2217665
evildeus
Posté le 14-02-2003 à 09:37:39  profilanswer
 

Interessant...

Citation :

More Details on the NV33 Graphics Chip from NVIDIA Uncovered
 
Many of you have asked me to dig more information about NVIDIA?s NV33 and NV36 graphics processors that are due to come later this year. As always, it was hard to get any details on the yet unannounced products from the Santa Clara-based company, but fortunately VIDILab Croatian magazine publishes this in their upcoming issue available this weekend and now I can share the basics about the NV33 with you.
 
Apparently, NV33 is a chip with extremely low power consumption that is intended for use in mobile devices, such as Tablet PCs and sub-notebooks. It will feature just two rendering pipelines with one TMU per each, but will be DirectX 9.0 compatible. There is no word about performance figures of the newcomer to our great upset, as currently no processors have been taped-out. Any precise information about power consumption is also absent.  
 
NVIDIA is still not presented widely in mobile devices with low power consumption, such as Tablet PCs, sub-notebooks and other similar products. With the NV33 the world?s largest graphics solutions suppliers has a great chance to penetrate the market with a feature-rich product. Up to the moment I have heard nothing about similar devices from ATI Technologies to come.


http://www.xbitlabs.com/news/story.html?id=1045147250


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217673
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 09:44:56  profilanswer
 

Evildeus a écrit :

En tout cas il fait du bruit ce 3DMark ;)
 

Citation :

Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.


http://www.tomshardware.com/column [...] 03-03.html
 
Card         Radeon 9700 PRO GeForce FX 5800U GeForce FX 5800U  
Driver       v6.14.01.6292   v42.63           v42.68  
3DMark Score 4718 3DMarks    3468 3DMarks     5253 3DMarks  
 


 
lol kler, et la fx reste tjs aussi ridicule meme avec ces nvx drivers  :whistle:


---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
n°2217686
evildeus
Posté le 14-02-2003 à 09:56:10  profilanswer
 

reas0n a écrit :


 
lol kler, et la fx reste tjs aussi ridicule meme avec ces nvx drivers  :whistle:  

Clair de - 30% à +10% c'est la meme histoire  :whistle:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217694
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 10:07:31  profilanswer
 

Evildeus a écrit :

Clair de - 30% à +10% c'est la meme histoire  :whistle:  


 :heink: j'vois pas le rapport sur ce que j'ai dis... j'te parle pas de l'augmentation des perfs des drivers mais des perfs pures de la fx que je trouve ridicule pour une telle carte surtout en ultra.


---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
n°2217722
evildeus
Posté le 14-02-2003 à 10:28:18  profilanswer
 

reas0n a écrit :


 :heink: j'vois pas le rapport sur ce que j'ai dis... j'te parle pas de l'augmentation des perfs des drivers mais des perfs pures de la fx que je trouve ridicule pour une telle carte surtout en ultra.  


On doit pas voir la meme chose alors. Le seul test qui compte alors, c'est G4 et la la GFFX est 25% plus performante donc...


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217728
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 10:30:23  profilanswer
 

Evildeus a écrit :


On doit pas voir la meme chose alors. Le seul test qui compte alors, c'est G4 et la la GFFX est 25% plus performante donc...


 :heink:


---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
n°2217738
evildeus
Posté le 14-02-2003 à 10:33:19  profilanswer
 


Ben 27.1 pour la 9700 et 35.1 pour la GFFX ca fait oups me suis plante 29.5%  :whistle:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217752
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 10:37:42  profilanswer
 

Evildeus a écrit :


Ben 27.1 pour la 9700 et 35.1 pour la GFFX ca fait oups me suis plante 29.5%  :whistle:  


bien ce que je dis : c pas terrible  :whistle:  (j'pense pas que le concurent direct de la fx soit la r300 mais la r350 et la j ai bien peur que ce maigre resultat ne suffise)


Message édité par Reas0n le 14-02-2003 à 10:38:05

---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
n°2217759
evildeus
Posté le 14-02-2003 à 10:41:19  profilanswer
 

reas0n a écrit :


bien ce que je dis : c pas terrible  :whistle:  (j'pense pas que le concurent direct de la fx soit la r300 mais la r350 et la j ai bien peur que ce maigre resultat ne suffise)

Tu voulais 100%?  :sarcastic:  
 
Quant au R350 il devrait etre 20-30% plus rapide que la 9700 pro selon toute vraissemblance...


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217763
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 10:43:02  profilanswer
 

Evildeus a écrit :

Tu voulais 100%?  :sarcastic:  
 
Quant au R350 il devrait etre 20-30% plus rapide que la 9700 pro selon toute vraissemblance...


[:rofl] et voila ! me suis pisser dessus...[:kamool]


Message édité par Reas0n le 14-02-2003 à 10:44:49

---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
n°2217769
evildeus
Posté le 14-02-2003 à 10:46:20  profilanswer
 

reas0n a écrit :


[:rofl] et voila ! me suis pisser dessus...[:kamool]

Je croyais que c'etait les vieux qui avait besoin de couche culotte, faut croire que je me trompe  :lol:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217775
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 10:49:20  profilanswer
 

Evildeus a écrit :

Je croyais que c'etait les vieux qui avait besoin de couche culotte, faut croire que je me trompe  :lol:  


rdv au mois d'avril  ;)  :hello:


---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
n°2217791
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 14-02-2003 à 10:56:57  profilanswer
 

Evildeus a écrit :

Tu voulais 100%?  :sarcastic:  
 
Quant au R350 il devrait etre 20-30% plus rapide que la 9700 pro selon toute vraissemblance...

Mais non voyons il va être à 1 GHz avec 16 Pipeline, c'est bien connu ... :/

n°2217803
mareek
Et de 3 \o/
Posté le 14-02-2003 à 11:02:09  profilanswer
 

Evildeus a écrit :

Interessant...

Citation :

More Details on the NV33 Graphics Chip from NVIDIA Uncovered
 
Many of you have asked me to dig more information about NVIDIA?s NV33 and NV36 graphics processors that are due to come later this year. As always, it was hard to get any details on the yet unannounced products from the Santa Clara-based company, but fortunately VIDILab Croatian magazine publishes this in their upcoming issue available this weekend and now I can share the basics about the NV33 with you.
 
Apparently, NV33 is a chip with extremely low power consumption that is intended for use in mobile devices, such as Tablet PCs and sub-notebooks. It will feature just two rendering pipelines with one TMU per each, but will be DirectX 9.0 compatible. There is no word about performance figures of the newcomer to our great upset, as currently no processors have been taped-out. Any precise information about power consumption is also absent.  
 
NVIDIA is still not presented widely in mobile devices with low power consumption, such as Tablet PCs, sub-notebooks and other similar products. With the NV33 the world?s largest graphics solutions suppliers has a great chance to penetrate the market with a feature-rich product. Up to the moment I have heard nothing about similar devices from ATI Technologies to come.


http://www.xbitlabs.com/news/story.html?id=1045147250

un chip graphique DX9 pour pocket PC ? [:wam]
 
en tout cas, la compatibilité DX9 avec seulement 2 pipes ça risque dê pas être très utile.

n°2217815
evildeus
Posté le 14-02-2003 à 11:08:17  profilanswer
 

Marc a écrit :

Mais non voyons il va être à 1 GHz avec 16 Pipeline, c'est bien connu ... :/

Le tout sur un bus 512 bits?  :whistle:  
 
Au fait Marc, tu sais quand tu pourras éventuellement testé cette carte qui est arretée, enfin non c'est démenti, quoique :/, ??  :??:  
 
PS: Tant que tu y es, la fameuse photo de la Gainward :D


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217816
evildeus
Posté le 14-02-2003 à 11:08:57  profilanswer
 

mareek a écrit :

un chip graphique DX9 pour pocket PC ? [:wam]
 
en tout cas, la compatibilité DX9 avec seulement 2 pipes ça risque dê pas être très utile.

Vi c'est ce que je me dis, quoique pour les Poket PC cela doit etre un immense bon en avant  :lol:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2217854
mareek
Et de 3 \o/
Posté le 14-02-2003 à 11:22:19  profilanswer
 

Evildeus a écrit :

Vi c'est ce que je me dis, quoique pour les Poket PC cela doit etre un immense bon en avant  :lol:  

c'est sûr, sur les PDA ils sont plutot au niveau d'une S3 trio [:boidleau]

n°2217929
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 11:44:23  profilanswer
 

Marc a écrit :

Mais non voyons il va être à 1 GHz avec 16 Pipeline, c'est bien connu ... :/


ouai bon, on est pas sur la meme longueur d'onde  :pfff:  :D  Perso, j trouve que les perfs de la fx sont tres faible pour un nouveau GPU (je rigolais par rapport aux "100%" et non pas par rapport aux 30% de la r350) et en version "ultra" en plus. On voit la difference qu'a impose le radeon 9700pro face au GF4 (je parle de nouvelle architecture) et la la fx face au r300 - r350 bof voir meme zero quant a tout le "blabla" qui a etait fait autour de cette carte. Nivida a fait un bel effort avec ces nouveaux drivers, c'est inconstestable et heuresement pour eux mais bon, j'pense pas non plus qu'ils gagneront 30% a chaque sortie de drivers (ou alors l'AA et l'anisio faudra l'oublier)


Message édité par Reas0n le 14-02-2003 à 11:48:10
n°2217940
syntaxx_er​ror
Posté le 14-02-2003 à 11:47:48  profilanswer
 

hardware.fr
 
"Quake.co.il a publié ce qui serait les spécifications prévues actuellement pour le NV40 :
 
- 300-350 Millions de transistors en 0.09µ
- GPU à 750-800 MHz
- 16 Mo de mémoire intégrée (134 Millions de transistors)
- 256 à 512 Mo de DDR-II 700 MHz 256 bits
- 8 pipeline de rendu
- 16 unités de vertex shading
- 204.8 Go /s de bande passante pour les 16 Mo intégrés
- 44.8 Go /s de bande passante mémoire
- DirectX 10 ou 9.1 étendu
- Sortie au second semestre 2004
 
Bien entendu, ces infos sont à prendre avec des pincettes. L?intégration de 16 Mo de mémoire intégrée serait une bonne chose, mais la date avancée est pour sa part assez lointaine."

n°2217946
Reas0n
Fingers in the Nose
Posté le 14-02-2003 à 11:49:20  profilanswer
 

syntaxx_error a écrit :

hardware.fr
 
"Quake.co.il a publié ce qui serait les spécifications prévues actuellement pour le NV40 :
 
- 300-350 Millions de transistors en 0.09µ
- GPU à 750-800 MHz
- 16 Mo de mémoire intégrée (134 Millions de transistors)
- 256 à 512 Mo de DDR-II 700 MHz 256 bits
- 8 pipeline de rendu
- 16 unités de vertex shading
- 204.8 Go /s de bande passante pour les 16 Mo intégrés
- 44.8 Go /s de bande passante mémoire
- DirectX 10 ou 9.1 étendu
- Sortie au second semestre 2004
 
Bien entendu, ces infos sont à prendre avec des pincettes. L?intégration de 16 Mo de mémoire intégrée serait une bonne chose, mais la date avancée est pour sa part assez lointaine."
 

tu m'etonnes  :D et encore j'les trouve optimiste  ;)


Message édité par Reas0n le 14-02-2003 à 11:50:25
n°2217966
mareek
Et de 3 \o/
Posté le 14-02-2003 à 11:57:29  profilanswer
 

syntaxx_error a écrit :

hardware.fr
 
"Quake.co.il a publié ce qui serait les spécifications prévues actuellement pour le NV40 :
 
- 300-350 Millions de transistors en 0.09µ
- GPU à 750-800 MHz
- 16 Mo de mémoire intégrée (134 Millions de transistors)
- 256 à 512 Mo de DDR-II 700 MHz 256 bits
- 8 pipeline de rendu
- 16 unités de vertex shading

- 204.8 Go /s de bande passante pour les 16 Mo intégrés
- 44.8 Go /s de bande passante mémoire
- DirectX 10 ou 9.1 étendu
- Sortie au second semestre 2004
 
Bien entendu, ces infos sont à prendre avec des pincettes. L?intégration de 16 Mo de mémoire intégrée serait une bonne chose, mais la date avancée est pour sa part assez lointaine."
 

ils auraient pas inversé les PS et les VS ? [:mlc]
 
parce que d'un coté on quadruple le nombre d'unité de Vertices mais on bouge pas pour le nombre de pixel pipelines.  :heink:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2218028
evildeus
Posté le 14-02-2003 à 12:34:10  profilanswer
 

Ouais, sauf que finalement le scoop, est vieux de 6 mois :D
 
http://forum.pcvsconsole.com/viewthread.php?tid=1783
 
 

syntaxx_error a écrit :

hardware.fr
 
"Quake.co.il a publié ce qui serait les spécifications prévues actuellement pour le NV40 :
 
- 300-350 Millions de transistors en 0.09µ
- GPU à 750-800 MHz
- 16 Mo de mémoire intégrée (134 Millions de transistors)
- 256 à 512 Mo de DDR-II 700 MHz 256 bits
- 8 pipeline de rendu
- 16 unités de vertex shading
- 204.8 Go /s de bande passante pour les 16 Mo intégrés
- 44.8 Go /s de bande passante mémoire
- DirectX 10 ou 9.1 étendu
- Sortie au second semestre 2004
 
Bien entendu, ces infos sont à prendre avec des pincettes. L?intégration de 16 Mo de mémoire intégrée serait une bonne chose, mais la date avancée est pour sa part assez lointaine."
 


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2218046
mareek
Et de 3 \o/
Posté le 14-02-2003 à 12:41:01  profilanswer
 

Evildeus a écrit :

Ouais, sauf que finalement le scoop, est vieux de 6 mois :D
 
http://forum.pcvsconsole.com/viewthread.php?tid=1783
 
 
 

de toute façon c'est de la connerie ces specs vu que nvidia a un cycle de 6 mois [:jofission]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2218130
evildeus
Posté le 14-02-2003 à 13:11:31  profilanswer
 

mareek a écrit :

de toute façon c'est de la connerie ces specs vu que nvidia a un cycle de 6 mois [:jofission]

Plutot 9 que 6 ;)


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°2218186
syntaxx_er​ror
Posté le 14-02-2003 à 13:38:09  profilanswer
 

Evildeus a écrit :

Plutot 9 que 6 ;)


12 mois entre le GF4 et le FX...:/

n°2218205
mareek
Et de 3 \o/
Posté le 14-02-2003 à 13:48:59  profilanswer
 

Evildeus a écrit :

Plutot 9 que 6 ;)

stait ironique vu qu'il y a 9 mois entre la GF3 et la GF4Ti et 12 mois entre la GF4Ti le la GFFx (et encore, surement plus pour la dispo réelle).


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2218491
Zeross
Posté le 14-02-2003 à 15:59:53  profilanswer
 

syntaxx_error a écrit :

hardware.fr
 
"Quake.co.il a publié ce qui serait les spécifications prévues actuellement pour le NV40 :
 
- 300-350 Millions de transistors en 0.09µ
- GPU à 750-800 MHz
- 16 Mo de mémoire intégrée (134 Millions de transistors)
- 256 à 512 Mo de DDR-II 700 MHz 256 bits
- 8 pipeline de rendu
- 16 unités de vertex shading
- 204.8 Go /s de bande passante pour les 16 Mo intégrés
- 44.8 Go /s de bande passante mémoire
- DirectX 10 ou 9.1 étendu
- Sortie au second semestre 2004
 
Bien entendu, ces infos sont à prendre avec des pincettes. L?intégration de 16 Mo de mémoire intégrée serait une bonne chose, mais la date avancée est pour sa part assez lointaine."
 


 
16Mo intégrés j'y crois pas, intégrer de la mémoire c'est bien pour les consoles où le frame buffer peut être contenu entièrement mais pas pour les architectures PC : Nvidia et ATI (qui a pourtant de l'expèrience dans le domaine via ArtX) ont affirmé à plusieurs reprises que l'utilisation de mémoire intégrée au GPU n'est pas intéressante... D'après moi il y a bien mieux à faire aussi de 134 millions de transistors. Mais ces specs sont plus que bizarres : enlevez les transistors de la mémoire et il reste 170 million de transistors c'est à dire à peine plus qu'un NV30 je trouve ça moyennement crédible pour une architecture censée intégrer 4 fois plus d'unités de vertex (d'ailleurs Nvidia a arrêté de compter ainsi avec leur nouveau vertex array). Ensuite DirectX 10 j'y crois pas trop, Dx9.0 a été conçu pour durer et intègre déjà des specs de VS3.0 et PS3.0 si je ne me plante pas, en tout cas le prochain Dx ce sera pas avant un moment lors de la sortie du prochain Windows dont j'ai oublié le nom de code.
 
Enfin ces specs ne me paraissent pas réalistes pour un sou ça ressemble à un NV30 boosté à chaque génération on voit ce genre de suppositions poindre et à chaque fois elles sont fausses. Je crois que pour la prochaine génération maintenant que les pipelines sont au même format entre les Vertex et les Pixels (FP32) on va pouvoir commencer à voir un rapprochement, via un partage des unités logiques et que l'architecture des chips graphiques mais chut : sore wa himitsu desu ;)


Message édité par Zeross le 14-02-2003 à 16:01:59

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2218723
mareek
Et de 3 \o/
Posté le 14-02-2003 à 17:27:26  profilanswer
 

http://www.hardware.fr/news/lire/14-02-2003/#5559

Citation :

4 pipes pour le GeForce FX ?
  Posté le 14/02/2003 à 15:11 par Marc  
     
 
 TT-Hardware met le doigt sur un point important concernant le GeForce FX. En effet, bien qu?annoncé avec une configuration similaire au Radeon 9700 c'est-à-dire utilisant 8 pipelines disposant chacune d?une unité de texturing, ce GPU n?offrait pas des résultats cohérents en terme de fillrate.
 
 
 
 
En effet, on peut voir sur ce graphique que le GeForce FX se comporte en fait comme un GeForce4 Ti, avec des performances qui sont un peu plus que doublées lorsque l?on passe du single au multi texturing. Le GeForce FX aurait donc une architecture similaire, c'est-à-dire 4 pipelines avec deux unités de textures chacune, ce qui expliquerait au passage qu?elle ne soit pas plus rapide qu?une Radeon 9700 Pro dans les opérations de pixel shading (au contraire).
 
Selon NVIDIA, le GeForce FX sera en fait très flexible, et aurait été configuré en 4x2 au lieu de 8x1 via les drivers, car ce type de composition serait plus performant dans les jeux actuels. A la vue des résultats du GeForce FX comparé au Radeon 9700 Pro, on peut se demander si cette information est exacte. Et même si c?était le cas, pourquoi avoir continuer à communiquer sur 8 pipeline ?
 
Décidement, le GeForce FX est vraiment un processeur graphique qui va faire du bruit

elle commence à être un peu éculée cette blague

n°2218731
Ernestor
modo-coco :o
Posté le 14-02-2003 à 17:30:54  profilanswer
 

:D  
 
L'analyse de la FX par Tridam de TTH pour ceux qui veulent un peu de lecture en plus. Je pensais la poster mais bon Marc a fait une niouze dessus, je suis grilled, pas grave j'y vais quand meme.
 
http://www.tt-hardware.com/article.php?sid=3858
 
Comme vous le savez tous, le GeForce FX devait être une vraie révolution. Malheureusement, bien que le GeForce FX reste une puce performante, la révolution attendue ne s'est pas produite, ce qui a déçu beaucoup de futurs acheteurs potentiels. Pourtant, sur le papier, le GeForce FX est une puce supérieure au Radeon 9700 si ce n'est au niveau de la bande passante mémoire. Comment se fait-il qu'il ait tant de peine à égaler celui-ci ? Une question assez complexe à laquelle nous allons apporter quelques éléments de réponse.  
 
Premièrement, lorsque NVIDIA a conçu le GeForce FX, il est probable qu'ils ne pensaient pas que le R300 que préparait ATI serait aussi performant. Pourtant, ATI, tout en restant au 0.15µ est parvenu à concevoir une puce complexe, très bien optimisée et fonctionnant à plus de 300 MHz. D'ailleurs, il était au départ question d'un GeForce FX à 300-400 MHz. Le passage à 500 MHz ne serait-il pas une bouée de secours pour rester compétitif face à une Radeon 9700 Pro étonnante ?  
 
Ensuite, NVIDIA devait au début viser un rendu 64 bits (ou peut-être déjà du 128 bits mais peu performant). Le fait qu'ATI propose avec les Radeon 9500/9700 un rendu hybride 96/128 bits a dû ennuyer NVIDIA. Ils ont donc dû soit ajouter une possibilité de rendu 128 bits soit, ce qui est plus probable, mettre fortement en avant leur rendu 128 bits. Mais ils ont oublié de préciser que celui-ci serait très lent. Le 128 bits du GeForce FX semble ainsi être inutilisable dans un jeu ou en tout cas pas sur beaucoup de pixels. Les GeForce FX travailleront donc en 64 bits alors que les Radeon 9700 offriront une précision supplémentaire en 96/128 bits en étant presque aussi rapide ! Bien entendu, le rendu 64 bits est largement suffisant dans les jeux vidéo pour un bon petit bout de temps. Néanmoins, il ne faut pas oublier que lors de la présentation du GeForce FX, NVIDIA n'hésitait pas à critiquer le rendu hybride 96/128 bits du Radeon 9700 qui offrait moins de précision que leur nouveau né ! Autrement dit, à moins d'avoir clairement la preuve du contraire, le 128 bits du GeForce FX, c'est du vent en ce qui nous concerne. NVIDIA passe d'ailleurs pas mal de temps à le désactiver partout où c'est possible pour gagner en performances (exemples : nouveau drivers qui boostent les performances dans 3DMark03, extension OpenGL qui sera utilisée dans Doom III?) Les choses peuvent cependant être différente avec les Quadro FX et le marché professionnel qui a plus besoin de précision que de FPS.  
 
Et enfin, une autre donnée est à prendre en compte. Celle-ci est capitale et il est d'ailleurs étonnant qu'aucun site ayant testé le GeForce FX n'ait mis le doigt dessus tant elle est flagrante au vu des résultats. Comme il est écrit en grand dans les spécifications du GeForce FX, celui-ci dispose de 8 pipelines comme le Radeon 9700, chacune disposant d'une unité de texturing. Mais ça, c'est du papier. Dans la pratique, le GeForce FX ne dispose pas de 8 pipelines. Il n'en utilise en fait que 4 disposant chacune de 2 unités de texturing, comme le GeForce 4 Ti. Tromperie sur la marchandise ? Pas du tout selon NVIDIA qui explique que le GeForce FX est très flexible et qu'ils l'ont configuré de cette manière dans les drivers car ils estiment que c'est la disposition la plus efficace actuellement avec les jeux multitexturing. Bien que ce soit possible, nous restons sceptiques. Le Radeon 9700 s'en tire très bien avec ses 8 pipelines, que ce soit dans les jeux actuels ou futurs. Dans la majorité des cas, une composition de type 8x1 est plus performante qu'une composition d type 4x2. L'avantage est encore accentué avec les Pixel Shader complexes vu que la puissance de calcul est doublée ! Pourquoi les 8 pipelines ne fonctionnent-ils pas ? Difficile à dire, mais plusieurs hypothèses nous viennent à l'esprit : la bande passante du GeForce FX est insuffisante pour alimenter 8 pipelines, désactiver 4 pipelines permet de réduire le dégagement thermique et atteindre 500 MHz, optimiser les drivers pour 8 pipelines est trop complexe?  
 
Le GeForce FX semble très flexible, mais ceci est également son point faible. Optimiser les drivers pour ce GPU semble être un véritable casse-tête ! Il reste certainement beaucoup à en tirer en travaillant sur les drivers. Espérons que NVIDIA y arrive? et pas trop tard? En attendant, le GeForce FX semble castré pour être plus docile. Par exemple, dans le test Pixel Shader 2.0 de 3DMark03, il est 3x moins performant que le Radeon 9700? Cependant, s'il travaillait en 64 bits au lieu de 128 bits et si ses 8 pipelines étaient activés, son score pourrait quadrupler?


Message édité par Ernestor le 14-02-2003 à 17:33:04

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2218741
Profil sup​primé
Posté le 14-02-2003 à 17:34:54  answer
 

C'est quand même incroyable cette news. Nvidia se fout vraiment de la gueule du monde.

n°2218757
_Magneto_
Posté le 14-02-2003 à 17:39:39  profilanswer
 

voila le résultat d'avoir voulu travailler avec les ingénieurs de 3dfx: un truc tous boiteux qui va finir aux oubliettes (voodoo4 story)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
-=- HELP -=- Petit problème avec ma Geforce 4 TI4600 Ultra TD MyVivoGeforce 4 TI 4800 plus puissant qu'une TI 4600 ?
PB avec MSI KT4 Ultra SR et DDs MaxtorDifférences entre la KT4 Ultra et la Ultra SR?
MSI GeForce 4 Ti-4200 très très chaude, normal ?Fonction Vivo des GeForce
Geforce 2MX400[Topic Unique] 3DMark 2003 !!
compatibilité r9700pro et kt4 ultra?????? 
Plus de sujets relatifs à : [Topic Unique] GeForce FX (NV30) GeForce FX Ultra Annulé ?


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)