Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3554 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  16  17  18  ..  20  21  22  23  24  25
Auteur Sujet :

[Topic Unique] NV30 "Omen?" [Spécifications Inside]

n°1736712
Oxygen3
Tears from the moon
Posté le 21-08-2002 à 19:17:01  profilanswer
 

Reprise du message précédent :
aperture size ?


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
mood
Publicité
Posté le 21-08-2002 à 19:17:01  profilanswer
 

n°1736722
melchizede​k
Posté le 21-08-2002 à 19:20:00  profilanswer
 

Marc a écrit a écrit :

melchizedek > En fait c'est bizarre mais sur ce test les GeForce semblent limitées par la vitesse AGP et pas les Radeon : si tu passe de 4x a 2x ca baisse pas mal sur GeForce, quasi pas sur Radeon. Si tu o/c l'AGP ca augmente sur GeForce, pas sur Radeon.




Arf ça chie alors dans leur code
vu le nombre de vertices (je pense qu'ils sont de poids assez faible) ça ne devrait pas etre limité par l'AGP
 
J'obtiens les memes perfs entre AGP1X et AGP4X dans mon code
 
Avant d'optimiser mon code, l'AGP etait un facteur tres limitant, il m'aurait fallu au moins un 8X pour egaler les perfs que j'ai actuellement


Message édité par melchizedek le 21-08-2002 à 19:21:14
n°1738000
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-08-2002 à 02:17:51  profilanswer
 

Oui mais pourquoi ca ne le fait pas sur ATI? C'est ca que je ne comprends pas :D

n°1738121
Oxygen3
Tears from the moon
Posté le 22-08-2002 à 06:47:15  profilanswer
 

pb de drivers?
 
putain c vrai que c zarb quand mm


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1738126
CedRacer
Posté le 22-08-2002 à 07:26:24  profilanswer
 

Juju_Zero a écrit a écrit :

 
 
ou un truc dans ce style, apparemment, oui [:rosebud]




Heuu, petit détail, il n'existe pas de carte mère à 2 port agp, donc ce serais inutile de gaspiller une carte en pci de ce genre.


---------------
Asus A7V266-C
n°1738139
melchizede​k
Posté le 22-08-2002 à 08:02:44  profilanswer
 

Marc a écrit a écrit :

Oui mais pourquoi ca ne le fait pas sur ATI? C'est ca que je ne comprends pas :D




Tu parles du passage radeon 8500 à 9700 ? (on a une augmentation proportionnelle au perfs theorique?)
 
ça serait de l'OpenGL ça aurait pu etre a cause de la façon dont ils stocke les vertices pour les cartes nvidia et ATI qui est differente, mais vu que c'est du DirectX c'est standard donc je vois pas non plus où ça peut deconner

n°1738160
Oxygen3
Tears from the moon
Posté le 22-08-2002 à 08:41:22  profilanswer
 

melchizedek a écrit a écrit :

 
Tu parles du passage radeon 8500 à 9700 ? (on a une augmentation proportionnelle au perfs theorique?)
 
ça serait de l'OpenGL ça aurait pu etre a cause de la façon dont ils stocke les vertices pour les cartes nvidia et ATI qui est differente, mais vu que c'est du DirectX c'est standard donc je vois pas non plus où ça peut deconner




non que sur les ATI, il n'y a aucun gain en perfs entre AGP 2x, 4x et 8x
au contraire de nvidia


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1738184
kizkoool
Posté le 22-08-2002 à 09:08:23  profilanswer
 

OxYGeN3 a écrit a écrit :

 
non que sur les ATI, il n'y a aucun gain en perfs entre AGP 2x, 4x et 8x
au contraire de nvidia




Peut être que c'est les drivers d'ATI qui chient dans la colle et qui n'arrivent pas à gérer correctement l'AGP 4x et 8x !?
 [:trompette1]

n°1738187
Oxygen3
Tears from the moon
Posté le 22-08-2002 à 09:09:39  profilanswer
 

kizkoool a écrit a écrit :

 
Peut être que c'est les drivers d'ATI qui chient dans la colle et qui n'arrivent pas à gérer correctement l'AGP 4x et 8x !?
 [:trompette1]  




b'en faut espérer, mais pourquoi alors depuis le temps, c pas réglé quand mm ...


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1755288
mareek
Et de 3 \o/
Posté le 27-08-2002 à 22:09:22  profilanswer
 

don't give [:tomilou]
'cause you have friends
don't give [:tomilou]
you're not the only one
don't give [:tomilou]
no reason to be ashamed
don't give [:tomilou]
you still have us
don't give [:tomilou] now
we're proud of who you are
don't give [:tomilou]
you know it's never been easy
don't give [:tomilou]
'cause I believe there's the a place
there's a place where we belong


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
mood
Publicité
Posté le 27-08-2002 à 22:09:22  profilanswer
 

n°1771007
mareek
Et de 3 \o/
Posté le 01-09-2002 à 23:07:55  profilanswer
 

[:tomilou]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1771860
MikyMike
tjrs rien a dire
Posté le 02-09-2002 à 10:49:12  profilanswer
 

A propos du NV30...
 
Bon deja je me présente ch'ui nouveau ici... Je bosse dans une boite qui fait du parallélisme ss nux, en tant qu'homme a tt faire (système, réseau, sécu, blah blah)... Ch'ui autodidacte en info, g fait des études de Math (hé oui) et je suis attentivement l'évolution de la 3dez RT depuis ses débuts. Bon voila... a part ca voir ce formulaire machin k'il faut remplir pour s'inscrire a c'te board.
 
Bon allons y. Comme ch'ui nouveau je préviens c technique et théorique, mais
 
toi Ô lecteur attentif et averti
Donne moi donc un avis contruit
Afin que nous puissions déjouer
Pour le bien de nos petits budgets
les plans des deux grands maudits
Nvidia et son pote ATI
 
Reuuum Reuuum, un peu de sérieux maintenant. !
 
A mon humble avis, je ne pense pas ke ce nouveau chipset doit être pris a la lègère. Plusieurs indices sont a prendre en considération :
 
Premièrement, l'archi virgule flotante du début a la fin. C'est nouveau, ca en a surpris plus d'un, et c'est ce dont revaient beaucoup de John Caramak en herbe.
Deuxièmement, l'introduction du Cg, ki, au risque de paraitre un "Glide come back" peut aussi devenir un standard pour les puces 3dez programmables dans le genre du NV30 ki risquent de se reproduire comme des TNT & ses clônes de l'époque.
Troisièmement, on est a l'evidence en présence d'un core pratiquement tt neuf. Vous allez me dire "c plutot mauvais signe y va y avoir des bugs de partout", moi je vais plutot me pencher sur l'histoire de Nvidia et je me demande bien quelle est la surprise k'ils nous reservent ? C'est presque devenu une habitude, et n'oubliez pas les aquisistions de NVidia (3Dfx core assets -> gigapixel), et les rumeurs ki circulent...
Et pour finir, la confiance que nvidia a en son produit : Malgré le relatif retard sur son concurrent préféré, aucune démonstration publique, a peine quelques screenshots, un whitepaper tt pourri avec deux trois chiffres pour faire rever, et un nouveau drivers pour enfoncer le clou avec une plume... Mais aucune urgence, malgré la merde boursière de ces derniers mois. Moi je trouve ca chelou a mort, surtout que ce genre de holding a souvent tendance a l'ouvrir plus grand et plus fort à chaque introduction d'un produit nouveau (vraiment nouveau hein, pas un truc dit "nouveau" a grand renfort de couleurs, comme une lessive, tt ca pour pouvoir la vendre) afin de rassurer ses concommateurs et actionnaires (rappelez vous du débat "T&L or no T&L" de l'époque alors qu'aujourd'hui tt le monde sais qu'un GPU sans T&L c la loose).
 
 
Je pense que Nvidia est en train de nous pondre une nouveau GPU, d'un design totalement nouveau, marquant une rupture avec l'ancienne génération. Je ne sais pas a quel point, mais n'oubliez jamais que tout ce qu'il faut pour faire de la 3Dez, que ca soit du ray-tracing, du polygonal ou des rendus avancés style radiosité, c une putain de force brute en algèbre linèaire et une bande passante mémoire de sa mère. Une p'tite mirriade de processeurs SIMD autour d'un gros crossbar-chef-d'orchestre, ca pourrait bien faires des etincelles. Regardez un peu les intructions disponibles sur le NV30 (ie whitepaper que j'ai la flemme de chercher l'url regardez sur le site de nvidia) et dites moi ce que vous en pensez :o)
 
Bon je sais j'en rajoute un peu... Mais bon c'est l'orientation inévitable que devrons prendre les GPU si ceux ki sont capapbles maintenant de faire Myst en RT veulent un jour faire du FF en RT Ch'ui certainement pas le premier à l'avoir remarqué, et les ingénieurs-demons de chez Nvidia nous préparent sans doute des tas de transistors bien plus démoniaques encore.
 


---------------

n°1772244
Thot
Posté le 02-09-2002 à 12:53:00  profilanswer
 

Quelques remarques :
 
- L'architecture en virgule flottante est aussi présente sur la radeon 9700. Donc une révolution un chouia en retard de ce coté là pour Nvidia
 
-Le problème du CG. Quel langage de haut niveau va-t-il devenir standard ? Le CG, celui de Microsoft ( intégré à DX, semblable à Cg) ou celui d' OpenGL 2.0 ? Je ne parle pas du Rendermonkey d'ATi... Pour ma part je preferre celui d' OpenGL 2.0 car c'est un standard qui sera "ouvert" et dont l'évolution ne dépendra pas de nvidia.
 
-Pour la "confiance" de nvidia. Il ne faut pas oublier que le premier tapeout du nv30 reste assez récent. Donc pour donner des chiffres c'est plutôt difficile. Des drivers améliorés pour tenter de spolier la sortie du 9700. Quelques whitepapers sortis par ci par la pour la meme raison. Au sujet de la nouvelle architecture, il est peu probable que le deffered rendering (Gigapixel/PowerVR) apparaisse dans le nv30 étant donné les anciennes déclarations de nvidia à ce sujet ( ie : on en a pas besoin )
 
Je vois les choses sous un autre angle que le tien. Pour moi les différences entre le nv30 et le r300 seront mineures et sans conséquences dans les jeux de ces prochaines années. Le nv30 sera certainement plus puissant mais je doute fortement qu'il ait des fonctionnalités bien plus avancées que le r300. Et si cela etait le cas, combien de temps faudra-t-il attendre avant de voir ces specificités exposées dans un jeu? Le plus grand probème du nv30 c'est que le r300 est sorti avant.  
 
Enfin, je pourrais citer Carmack qui juge que nvidia a pris du retard à cause de la xbox ( Dans un de ses .plan). Cela se verifie d'ailleurs avec la sortie annoncée du nv30 en Decembre. Pourquoi le CEO de nvidia avait il tant de mal à admettre que le tapeout du nv30 n avait pas été fait en Aout ?!?
 

n°1773395
MikyMike
tjrs rien a dire
Posté le 02-09-2002 à 17:37:25  profilanswer
 

Bonjour, merci pour un réponse aussi bossée, pour un premier post de ma part ca fait plaisir
 
Pour le Floating point Pipe d'ATI, Mea culpa, je viens de le verifier et ca ne m'avais pas choqué tu a bien raison.
 
Je suis en avatar du monde du libre (même si je suis pas vraiment un developpeur), pas la peine de me venter les mérites de l'opengl. La question du Cg n'est pas une préférence, mais une question de "pkoi maintenant ?".  
 
Bon Pour resituer le débat, je ne veux pas partir dans une guéguerre NVfan VS ATIfan, ca me gonfle, ca me rappelle la guégerre Amgia/Atari. :non: Laissons a chacun leur points forts et leurs points faibles. ATI le professionnel de son materiel et des drivers pourris, NVidia pour l'inovation mais des premières versions bricolées (pi laissons leur un avantage au niveau des drivers quand même faut pas déconner ca se voit)... Enfin bref... La n'est pas le problème  
 
Comme tu dis le R300 est deja sorti, donc ne me reserve plus de surprises. De mon coté j'attend un chip vraiment programmable. Un truc un peu revolutionnaire et d'usage plus général. Tous mes espoir s'en vont donc au NV30... La patience dont fait preuve Nvidia pour la sortie de son produit est quand même louche, d'autant plus que leurs lignes de prod semblent prètes. Leur patience est d'autant plus Chelou que noel approche, et manquer un Noel ca craint grave pour une boite comme la leur (en plus ils ont au moins un gros boulet ki demande qu'une chose c'est k'ils arrètent de gigotter pour pouvoir le bouffer tranquille). :gun:  
 
Le but de mon post est de se poser la question si oui on non on verra un jour un peu de finesse dans ce monde de brutes k'est le rendu RT... pour l'instant c du bourrin et non evolutif ki règne. Que ca soit ATI ou NVidia, ils baisent en profondeur le consommateur en produisant des puces certes brutales mais dont le developpement a long terme ne se fera que par le remplacement total de la CG... (c des malins), concervant tranquillement la magie de leur matos dans le code obscur et compilé de leur drivers.
Pourtant, pour faire du rendu, il faut beaucoup de puissance, mais pas vraiment beaucoup de operations différentes. C'est preske tjrs de l'algèbre linéaire bourrin, ou tt ce ki compte c d'avoir du flop. De plus c'est parallélisable-sa-mère... Alors allez savoir, il y a p'tet une bonne raison, mais a 100 Millions de transistors me prennez pas pour un âne, y a p'tet moyen d'y songer
 
Je nourris juste l'espoir que Nvidia nous ponde un truc souple, avec lequel on puisse faire du rendu dx9, mais aussi du rendu " a la carte" ou peut etre même du calcul scientifique. On peut tjrs rever  :sleep:


---------------

n°1773747
Thot
Posté le 02-09-2002 à 19:01:24  profilanswer
 

Nvidia a fait un conférence y a pas trés longtemps sur les autres applications ( ie : pas de la 3D ) des futures cartes graphiques. Faudrait retrouver l'info sur internet.
 

n°1773965
yannick_fr​ere
Posté le 02-09-2002 à 20:32:26  profilanswer
 

Personnellement MikyMike, je pense que tu en attends trop de Nvidia ...
 
Tu aimerais qu'il lance un chip qui révolutionne la manière de traiter la 3D (avec le Ray T par exemple, c'est ça ?), ce qui permettrait d'amener les rendus à des niveaux supérieurs ...
 
A mon avis, ça n'arrivera pas car ça risque (je peux me tromper ;o) de rendre de nombreaux logiciels incompatibles avec la carte graphique ... Or ce sont des cartes de joueurs ! Si le jeux ne tournent pas avec une NV30, ou s'il faut des jeux spécialement programmés pour, ça ne marchera jamais !
 
Le Ray T sera intégré dans les cartes graphiques un jour ou l'autre, ça c'est certain ! Mais je ne pense pas que ça se fera d'un coup ... Ce sera lent : un ajout d'une fonction par ici, une autre par là etc, un peu comme le T&L (1° génération, 2°), les Pixel Shaders, etc ...
 
Tout changer d'un coup, c'est s'exposer à de nombreuses incompatibilités ...
Evidemment, s'il existe un moyen de faire un rendu d'un jeu style Quake 3 avec une puce qui crache du RT, alors évidemment, NVidia pourrait projeter de faire ce que tu imagines ... Si ce n'est pas possible, alors je doute qu'ils le fassent ...


---------------
Lunetto-believer !
n°1773994
mrbebert
Posté le 02-09-2002 à 20:42:41  profilanswer
 

MikyMike a écrit a écrit :

...
Comme tu dis le R300 est deja sorti, donc ne me reserve plus de surprises. De mon coté j'attend un chip vraiment programmable. Un truc un peu revolutionnaire et d'usage plus général. Tous mes espoir s'en vont donc au NV30... La patience dont fait preuve Nvidia pour la sortie de son produit est quand même louche, d'autant plus que leurs lignes de prod semblent prètes. Leur patience est d'autant plus Chelou que noel approche, et manquer un Noel ca craint grave pour une boite comme la leur (en plus ils ont au moins un gros boulet ki demande qu'une chose c'est k'ils arrètent de gigotter pour pouvoir le bouffer tranquille). :gun:  
...


Un peu comme le P10 de 3DLabs :??:

n°1774866
Titprem
Posté le 03-09-2002 à 01:50:47  profilanswer
 

[:drapo]


---------------
Pas de signature.
n°1775158
MikyMike
tjrs rien a dire
Posté le 03-09-2002 à 09:34:07  profilanswer
 

J'ai tjrs dis que je revais un peu  :pt1cable:  
 
Je ne veux rien j'espère juste qu'un jour enfin on arretera de gaspiller des transistors !!! 100M ca en fait un paquet bordel... ch'ui po en pro en portes logiques mais ca doit en faire un paquet de + et de * par cycle ! Arretons de dedier tt ca à une API pourrie de multinationnale de mégalomanes angoissés dirigés par un frustré de la queue comme Billou !! Bordel !!!
 
Une archi généraliste ne pose aucun problème de compatibilité il les contourne, faut juste des bon drivers. (cf Transmeta et ses Crusoe) Le problème se situe ailleur : Les perfs sont moins bonnes (pas dans un facteur 10 mais moins bonnes) parce que comme chacun sait : gratter du cablé en soft c hard (haha !) Et ce genre de pilule c difficile a faire passer surtour dans ce marché... (encore lui, ce PD est partout dans le monde d'aujourd'hui)
 
Ce que j'espère voir un jour c un "Crusoe de la 3dez"... Cela dit vous avez certainement raison, c'est pas les requins de NVidia qui vont nous pondre un truc comme ca ca serait trop bô.
Mais j'espère un peu de nouveauté dans le NV30, et mon petit doigt me dit (même s'il peu se tromper) qu'une surprise nous attend... Franchement du retard non excusé par des courbettes velues de "Press realeases" et de "Change the world", je le redit encore une fois, je trouve ca louche. Ou alors revendez vos actions NVidia, ils ont perdu ce qui fesait d'eux une boite pas comme les autres : Leur dynamisme rorqualo-capitalisto-technomencien !!!


---------------

n°1775163
latoucheF7​duclavier
Posté le 03-09-2002 à 09:35:29  profilanswer
 

ben moi je voudrais surtout qu'elle ait de meilleures perfs que la radeon (trois mois après  :sarcastic: )...
 
 
 
 
J'ai pas envie de tenter ati...

n°1775179
MikyMike
tjrs rien a dire
Posté le 03-09-2002 à 09:39:37  profilanswer
 

Ha !!! et pi RT c t Real Time
Pas ray Tracing
(Cela dit c interessant mais le ray tracing c'est un peu la physique quantique dans le monde du rendu :o)
 
Mille excuses pour mon abus d'acronymes pourris


---------------

n°1777689
mareek
Et de 3 \o/
Posté le 03-09-2002 à 21:16:32  profilanswer
 

MikyMike a écrit a écrit :

 


en gros tu veux Un CPU bis sur les cartes graphiques, c'est ça ?
 
aucun intéret


Message édité par mareek le 03-09-2002 à 21:16:46

---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1778269
blazkowicz
Posté le 03-09-2002 à 23:10:07  profilanswer
 

>> mike : un "crusoe de la 3D" : :vomi: :hello:  
avec du code morphing c ça? :vomi:
un CPU bis comme dit mareek? très peu pour moi merci.
 
le nombre de transistors des GPU enfle constamment, mais c pas pour rien. Les calculs graphiques sont très parallélisables, d'où l'augmentation de performance en multipliant les pipelines et par là les transistors.
C'est peut-être inélégant pour toi mais c comme ça. Si tu veux pas trop de transistor paye-toi une voodoo1 :p ou fais-en fabriquer une en 0.13µ avec mémoire DDR, occlusion culling, fast Z clear et tout le bordel  :pt1cable:  
 
à mon avis ça vaudra pas une GF2.
 
 
Plus sérieusement, l'approche de Trident, le "pipeline sharing", est intéressante : les pipelines se partagent la circuiterie.
On a un 1er pipeline de, disons 15 millions de transistors : le deuxième fait 7.5 millions, le troisième deux fois moins, le quatrième encore deux fois moins. Ca leur a permis de créer un équivalent des GF3 et 4 en 30 millions de transistors.
 
n'empêche que moi j'en veux plein de transistors. Ca serait cool un trident XP4 avec huit pipelines (2x4) :D

n°1778327
mikestewar​t
Air Roll Spinnin'
Posté le 03-09-2002 à 23:25:34  profilanswer
 

latoucheF7duclavier a écrit a écrit :

ben moi je voudrais surtout qu'elle ait de meilleures perfs que la radeon (trois mois après  :sarcastic: )...
 
J'ai pas envie de tenter ati...




 
Pourquoi pas ? :sarcastic: :p
 
mikymike > Je crois que le NV30 ne sera pas aussi révolutionnaire que tu l'aimerais...tout simplement parce que le but de Nvidia (et d'ATI d'ailleurs) c'est pas d'innover mais de vendre son produit. Alors ils vont faire rêver les gamers avec des fonctions au nom très technique mais inutiles ou inutilisées avant plusieurs années...La R8500 est un bel exemple : à quoi servent vraiment le Truform et le support de DX8.1 aujourd'hui ? Ben à rien (enfin il parait que le truform tout le monde s'en fout :) ). A mon avis le NV30 sera au R300 ce que la R8500 fut à la GF3, des fonctions en plus mais qui au final n'apporteront pas grand chose. Et bien sûr les perfs en plus... :)


Message édité par mikestewart le 03-09-2002 à 23:38:52
n°1778352
Oxygen3
Tears from the moon
Posté le 03-09-2002 à 23:31:55  profilanswer
 

[:drapo] joooce j'en veux plus :/


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1778368
mareek
Et de 3 \o/
Posté le 03-09-2002 à 23:36:40  profilanswer
 

Oxygen3 a écrit a écrit :

[:drapo] joooce j'en veux plus :/


pas besoin de reposter, le seul fait de consulter ce topic le remet dans ta liste des blueflag


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1778413
Oxygen3
Tears from the moon
Posté le 03-09-2002 à 23:54:22  profilanswer
 

mareek a écrit a écrit :

pas besoin de reposter, le seul fait de consulter ce topic le remet dans ta liste des blueflag




c pas fo :)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1778649
blazkowicz
Posté le 04-09-2002 à 02:56:26  profilanswer
 

mikestewart a écrit a écrit :

 
 
Pourquoi pas ? :sarcastic: :p
 
mikymike > Je crois que le NV30 ne sera pas aussi révolutionnaire que tu l'aimerais...tout simplement parce que le but de Nvidia (et d'ATI d'ailleurs) c'est pas d'innover mais de vendre son produit. Alors ils vont faire rêver les gamers avec des fonctions au nom très technique mais inutiles ou inutilisées avant plusieurs années...La R8500 est un bel exemple : à quoi servent vraiment le Truform et le support de DX8.1 aujourd'hui ? Ben à rien (enfin il parait que le truform tout le monde s'en fout :) ). A mon avis le NV30 sera au R300 ce que la R8500 fut à la GF3, des fonctions en plus mais qui au final n'apporteront pas grand chose. Et bien sûr les perfs en plus... :)




 
et nvidia qui dit "We want better pixels, not faster pixels" ou un truc du genre? pis désolé, le NV30 m'a l'air révolutionnaire :p

n°1778927
MikyMike
tjrs rien a dire
Posté le 04-09-2002 à 10:11:00  profilanswer
 

            en gros tu veux Un CPU bis sur les cartes graphiques, c'est ça ?         aucun intéret        <-------- Parfaitement d'accord. Ce que je voulais entendre par la, c'est d'avoir un processeur ki fait de "l'API morphing", avec des fonctions internes bateau ki bourrent et une surcouche "logicielle" ki le rende DX8 compatible, DX9 compatible...
Ca le rendrait plus souple a des utilisations marginales.
Je le répète en core une fois pour ceux ki sont durs de la feuille : Le rendu, c 99% du temps des multiplication et additions de matrices. Le trueform et divers shaders ne sont que des programmes. Le truc c'est que personne a part ATI et NVidia ne sont au courant des instructions et spécifications de leurs puces respectives. C'est un peu comme un gardien des clefs qui ouvre les portes quand on lui demande de passer, mais l'acces direct aux portes nous est impossible.
La difference est la même qu'entre une programmation en assembleur et une programmation basée sur les fonctions du système d'exploitation.
 
Mais un processeur compagnon, grosse burne en séquentiel et brute de décoffrage en parallèle ca serait pas con.
 
Beaucoup d'avis interessants, on devrait ouvrir un post pour parier ;o)
 
Merci pour l'info de trident je savais pas et j'ai bien trippé sur le sujet !!!!!
 
 


---------------

n°1778969
Thot
Posté le 04-09-2002 à 10:27:07  profilanswer
 

Ce que tu veux, 3D labs l'a déjà fait avec leur p10 et ses VPU. Beaucoup de stades du rendering sont entierement programmables. Le probleme de ce chip est que tout n'est pas en virgules flottantes à cause de la gravure en .15 microns.
 
Et les performances qui sont moins élevées.

n°1779037
blazkowicz
Posté le 04-09-2002 à 10:50:29  profilanswer
 

MikyMike a écrit a écrit :

Ce que je voulais entendre par la, c'est d'avoir un processeur ki fait de "l'API morphing", avec des fonctions internes bateau ki bourrent et une surcouche "logicielle" ki le rende DX8 compatible, DX9 compatible...
Ca le rendrait plus souple a des utilisations marginales.




 
Une espèce de compilateur à la volée intégré au GPU [:mlc]?
 
et si on laissait l'"API morphing" à Cg, HLSL et OpenGL 2.0?

n°1782139
MikyMike
tjrs rien a dire
Posté le 05-09-2002 à 09:02:18  profilanswer
 

Le P10 c une bouze infâme, une operation marketing de merde sur un core dépassé avant l'heure. Tt ce k'ils ont trouvés a faire pour le ratrapper c'est donner le max d'infos sur son fonctionnement interne et voila ce que ca donne (mais bon n'empèche respect c une bonne idée) Aucune révolution sur ce truc si ce n'est une ouverture digne d'une moule en plein desert ki a fait le paris-dakkar...
 
Pi faire de "l'API morphing" avec des API (ie Cg & opengleu) c un peu naze dans le concept... Justement le truc ca serait de passer a coté de ces langages evolués de 4ième génération, avoir un assembleur pour GPU (ou VPU ou TPU ou DTC comme vous voulez l'appeler) et enfin pouvoir profiter d'un si bo matos pour faire des trucs un peu perso. Parce que ce qu'on vous vend en ce moment mes chers c'est certainement ce dont je vous parle, mais c'est rendu top secret et inexploitable par la necessité de ce qui vous tiens tant a coeur : Votre API préférée (peske vous lui en avez consacré des heures) et votre constructeur préféré (peske vous luien avez consacré de la thune). Faut pas croire qu'un NV25 ca comprend le DX8 natif... Il est pas plus malin que vous... Y a tt ce qui faut pour en faire et basta. Moi c'est un peu de "tt ce qui faut" dont l'acces me plairait bien... Mais bon pensez en ce que vous voulez apres tt moi je m'en balance.
 
Il faudrait se pencher sur la question une bonne fois, et faire un truc OUVERT, EVOLUTIF & BIEN et arreter d'enfermer ses puces dans une API de merde son le pretexe du secret industriel et de la protection a la concurrence ("de merde" mais on me dit de rester poli). J'ai l'impression que j'ai beaucoup de mal a faire passer ce message, p'tet a cause d'un formatage médiatique intense sur les thèmes du gigapixel, du FPS et autre polygone/secs, indices de consommabilité chers aux grands requins tels qu'ATI et NVIDIA
 
Si je parlais du NV30, c'est que p'tet les 300 ingénieurs de Nvidia ils l'on p'tet vu aussi, et que c'est par eux que ca va commencer a venir... Le bon sens ca fini tjrs par faire ecole.


---------------

n°1782316
Thot
Posté le 05-09-2002 à 10:47:33  profilanswer
 

Le p10 une grosse bouze  ? Hum, on va pas s'entendre. Exemple, le virtual texturing, technologie que seul 3dlabs implémente. Réclamée depuis des années par Carmack (Quake,Doom)et Sweeney(Unreal), indispensable au futur du "windows 3D" que microsoft nous prépare. On peut programmer tout et n'importe quoi avec le 3Dlabs. L' anisotropic filtering ne te plait pas ? Crée toi meme le mikymic filtering avec tes propres algos. Le FSAA te plait pas? T'as qu'à programmer le stochastic edge anti-aliasing. Ce qui manque au p10, c'est juste le .13 microns et de la puissance.
 
Faut arreter ton délire avec les API. Elles sont pas la pour cacher mais pour exposer les capacités des cartes. De l' assembleur pour GPU serait faire un immense pas en arrière. Passer sa nuit pour afficher une texture sur un cube non merci. Il faut passer par les langages de haut-niveau, c'est une nécessité. Evidemment, comme les spécifications des DX fluctuent au cours du temps, il arrive que certaines fonctions de certaines cartes ne soient pas completement implementées. Mais DX a le mérite d'imposer un standard. Merci, l' époque est finie ou il fallait un exécutable différent pour chaque carte 3D ( Exemple Forsaken ) car c'est la conséquence directe de ce que tu souhaites.
Franchement, es tu développeur ? Car balancer des billes comme " C'est rendu top secret et inexploitable par la necessité de ce qui vous tiens tant a coeur : Votre API préférée " c'est n'importe quoi. Va demander aux développeurs ce qu'ils en pensent de DX et de son "inexploitabilité". Evidemment les jeux DX8 sortent au compte-goutte, mais c'est pas le même problème.  
 
Tu parles de formatage médiatique et après tu bénis nvidia pour son nv30. Dis toi bien qu' à chaque nouvelle génération, ils ont annoncés la révolution (amen). Moi je pense surtout que c'est pour rassurer leurs actionnaires car d'ici decembre,ils ont rien pour contrer le radeon 9700. Le haut-de-gamme fait peu de ventes mais assure une trés bonne image de marque.
 
Si tu t'imagines que Nvidia (ou ATI) va te donner les schémas détaillés de ses GPU, tu prends tes rêves pour des réalités. Le CG en est le parfait exemple. En programmant avec ce langage  de haut-niveau, tu mets une couche d'abstraction entre toi et la carte 3D. Dans un futur proche il n'est pas improbable que les constructeurs 3D ne nous donnent meme plus le nombre de pipelines de leurs chips 3D puisqu' au final c'est transparent pour l'utilisateur. Le compilateur Cg étant fait en interne.


Message édité par Thot le 05-09-2002 à 10:48:16
n°1783273
MikyMike
tjrs rien a dire
Posté le 05-09-2002 à 16:34:17  profilanswer
 

Thot, il n'y a aucune attaque personnelle dans mes post. Juste un essai d'ouverture et de reflexion. Je n'ai pas d'autre ambition et je l'ai bien précisé depuis le début. Pardonne ma rudesse avec le P10.
 
Un programme par Matos y en a tjrs un... Dans les OS evolués ca s'appelle un "driver"
 
L'ouverture de l'architechture n'empècherait aucunement le developpement et l'utilisation de DX et d'openGleu et d'autres bonnes idées pourraient alors voir le jour. les languages de haut niveau sont un necessité, mais la fermeture totale au developpement de bas niveau est une ABERRATION. bien cachée mais bien la. A toi de choisir a kel nivo tu interviendra.
 
"
C'est rendu top secret et inexploitable par la necessité de ce qui vous tiens tant a coeur : Votre API préférée
"
 
Ecoute un peu quand je parle : c le coeur du materiel qui est rendu muet par DX. DX est une bonne couche ki passe bien, la preuve, même moi j'arrive a m'en servir. Ne prend pas mes posts pour une attaque personnelle. Si t'as des Actions MS ki se cassent la gueule stress pas, vend tt et part en voyage...
 
"
Si tu t'imagines que Nvidia (ou ATI) va te donner les schémas détaillés de ses GPU, tu prends tes rêves pour des réalités.
"
 
N'empèche que ca serait certainement la meilleure idée pour avancer dans le domaine, avoir des vrais drivers ss les OS alternatifs, avoir une vraie idée de la valeur du materiel, permette l'inovation, se détacher des holding ki drainent le marché et les bonnes idées... Pi apres tt on a bien tous les details sur le fonctionnement interne des Microprosseurs... Alors pkoi pas des cartes 3dez ? Apres tt ? C'est p'tet un peu une idée revoltionnaire mais bon, c pas forcement mauvais.
Si tu me reproche d'être un peu un coco de la 3dez, alors d'accord. Si tu accepte la tendance genrale du marché ki est de te vendre un truc que tu ne maitrise pas, dont tu ne connais rien et sur lequel tu ne peux pas intervenir (donc en fait c pas a toi en kksorte), alors tant pi pour toi. Achète toi une caisse truffé d'electronique et fait toi enculer avec la liasse de billets k'ils te faudra donner pour qu'un valet ss NDA pousse sur le 37ième bouton a chaque panne afin de la réparer, Achete un GPU ss exploité ki sera boosté au besoin pour des raisons obscures (ca te dit rien ? apres ca : cacher ou exposer ? huummm ?), un sytème d'exploitation truffé de backdoors au cas ou tu serais un terroriste... OK c ton choix
 
NVidia et ATI c des trous de balles de requins de merde. Je confirme. Mais les gens malins moi ca me force le respect... Alors respect.
 
Mais ne dit pas que rendre un truc libre c rétrograde
La c'est pas possible
Tu t'épuisera en mauvaise foi avant d'avoir réussi a convaincre la moindre personne lucide.
 
 


---------------

n°1783278
Zeross
Posté le 05-09-2002 à 16:37:07  profilanswer
 

Thot a écrit a écrit :

Dans un futur proche il n'est pas improbable que les constructeurs 3D ne nous donnent meme plus le nombre de pipelines de leurs chips 3D puisqu' au final c'est transparent pour l'utilisateur.



 
Bah c'est déjà transparent (pour les pixels pipelines) mais ça fait bien d'avoir un chiffre plus gros que le concurrent ;)
 
Je suis entièrement d'accord avec le reste de ton post, Les cartes ne comprennent pas le DirectX natif mais c'est vraiment tout comme vu que MS suit au plus près les évolutions des différents hardware. Et aller bidouiller les registres à la main non merci : si on se dirige vers les HLSL c'est pas pour rien on a bien vu que personne n'avait le temps ni l'argent de pondre des shaders en pseudo assembleur (pseudo car DirectX passe encore par là pour avoir une compatibilité ascendante : les PS1.4 supportent les versions infèrieures, ce que tu prônes est encore plus extrêmiste !). Suppose qu'nvidia dévoile le fonctionnement exact de ses combiners tu pourrais faire un shader mais sans la couche d'abstraction offerte par DirectX il ne tournerait pas sur la Radeon 8500 par exemple alors qu'elle dispose de tout pour le supporter mais avec une implémentation différente. C'est ça que tu voudrais mike ? Ce serait un gros pas en arrière comme quelqu'un l'a déjà dit, les processeurs sont passé de l'assembleur au langage haut niveau pourquoi pas les GPU (ou VPU comme vous préférez ;)). Par contre offrir encore plus de contrôle sur le pipeline graphique à certains endroits ça ce serait une bonne chose mais encore une fois sous couvert d'une API exposant ces fonctionnalités.


Message édité par Zeross le 06-09-2002 à 10:13:08

---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°1783342
MikyMike
tjrs rien a dire
Posté le 05-09-2002 à 17:08:10  profilanswer
 

Et juste comme ca  
 
Oui je suis un chieur ! le Roi parait-il :o)
 
Fuck ze grosses boites de merde ki nous biasent a sec et au gros sel


---------------

n°1784052
mareek
Et de 3 \o/
Posté le 05-09-2002 à 20:32:25  profilanswer
 

MikyMike a écrit a écrit :

Et juste comme ca  
 
Oui je suis un chieur ! le Roi parait-il :o)
 
Fuck ze grosses boites de merde ki nous biasent a sec et au gros sel


bof, pas top ton troll [:spamafote]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1798415
mareek
Et de 3 \o/
Posté le 11-09-2002 à 00:45:53  profilanswer
 

Il est mort ce Topic ou quoi ?  :heink:  
bon, je poste quand même cette news:
http://www.hardware.fr/news/lire/10-09-2002/#5129
 

Citation :


Le NV30 au Comdex ?  Posté le 10/09/2002 à 10:22 par Marc  
     
 
 La rumeur d'une annonce du NV30 au Comdex, qui aura lieu du 18 au 22 Novembre à Las Vegas, se fait de plus en plus importante. Est elle justifiée ? Selon les informations en notre possession, que nous ne pouvons pas vous communiquer du fait d'une clause de confidentialité, l'annonce est toujours prévue pour une date antérieure ... mais rien n'empêche que cette date soit modifiée dans un futur proche !
 
Avec une annonce fin Novembre, on pourrait douter de la disponibilité du NV30 en magasin avant la fin de l'année : pour rappel, le délai séparant l'annonce et la disponibilité des GeForce4 Ti était d'un mois, et celui pour les GeForce3 était de deux mois et demi.


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°1889661
pastor
٩(•̪̀●́)۶ ٩(●̮̮̃•̃)۶ ٩͡๏̯͡๏)۶
Posté le 18-10-2002 à 13:05:16  profilanswer
 

http://www.theinquirer.net/?article=5833
 
inquirer speaking  kiyo tsukete

n°1890511
evildeus
Posté le 18-10-2002 à 17:58:11  profilanswer
 

pastor a écrit a écrit :

http://www.theinquirer.net/?article=5833
 
inquirer speaking  kiyo tsukete  



Ca c'est un bump :D
:bounce:
 
Tiens pour la forme :)

Citation :

The NV30 graphics processor has 8 rendering pipelines with 2 TMUs per each, supports beyond DirectX 9.0 features and represents the brand-new VPU architecture from the most successful graphics chips developer so far. Besides, the graphics boards based on the newcomer will feature AGP 8x and 256-bit memory bus. There will be two videoadapters providing different performance, powered by the NV30 VPU, additionally, Nvidia will also issue two graphics cards for professional use. As for the clock-speeds of the up and coming products, the company will offer 325-400MHz range for the VPU and probably something between 700 and 800MHz for the memory.  
 
The prices of the actual boards are to be determined, though, I personally believe they will not be higher than $399.


http://www.reactorcritical.com/#l1244

n°1905264
evildeus
Posté le 24-10-2002 à 11:06:18  profilanswer
 
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  16  17  18  ..  20  21  22  23  24  25

Aller à :
 

Sujets relatifs
Asus A7V 1.01 et morgan 1.2, ca passe ou pas ? [UPD: answer inside]bleme carte mere [photo inside]
Module infrarouge identification [photo inside]Montage en live : besoin de conseils (photos inside)
HEEEELLPPPP !!!!!!!!! Disque dur insidevs connaissez le minolta dimage X (APN inside)?
petit défis inside[intel et amd inside] 2 ptites question sur les nouveaux proco
Que Faire de ces Vieilleries? (Photos Inside) kels fonctions? Nostalgydifferencier la ddr (photo inside)
Plus de sujets relatifs à : [Topic Unique] NV30 "Omen?" [Spécifications Inside]


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)