Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
922 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Page Suivante
Auteur Sujet :

5900 Ultra ou 9800 Pro 256 pour Half-Life 2 ?

n°2767330
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 11:55:32  profilanswer
 

Reprise du message précédent :
Y'z pas à dire, il a attentin un sacré degrés d'évolution dans la connerie :p
 
Kicéki lui explique que déjà DX9 ne requière pas 32 bits mais 24 bits ? :D
 
Kicéki lui explique la vie ?
 
on aurait plus de chances à transformer mon cheval en crack de la programmation que ce nain intellectuel en mozart de la 3D... [:xp1700]
 
Il le fait exprés, spa possible autrement, hein, rassurez moi....


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
mood
Publicité
Posté le 11-10-2003 à 11:55:32  profilanswer
 

n°2767358
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 12:03:34  profilanswer
 


 
J'ai failli jouer les redresseurs de tords, mais :
 
Oui oui mon canard, je le dirai à mon cheval :D


Message édité par MagiSim le 11-10-2003 à 12:09:55

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767361
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 12:06:15  profilanswer
 

legreg a écrit :

Heink ??
 
LeGreg


C'est le résultat d'un important lavage de cerveau lancé sur la planète y'a à peu près un an avec une campagne publicitaire pleine de vidéos flash, descreensavers et cie  :p


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767404
blazkowicz
Posté le 11-10-2003 à 12:48:24  profilanswer
 

et le son 24bits/96khz c'est nul parce que c'est pas une puissance de deux?? :o
 
de tte façon c bien beau de dire que 32bits c'est mieux que 24bits, mais comme la FX tourne en 16bits de toute façon :o
(ok, ya un shader 32bits pour les yeux de dawn)

n°2767411
sealbirman
Rhhha ha hahaha...
Posté le 11-10-2003 à 13:12:19  profilanswer
 

nicolas_b a écrit
 
blabla....
 
C'est entre autre pour ça, et à cause de l'exigeance des utilisateurs envers les jeux dx9, qu'Ati a eu des grosses sueurs froides. Tout le monde voyait le dx9 à la porte avec les radeons, alors qu'il était bien loin.
 
1. bof. Pure spéculation. Tes sources ?
 
Ati en voyant ça, s'est rapprochés de Valve, createur du plus gros jeu de l'année directx9. Il aurait été plus bénéfique pour Ati que ça soit des jeux du style: tomberaider, etc qui sortent en premier car ils utilisent très peu les shaders 2, et ça aurait justifié au bout d'1 ans, que l'archi etant vieillissante, il faudrait donc passer maintenant en full 32 bits pour faire peter les shaders 2.
 
2. N'importe quoi. Tes sources STP ?. Ca vaut que dalle sinon
 
Mais la, ils etaient mal, le deuxieme jeu dx9 qui sort, c'est THE monstre qui va tapper directement dans les ressources de la carte graphique avec des shaders 32 bits.
 
3. Avis personnelle sans fondement. Sources ?
 
Ca n'était donc pas dans l'interet d'Ati que le jeu sorte trop tot (imaginez tout le monde se rend compte que les radeons forcent le mode 32bits en trompant le compilo de l'api et font donc en réalité du 24bits ce qui entraine des bugs)  
Mais oui, mais oui.  
 
En plus, dans l'état de half life, avec un path générique dx9 32 bits, les ati n'avaient clairement aucune chance.
certainement  :sarcastic:
 
Cette alliance leur a permis de commencer à implanter dans le jeu, un path 24 bits spécifique, qui corrigeait les problemes de calculs dont j'ai parlé au dessus en réduisant la precision générale. Path qui a été caché à la presse, jusqu'a la semaine dernière ou le leakage des sources a montré qu'un developpeur d'ati etait intervenu dans les phases de developpement. Dans ce mode 24bits, les nvidias ne peuvent pas avoir des performances équitables, et visuellement correctes.
 
5. Vu sur Presence-PC. Ok, ce n'est pas une référence mais ce n'est pas pire que les déblateries de nico_b
 
Rien ne va plus donc pour nVIDIA : après l'immense polémique autour des drivers modifiés pour obtenir de meilleurs scores dans les benchmarks (3DMark pour ne citer que celui-la) et après constatation des performances réelles des cartes sur les jeux vidéos les plus gourmands en terme de puissance graphique, nVIDIA continue de décevoir. Et cette perte de popularité est palpable aussi bien chez les gamers qui ont payé leur carte un prix fou par rapport à la concurrence, que chez les développeurs qui ne savent plus à quel saint se vouer lorsqu'on leur parle d'optimisation pour GeForce FX.  
 
Le leak du code source de Half Life 2 aura au moins eu un effet positif puisqu'il scelle le verdict : ce jeu ne contient pas d'optimisation spécifique pour les cartes ATi contrairement à ce que clamait Nvidia. Certes, le nom de Guennada Riguer, ingénieur chez ATi apparaît bien dans le code source du jeu, cependant son action consistait à aider l'équipe de développement de Valve à optimiser le jeu pour Direct X 9. [g]HL2 ne contient pas de code spécifique au matériel ATI
. Si un constructeur sortait dans les prochains jours une carte pleinement compatible Direct X 9, à puissance hardware égale avec une Radeon, HL2 fonctionnerait aussi bien. C'est élément est très important, puisque par le passé ce n'était pas le cas : une carte graphique de puissance égale à celle d'une carte GeForce nVIDIA obtenait de moins bonne performance qu'une GeForce sous Quake 3 Arena, à qualité d'image égale. Pourquoi ? Parce que le jeu n'exécutait pas de code standard si la carte détectée était une GeForce (bon ok je simplifie mais vous détenez l'idée). [/g]
 
 En fait, les nvidias font les calculs 24bits, à la vitesse du 32bits avec une qualité dégradée, tandis que les ati tournent à plein régime.  :sleep:  
 
blabla...
 
Carmack avait d'ailleurs fait une petite reflexion en janvier, les shaders2 des ati sont plus rapides car ils sont calculés en 24 bits, la ou les fx font du 32bits, mais les ati atteignent rapidement leurs limites du fait du petit nombres d'emplacement pour les instructions ...  
 
 
Il a complété en parlant des modes dégradés, qu'il y a peu de chances pour que les jeux dx9 dans l'avenir utilisent que des shaders de faibles precisions (il parlait du mode 16bits, et 24bits pour ceux qui n'ont pas compris). Ce qui est tout à fait normal, car Carmack se bat depuis des années pour travailler avec des shaders 32bits et qu'il est en quelque sort le père spirituel des fx.
 
6. Carmack a bon dos. Sources exactes STP ? Envoie lui ton argumentation, j'sus sur qu'il appréciera ton point de vu
 
 
Tout ceci, n'est donc pas le fruit du hasard, Ati avait planifié la sortie d'une architecture qui devait introduire le directx9, et non le supporter à toc.  
 
7. oui,oui. Sources ?
 
blabla
 
J'espere n'avoir déçu personne,  
 
8. rhooo, non, pas du tout. c'est rigolo au contraire
 
 mais on le savait tous au fond de nous, que le trucage mathématique 24 bits, ne pouvait pas faire de miracle et était une solution provisoire à un probleme concret. Les shaders requièrent 23 bits de mantisse, 1 bit de signe, et 8 bits d'exposants.  
non, pas de miracle effectivement  :D
 
Combien de sites ont posé la question pourquoi "le 24 bits des Ati est plus performant que le 32" etc... Au point que le 24 bits était devenu quasimment la norme informatique  :lol:  
 
9. le 24 bits c'est la norme DX9 c'est tout...Pas besoin de chercher midi à 14 heures.
 
.  
 
Un conseil, trouve toi une nana pour te changer les idées..ca te fera le plus grand bien. Tu chauffes trop ces derniers temps...

n°2767431
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 13:36:13  profilanswer
 

et le 48 bits (FX12 ?)
Et le 36 bits des scanners (40 bits pour certains ?)
les adressages mémoire sur 36, 40 et 80 bits.... :D
Et les DD, c'est des puissances de deux piles ?  
 
Fougnaga ! [:xp1700]


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767458
cpdump
Posté le 11-10-2003 à 13:54:37  profilanswer
 


 
C'est assez classique la technique de désinformation utilisé par nicolas_b : approximation, amalgame, interprétation, omission et un zeste de rigueur scientifique copié/collé depuis le web pour faire crédible.
 

Citation :

Cette alliance leur a permis de commencer à implanter dans le jeu, un path 24 bits spécifique, qui corrigeait les problemes de calculs dont j'ai parlé au dessus en réduisant la precision générale. Path qui a été caché à la presse, jusqu'a la semaine dernière ou le leakage des sources a montré qu'un developpeur d'ati etait intervenu dans les phases de developpement. Dans ce mode 24bits, les nvidias ne peuvent pas avoir des performances équitables, et visuellement correctes.


Source ????
 

Citation :

Ati en voyant ça, s'est rapprochés de Valve, createur du plus gros jeu de l'année directx9. Il aurait été plus bénéfique pour Ati que ça soit des jeux du style: tomberaider, etc qui sortent en premier car ils utilisent très peu les shaders 2, et ça aurait justifié au bout d'1 ans, que l'archi etant vieillissante, il faudrait donc passer maintenant en full 32 bits pour faire peter les shaders 2.
 
Mais la, ils etaient mal, le deuxieme jeu dx9 qui sort, c'est THE monstre qui va tapper directement dans les ressources de la carte graphique avec des shaders 32 bits.
 
Ca n'était donc pas dans l'interet d'Ati que le jeu sorte trop tot (imaginez tout le monde se rend compte que les radeons forcent le mode 32bits en trompant le compilo de l'api et font donc en réalité du 24bits ce qui entraine des bugs). En plus, dans l'état de half life, avec un path générique dx9 32 bits, les ati n'avaient clairement aucune chance.


C'est bizarre, c'est pas l'impression que j'ai eu en regardant le bench, on ajoute au passage un peu de théorie du complôt.
 

Citation :

Mais bon Tomberaider, est un jeu qui est sorti à la va vite, non optimisé pour le 24bits ati, mais qui nous en dit quand meme assez sur les performances des ati en 32bits avec le path générique dx9.


On n'ose imaginer si cela avait été optimisé pour ATI. cf. le test chez Anandtech (peut pas mettre les images dans le post)
http://www.anandtech.com/video/sho [...] =1900&p=16
 

Citation :

En gros, quand une Ati doit executer un shader en 32bits, les erreurs d'arrondi se propagent sur l'intégralité du calcul, il y a ce qu'on appelle un overflow ou underflow.  
 
Visuellement, il y a l'apparition d'artefacts, ou on peut dire simplement que les shaders partent en vrille.  
 
C'est assez flagrant sur le bench de anandtech de gunmetal2 qui utilise les vertex shaders2(qui peut requerir des fonctions mathématiques qui demandent une precision importante), on voit entre autre un probleme d'artefact au niveau du canal alpha et de la colorimétrie:


Peut être doit-on préciser que GunMetal utilise le langage de Nvidia et qu'avec les drivers 45.23 (qu'il ne montre pas, omission des faits génants) on a aussi quelques prolèmes.
 

Citation :

Anandtech a aussi parlé de ces artefacts: clignotement des textures des murs, disparition de l'eau, dans le bench de tombraider qui utilisent les pixels shaders2, sans savoir d'ou ça provenait.  
 
En fait, les shaders2 quand ils simulent le comportement de l'eau d'une façon à peu près réaliste, requièrent une précision 32 bits. Et lorsque l'on s'approche d'un mur et que ça  
 
clignote, c'est le z-buffer qui n'a pas une précision suffisante pour arriver à determiner la profondeur de champs. Ca entraine que les pixels se superposent(et donc disparaissent et apparaissent).


Anandtech ne sait pas d'où cela provient, mais nicolas_b avec ses compétences et ses connaisances reconnues en 3D, a trouvé la solution.
 

Citation :

Plus sérieusement, historiquement parlant, les buffers des cartes grand publique utilisaient auparavant que 24 bits (colorimétrie) sur les 32 bits, les 8 bits restant étant reservé au canal alpha. Chose que l'on ne prendra pas en compte, tellement c'est devenu absurde d'utiliser du 24bits, avec l'arrivée des shaders.


 

Citation :

Mais les articles ont zappés l'essentiel. Pourquoi Nvidia utilise des unités 32 bits pour des calculs qui demandent une précision de 32 bits. Pourquoi les gens qui travaillent dans les jeux vidéos et dans l'infographie utilisent du 32 bits au détriment du  24 bits.


Une fois de plus il démontre avec brio sa connaissance de le 3D en confondant le nombre de bits pour coder un pixel et la précision des calculs. Sache que l'on utilise aussi du 36bits ou 40 bits dans certains cas en infographie.

n°2767489
nicolas_b
Posté le 11-10-2003 à 14:14:33  profilanswer
 

C'est pas la peine de vous exciter. Si vous etes pas content de la réalité, écrivez à Ati pour leur dire.
 
Personnellement, j'ai rien fais. J'ai juste dis que les radeons n'étaient pas faites pour les shaders 2 et qu'elles étaient déjà exploitées à fond, chose qui va se confirmer tout au long de l'année, avec l'arrivée des nouveaux jeux qui requièrent une autre forme de puissance.
 
Mais bon vous avez quand meme les yeux plein de xxx, parce qu'en arrivé au point de dire que nvidia déçoit avec ces drivers alors que le rendu sur les shaders est à l'identique, et que du coté d'ati, le constructeur overclocke la fréquence des cartes à toc ....
 
Je sais pas moi, réveillez vous un peu ! Voyez la réalité en face.  
 
C'est la première fois que je vois ça, la presse qui fait un benchmark carte overclockée contre carte non overclockée.  
 
Il y a abus de substances hypnotiques ou hallucinogènes.

n°2767530
cpdump
Posté le 11-10-2003 à 14:36:57  profilanswer
 

nicolas_b a écrit :


C'est pas la peine de vous exciter. Si vous etes pas content de la réalité, écrivez à Ati pour leur dire.


 
C'est marrant dès qu'il s'agit de sortir des sources ou des preuves, on sent les limites de l'argumentation.
 

Citation :

C'est la première fois que je vois ça, la presse qui fait un benchmark carte overclockée contre carte non overclockée.


C'est une option, et la majorité des tests a été fait avec les Catalyst 3.7 comme celui que tu cite (Anandtech) et pour les 3.8 les testeurs doivent désactiver cette option, si tant est qu'elle est active par défaut.
 

Citation :

Il y a abus de substances hypnotiques ou hallucinogènes.


Tiens, ça me rappelle quelqu'un qui travaillait dans le domaine des cartes graphiques :lol:  
 
 
PS : Désolé pour le triple post  :sweat:


Message édité par cpdump le 11-10-2003 à 14:45:27
n°2767536
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 14:41:53  profilanswer
 

nicolas_b se trouve des exuses bidon :

Plein d'excuses foireuses, de mauvaise foi, de débilité profonde et j'en passe...


Oui oui mon lapin, je dirai ça aussi à mon cheval, ça le fera hennir très fort.
 
PS, c'est pas mon gros à moi, mais c'est tout comme  [:xp1700]  
 
http://users.wi.net/~census/Horse%20Laughing.jpg


Message édité par MagiSim le 11-10-2003 à 14:43:01

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
mood
Publicité
Posté le 11-10-2003 à 14:41:53  profilanswer
 

n°2767541
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 14:44:15  profilanswer
 

cpdump a écrit :


 
C'est marrant des qu'il s'agit de sortir des sources ou des preuves, on sent les limites de l'argumentation.
 

Citation :

C'est la première fois que je vois ça, la presse qui fait un benchmark carte overclockée contre carte non overclockée.


C'est une option, et la majorité des tests a été fait avec les Catalyst 3.7 comme celui que tu cite (Anandtech) et pour les 3.8 les testeurs doivent désactivé cette option, si tant est qu'elle est active par défaut.
 

Citation :

Il y a abus de substances hypnotiques ou hallucinogènes.


Tiens, ça me rappelle quelqu'un qui travaillait dans le domaine des cartes graphiques :lol:  
 
 
PS : Désolé pour le triple post  :sweat:


 
L'overdrive n'est pas activé par défaut.
 
PS : moi aussi, mais le forum déconnaillait...


Message édité par MagiSim le 11-10-2003 à 14:44:52

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767560
MrBrOwNsTo​Ne
Posté le 11-10-2003 à 14:53:04  profilanswer
 

BORDEL HALLIFE² N EST PAS ENCORE SORTI ON NE PEUT DONC PAS SAVOIR !
 
FAUDRA VOIR QUELLE CARTE S EN SORT LE MIEUX SUR LE JEU FINALISé CA SERT A RIEN DE SPECULER
 

n°2767564
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 14:54:26  profilanswer
 

Caps cher ami, ça nuit à la lisibilité de ton message... Et tu n'apporte rien au débat. D'ailleurs y'a même pas de débat là, y'a juste guignol qui vient nous amuser. Assied-toi et profite du spectacle avec nous :D


Message édité par MagiSim le 11-10-2003 à 14:54:53

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767569
nicolas_b
Posté le 11-10-2003 à 14:57:00  profilanswer
 

cpdump a écrit :


 
Tiens, ça me rappelle quelqu'un qui travaillait dans le domaine des cartes graphiques :lol:  
 


 
Ca devait etre quelqu'un de censé, difficile de discuter technique avec des personnes qui ne savent meme pas que les shaders sont 32 bits.  
 
Désolé, les gars mais ça fait déjà trois fois que je vous mets dans le vent... Vous devriez être découragé.


Message édité par nicolas_b le 11-10-2003 à 15:04:15
n°2767582
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 11-10-2003 à 15:04:29  profilanswer
 

C'est dommage de décrédibiliser ton discours en un coup d'oeil. Gun Metal n'utilise aucunement les Pixel Shaders 2.0, et donc si différence de colorimétrie il y'a elle ne vient en aucun cas d'un problème de précision au niveau de ces derniers.


Message édité par Marc le 11-10-2003 à 15:04:40
n°2767584
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 15:06:07  profilanswer
 

Dis, Nicolas, une petite question : tu el crois vraiment tout ce que tu écrais ? Tu as quel âge ? Quelle est ta profession ? Etale nous un peu tes références pour que l'on puisse te lècher les doigts de pieds au lieu de croire de vrais professionnels, de vraies informations....
 
Allez ma p'tite poule, fais un effort...... :D
 
Je suis très impatient de mieux connaître d@ god de ze three-dee graffiks qui rulez d@ world dans his nose...
 
Parce que jusqu'à présent...fiooooou, beaucoup de FUD, beaucoup d'inepties -sans sources fiables-, beaucoup de connerie, et beaucoup, mais alors beaucoup de mauvaise foi.......
 

Citation :

Désolé, les gars mais ça fait déjà trois fois que vous mets dans le vent... Vous devriez être découragé.


 
C'est toi qui doit être la risée du monde du développement ;) et déjà des gens qui essayent un tant soit peu de se tenir au courant de façon SERIEUSE.


Message édité par MagiSim le 11-10-2003 à 15:07:36

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767585
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 15:06:48  profilanswer
 

Marc a écrit :

C'est dommage de décrédibiliser ton discours en un coup d'oeil. Gun Metal n'utilise aucunement les Pixel Shaders 2.0, et donc si différence de colorimétrie il y'a elle ne vient en aucun cas d'un problème de précision au niveau de ces derniers.


Ah, toi aussi tu l'as vu :D
 
Mais, avant de décrédibiliser... Ne faudrait-il pas que cela soit crédible ? :D


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767710
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 16:28:22  profilanswer
 

Pas war :non:
mode "sadiques sur maso" on [:yaisse2]


Message édité par MagiSim le 11-10-2003 à 16:28:43

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767821
bjone
Insert booze to continue
Posté le 11-10-2003 à 18:03:00  profilanswer
 

legreg a écrit :

Heink ??
 
LeGreg


 
:lol:
 
toi aussi ?
 
nicolas_b viens de terminer le peu de crédibilité qu'il avait, en sortant des trucs mélangés dans tous les sens, comme si il c'était un warrior de l'OpenGl/Direct3D :D
 
franchement le coup du:
 

Citation :


Le mode 24 bits d'ati est completé par une unité logique, ou par l'api  qui peut fait aussi faire la convertion/complement abritraire  24bits -> 32 bits (masquage et shiftage des bits puis écriture en mémoire).  


 
et que je te mélange le Pixel/Fragment shader, le VertexShader, les formats de textures, et le format du framebuffer avec un pincée de comparaison -objective- avec des snapshots en JPEG.... (ça me fera toujours marrer les comparaisons de rendu en JPEG :lol:)


Message édité par bjone le 11-10-2003 à 18:04:52
n°2767875
Zeross
Posté le 11-10-2003 à 18:32:43  profilanswer
 

nicolas_b a écrit :


 
Bof pas tellement, c'est purement logique.
 
On a deux cartes.


 
Ouais jusqu'ici t'as bon  [:tozwarrior]  
 

Citation :

Les deux calculent en 32 bits sauf ... pour les cores des shaders.
 
- Les core des nvidia utilisent soit un mode 16 bits, soit un mode 32 bits (64 ou 128 bits en fait)
- Les core des ati utilisent quoiqu'il arrive un mode 24 bits(96bits)


 
Pixel shaders... précise parce que les VS sont toujours en 32 bits.
 

Citation :

Le mode 24 bits d'ati est completé par une unité logique, ou par l'api  qui peut fait aussi faire la convertion/complement abritraire  24bits -> 32 bits (masquage et shiftage des bits puis écriture en mémoire).


 
Oui lorsque tu demandes à écrire sur une surface FP32 les cartes ATI complètent les 24 bits calculés effectivement et alors ? [:spamafote]  
 

Citation :

Au niveau programme, on a une api: Directx8 ou Opengl qui utilise des shaders 8/16 bits, Directx9 qui utilise et requière  des shaders 32 bits.


 
DirectX9 ne requiert pas du 32 bits mais 24bits et plus. Pareil pour OpenGL lorsques tu utilises ARB_fragment_program  
 

Citation :

Chez Nvidia, le mode 16 bits est utilisé pour crée des petits shaders dynamique qui ne demandent pas des gros calculs, le mode 32 bit est utilisé pour les shaders complexes, par exemple les fonctions logarythmique ou exponentielle qui demandent au minimun 22 bits de précision.


 
En général chez nVidia :
-16 bits utilisés pour le calcul
-32 bits utilisés pour l'adressage ou les quelques opérations nécessitant plus de précision.
 

Citation :

En gros, quand une Ati doit executer un shader en 32bits, les erreurs d'arrondi se propagent sur l'intégralité du calcul, il y a ce qu'on appelle un overflow ou underflow. Visuellement, il y a l'apparition d'artefacts, ou on peut dire simplement que les shaders partent en vrille.


 
[:mouais]  :lol:  
On parle d'API graphique là : on ne parle pas de calcul scientifique : les API que ce soit OpenGL ou Dx fournisse une indication de précision sous la forme "La précision attendue devra être d'au moins..." dont il ne faut pas faire d'hypothèses lorsques tu développes sur l'exactitude des résultats obtenus au delà d'une certaine limite.  
 

Citation :

C'est assez flagrant sur le bench de anandtech de gunmetal2 qui utilise les vertex shaders2(qui peut requerir des fonctions mathématiques qui demandent une precision importante), on voit entre autre un probleme d'artefact au niveau du canal alpha et de la colorimétrie:


 
Mauvais exemple :whistle: comme je te l'ai dit plus haut les VS utilisent 32 bits que ce soit chez nVidia ou chez ATI. Same player shoot again  :D  
 

Citation :

En fait, les shaders2 quand ils simulent le comportement de l'eau d'une façon à peu près réaliste, requièrent une précision 32 bits. Et lorsque l'on s'approche d'un mur et que ça clignote, c'est le z-buffer qui n'a pas une précision suffisante pour arriver à determiner la profondeur de champs. Ca entraine que les pixels se superposent(et donc disparaissent et apparaissent).


 
Quel rapport entre les shaders et le ZBuffer ? Juste pour info le ZBuffer est de 24bits chez ATI et nVidia. tiens tiens encore du 24 bits ;) les 8 bits restant servent au stencil.
 

Citation :

L'ide rendermonkey permet de transformer les shaders vers une precision amoindrie 24 bits pour les ati.


 
C'est bien : tu as retenu que RenderMonkey était un IDE on progresse maintenant il faudra m'expliquer comment un IDE "transforme" des shaders là tu m'intéresses.
 

Citation :

Il a complété en parlant des modes dégradés, qu'il y a peu de chances pour que les jeux dx9 dans l'avenir utilisent que des shaders de faibles precisions (il parlait du mode 16bits, et 24bits pour ceux qui n'ont pas compris). Ce qui est tout à fait normal, car Carmack se bat depuis des années pour travailler avec des shaders 32bits et qu'il est en quelque sort le père spirituel des fx.


 
Non Carmack demande le support du FP16 depuis des années pas le FP32.
 

Citation :

Few graphics calculations really need 32 bit accuracy. I would have been happy to have just 16 bit, but some texture calculations have already been done in 24 bit, so it would have been sort of a step back in some cases. Going to full 32 bit will allow sharing the functional units between the vertex and pixel hardware in future generations, which will be a good thing.


 

Citation :

J'espere n'avoir déçu personne


 
Ah non tu m'as pas déçu en tout cas : tu es à la hauteur de ta réputation


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2767890
bjone
Insert booze to continue
Posté le 11-10-2003 à 18:43:39  profilanswer
 

et puis pour info, chez ati à partir de la radeon 8500 et la geforce fx, supportent un mode framebuffer 32bpp 2:10:10:10, ou tu as le RAMDAC qui passe en 10 bits par canal.
dans ce cas là, à ma connaissance, c'est pas avec du jpeg ou même du png (enfin je pense) que tu pourras faire des snapshots 1:1 , ou un bureau en 32bpp 8:8:8:8 que tu pourras faire des comparaisons correctes (mais bizarrement j'ai pas encore vu de jeu en 2:10:10:10, alors que c'est rien au niveau support moteur)
 
symétriquement, au niveau du snaphots, fo voir si le snapshot est fait avant ou après la correction gamma...


Message édité par bjone le 11-10-2003 à 18:50:23
n°2767896
bjone
Insert booze to continue
Posté le 11-10-2003 à 18:49:07  profilanswer
 

et histoire de préciser le mode 24bits d'ati, 16/32bits de nvidia, l'argumentaire "c'est pas une puissance de 2, 32bits c'est plus censé" est relativement bidon, c'est de la précision interne, un fpu x86 peu travailler en 32/64/80 bits, un itanium travaille toujours en 80 bits, l'aplha en 128bits, et le powerpc en 155bits (je suis pas sûr, je cite de mémoire)
 
en traitement interne le codage de tes grandeurs, tu le fais comme tu le sens, ce que tu estime offrir le meilleur rapport complexité+précision/performances.
 
ce qui doit être aligné, c'est les bus physiques et les accès mémoires, mais les unités, elles travaillent sur la précision qu'elle veulent. (pour un soucis de cohérence, autant s'aligner sur la norme IEEE 32bits, c'est pas une obligation)

n°2767927
MagiSim
Magique, et oui !
Posté le 11-10-2003 à 19:02:41  profilanswer
 

J'adore le cassage de boulet exécuté par des gars qui maîtrisent :jap:


Message édité par MagiSim le 11-10-2003 à 19:02:52

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
n°2767964
LeGreg
Posté le 11-10-2003 à 19:24:22  profilanswer
 

Le mode de calcul 24 bits d'ATI est adapté à la sortie sur 16 bits fixe par canal. (sans perte de précision tant qu'elle reste dans l'intervalle 0..65535)
La Fx n'a pas de mode 16 bits fixes pour ses textures intermédiaires mais peut très bien travailler en 2*8 bits (bits hauts bits bas). C'est probablement ce qui va être utilisé sous HL2 (puisqu'ils n'utilisent pas de textures flottantes).
 
La carte d'ATI n'a aucun interet à utiliser des textures ou une rendertarget de 32 bits par canaux mais est obligé d'utiliser ce format de rendertarget pour son rendu intermédiaire si elle ne veut pas perdre de precision (à l'opposé de repasser en 16 bits par canaux intermédiaires). C'est pour ceux qui connaissent Ashli (ou l'extension OpenGL des F-Buffers).
Bizarrement Microsoft n'a pas proposé de format de textures à 24 bits par canaux. (troll inside)
 
Ni la 9x00 ni la 5x00 n'offrent de filtering sur les textures flottantes (filtering sur 8bits, 12 bits, 16 bits ET 32 bits trop lourd à implémenter pour l'instant). La 9x00 proposent le mipmapping (basique sans filtering) sur textures flottantes et des modes d'adressage en plus ce qui lui permet de passer la certification WHQL et de pouvoir offrir l'option (pas très utilisée pour l'instant) de textures intermédiaires sur 16 bits flottants ou 32 bits flottants. L'option est disponible sur les deux types de cartes sous OpenGL.
 
LeGreg


Message édité par LeGreg le 11-10-2003 à 19:39:48
n°2768176
necmaster
Posté le 11-10-2003 à 21:47:42  profilanswer
 


 
Moi je suis là en simple lecteur. Je reste parce que j'adore les interventions qe fait Nico_b dans ce topic !! [:acherpy]  [:acherpy]  [:acherpy]  [:acherpy]  [:acherpy]

n°2768238
bjone
Insert booze to continue
Posté le 11-10-2003 à 22:33:45  profilanswer
 

nicolas_b a écrit :

C'est pas la peine de vous exciter. Si vous etes pas content de la réalité, écrivez à Ati pour leur dire.
 
Personnellement, j'ai rien fais. J'ai juste dis que les radeons n'étaient pas faites pour les shaders 2 et qu'elles étaient déjà exploitées à fond, chose qui va se confirmer tout au long de l'année, avec l'arrivée des nouveaux jeux qui requièrent une autre forme de puissance.
 
Mais bon vous avez quand meme les yeux plein de xxx, parce qu'en arrivé au point de dire que nvidia déçoit avec ces drivers alors que le rendu sur les shaders est à l'identique, et que du coté d'ati, le constructeur overclocke la fréquence des cartes à toc ....
 
Je sais pas moi, réveillez vous un peu ! Voyez la réalité en face.  
 
C'est la première fois que je vois ça, la presse qui fait un benchmark carte overclockée contre carte non overclockée.  
 
Il y a abus de substances hypnotiques ou hallucinogènes.


 
là je suis d'accord, mais on parle d'architecture et d'efficacité ou on parle fréquence ?

n°2768299
MrBrOwNsTo​Ne
Posté le 11-10-2003 à 23:11:13  profilanswer
 

pfiou j ai mal a la tete là

n°2768396
rootsayen
Jungle Cat
Posté le 12-10-2003 à 00:05:39  profilanswer
 

Anand tech dans son test nv38 vs XT test aussi les 52.xx, y'a un bon gain de perfs en tout cas, et sans perte de qualité visuelle. Comme quoi le nv35 à de la patate, mais difficillement exploitable apparement. De toute facon, pour jouer à des jeux direct X9, attendez la génération suivante. C'est à chaque fois pareil, faut toujours attendre la 2nd génération ...
 
A++


---------------
"Being solitary is being alone well; being alone luxuriously immersed in doings of your own choice, aware of the fullness of your own presence rather than the absence of others."
n°2768506
mareek
Et de 3 \o/
Posté le 12-10-2003 à 04:14:58  profilanswer
 

Ouf, j'ai failli louper le retour de la vengeance de Nicolas_b.
 
A mon avis, cpdump résume parfaitement la situation

cpdump a écrit :


C'est assez classique la technique de désinformation utilisé par nicolas_b : approximation, amalgame, interprétation, omission et un zeste de rigueur scientifique copié/collé depuis le web pour faire crédible.


cpdump a écrit :

C'est marrant dès qu'il s'agit de sortir des sources ou des preuves, on sent les limites de l'argumentation.


 :jap: tout est dit :jap:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°2768507
mareek
Et de 3 \o/
Posté le 12-10-2003 à 04:20:39  profilanswer
 

Zeross a écrit :


 
Ouais jusqu'ici t'as bon  [:tozwarrior]  


 :lol:  
 

Zeross a écrit :

Ah non tu m'as pas déçu en tout cas : tu es à la hauteur de ta réputation  


beau spécimen n'est-il pas ? :D


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
9800 se -> 9800 pro ?? ou 9700 pro9800 quand tu nous tiens......
Rads de la ram sur la 9600 Pro de Hercules... C'est du Cuivre, ça ???FX 5900 vs ati 9800 pro !!!!
Pb avec une 9800 pro !!!radeon 9800 VS radeon 9800 pro
sortie TV sur NVIDIA FX 5600 ULTRA 256Probleme avec ATI Radeon 9700 Pro
Pb de flash noir sur Radeon 9800 - 450W = pas assez ? 
Plus de sujets relatifs à : 5900 Ultra ou 9800 Pro 256 pour Half-Life 2 ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR