Ok.
Citation :
-----------------------------------
Mais a t'entendre parler, les jeux ne marches jamais bien a cause de ces compressions et algo d'optimisation.
L'hyper-Z d'ati est arrivé a sa 3ieme génération avec le R300:
|
J'ai jamais dit ça. J'ai juste dit qu'il y avait du pour et du contre. Ce qui est le cas. Je m'apperçoit a l'usage que la Matrox a beaucoup d'avantages tout a fait clairs dans son chip.
Ca veut pas dire que les algos d'optimisation ne valent rien. Ca veut dire que c'est pas la panacée universelle.
Certains algos sont risqués. Tu découvrira puisque tu est en ecole d'info que optimiser un programme pour la vitesse max de chez max peut être risqué (As tu déja étudié les Tables a dispersion ?). Ca ne veut absolument pas dire que optimisation = Nul. C'est plus complexe que ça.
Certaines optimisations sont totalement sans risques et d'autres sont très risquées.
Quand est obsédé par la vitesse, on fait pas forcément des choix très sains.
Tout programme repose toujours sur des equilibres subtils. La pression commerciale n'est pas toujours bonne en ce sens.
Il est difficile d'expliquer a un joueur qu'il vaut mieux avoir 20% de perfs en moins, sinon on prends des risques. Par contre un pro n'a aucun mal a comprendre.
Citation :
- Hyper-Z divise le buffer d?images et le z-buffer en blocs de 8x8 pixels, qui peuvent être cachés et gérés très efficacement. Le rapide Z-clear n?efface qu?un seul flag dans chaque bloc, accélérant le processus d?effacement Z-. Déja, la, aucune compression, c'est juste un procédé de remise a 0 en 1 cycle qui évite d'écrire plein de 0 inutile et qui augmente ainsi la vitesse du chip. (Ici, pas de pb ni de bug, aucune fonction mathématique employé, juste une optimisation bien pensé)
- La Z-compression sans perte récemment améliorée est capable de compresser les valeurs Z- en ces blocs de 8x8 pixels, avec un rapport de compression allant de 2 :1 à 4 :1, avant que ceux-ci ne soient écrits dans le Z-buffer, ce qui économise la bande passante mémoire. La compression n'est pas extraordinaire certe mais est présente.
Le rendu final n'est absolument pas altéré et les lag dont tu parle, je n'en n'ai jamais vu.
- La Z-hiérarchie utilise également le flag qui figure chacun des blocs Z-buffer de 8x8 pixels. Ce flag contient la plus basse valeur Z trouvée dans le bloc représenté par le flag. La valeur Z d?un pixel qui vient d?une configuration en triangle est comparée au flag Z du bloc dans lequel le pixel est censé être dessiné. Si la valeur Z du pixel est inférieure à celle du drapeau, le pixel est écarté et le bloc n?est pas lu à partir du Z-buffer vers le cache. Si la valeur du pixel est supérieure à la valeur du flag, le bloc est lu à partir du Z-buffer vers le cache
Ici encore, aucune compression, juste une méthode pour savoir si un polygone est devant ou pas un autre en comparant 2 valeur Z. Ici aussi on ne pert rien et on évite beaucoup de calcul inutile.
|
Rien que les noms qu'utilisent ATI font sourrire, c'est très commercial. Attention : Matrox en utilise certains aussi même si ils collent pas des noms commerciaux ronflants a chaque transistor. J'ai pas le détail sous la main, mais j'avais lu le détail quelque part.
Son bon score en multi texturing n'y est sans doute pas pour rien. De plus, le FAA fait appel a un système de caches sophistiqué.
Citation :
Au final, ATI avec son HyperZ-3 (lightspeed mémory pour NVidia) a réfléchi avant de faire n'importe quoi et a optimisé son processeur de façon intelligeante.
|
C'est pas si simple. Ces algos ont posé beaucoup de problèmes a développer. ATI y travaille depuis longtemps.
Il reste pas mal de problèmes dans ces cartes. Le moteur 3D n'est pas parfait. Rien que la 8500 a beaucoup d'imperfections de rendu.
Matrox a choisi la voie opposée : Travailler un moteur sur la qualité et la fiabilité de son rendu et en tirer les perfs qui sont possibles avec ça.
C'est pas la même logique.
---------------------------------------
Citation :
Maintenant, tu dit que Matrox mise sur une puissance brut pour compenser son manque d'optimisation.
Excuse moi, mais je trouve pas que ce soit une bête en puissance brut. Je ne dit pas qu'a fréquence égal et sans optimisation un R300 serai devant (j'en sait rien) mais il leur faudra plus que 220mhz et 80M de transistor pour compenser leur optimisation innexistante.
|
Si puisqu'elle a le même Fill-Rate que la R9700. De plus, l'optimisation n'est pas inexistante.
Je dirais qu'il manque surtout le HSR. Pour le reste, certains sont implémentés même si matrox ne le crie pas sous tous les toits comme ATI avec leurs Hyper-choses...
Citation :
Elle ne dispose "que" de 80 Millions de transistor cadancé a 220Mhz. Pas énorme si on compte 107 Millions de transistor a 325Mhz pour ATI. ATI chauffe plus ? C'est vrai et alors ? Y'a pas d'aspirateur comme sur les Fx d'ailleur j'entend pas le ventillo de ma carte. Ensuite oui, elle consomme mais le pb est réglé avec une alim externe.
|
C'est pas 125 millions sur la 9700 ?
La même chose : La Parhelia est plus ancienne de 6 mois question conception et process de fabrication.
De plus, Matrox préfère toujours eviter de trop overclocker les chips. C'est des cartes pros, faut pas l'oublier.
Des gens ont réussi a pousser le pousser le chip a plus de 270 Mhz et la mémoire a plus de 310 en précisant qu'ils n'avaient pas cherché a aller plus loin.
Citation :
Tu parlai de Rendu 3D en milliard de couleur. Les pixel shaders 2.0 permettent de monter la précision de couleur jusque 128bit en virgule flotante. C'est trs important pour le rendu et effet de couleur. Encore une fois, un "texture" qui serai en 128bit demanderai 4 fois plus de bande passante qu'une autre classique en 32bit. Je te laisse deviner ce que cela donnerai sur une parhélia. Et pourtant, ca apporte bcp niveau rendu et surtout Qualité, le cheval de batail de matrox:
|
Non, faut pas tout confondre.
Quand je dis 10 bits par composante : Je parle du Ramdac. La Parhelia permet de l'utiliser en 10 bits avec les jeux.
Pour ce qui est des textures, C'est la même précision pour tout le monde.
Les 128 bits, c'est dans les calculs internes.
Sur la G200, Matrox calculait déja sur plus de bits que tout le monde. Quand on disait ça aux gammers a l'époque, ils disaient que ça servait a rien. La différence de qualité était visible.
Attends, on sait pas ce qui est affiché et avec quels règlages. Suffit que la Gamma soit mal règlé...
Apparement c'est une demo technologique ATI. C'est pas vraiment une bonne comparaison.
Citation :
Donc meme si matrox garde son leadership en 2D, en 3D, la qualité ne s'améliore pas bcp avec la parhélia. (cf aniso en 2x a l'heure ou meme une GForce 4 fait du 8x)
|
Je suis d'accord pour dire qu'il manque un peu d'aniso a la Matrox. Cela dit, ça se voit sur les textures qui sont eloignées et avec un certain angle.
Ben ça sera pour la P2....
Citation :
Enfin, ATI comme NVidia travaille de plus en plus avec les boites de création de soft 3d pro (kinetix par exemple) et sorte des plugins pour que des log comme maya, 3dmax etc. tire parti de leur puce respective.
Sans parler des langages créé pour faciliter la vie des développer (Rendermonkey chez ATI présenté au SIGGRAPH, et le langage Cg de NVidia)
|
Parce que Matrox ne travaille avec personne ? Tout le monde n'affiche pas forcément ses relations industrielles.
Citation :
Matrox n'est pour moi pas assez inovateur. Domage.
On verra bien avec la parhélia 2. Mais si il n'y a ni compression de donnée ni optimisation de la puce, il leur faudra un bus mémoire 512bit et de la DDR2 pour contrer un R350...
|
Tu sait, le FAA est une innovation qui risque fort d'être très interessant dans le futur. C'est pas parfait, mais assez pour être utilisable.
Quand aux autres compressions, si Matrox ne les utilise pas toutes mais atteint au moins 70% des perfs de la R350 pour le prix de l'actuelle Parhelia et qu'elle marche toujours aussi bien question stabilité, je serais toujours acheteur.
---------------
TOPIC PERMANENT Matrox Parhelia