Je vais essayer de répondre point par point.
Citation :
A t'entendre, je dirai que la parhélia 2 sera une grosse carte bien lourde.
Pk ? Tout simplement car elle n'integrera aucune optimisation de sa mémoire. (si je suis ton raisonnement, sauf si par miracle matrox sort une technique de compression miraculeuse) Ou sera l'evolution alors ? Faire un processeur 50 fois plus rapide et 10 fois plus chére pour optenir les perf d'une R350 ?
|
Je ne suis pas contre toute optimisation : Je pense qu'a terme Matrox en integrera forcément quelques uns. C'est déja fait avec le FAA d'ailleurs. Mais je leur saurais gré de le faire en prenant vraiment le temps de les developper sérieusement et d'éviter de pousser trop loin cette logique.
Mais je pense qu'il y a trop de tweaks et compressions en tout genre dans les cartes grand public d'ATI et NVIDIA.
Je pense qu'il vaut mieux compenser par une puissance un peu supérieure que par des algos d'optimisation trop poussés même si je pense qu'il y a forcément un juste millieu a trouver.
Au contraire d'ATI et NVIDIA, Matrox travaille dans le temps et non pas pressé par le temps. Ils integrent des technologies quand elles sont mieux maitrisées.
C'est d'ailleurs une habitude de Matrox de proceder de cette façon : La G400 etait déja une carte 128 bits et déja une carte nettement plus chere que la concurence a cause de sa largeur de bus. Comme la Parhelia, c'était pas la carte la plus puissante du marché a l'époque, ni celle qui utilisait a fond sa grosse bande passante.
Le problème est simple a comprendre : ATI et NVIDIA se font la guerre a coups de benchs et a coup de prix de vente. D'ou l'obligation d'essayer de tirer jusqu'au dernier pourcent de framerate possible de la bande passante allouée même si cela doit présenter des inconvénients par ailleurs.
La clientelle visée par ATI et NVIDIA est une clientelle qui peut changer de marque pour quelques centaines de francs en plus ou en moins. Mais de la même façon, cette clientelle est très sensible au résultats des benchs : 20% ne les laissent pas indifférents.
Citation :
Il faut etre sérieux, les optimisation sont bénéfiques dans la tres grande majorité des cas voire meme tout le temps (HSZ et hirarchicalZ par exemple). Matrox a fait une grosse erreur en pensant que son bus 256bit pouvait tout résoudre.
|
Vois tu, je suis les salons professionnels sur l'informatique et le MICAD en particulier.
Il m'est arrivé de discuter avec des developpeurs d'un soft de conception 3D Pro.
Ceux ci m'ont confié que la raison pour laquelle leur soft ne tournait pas sur les cartes grand publique était le respect très approximatif de la norme OpenGL plus que des problèmes de rapidité.
En effet, les softs 3D pro font apparement appels a plus de fonctions que les jeux. Il suffit qu'une fonction ne tourne pas bien pour qu'un soft soit inutilisable.
Un utilisateur particulier ne fera pas un fromage si un jeu ne tourne pas sur sa machine. Par contre, un utilisateur pro dont la carte ne donne pas 100% satisfaction dans LE soft qu'il utilise se verra contraint d'en changer.
Tu comprends donc pourquoi Matrox préfère mettre plus de puissance brute avec une algorithmique plus simples que l'inverse.
C'est a mon avis une bonne logique.
Cela n'empêche pas qu'ils integreront sûrement quelques algos d'optimisation un jour ou l'autre. Mais ils le feront avec plus de circonspection qu'ATI et NVIDIA.
Tu retrouve la même logique chez les fabricants de voiture. Certains préfèrent l'éprouvé et le sérieux quite a se passer de la dernière technologie ou de quelques % de perfs, d'autres préfèrent intégrer les dernières technologies pour être au top et dont tous les véhicules sont tous des versions bêta.
Entre ma Mercedes qui est plutôt rudimentaire et ma Citroën, il y en a une plus rudimentaire mais qui marche tout le temps (La merco) et l'autre plus a la pointe, plus magique, mais je suis tout le temps dessous. Le Mercedes a une plus grosse cylindrée et mange plus d'essence, elle coute très cher a l'achat. La Citroën en a moins mais avec un moteur turbo : Elle a plus de pêche et consomme nettement moins et coûte moins cher a l'achat. Mais question fiabilité il n'y a pas photo. Si je devais n'avoir qu'une seule voiture, je garderais la Mercedes.
Citation :
De plus, je n'ai jamais lu nul part qu'un alogo de compression pouvai conduire a des lag sur une carte 3D...
|
Un algo de compression, qu'il soit sur une carte 3D ou non obéit a certaines lois mathématiques qui sont connues.
Tout ce qui est vrai ne se dit pas forcément. Ne compte pas sur ATI et NVIDIA pour le dire. D'autre part les testeurs sont tellement obsédés par leur sacro saint framerate qu'ils ne voient pas forcément les détails. Déja quand je vois les tweak dans le driver d'une ATI Radeon 8500, je me demande comment les testeurs ont pu passer au travers.
Moi, je suis un joueur et un joueur exigeant aussi et j'ai le coup d'oeuf pour voir ce genre de détail au demeurant très gènant.
Mais tout ceci est parfaitement logique et pas etonnant d'un stricte point de vue technique.
Citation :
Par contre, tu trouve normal que matrox sorte un AA imparfait dans quelque situation mais pas une optimisation mémoire qui marche dans plus de 99.99% des cas ??
|
L'optimisation de l'AA de Matrox ne marche pas dans 100% des cas. Pas plus que les optimisations mémoires des ATI et NVIDIA.
Mais au moins dans ce cas, les conséquences sont mieux connues car beaucoup plus limitées que dans le cas des HSR et autres compressions du Z-Buffer ou les conséquences peuvent être plus embêtantes et a la fois moins cernables.
De plus, cette optimisation est déconnectable en cas de problème, ce qui n'est pas le cas des HSR & Co. La Matrox fournit egalement un AA 4X Classique (Dans laquelle elle ne brille pas particulièrement par ses perfs, mais bon, c'est logique).
Citation :
De plus les algo de compression des données Z ne "dégénére" pas comme que tu le dit. Tu a des sources qui affirme cela pour les carte 3D ?
|
Je suis programmeur depuis une vingtaine d'années. Je connais donc quand même un minimum toutes les sortes d'algos et j'ai aussi ecrit des moteurs 3D il y a quelques années. (Et a une epoque ou tu devait tout écrire. Depuis le moteur de jeu jusqu'au drivers pour le matos en passant par toutes les transformations mathématiques et les optimisations pour profiter d'une accélération matérielle pour tracer des polygones).
et que les conséquences que je décrit sont la simple conséquences mathématique connue et INEVITABLE de tout algo de compression. Surtout si il est non destructif comme l'est la compression des données du Z-Buffer.
Si je peut te donner un exemple, c'est la compression des DVD (Qui est assez complexe. Un peut dire que c'est a la fois une compression destructive mais avec des caractéristiques des compressions non destructives) ou parfois certaines scenes induisent des "lags" (Surtout sur petite config) lorsqu'il y a trop de mouvent a l'écran.
Citation :
Au pire, elle ne compresse rien du tout, ce qui est un cas quasi impossible à obtenir avec les algo de compression aujourd'hui.
|
La plus grande amélioration dans les algos de compression ces dernières années s'est faite dans le domaine des algos destructifs et pas grand chose dans les non destructifs.
Et de toute manière, on a rien revolutionné en ce qui concerne le risque de dégénérescence.
Tu peut parfaitement te retrouver avec plus de données que sans compression. Et si l'algo est assez intelligent pour ne pas comprimer dans ce cas, il y a tout de même beaucoup de temps perdu.
Ce qui implique une très grande variabilité potentielle en fonction des scenes.
Le résultat c'est qu'une scene dont les variations des données du Z-Buffer ne conviendraient pas a l'algo de compression pourrait faire complètement dérailler un R-300.
Citation :
De plus, le tout est cablé en hardware donc il n'y a aucun ralentissement lors de la compression, meme dans le pire des cas.
|
Ca c'est toi qui le dit. Et j'imagine même pas la complexité des contrôleurs mémoire et de tous les effets de bord mathématique que cela induit.
Non, avec de tels algos, on se retrouve inmanquablement avec une potentialité mathématique d'instabilité majeures.
C'est dans la même veine que tous ces programmes ou les cas d'erreur ne sont pas gérés : La plupart du temps, ça "marche"...
ATI et NVIDIA sortent leurs cartes quand elles "marchent". Mais il y a toujours pleins de petits problèmes.
Citation :
Il faut évoluer un peu aussi et ne pas avoir peur d'optimiser ses processeurs.
|
Fait il intégrer les "evolutions" sans réfléchir ?
Il n'y a pas de révolution. C'est bien une façon de voir comemrciale que de faire croire que "Evolution = Bien". Dans la pratique il faut être plus nuancé. Dans tout algorithme il y a du bon et du moins bon. En fonction des usages, ça peut être une amélioration ou au contraire un pas en arrière ou des problèmes.
Citation :
Mais de toute façon, si matrox pouvais revenir en arriére, je suis certain qu'il integrerai une optimisation mémoire qui ne gache en rien la qualité en 3D ni en 2D
|
Je ne pense pas qu'ils le feraient. Si ils ne l'ont pas fait, c'est parce qu'il y a de bonnes raisons. Une CG ne se conçoit pas comme des petits pains mais plusieurs années en arrière.
Déja le développement ***SERIEUX*** d'un tel algorithme prends pas mal de temps et pas juste 2 mois.
Comme je l'ai dit plus haut, tu peut t'attendre a ce qu'ils le fassent progressivement dans le futur pour les optimisations les plus interessantes et les plus maitrisables.
Mais tu peut t'attendre a ce qu'ils mettent plus de temps a les developper qu'ATI et NVIDIA. Et d'autre part on en reviendra toujours a la même discussion car par définition ils n'integreront jamais autant d'optimisations que ATI et NVIDIA.
Le fond de commerce de Matrox, c'est de faire des cartes qui fonctionnent mieux. Ils n'y a pas de secret : Ils ne pouront le garder que si leur moteur reste plus simple que celui des concurents.
On en reviendra toujours a la même chose. En informatique il y a des lois qui reviennent :
Simplicité = Fiabilité = Stabilité = Facilité de maintenance.
Complexité = Bugs = Difficultés de maintenance = Problèmes.
Citation :
Je suis tout a fait d'accord pour dire que la parhélia est faite pour les pro tres pointilleux mais encore, pas tout les pro. Des personnes travaillant dans le graphisme 3D se tourneront plus vers des quadro ou fireGl plutot que matrox.
Des pesonnes qui bosse sur du texte etc... tt la journé se contente d'une G550.
|
Comme je l'ai expliqué plus haut, contrairement au jeux vidéo, dans la conception 3D (CAO) on privilégie plus la compatibilité et la fiabilité que la rapidité.
Mais tu as raison de dire que tout les pros n'ont pas non plus les mêmes usages et les même besoins.
Quand a ceux qui ne joue jamais et ne font jamais rien sur de la 3D, je suis d'accord avec toi qu'une G550 suffit amplement. (D'ailleurs Matrox continue a la fabriquer et la vends apparement encore très bien.)
Citation :
La parhélia est une sorte d'hybride. Trop chére pour ceux qui ne font que de la bureautique et pas assez puissante pour ceux qui bosse sur des logiciels de modélisation (quadro, fireGL et autre carte pro 3D bien plus spécialisé et rapide que la parhélia et le R300 classique).
|
Pour ce qui est de la 3D pro, comme je l'ai dit plus haut, ça se discute. Et une Quadro n'est pas donnée non plus...
Ceux qui font de la bureautique pure : La G550 convient très bien.
La Parhelia est donc comme tu le précise un hybride entre tous les types.
Ca convient très bien a quelqu'un comme moi qui suis amené a faire tout avec ma CG : Travailler longtemps : bureautique, Graphisme, Cao. Mais aussi : jouer et regarder des DVD.
Je suis très content que la Parhelia soit sorti. Parce que la G550 c'était plus trop la joie en 3D.
Citation :
Ensuite, tu parle d'une tres bonne gestion de l'agp de la matrox dans un post, et dans un autre, des gros pb de frame rate dans les appli en haute résolution a cause de l'agp texturing. (passant du simple au double )
Paradoxale non
|
J'ai pas parlé de problème avec l'AGP. Il n'y a aucun problème.
Pour résumer, la Parhelia optimise ses performances avec une apperture size de 256mb.
Cela ne signifie ni qu'elle ne fonctionne pas correctement sans ce règlage, ni qu'elle rame a mort.
Dans la pratique, les tests ont démontré que ce règlage fait gagner tout au plus quelques fps dans les jeux et uniquement en OpenGL.
Par contre, il est clair que ça fait gagner beaucoup plus sur les benchs pro ou la carte peut doubler ses perfs.
Apparement, c'est pas un problème technique mais simplement une caractéristique technique dont la Parhelia a besoin pour aller chercher ses données.
C'est pas lié a l'AGP texturing. Apparement, c'est plutot en rapport avec l'unité de traitement géométrique.
Tous les tests fait par la presse sur l'AGP montrent que la Matrox est beaucoup plus rapide sur l'AGP que ses concurentes.
Citation :
Au final, comme tu le dit, matrox c'est bien pour les appli pro 2D.
Mais une G550 c'est aussi bien dans ce cadre pro. Toi tu consilli les 2 (jeux et travaille) mais dans une entreprise, un poste sert rarement a la bureautique et a la 3D (je parle meme pas des jeux). Et en bureautique, une simple G550 ou meme G400 suffi largement et coute bien moins chére.
|
Tu as pas complètement tort. Des secretaires n'ont que faire d'une Parhelia.
Mais tout dépends de ce que tu fais dans ta boite.
Nous ici, on crache pas sur un réseau aux heures perdues. Ca fait partie de la culture informatique.
Personellement, je pense que si on faisait jouer de temps en temps les secrétaires, elles deviendraient plus productives dans leur boulot.
Citation :
PS: Les arguments style matrox n'a pas implémenté de compression de données car c'est pas au point, a d'autre.
|
On peut toujours discuter sur du vide. Si tu avais un des bases en programmation, tu saurait que ce que je dis est réel.
Je peut pas te retracer 20 ans d'expérience en 3 lignes non plus ni t'expliquer les caractéristiques mathématiques des algos.
Tout ce que je peut faire, c'est te conseiller d'essayer de comprendre plus loin si cela te passionne.
Citation :
Meme les carte pro maintenant utilise ce genre de compression non destructrice. Et comme je le dit plus haut, ou tu a lu qu'il y avait des lag quand la carte n'arrive pas a compressé des données ??
|
On a fait remarquer que beaucoup de carte pro ne les utilisaient pas. Et que de plus, je ne sait pas ce que tu appelle des cartes pros.
C'est pas les FireGL ni les Quadro qui sont des cartes pro.
Apparement, les cartes vraiment pro valent souvent entre 30 et 60 kf et ne se vendent pas dans les boutiques.
Citation :
La compression est cablée en hardware et une compression, meme minime, est toujour possible.
|
La compression, même cablée en hardware ne transgresse ni les lois de la physique, ni les lois mathématiques.
La compression cablée en hardware suit les mêmes lois que les algos en software.
Les phénomènes que je décrit sont liés aux algos : C'est indépendant du fait qu'ils soient implémentés en hardware ou en soft.
---------------
TOPIC PERMANENT Matrox Parhelia