Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3928 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  7  8  9  ..  37  38  39  40  41  42
Auteur Sujet :

Topic unique Matrox Parhelia

n°2798649
sr16
@*#%$*%§!!
Posté le 28-10-2003 à 16:17:14  profilanswer
 

Reprise du message précédent :

cydrec a écrit :

acheter une carte jusqu a 6x plus cher pour des perfs jusqu a 2 ou 3x inferieur a materiel equivalent... d autant plus qu aujourd hui niveau drivers et qualite d affichage tout se vaut
 
mais ca reste du matrox :love: pasque nous le valons bien !


 
Ben en gros la Parhelia est a 3000 balles. Et son equivalent en perfs réelles en 3D doit se trouver aux alentours de 1000 balles.(C'est quand même une CG plus rapide en pratique qu'une simple Radeon 8500).
 
Donc un prix 3 fois supérieur a perfs 3D pur equivalents. Ou en d'autres termes un surcout de 2000 frs.
 
Par contre, pour la qualité d'affichage je ne suis pas d'accord : La matrox est largement supérieure aux autres. Même aux meilleures ATI. C'est incontestablement les champions question piqué sur un CRT.
Apparement les composants nécéssaires pour obtenir un bon piqué coutent cher. Pour preuve, la seule carte qui tient la comparaison avec la Parhelia c'est la Matrox G400/G400Max (Les G450 et G550 sont très inférieures) et c'étaient des cartes pas données non plus.
Si vous allez vous balader sur les forums, vous verrez des avis d'utilisateurs de NVidia Quadro qui confirment que la qualité d'affichage de la Parhelia n'a rien a voir.
 
Je pense que par rapport aux prix d'un bon PC, ce surcout de 2000frs n'est pas la mort. Et même dans le cadre d'un usage non pro c'est réellement un achat qui apporte un confort non négligeable pour les gens qui passent des heures devant leur écran.
Calculez en pourcentage du prix d'un bon PC. C'est ridicule.
 
Pour la stabilité, les drivers Matrox sont aussi incontestablement plus stables. C'est assez facile a comprendre pourquoi. ATI et NVIDIA les modifient tout le temps pour essayer d'optimiser les perfs. Et quand on modifie on introduit obligatoirement des bugs. Ne me dites pas que c'est pas vrai : Je suis programmeur et c'est une loi immuable : Même un excellent programmeur fait 1 bug pour x lignes de codes produites.
Ce qu'a fait matrox pour l'instant, c'est surtout de corriger les bugs d'un driver a l'autre même si ils ont un peu optimisé le code OpenGL quand même. Ils avaient d'ailleurs prévenu a la sortie de la Parhelia qu'ils ne feraient pas des optimisations de la mort pour gagner 10 fps a quake III mais qu'ils essayeraient surtout d'avoir des drivers professionnels stables et compatibles adaptés au travail sur des softs pro.
 
Maintenant vous allez me dire que la Parhelia a beaucoup moins d'interet avec des moniteurs LCD. C'est vrai. Encore que ça semble pour l'instant encore la seule carte qui est munie de deux TMDS haute résolution pour afficher en numérique en dualhead sur des écrans LCD.
 
De toute manière la Parhelia date maintenant de près d'un an et demi. C'est beaucoup pour une CG. C'est certain que comme toutes les CG elle finira dépassée.


Message édité par sr16 le 28-10-2003 à 16:19:31
mood
Publicité
Posté le 28-10-2003 à 16:17:14  profilanswer
 

n°2798660
Anakin Sky​walker
Ubuntu user
Posté le 28-10-2003 à 16:24:12  profilanswer
 

Sr16 a écrit :


 
Par contre, pour la qualité d'affichage je ne suis pas d'accord : La matrox est largement supérieure aux autres. Même aux meilleures ATI. C'est incontestablement les champions question piqué sur un CRT.


 
+10
 

Sr16 a écrit :


Je pense que par rapport aux prix d'un bon PC, ce surcout de 2000frs n'est pas la mort. Et même dans le cadre d'un usage non pro c'est réellement un achat qui apporte un confort non négligeable pour les gens qui passent des heures devant leur écran.
Calculez en pourcentage du prix d'un bon PC. C'est ridicule.


+1
 

Sr16 a écrit :


Pour la stabilité, les drivers Matrox sont aussi incontestablement plus stables. C'est assez facile a comprendre pourquoi. ATI et NVIDIA les modifient tout le temps pour essayer d'optimiser les perfs. Et quand on modifie on introduit obligatoirement des bugs. Ne me dites pas que c'est pas vrai : Je suis programmeur et c'est une loi immuable : Même un excellent programmeur fait 1 bug pour x lignes de codes produites.
Ce qu'a fait matrox pour l'instant, c'est surtout de corriger les bugs d'un driver a l'autre même si ils ont un peu optimisé le code OpenGL quand même. Ils avaient d'ailleurs prévenu a la sortie de la Parhelia qu'ils ne feraient pas des optimisations de la mort pour gagner 10 fps a quake III mais qu'ils essayeraient surtout d'avoir des drivers professionnels stables et compatibles adaptés au travail sur des softs pro.


+1
 
En plus Matrox propose de bons pilotes Linux et soutient la communauté Linux
 

Sr16 a écrit :


Maintenant vous allez me dire que la Parhelia a beaucoup moins d'interet avec des moniteurs LCD. C'est vrai. Encore que ça semble pour l'instant encore la seule carte qui est munie de deux TMDS haute résolution pour afficher en numérique en dualhead sur des écrans LCD.


 
En plus elle permet de faire du trialhead, et ca c'est pas mal du tout  :)


Message édité par Anakin Skywalker le 28-10-2003 à 16:25:17
n°2798661
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-10-2003 à 16:24:21  profilanswer
 

Sr16 a écrit :

Certes, Matrox a menti et surtout leurs execrables commerciaux l'ont plus qu'un peu trop ramenés(et malheureusement discrédité un excellent produit...).

Le problème est bien là, le débat de savoir si le support ou non des VS 2.0 est essentiel si il n'est pas lié au support des PS 2.0 est ... un autre débat.
 
Zeross, toi qui programme un peu en 3D, est il possible d'acceder au Displacement Mapping sans passer par les VS 2.0 en DX ? Dans le cas contraire, ce serait une autre fonction sur laquelle Matrox a fait sa pub qui s'envole ...

n°2798667
sr16
@*#%$*%§!!
Posté le 28-10-2003 à 16:28:58  profilanswer
 

Zeross a écrit :

Les VS2.0 personnellement ce n'est pas quelque chose qui m'importe beaucoup : les VS sont déjà globalement utilisables de façon suffisemment flexible. Alors oui c'est toujours regrettable qu'une fonction soi disant supportée par le hardwar ene soit pas accessible, ceci dit c'est plus regrettable pour le DM que pour les VS2.0


 
Tu est sûr que le DM n'est pas dispo ? Ca par contre il me semblait bien que c'est implémenté. Sous réserve de vérification donc.
 
C'est certain que ça peut être vu comme dommage pour les VS2.0. D'un autre côté je préférerais qu'ils utilisent leur temps pour nous faire une Parhelia 2 que pour nous faire un truc qui servira pas.
 

Citation :

Par contre ce qui m'embête c'est l'absence de support de ARB_vertex_program sous OpenGL parce que ça ne demanderait pas beaucoup d'efforts de passer de EXT_vertex_shader à cette version officielle et ça serait utile : par exemple John Carmack a annoncé avoir abandonné les extensions propriétaires au profit de celles de l'ARB. Il a pas mal hésité a laissé l'ancienne version avec les extensions spécifiques (car n'avoir que la version ARB oblige l'utilisateur à disposer de drivers relativement récents) mais a fini par trancher et enlever toutes les références vers NV_vertex_program et EXT_vertex_shader de son code. Ce qui signifie que les utilisateurs de Parhelia devront se passer du support des vertex programs sous Doom III alors qu'avec un tout petit effort côté drivers ce ne serait pas le cas :/


 
C'est certain que ça serait bien qu'ils le fassent. D'un autre côté ils l'ont peut être prévu. Pour l'instant il n'y a pas urgence.
Quand a Doom III, quel que soit ce que fera Matrox, c'est un jeu qui dépasse apparement déja les capacités des Radeon 9800. Alors je pense que ça sera le cadet des soucis des utilisateurs de Parhelia.

n°2798701
Cydrec
Posté le 28-10-2003 à 16:46:12  profilanswer
 

Sr16 a écrit :


 
Ben en gros la Parhelia est a 3000 balles. Et son equivalent en perfs réelles en 3D doit se trouver aux alentours de 1000 balles.(C'est quand même une CG plus rapide en pratique qu'une simple Radeon 8500).
 
Donc un prix 3 fois supérieur a perfs 3D pur equivalents. Ou en d'autres termes un surcout de 2000 frs.
 
Par contre, pour la qualité d'affichage je ne suis pas d'accord : La matrox est largement supérieure aux autres. Même aux meilleures ATI. C'est incontestablement les champions question piqué sur un CRT.
Apparement les composants nécéssaires pour obtenir un bon piqué coutent cher. Pour preuve, la seule carte qui tient la comparaison avec la Parhelia c'est la Matrox G400/G400Max (Les G450 et G550 sont très inférieures) et c'étaient des cartes pas données non plus.
Si vous allez vous balader sur les forums, vous verrez des avis d'utilisateurs de NVidia Quadro qui confirment que la qualité d'affichage de la Parhelia n'a rien a voir.
 
Je pense que par rapport aux prix d'un bon PC, ce surcout de 2000frs n'est pas la mort. Et même dans le cadre d'un usage non pro c'est réellement un achat qui apporte un confort non négligeable pour les gens qui passent des heures devant leur écran.
Calculez en pourcentage du prix d'un bon PC. C'est ridicule.
 
Pour la stabilité, les drivers Matrox sont aussi incontestablement plus stables. C'est assez facile a comprendre pourquoi. ATI et NVIDIA les modifient tout le temps pour essayer d'optimiser les perfs. Et quand on modifie on introduit obligatoirement des bugs. Ne me dites pas que c'est pas vrai : Je suis programmeur et c'est une loi immuable : Même un excellent programmeur fait 1 bug pour x lignes de codes produites.
Ce qu'a fait matrox pour l'instant, c'est surtout de corriger les bugs d'un driver a l'autre même si ils ont un peu optimisé le code OpenGL quand même. Ils avaient d'ailleurs prévenu a la sortie de la Parhelia qu'ils ne feraient pas des optimisations de la mort pour gagner 10 fps a quake III mais qu'ils essayeraient surtout d'avoir des drivers professionnels stables et compatibles adaptés au travail sur des softs pro.
 
Maintenant vous allez me dire que la Parhelia a beaucoup moins d'interet avec des moniteurs LCD. C'est vrai. Encore que ça semble pour l'instant encore la seule carte qui est munie de deux TMDS haute résolution pour afficher en numérique en dualhead sur des écrans LCD.
 
De toute manière la Parhelia date maintenant de près d'un an et demi. C'est beaucoup pour une CG. C'est certain que comme toutes les CG elle finira dépassée.

:love:  :love:  :love: matrox forever, que du bonheur !!!
 
j espere qu il y aura une descendance, ca me ferait mal de tomber aux moins de la mediocrite tel nvidia ou ati :cry: mais bon, cette semaine je change enfin de proc, ma parhelia va enfin pouvoir s exprimer  :D

n°2798708
Zeross
Posté le 28-10-2003 à 16:49:54  profilanswer
 

Marc a écrit :

Zeross, toi qui programme un peu en 3D, est il possible d'acceder au Displacement Mapping sans passer par les VS 2.0 en DX ? Dans le cas contraire, ce serait une autre fonction sur laquelle Matrox a fait sa pub qui s'envole ...


 
Bon je ne suis pas spécialiste du sujet mais ce que je peux dire : a priori le DM est totalement indépendant des unités de VS donc là dessus ça ne poserait pas de problème. Par contre le DM n'est disponible que sous DirectX 9 et d'après ce que j'ai lu (à confirmer vu que c'était un post sur un forum mais la source était un gars du service de relation avec les développeurs de Matrox) Matrox n'a pas encore envisagé de driver DirectX 9 pour la Parhelia, tout du moins pas de driver exposant la fonctionnalité.
 
Comment fonctionnaient les démos de DM de Matrox ? Tout simplement à l'aide d'un SDK qui étendaient DirectX 8 pour permettre d'atteindre cette fonctionnalité. Problème ce SDK n'est pas (plus ?) disponible. Il semble donc qu'il n'y ait aucun moyen pour un programmeur d'utiliser cette fonctionnalité. Bon fondamentalement c'est pas trop grâve vu que le parc de Parhelia n'aurait sans doute pas incité les développeurs à l'utiliser, mais c'est quand même dommage d'un point de vue purement technique car c'est le genre de fonctionnalité innovante qu'un programmeur aime bien expérimenter même si c'est uniquement dans un but de recherche.  
 
Bref pour voir du DM il faudra attendre les prochains chips supportant les VS3.0


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2798734
sr16
@*#%$*%§!!
Posté le 28-10-2003 à 17:03:45  profilanswer
 

Marc a écrit :

Le problème est bien là, le débat de savoir si le support ou non des VS 2.0 est essentiel si il n'est pas lié au support des PS 2.0 est ... un autre débat.


 
La je suis entièrement d'accord.
 
C'est d'autant plus dommage, c'est que c'est un produit de bonne qualité qui a un marché potentiel.  Leur erreur, c'est que leur communication a trop visé le marché des gammers pour laquelle elle n'est manifestement pas un produit compétitif ce qui lui a valu de se faire complètement discréditer.  
Il est evident que Matrox a crée une carte dont les principaux points forts n'interessent que très peu le grand public. Surtout eut egard a ce que coute la carte.
 
Les commerciaux de Matrox sont très mauvais. Au lieu de vendre leur produit a ceux pour qui ses fonctionnalités sont adaptées et qui auraient accueillis la solution a bras ouverts, ils se sont échinés a faire une communication de merde pour tenter de duper les joueurs.  
 
Le mot duperie n'est pas de trop : Comme l'a résumé quelqu'un sur le forum Murc, ils ont trop lourdement insisté a base de superlatifs sur le Surround Gamming qui permet de jouer sur 3 écrans a une vitesse "incredibly slow" et a une résolution "incredibly low".
Si elle se révèle utilisable a UT2003 puisque j'y joue tous les soirs et que c'est pas mal même en mode invasion avec des tirs et des monstres partout, en revanche je n'ose pas imaginer en triplehead. Même en basse résolution, vu le nombre de pixels, c'est pas la peine.
Pourtant ils en font bien la pub sur leur site.
 
La morale de l'histoire, c'est que quand on prends les gens pour des imbéciles, on se discrédite. C'était visiblement pas une bonne chose : Matrox disposait d'une super image. Tout est a refaire. Je serais les actionnaires de Matrox, je demanderais la tête des responsables du service commercial.  
 

Citation :

Zeross, toi qui programme un peu en 3D, est il possible d'acceder au Displacement Mapping sans passer par les VS 2.0 en DX ? Dans le cas contraire, ce serait une autre fonction sur laquelle Matrox a fait sa pub qui s'envole ...


 
Ca c'est une excellente question.
 
Derriere le côté passionnel, la question principale que je me pose, c'est de savoir concrêtement si on rate quelque d'important chose en pratique.
 
A propos, Marc, j'ai adoré cet article : http://www.hardware.fr/articles/51/page2.html
 
Ca serait une bonne idée d'y metre les cartes récentes et leur architecture.
 
Si je ne m'abuse la Parhelia est une 4 pixels pipelines avec 4 texture engines qui sont chacun capable d'aller chercher 4 texels. Donc en tout 64 texels simultanés. Le tout a 200-220 mhz.


Message édité par sr16 le 28-10-2003 à 17:08:48
n°2798748
sr16
@*#%$*%§!!
Posté le 28-10-2003 à 17:11:13  profilanswer
 

Zeross a écrit :


 
Bon je ne suis pas spécialiste du sujet mais ce que je peux dire : a priori le DM est totalement indépendant des unités de VS donc là dessus ça ne poserait pas de problème. Par contre le DM n'est disponible que sous DirectX 9 et d'après ce que j'ai lu (à confirmer vu que c'était un post sur un forum mais la source était un gars du service de relation avec les développeurs de Matrox) Matrox n'a pas encore envisagé de driver DirectX 9 pour la Parhelia, tout du moins pas de driver exposant la fonctionnalité.
 
Comment fonctionnaient les démos de DM de Matrox ? Tout simplement à l'aide d'un SDK qui étendaient DirectX 8 pour permettre d'atteindre cette fonctionnalité. Problème ce SDK n'est pas (plus ?) disponible. Il semble donc qu'il n'y ait aucun moyen pour un programmeur d'utiliser cette fonctionnalité. Bon fondamentalement c'est pas trop grâve vu que le parc de Parhelia n'aurait sans doute pas incité les développeurs à l'utiliser, mais c'est quand même dommage d'un point de vue purement technique car c'est le genre de fonctionnalité innovante qu'un programmeur aime bien expérimenter même si c'est uniquement dans un but de recherche.  
 
Bref pour voir du DM il faudra attendre les prochains chips supportant les VS3.0


 
Le DM n'est pas disponible sur les CG DX9 courantes ?

n°2798761
Zeross
Posté le 28-10-2003 à 17:18:27  profilanswer
 

Non pour faire du vrai DM il faut pouvoir accéder à une texture dans un vertex shader pour pouvoir déplacer sa position de façon appropriée. Aucune carte en supporte encore cette fonctionnalité (La Parhelia dispose d'une unité spécifique pour résoudre ce problème mais ce n'est pas programmable directement dans les VS).


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2798778
themadcow
Matroxien dans l'âme
Posté le 28-10-2003 à 17:33:25  profilanswer
 

Sr16 a écrit :


 
Je serais les actionnaires de Matrox, je demanderais la tête des responsables du service commercial.  


 
Juste pour info, Matrox n'a pas d'actionnaires, la société n'est coté sur aucun marché boursier, elle appartient encore aux fondateurs !

mood
Publicité
Posté le 28-10-2003 à 17:33:25  profilanswer
 

n°2798785
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-10-2003 à 17:37:22  profilanswer
 

TheMadcow a écrit :

Juste pour info, Matrox n'a pas d'actionnaires, la société n'est coté sur aucun marché boursier, elle appartient encore aux fondateurs !

Il a donc au moins comme actionnaires les fondateurs ;) (plus quelques investisseurs privés certainement).

n°2798804
Zeross
Posté le 28-10-2003 à 17:46:22  profilanswer
 

Sr16 a écrit :


 
La je suis entièrement d'accord.
 
C'est d'autant plus dommage, c'est que c'est un produit de bonne qualité qui a un marché potentiel.  Leur erreur, c'est que leur communication a trop visé le marché des gammers pour laquelle elle n'est manifestement pas un produit compétitif ce qui lui a valu de se faire complètement discréditer.  
Il est evident que Matrox a crée une carte dont les principaux points forts n'interessent que très peu le grand public. Surtout eut egard a ce que coute la carte.


 
Je reviens là dessus pour modérer un peu ton point de vue : il ne faut pas perdre de vue une chose : les commerciaux n'y connaissent pas grand chose et hype un peu en fonction de ce qu'on leur a dit du hardware ce n'est pas eux qui ont été inventer le support pour les VS DirectX 9. Donc à mon avis si erreurs il y a eu le tort est un peu partagé : si cette carte a été présenté comme une carte de gamer c'est parce qu'elle était clairement orientée dans ce but : des fonctionnalités comme le DM, les VS2.0, le FAA tout ça montre bien que cette carte avait dés le départ une vocation de carte pour joueurs. Si Matrox n'avait pas voulu toucher ce public il y aurait eu bien mieux à faire de leur quotat de transistors que d'inclure des fonctionnalités (finalement même pas supportées) qui n'intéressent pas vraiment le marché pro.
 

Citation :

Les commerciaux de Matrox sont très mauvais. Au lieu de vendre leur produit a ceux pour qui ses fonctionnalités sont adaptées et qui auraient accueillis la solution a bras ouverts, ils se sont échinés a faire une communication de merde pour tenter de duper les joueurs.


 
Ils essaient de vendre ce qu'on leur donne  [:spamafote]  
En l'occurrence une carte orientée jeux pas performante dans ces conditions et trop chère face à la concurrence. Ils n'ont fait que mettre l'accent sur les "points forts" du Parhelia le problème c'est que ces "points forts" tournaient autour du jeu.
 

Citation :

A propos, Marc, j'ai adoré cet article : http://www.hardware.fr/articles/51/page2.html
 
Ca serait une bonne idée d'y metre les cartes récentes et leur architecture.
 
Si je ne m'abuse la Parhelia est une 4 pixels pipelines avec 4 texture engines qui sont chacun capable d'aller chercher 4 texels. Donc en tout 64 texels simultanés. Le tout a 200-220 mhz.


 
Avec les chips actuels (génération DirectX 9) ça n'a plus grand sens de continuer à les représenter de cette façon et ça en devient même trés compliqué (nVidia ?  :whistle: ) les chips ne sont plus de bêtes rasterizers comme à l'époque donc ce qui est intéressant ce n'est plus le nombre de pixels/texels mais bien le nombre d'opérations flottantes accessibles.


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2798980
sr16
@*#%$*%§!!
Posté le 28-10-2003 à 19:35:06  profilanswer
 

Zeross a écrit :


 
Je reviens là dessus pour modérer un peu ton point de vue : il ne faut pas perdre de vue une chose : les commerciaux n'y connaissent pas grand chose et hype un peu en fonction de ce qu'on leur a dit du hardware


 
Si les commerciaux n'y connaissent parfois pas grand chose, en revanche un responsable du marketing se doit d'être un peu moins ignorant en la matière. Dans toutes les grandes boites, tu as des technico commerciaux.  
La première chose qu'aurait exigé un bon technico commercial, c'est un bench réel de la carte. Et plus sérieusement une evaluation complète du produit. Quand on lance un produit, la moindre des choses c'est de faire un état des lieux précis de ses points forts et faibles réels au moment ou on le lance. Et de déterminer une stratégie commerciale en fonction. C'est le baba du commercial. Et c'est la fonction du service commercial.
Faut pas me dire que les pauvres ne savaient pas. Si ils sont pas capable de ça, faut les virer d'urgence.
Il ne faut pas venir me dire qu'ils n'était pas possible d'obtenir des benchs de la carte avant son lancement. Et d'autre part leur politique de communication n'a pas bougée, même 1 an et demi après leur site continue a clamer qu'ils ont "the leading fastest new stunning powerful 3D accélérator" ou autres conneries dans ce genre...
 

Citation :

ce n'est pas eux qui ont été inventer le support pour les VS DirectX 9.


 
Mais ils savaient tous que ça n'était pas pret. Les commerciaux y compris.
Mais je ne pense pas qu'ils ont sciement inventé des specs fallacieuse. Les démos montrent bien que le Hardware de la parhelia supporte bien le DM.
Je pense qu'au départ ils pensaient tout a fait les implémenter.
Et puis, comme la Parhelia a fait un bide ils ont du s'adapter. C'est logique. Je pense que les (rares) acheteurs préfèrent une carte qui marche bien sans DM et VS-2.0 que le contraire.
 
Si Matrox implémente les VS2.0 ça ne servira a rien vu qu'aucun jeu ne les utilisera a part sans le support complet de DX9.0. Pour le DM, c'est un peu du même accabit. Si ils l'implémentent ils seront les seuls a le supporter. Ca fera peut être plaisir aux quelques développeur qui veulent s'amuser avec. Mais en attendant il n'y aura uncune appli qui en tirera parti.
Si tout le monde attends les VS3.0 pour l'implémenter, c'est probable que toute autre implémentation ne servira strictement a rien.
Bon, c'est quand même une bonne chose qu'une entreprise soit capable de laisser tomber une idée inutile.
Au départ, quand ils l'ont promis ils s'attendaient surement a ce que leur CG soit mieux accueilli. Tout auraient peut être été différent.
 
Je pense que si les développeurs avaient projetés de faire des jeux exploitant cette capacité sur la Parhelia, Matrox l'aurait vraiment sortie. C'est evident que vu l'accueil qui a été fait a cette carte, il n'y aura pas de jeux l'utilisant. Donc ça sers a rien que Matrox fasse un driver avec des fonctions qui n'auront aucune utilité.
 

Citation :

Donc à mon avis si erreurs il y a eu le tort est un peu partagé : si cette carte a été présenté comme une carte de gamer c'est parce qu'elle était clairement orientée dans ce but : des fonctionnalités comme le DM, les VS2.0, le FAA tout ça montre bien que cette carte avait dés le départ une vocation de carte pour joueurs. Si Matrox n'avait pas voulu toucher ce public il y aurait eu bien mieux à faire de leur quotat de transistors que d'inclure des fonctionnalités (finalement même pas supportées) qui n'intéressent pas vraiment le marché pro.


 
Evidement que la carte visait au moins en partie les joueurs. En fait le public visé était un marché semi pro. Des gens comme moi en somme qui ont besoin d'une carte qui affiche bien et qui fait de la 3D de manière correcte. Ca a bien marché avec la G400 d'ailleurs. Matrox en a vendu des Wagons.
Maintenant un projet de ce type se lance longtemps a l'avance et l'état du marché au moment de la sortie est totalement inconnu.
ATI et NVIDIA du fait de leur guerre ont avancé très vite. Et surtout ATI a sorti l'excellent R300.
Si le Parhelia avait été dispo 8 mois avant et si le R300 etait arrivé plus tard, nul doute que la Parhelia aurait été un succès.
 
Maintenant, quand on se rate, on s'adapte...
 
Je pense que pour l'instant les acheteurs de la Parhelia n'ont pas trop a se plaindre du produit en tant que tel. A part ceux qui se sont trompé de produit.
Le problème c'est que Matrox veut vendre un excellent camion a des gens qui veulent une formule 1, c'est pas etonnant que tout le monde crie "au voleur" et certains acheteurs seront déçus, c'est evident (ce qui fait de la sale pub). Pour ceux qui voulaient un bon camion, il n'y a pas de problème.  
Il y a sur les forums de nombreux acheteurs contents et qui le clament. Ceux qui en sont pas contents ce sont la plupart du temps mépris : C'était une Radeon 9700Pro qu'il leur fallait.  
Malheureusement il faut bien admètre que Matrox est a blamer dans l'histoire.
 
Je pense qu'il est aujourd'huis faux de dire qu'une carte avec des capacités 3D vise les joueurs et qu'une qui as des capacités 2D vise les pro. C'etait valable il y a 5 ans.
Aujourd'huis toute carte doit avoir des capacités 3D suffisante. Une carte doit être polyvalente même si elle est spécialisée.
 

Citation :

Ils essaient de vendre ce qu'on leur donne  [:spamafote]  
En l'occurrence une carte orientée jeux pas performante dans ces conditions et trop chère face à la concurrence. Ils n'ont fait que mettre l'accent sur les "points forts" du Parhelia le problème c'est que ces "points forts" tournaient autour du jeu.


 
Justement, si tu regarde bien la Parhelia a de gros points forts en ce qui concerne l'aspect pro. Et pour le pro, cette carte n'est pas si chère que ça. Pour un pro, investir 50.000 frs de matos et softs c'est courant. C'est pas 2000 balles de plus qui vont le ruiner.
Sans compter que la 3D interesse plus de gens que tu ne penses.  
Quasiment a partir du moment ou tu veut un 21" avec un affichage sérieux ou du dualhead, c'est une CG Matrox qu'il te faut.  
Et si tu as envie de te faire un peu de jeu ou de modélisation 3D avec, il n'y a que la Parhelia sur le marché.
Pour moi a l'époque le choix entre Parhelia et Radeon 9700 pro a été vite fait : Je voulais une carte au top question qualité d'affichage car je passe beaucoup de temps devant les ecrans.
 
Maintenant il y a les P650/P750 pour ceux qui veulent pas de la 3D. Mais ceux qui ont acheté une Parhelia c'est parce que la 3D ils en veulent quand même.
 

Citation :

Citation :

A propos, Marc, j'ai adoré cet article : http://www.hardware.fr/articles/51/page2.html
 
Ca serait une bonne idée d'y metre les cartes récentes et leur architecture.
 
Si je ne m'abuse la Parhelia est une 4 pixels pipelines avec 4 texture engines qui sont chacun capable d'aller chercher 4 texels. Donc en tout 64 texels simultanés. Le tout a 200-220 mhz.


 
Avec les chips actuels (génération DirectX 9) ça n'a plus grand sens de continuer à les représenter de cette façon et ça en devient même trés compliqué (nVidia ?  :whistle: ) les chips ne sont plus de bêtes rasterizers comme à l'époque donc ce qui est intéressant ce n'est plus le nombre de pixels/texels mais bien le nombre d'opérations flottantes accessibles.


 
Mais on peut faire evoluer la représentation. Il est tout a fait possible de modéliser les architectures dans leur grande lignes avec une représentation graphique.
Certes ça n'indique pas forcément tout (mais a l'époque non plus) mais ça aide a comprendre.
D'autre part on voit très bien quand même que même aujourd'huis c'est pas si inutile que ça. Si ATI a fait un chip en 8x1 c'est pas sans conséquence. Ca aide aussi a comprendre les déclinaisons. Notament chez ATI ou c'est assez compliqué et ou les chips sont déclinés par désactivation de certaubs pipes et d'unités de shaders.
Les bus de données sont aussi déclinés. Entre le 256 et le 512 bits.
 
D'ailleurs on voit directement la relation entre l'architecture et les perfs : Entre la Parhelia 512 et les P750 ou on voit bien que de couper le chip en deux donne des performances presque strictement coupées en deux aussi.
 
Quand a la précision de calcul d'une unité, ça peut aussi figurer sur le schéma. C'est peut être compliqué, mais c'est quand même très parlant.
 
Bien que ça n'indiquera pas les différences dues a la qualité de l'optimisation sur chaque ensemble, ça donne quand même une idée de ce que les chips peuvent traiter.


Message édité par sr16 le 28-10-2003 à 21:48:35
n°2799093
sr16
@*#%$*%§!!
Posté le 28-10-2003 à 21:44:40  profilanswer
 

Tiens, a propos de cartes, Matrox n'arrête pas d'en sortir.
 
La nouvelle qui est basée sur le Parhelia LX (Donc le chip des P650/P750) :
 
Hallucinant, pour les fous mégalo qui ont huit z'oeil et qui font de la quadruple schizophrénie voici la nouvelle Parhelia... quadruple head.
 
http://www.matrox.com/mga/products/qid/home.cfm
 
Elle peut supporter simultanément 4 écrans en 1600x1200 qu'ils soient CRT ou DVI NUMERIQUE ou bien 4 sorties TV.
 
Et tenez vous bien : Elle suporte le quadruple overlay video.
 
Putain, ça jette ça 4 ecrans LCD de grande taille sur un bureau...
 
Je connais des gammers qui vont prier tous les jours pour que Matrox améliore la 3D dans le futur....
 
 
 

n°2799131
sr16
@*#%$*%§!!
Posté le 28-10-2003 à 21:55:15  profilanswer
 

Sinon, petite info pour Zeross. Voici une petite phrase relevée sur le site Matrox :
 
" In July 2002, Matrox was elected as a voting member of the OpenGL® Architecture Review Board (ARB). "
 
Donc ça veut dire qu'il y a de grande chance pour que ton extension préférée se trouve implémentée sur la Parhelia un jour.

n°2799146
Zeross
Posté le 28-10-2003 à 22:01:32  profilanswer
 

J'ai demandé sur leur forum, ils sont assez réactifs ils m'ont dits qu'ils allaient se renseigner pour voir si ça allait être implémenté dans les drivers prochainement :)


---------------
Une brève histoire du GPU -  PS5, Xbox Series X : la fin du bond technologique
n°2799147
The_Fury
Posté le 28-10-2003 à 22:02:06  profilanswer
 

putain sr16 ton clavier dois chauffer telement que tu écrit ici  :whistle:

n°2800211
edrom
PC cool, pas PC pas cool
Posté le 29-10-2003 à 13:51:48  profilanswer
 

justement, en parlant de sr16, tu devais pas faire un essai du surround gaming avec d'autre CG que la parhelia ?
 
Je suis désolé d'insister mais il'y a un achat "compulsif" à la clé (parhelia vs [radeon 9800 + cg pci])
 
et puis sinon j'acheterai une gameboy avec 3 écrans, ça doit bien exixter..

n°2800215
Cydrec
Posté le 29-10-2003 à 13:53:46  profilanswer
 

The_Fury a écrit :

putain sr16 ton clavier dois chauffer telement que tu écrit ici  :whistle:  

:lol:  :lol:  :lol: kler

n°2800264
themadcow
Matroxien dans l'âme
Posté le 29-10-2003 à 14:19:57  profilanswer
 

edrom a écrit :

justement, en parlant de sr16, tu devais pas faire un essai du surround gaming avec d'autre CG que la parhelia ?
 
Je suis désolé d'insister mais il'y a un achat "compulsif" à la clé (parhelia vs [radeon 9800 + cg pci])
 
et puis sinon j'acheterai une gameboy avec 3 écrans, ça doit bien exixter..
 


Je doute fort que le Surroung Gaming soit possible avec autre chose qu'une Parhelia. Il s'agit d'une fonction spécifique de la carte. Je ne pense pas qu'il soit possible d'étirer un jeu sur 3 écrans en ayant deux cartes différentes. Il faut que le driver soit capable de gérer les 3 écrans comme s'il n'y en avait qu'un. Donc si tu veux du Surround Gaming, c Parhelia ou rien...

n°2800307
impulse
Posté le 29-10-2003 à 14:54:25  profilanswer
 

Citation :

Non, le problème de Linux ne tient pas que a sa partie graphique même si la partie graphique est ce qui pose le plus de problèmes.
 
Le problème tient aussi dans son noyau et tout ce qui tourne autour.
 
En un mot : Tout est copie d'unix. Unix avait de bonnes idées, mais unix date. Et pas qu'un peu. On a juste oublié de virer la poussière.
Les EMACS et VI n'ont plus rien a faire dans un OS moderne (et je connais, a une epoque j'utilisait EMACS pour programmer. Et il n'y a que les nerdz qui peuvent penser qu'il n'y a pas d'inconvénient a les y laisser. Tout est du même accabit. Un gros foutoir et un tas de poussière.
 
Et le noyau ? Parlons en : Linus Torvald a été décrié par les plus grands professeurs d'informatique. Pour quel raison ? Un noyau monolithique est tout simplement anachronique.
 
-Adaptabilité impossible : Seuls les quelques nerdz qui ont consacré leur vie de moine a cette fonction peuvent adapter ce système a une nouvelle bécanne. C'est aux antipodes des besoins industriels.
 
-Sécurité déplorable : Même si pour faire pire que la fenêtre ouverte de redmond il faudra encore des efforts, Linux n'est pas blanc comme neige sur ce plan. En cause : Le manque de sécurité apporté par un système ou la moindre faille de sécurité mets en danger le système au complet.  
 
-Pas assez souple : Obligation de patcher et de recompiler le noyau pour faire la moindre intervention. Sans compter le besoin de relancer toute la machine.
 
-Gestion du temps réel impossible.
 
-INADAPTABLE sur de l'embarqué. Oh, je sait bien que linux existe sur de très petites bécannes. Mais tous les connaisseurs savent que ce sont des bricolages infames du même accabit que Windows CE. En gros des OS qui sont privés de tout parce que pour leur faire subir un tel régime minceur, ça tient de la gageure. Personne avait remarqué que Linux prends généralement plus de place que Windows ? Sérieusement ?


 
-> je ne vois pas trop le pb en ce qui concerne Emacs et vi. Je m'en sers souvent quand je n'ai pas envie de lancer X (ou quand je prefere ne pas le faire pour ne pas bouffer toutes les ressources, sur mon p166 par exemple). Ces logiciels ont une fonction : editer du texte. Ils font ça tres bien alors ou est le pb d'apres toi?
 
-> adaptabilité impossible? Je pense au contraire que c'est le point fort de Linux : tu as des distros orientées serveur, d'auters plus multimedia, d'autre qui tiennent qques megas ou encore les distros generalistes qui peuvent servir pour n'importe quelle utilisation. Si ça c'est pas de l'adaptabilité, je me demande ce que tu entends par adaptabilité...
 
-> sécurité? Je ne repondrais meme pas, tout le monde sait que Linux est une passoire et que Windows est inviolable. ;)
 
-> pas assez souple? Je sais pas ou t'es allé chercher qu'il faut recompiler le noyau ne serait-ce que pour utiliser Linux. Il y a enormement de gens qui n'ont jamais recompilés leur noyau et le feront peut etre jamais.
 
-> inadapatble pour de l'embarqué, Linux trop gros? Comme je l'ai dit plus haut il est tout a fait possible de creer des distros tres petites en taille.
 

Citation :

J'utilise GIMP assez souvent pour dire que non il n'est pas plus pratique que Photoshop. Et de loin.
Le mot "ergonomie" semble être la dernière préoccupation des mecs qui ont écrit ce logiciel. Et crois moi que en tant que dirigeant d'entreprise j'aurais bien aimé me passer de ces couteuses licences Photoshop.
Si je me sers de GIMP, c'est parce qu'il offre quelques effets différents de Photoshop. Pour le reste, c'est a jeter. Même PaintShop Pro est loin devant.
 
Quand au nom de ce soft, il résumme bien la connerie de ces mecs. Comme disaient les programmeurs qui ont pondu l'os de l'amiga et qui les qualifiaient ainsi "these hack heads who want to mangle our brain..." . Faudrait que je retrouve la phrase complète (Dans les RKM...) mais en gros ça voulait dire "Ces mecs qui se la jouent avec leurs acronymes incompréhensibles...".  
 
Pour ce qui est des autres softs, tout n'est pas pourri sous linux. Mais tu remarquera que tout ce que tu cites (Samba, appache...) sont quasiment tous des softs sans interface graphique et donc sans ergonomie.
 
Je pense d'ailleurs qu'il serait pompeux de les qualifier d'excellents logiciels. Certains le sont effectivement. Mais pour beaucoup, c'est le simple fait d'être gratuit et très diffusés (avec toutes les distros linux...) qui fait leur succès.
 
Bref, je ne critique pas pour critiquer. Mais tout simplement parce que je sait qu'on peut faire largement mieux. Et si tu regarde bien certains exemples que j'ai donné : On a déja fait largement mieux.


 
-> The GIMP. Je l'utilise moi aussi souvent (la version windows au boulot) et il me convient parfaitement. Pas de pb d'ergonomie en ce qui me concerne (je n'ai pas l'habitude Photoshop)...
 
-> Apache etc... Tu penses vraiment que 65% des serveurs web tournent sous Apache car c'est un logiciel gratuit et distribué avec toutes les distro? Je crois plutot que c'est parce que c'est un logiciel stable et performant qui a fait ces preuves. Quand on a de quoi payer une licence Oracle, le fait que Apache est gratuit ne change pas grand chose...
 

Citation :

Dans le monde des serveurs : Forcément, c'est gratuit. Et ça fonctionne bien mieux que Windows question couches réseaux, pare feu et compagnie. C'est aussi plus stable.  
Ca ne signifie pas que c'est l'OS parfait.
 
Par contre, question poste applicatif je dit NON. A part quelques boites qui ont voulu jouer la réduction des couts, la plupart restent quand même sous Windows. C'est quand même pas pour rien. Les décideurs informatiques ne sont pas toujours des neuneu et si une majorité d'entreprises grandes et petites estiment que le choix de Linux n'est pas possible, c'est pas pour rien.
 
Si tu as déja tenté d'installer une imprimante, un driver de souris ou simplement un modem, tu sait que ça n'est pas un simple problème de manque de drivers fait par les fabricants de matos comme se complaisent a le dire les nerdz. Mais c'est aussi parce que l'architecture de Linux demande un vrai informaticien pour installer le moindre driver ou logiciel.
 
Combien de TPE et PME ont les moyens de se payer un informaticien ? Pas beaucoup. Donc : Au revoir Linux.
 
Une info comme ça en passant, il semblerait que Red Hat va arrêter sa distribution. C'est un signe quand même.
 


 
-> Je repose la meme question : penses tu vraiment que la gratuité de Linux est un facteur determinant pour une boite quand il s'agit choisir une plateforme pour ses serveurs?
 
Toutes ces remarques me laissent penser que tu n'as jamais essayé Linux ou bien il y a deja quelques années. Il ne faut pas oublier que Linux est relativement recent et evolue tres vite. Tu me fais  doucement rigoler avec tes problemes d'installation d'imprimante ou de souris (:D)... quand on voit la puissance des outils d'auto detection de matos des distro recentes.

n°2800312
impulse
Posté le 29-10-2003 à 14:56:25  profilanswer
 

Oula je m'egare. C'est un topic sur la Parhelia. Scusez moi! :D

n°2800499
Fendnts
My fading voice sings of love
Posté le 29-10-2003 à 16:49:42  profilanswer
 

TheMadcow a écrit :


Je doute fort que le Surroung Gaming soit possible avec autre chose qu'une Parhelia. Il s'agit d'une fonction spécifique de la carte. Je ne pense pas qu'il soit possible d'étirer un jeu sur 3 écrans en ayant deux cartes différentes. Il faut que le driver soit capable de gérer les 3 écrans comme s'il n'y en avait qu'un. Donc si tu veux du Surround Gaming, c Parhelia ou rien...


 
en fait, je serais pas si catégorique, vu qu'en utilisation de deux cartes (1 AGP + 1 pci), il est possible de faire "croire" à windows qu'on est en 2048x768 avec deux écrans, et que dans les jeux suffisamment paramétrables, il y a moyen d'obtenir ce type de résolution (en tout cas sur les jeux avec moteur Q3, c'est sûr), pourquoi pas...
après que ça marche avec du bi-écran d'une carte + une supplémentaire pour le tri-écran et faire du vrai surround gaming, c't'une autre paire de couilles mais bon...
le mieux à faire, c'est d'essayer avec un pote avant d'acheter quoique ce soit...

n°2801084
Cydrec
Posté le 29-10-2003 à 22:09:33  profilanswer
 

parhelia + pentium iii : 50fps en pointe, 20/30fps en moyenne
parhelia + pentium iv : 66fps en pointe, 50fps en moyenne
 
changement que je considere radicale !!
 
jeux test : live for speed


Message édité par Cydrec le 29-10-2003 à 22:09:47
n°2801119
sr16
@*#%$*%§!!
Posté le 29-10-2003 à 22:30:34  profilanswer
 

impulse a écrit :


-> je ne vois pas trop le pb en ce qui concerne Emacs et vi. Je m'en sers souvent quand je n'ai pas envie de lancer X (ou quand je prefere ne pas le faire pour ne pas bouffer toutes les ressources, sur mon p166 par exemple). Ces logiciels ont une fonction : editer du texte. Ils font ça tres bien alors ou est le pb d'apres toi?


 
Il a existé des editeurs plus conviviaux même en pur mode texte. Avec menus déroulants et utilisation des couleurs. Et des racourcis claviers qui evitent les neuds aux doigts....
Et puis après tout, pourquoi se contenter du mode texte même sur un serveur ? Si on utilise un "mode texte seulement" sur des vieux engins, c'est parce que la GUI de Linux est d'une lourdeur incroyable et que sur un P166 mieux vaut utiliser Emacs que de passer sous la GUI (Tu vois, je connais bien le problème...).
En fait, le mode texte pur est une hérésie. On devrait toujours avoir accès a une GUI légère.
 
Sur Amiga par exemple, c'était le cas.  
 

Citation :

-> adaptabilité impossible? Je pense au contraire que c'est le point fort de Linux : tu as des distros orientées serveur, d'auters plus multimedia, d'autre qui tiennent qques megas ou encore les distros generalistes qui peuvent servir pour n'importe quelle utilisation. Si ça c'est pas de l'adaptabilité, je me demande ce que tu entends par adaptabilité...


 
Quand je parle d'adaptabilité, c'est de prendre le noyau et le compiler pour une nouvelle bécanne. En gros tu prends un proco, de la ram, de la rom et tu compile ton noyau pour TA machine. C'est un peu un problème courant dans l'embarqué.
Avec un noyau monolitique, c'est possible mais au prix d'un enorme travail (que certains font, certes, mais quel gaspi...) par une equipe de gens qui sont des moutons a 5 pattes (rare, cher). Alors qu'un Microkernel est simple a adapter.
 
A propos, sais tu que Richard Stallman ne peut pas blairer Linus Torvald ? Sais tu que la FSF était partie sur un Microkernel (certes pas génial...) avec le projet "hurd" et le noyau "mach" et que Linus a volé la vedette avec son (mauvais) noyau ?.
Sais tu que aujourd'huis un petit groupe de personnes tentent de promouvoir une alternative beaucoup plus performante qui s'appelle "L4" ?
 

Citation :

-> sécurité? Je ne repondrais meme pas, tout le monde sait que Linux est une passoire et que Windows est inviolable. ;)


 
Il faut voir beaucoup plus loin. Quand je parle de sécurité, ça veut dire pour passer un cran au dessus de ce qui se fait aujourd'huis. C'est un enjeu stratégique pour demain. Ne crois pas qu'on va pouvoir se contenter des passeoires actuelles. Plus on informatise, plus ça va devenir crucial. Aujourd'huis la sécurité informatique est une utopie. Il faudra que ça évolue.
Linux est un OS moyen question sécurité : Ses concepts datent. Comme le fait remarquer Microsoft il y a beaucoup de failles aussi mais comme cet os est peu répandu dans le grand public il inspire moins les créateurs de virus.  
Quand a Windows, tout le monde sait que c'est une passeoire a gros trous de 60.  
A tel point que j'en pense que c'est absolument pas naturel. Un taux de faille pareil j'y crois pas. Même en faisant exprès on y arriverait pas. En clair je pense qu'ils utilisent la méthode du pompier incendiaire pour nous pousser leur Palladium de merde. Quand les gens en auront bien mare de se taper des virus ça sera sans doute mieux accepté.
Encore une fois je t'engage a lire les livres du papa bill. Tu verra que pour lui la vie est un grand jeu d'echecs. Les stratégies tordues c'est leur fort. Et ça serait pas la première.
 

Citation :

-> pas assez souple? Je sais pas ou t'es allé chercher qu'il faut recompiler le noyau ne serait-ce que pour utiliser Linux. Il y a enormement de gens qui n'ont jamais recompilés leur noyau et le feront peut etre jamais.


 
... mais qui ne font pas grand chose avec leur OS non plus.
 
Moi je ne compte plus les fois ou j'ai du le recompiler pour intégrer une machin.
Je pense que c'est une hérésie de devoir recompiler un noyau pour y intégrer quoi que ce soit. Question de concept. Le truc a Linus c'est du "quick and dirty". Ca marche pas trop mal en pratique mais on en voit vite les limites.
 

Citation :

-> inadapatble pour de l'embarqué, Linux trop gros? Comme je l'ai dit plus haut il est tout a fait possible de creer des distros tres petites en taille.


 
A condition de tout enlever d'une part. Et d'autre part il faut faire appel a des compétences rares et chères : Vu la complexité du noyau Linux très peu d'équipes en sont capables.
N'oublie pas qu'il ne s'agit pas de juste faire une nouvelle distro, mais de toucher a tous les pilotes de périphériques. Avec un noyau monolitique il n'est pas simple de travailler et de déboguer un driver.  
Va voir un jour sur un salon les equipes de chez QNX. Ils t'expliqueront. Si ils se spécialisent dans l'embarqué c'est pas pour rien.
 

Citation :

-> The GIMP. Je l'utilise moi aussi souvent (la version windows au boulot) et il me convient parfaitement. Pas de pb d'ergonomie en ce qui me concerne (je n'ai pas l'habitude Photoshop)...


 
Et bien essaye Photoshop. Ca n'a vraiment rien a voir. Je parle de réellement s'en servir pour créer des choses. Gimp est chiant de chez chiant. C'est aussi l'avis de gens qui sont des pros du graphisme.
 

Citation :

-> Apache etc... Tu penses vraiment que 65% des serveurs web tournent sous Apache car c'est un logiciel gratuit et distribué avec toutes les distro? Je crois plutot que c'est parce que c'est un logiciel stable et performant qui a fait ces preuves. Quand on a de quoi payer une licence Oracle, le fait que Apache est gratuit ne change pas grand chose...

 
 
Si, ça change quelque chose le prix. Quand tu as 50 serveurs a equiper, ça change quelque chose.
Parce quand tu doit mêtre un IIS avec un oracle ou juste un SQL server je te dis pas la facture.
 
Cela dit, apache fonctionne bien techniquement. Mais c'est un soft sans aucune GUI. C'est un peu la seule chose que les Linuxiens sachent faire d'ailleurs. Et c'est justement ce qu'on leur reproche.
Parce que malheureusement des softs sans GUI te coutent plus cher en compétences et en heures-homme pour être mis en place.
Les nerdz ils aiment peut être passer leur temps a feuilleter des how-to a la recherche du truc a placer dans le fichier de config.  
Le problème c'est que ces mecs la n'ont généralement pas les pieds sur terre des réalités de la vie : Chaque heure passée a un cout.
Je le sait : J'ai été un nerdz. Mais maintenant je dirige une entreprise. Ca te change la manière de voir les choses.
 
En gros si je regarde le temps que je passe pour faire un même truc sous Linux et windows, il n'y a pas photo.
 
Les nerdz ne comptent pas le temps : Ca les amuse de passer leur temps la dedans. Dommage pour eux que tout le monde ne peut pas se le permetre (sans compter que la plupart des gens n'en ont pas envie...).
 

Citation :

-> Je repose la meme question : penses tu vraiment que la gratuité de Linux est un facteur determinant pour une boite quand il s'agit choisir une plateforme pour ses serveurs?


 
Linux convient très bien aux serveurs. Comme je l'ai dit plus haut j'ai mon parc réparti en postes Windows et en serveurs Linux.
Le problème c'est qu'il n'est bon qu'a ça. C'est trop spécialisé comme OS.
 
Si tu veut comprendre la source de mes critiques, c'est simple : J'ai connu d'autres OS dans ma vie. Rien que Amiga OS était bien mieux que Linux sur pas mal de plans.
D'autre part je me suis interessé et j'ai essayé presque tous les OS qui sont sortis. Ma conclusion c'est que Linux était un OS arrièré programmé avec des concepts arrièrés. Même si je reconnais que c'est fait très sérieusement.
En gros c'est une (bonne) copie d'unix. Avec ses avantages et inconvénients. Mais unix date...  
En gros je reproche aux programmeurs de Linux de n'avoir su que copier un modèle : Unix. Sans même regarder ce qui se faisait déja de mieux ailleurs. Et sans inventer eux même de nouveaux concepts.  
 
Le résultat c'est un OS adapté aux besoins de... hiers.  
 

Citation :

Toutes ces remarques me laissent penser que tu n'as jamais essayé Linux ou bien il y a deja quelques années. Il ne faut pas oublier que Linux est relativement recent et evolue tres vite.


 
:sarcastic:++ = :lol:  
 
http://perso.club-internet.fr/omerle/Matrox/Debian.jpg
 
Les 14 CD de la debian !!!!
 
Je prétends pas que j'ai le temps de tester toutes les distros. Mais j'en teste quelques unes souvent quand même. Et je me tiens au courant des nouveautés.  
 
Mais tu te trompes : Linux n'évoluera jamais. On ne peut modifier une base mauvaise. Ca reviendrait a reprogrammer l'ensemble.
 
Déja pour te dire : On s'apperçoit que le passage du noyau Mach a L4 dans Hurd ça revient quasiment a tout recommencer.
 

Citation :

Tu me fais  doucement rigoler avec tes problemes d'installation d'imprimante ou de souris (:D)... quand on voit la puissance des outils d'auto detection de matos des distro recentes.


 
Avec un peu de chance ils arriveront a rattraper Windows... dans 10 ans.
 
Heureusement d'ailleurs que l'autodetection de périphériques marche correctement. Mais dommage que contrairement a Windows on ne puisse pas y faire grand chose quand ça foire...
Malheureusement pour mon port PS/2 sur ma vieille P3B-F Asus linux n'en veut pas.
Et j'ai toujours pas trouvé le moyen de faire reconnaitre les 5 boutons de ma souris Microsoft a Linux.  
Au bout d'une semaine de lecture de howto et autres 'man' j'ai laissé tombé parce que j'ai pas que ça a faire...
Dommage que sous Windows tout ça prends moins de 5 minutes. Et avec possibilité d'assigner des fonctions couper-coller aux boutons SVP (Je sait, sous linux c'est possible. Mais je vous raconte pas la prise de tête....).
 
Au passage, si tu penses que Linux est bon question "plug and play", ne va JAMAIS regarder ce que faisait Amiga OS a l'époque ça t'empêcherais de dormir.
En gros tu branchait n'importe quelle carte dans les slots du bus "Zorro" et tout était configuré automatiquement. Pas besoin d'installer de driver, ni rien.  
 
On en sera peut être la dans 20 ans avec Windows et Linux.
 
En attendant, quand tu veut lire une carte compact flash sous windows, tu la mets dans le lecteur et point barre.
Sous linux faut que tu passe 1/2 heure a trouver sur quel périphérique tu doit appliquer ta commande "mount".  
C'est un exemple, mais tout est dans le même genre.  
Et puis je me vois mal expliquer a un graphiste que pour lire une compact flash il faut qu'il passe sous shell pour taper un truc barbare.
 

n°2801129
The_Fury
Posté le 29-10-2003 à 22:34:11  profilanswer
 

Sr16 a écrit :


 
Au passage, si tu penses que Linux est bon question "plug and play", ne va JAMAIS regarder ce que faisait Amiga OS a l'époque ça t'empêcherais de dormir.
En gros tu branchait n'importe quelle carte dans les slots du bus "Zorro" et tout était configuré automatiquement. Pas besoin d'installer de driver, ni rien.  
 
On en sera peut être la dans 20 ans avec Windows et Linux.
 
En attendant, quand tu veut lire une carte compact flash sous windows, tu la mets dans le lecteur et point barre.
Sous linux faut que tu passe 1/2 heure a trouver sur quel périphérique tu doit appliquer ta commande "mount".  
C'est un exemple, mais tout est dans le même genre.  
Et puis je me vois mal expliquer a un graphiste que pour lire une compact flash il faut qu'il passe sous shell pour taper un truc barbare.
 
 

Supermount le fais pas?(J'ai jamais essayer avec un memory stick)

n°2801138
Ernestor
modo-coco :o
Posté le 29-10-2003 à 22:36:51  profilanswer
 

Sr16 a écrit :


Il a existé des editeurs plus conviviaux même en pur mode texte. Avec menus déroulants et utilisation des couleurs. Et des racourcis claviers qui evitent les neuds aux doigts....
Et puis après tout, pourquoi se contenter du mode texte même sur un serveur ? Si on utilise un "mode texte seulement" sur des vieux engins, c'est parce que la GUI de Linux est d'une lourdeur incroyable et que sur un P166 mieux vaut utiliser Emacs que de passer sous la GUI (Tu vois, je connais bien le problème...).
En fait, le mode texte pur est une hérésie. On devrait toujours avoir accès a une GUI légère.
 


Quand tu fais du ssh -X a l'autre bout du pays ou de la planete, le mode texte c'est pratique aussi  :whistle:  
 
Et considérer Emacs comme un "simple" éditeur de texte est une hérésie pour certains. La puissance d'Emacs est dans sa configuration et dans l'Emacs Lisp. Certes, pas le plus simple à programmer mais très puissant. Histoire de dire une chtite boutade qu'on entend souvent, Emacs c'est quasiment un OS pour certains :D
 
Bien programmé, tu peux avoir les fonctionalités des éditeurs intégrés : lancement de compil, en cas d'erreur lien vers la ligne où est le problème, navigation dans l'arborescence des sources sous forme d'arbre ...
Rajoute à ca la possibilité de faire plein d'autres choses comme entre autres lire son mail, lancer des shells et tu fais plein de choses autre que de la simple édition de texte ;)
 
Ok, c'est pas accessible à l'utilisateur lambda. C'est le seul truc qu'on peut lui reprocher :/
 
Edit: bon ok, elle est un peu HS ma réponse. Mais c'est en partie aussi pour répondre à celle de l'autre jour :whistle:


Message édité par Ernestor le 29-10-2003 à 22:45:46

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2801142
sr16
@*#%$*%§!!
Posté le 29-10-2003 à 22:39:43  profilanswer
 

edrom a écrit :

justement, en parlant de sr16, tu devais pas faire un essai du surround gaming avec d'autre CG que la parhelia ?
 
Je suis désolé d'insister mais il'y a un achat "compulsif" à la clé (parhelia vs [radeon 9800 + cg pci])
 
et puis sinon j'acheterai une gameboy avec 3 écrans, ça doit bien exixter..
 


 
Je crains fort de pas avoir le temps en ce moment.
 
Et puis question cartes PCI j'ai en stock que des ATI Rage et des Matrox Millenium et Mystiques ou une 3DFX Voodo I.  
 
En fait, faudrait tester avec une carte PCI récente (Ca existe...).
 
La réponse est surement trouvable sur le net d'ailleurs.  
 
Le problème c'est qu'il existe deux façon de faire du dualhead. Une avec Windows considérant 3 affichages distincts et l'autre en faisant croire a windows qu'il n'y en a qu'un seul. La Parhelia permet de choisir. Mais la seconde possibilité n'existe que si le frame buffer est sur la même carte.
 
Bref, faudrait tester mais moi j'ai pas vraiment le temps ni le matos pour faire un test probant.
 

n°2801162
sr16
@*#%$*%§!!
Posté le 29-10-2003 à 22:45:46  profilanswer
 

The_Fury a écrit :

Supermount le fais pas?(J'ai jamais essayer avec un memory stick)


 
Possible, mais j'ai pas essayé.
 
En tout cas sur la Red Hat d'il y a 3 mois ça le faisait pas en standard.
 
Et puis d'un autre côté faut aussi avoir envie de perdre son temps a chercher tous les "freewares" pour corriger ce qui devrait être en standard. Le problème c'est qu'a part les nerdz la plupart des gens (y compris des informaticiens comme moi) manquent justement de temps.

n°2801233
sr16
@*#%$*%§!!
Posté le 29-10-2003 à 23:13:05  profilanswer
 

Ernestor a écrit :


Quand tu fais du ssh -X a l'autre bout du pays ou de la planete, le mode texte c'est pratique aussi  :whistle:


 
Déja 99,999% des gens ne font pas du ssh- X a l'autre bout de la planète. Et d'autre part on peut aussi faire de l'administration en mode graphique a l'autre bout de la planete avec un système conçu pour ça.
 

Citation :

Et considérer Emacs comme un "simple" éditeur de texte est une hérésie pour certains. La puissance d'Emacs est dans sa configuration et dans l'Emacs Lisp. Certes, pas le plus simple à programmer mais très puissant. Histoire de dire une chtite boutade qu'on entend souvent, Emacs c'est quasiment un OS pour certains :D


 
Justement, c'est bien ça le problème. C'est effectivement plus qu'un editeur de texte, c'est un framework. Mais tout ça est complètement dépasse aujoud'huis.
Quel interet par rapport a un bon C++ et une bonne bibliothèque d'objets ? Franchement aucun.
Je pense que ceux qui utilisent encore ces possibilités sont essentiellement des vieux nostalgiques. Aujourd'huis cet outil est dépassé.
 
Ps: Pour info un visual studio aussi est entièrement programmable.
 

Citation :

Bien programmé, tu peux avoir les fonctionalités des éditeurs intégrés : lancement de compil, en cas d'erreur lien vers la ligne où est le problème, navigation dans l'arborescence des sources sous forme d'arbre ...


 
Le tout en 10 fois plus chiant, 10 fois moins ergonomiques et 100 fois plus long a mêtre en place et 1000 fois plus long pour apprendre a s'en servir. Quel interet ? Tout cela existe en 1000 fois mieux fait dans un visual studio ou même un KDevelop. Il faut réellement avoir que ça a faire de sa vie.
 

Citation :

Rajoute à ca la possibilité de faire plein d'autres choses comme entre autres lire son mail, lancer des shells et tu fais plein de choses autre que de la simple édition de texte ;)


 
En gros ça fait ce que fait un OS en 100 fois moins bien et en 1000 fois plus chiant et surtout en 100000 fois moins ergonomique.
 
C'est quand même 100.000 fois moins chiant de cliquer sur sa TaskBar pour ouvrir cette grosse merde d'Outlook.
 

Citation :

Ok, c'est pas accessible à l'utilisateur lambda. C'est le seul truc qu'on peut lui reprocher :/


 
Mais dans Linux il n'y a que des trucs dans ce genre la...
 
Et puis je pense que c'est aussi sans interet pour l'utilisateur chevronné ou même le programmeur chevronné. On obtient aujourd'huis des choses tellement plus puissantes avec un C++ et des objets distribués qu'avec un Emacs et son vieux Lisp de la guerre.
 
Et puis en passant, pour faire du script et piloter des softs sous Linux il faut apprendre 200.000 langages tous aussi dépassés les uns que les autres. Le lisp pour Emacs, Python pour Gimp par exemple. En gros chaque soft est un univers a part ou il faut 200.000 heures pour l'exploiter parce que chaque auteur a choisi son petit système.
Quand tu as connu l'amiga ou tous les softs du système sont pilotables simultanément avec UN SEUL langage de script (AREXX a l'époque...) tu voit toute l'inutilité de ces softs.
Pour info même sous Windows ou peut quasiment tout piloter avec du C++ et des objets COM+.
 

Citation :

Edit: bon ok, elle est un peu HS ma réponse. Mais c'est en partie aussi pour répondre à celle de l'autre jour :whistle:


 
Pas grave. J'ai jamais vu un topic sans un peu de HS de temps en temps. Quand on va chez des amis, c'est rare qu'on discute toujours que d'un seul sujet. Ca serait un peu chiant aussi.


Message édité par sr16 le 29-10-2003 à 23:16:34
n°2801265
Ernestor
modo-coco :o
Posté le 29-10-2003 à 23:33:59  profilanswer
 

Sr16 a écrit :


Déja 99,999% des gens ne font pas du ssh- X a l'autre bout de la planète. Et d'autre part on peut aussi faire de l'administration en mode graphique a l'autre bout de la planete avec un système conçu pour ça.


Moi j'en fais et tous les jours. Et c'est pas pour de l'administration, c'est juste en tant qu'utilisateur. Bien sur, ce genre de fonctionnalité est utilisée par ceux qui ont décidé d'utiliser un Unix parce que ca leur convenait le mieux. Je parle pas de faire utiliser ça à tout le monde évidement.  
 

Citation :

Justement, c'est bien ça le problème. C'est effectivement plus qu'un editeur de texte, c'est un framework. Mais tout ça est complètement dépasse aujoud'huis.
Quel interet par rapport a un bon C++ et une bonne bibliothèque d'objets ? Franchement aucun.
Je pense que ceux qui utilisent encore ces possibilités sont essentiellement des vieux nostalgiques. Aujourd'huis cet outil est dépassé.


Pourquoi dépassé ? Si ta config d'Emacs d'il y a dix ans te satisfait encore, où est le problème ?  
 

Citation :


Le tout en 10 fois plus chiant, 10 fois moins ergonomiques et 100 fois plus long a mêtre en place et 1000 fois plus long pour apprendre a s'en servir. Quel interet ? Tout cela existe en 1000 fois mieux fait dans un visual studio ou même un KDevelop. Il faut réellement avoir que ça a faire de sa vie.


Quand tu t'es investi, que tu maitrises parfaitement l'outil, est-il utile d'en apprendre un autre ?
 

Citation :


C'est quand même 100.000 fois moins chiant de cliquer sur sa TaskBar pour ouvrir cette grosse merde d'Outlook.


Chacun son truc. Pour mon mail, j'utilise Pine, un mailer en mode texte :D J'ai essayé des outils "à la outlook", je m'y fais pas [:spamafote] Mais je vais persister :D
 

Citation :


Et puis en passant, pour faire du script et piloter des softs sous Linux il faut apprendre 200.000 langages tous aussi dépassés les uns que les autres. Le lisp pour Emacs, Python pour Gimp par exemple. En gros chaque soft est un univers a part ou il faut 200.000 heures pour l'exploiter parce que chaque auteur a choisi son petit système.
Quand tu as connu l'amiga ou tous les softs du système sont pilotables simultanément avec UN SEUL langage de script (AREXX a l'époque...) tu voit toute l'inutilité de ces softs.
Pour info même sous Windows ou peut quasiment tout piloter avec du C++ et des objets COM+.


Python n'est pas dépassé, c'est même certainement un des meilleurs langages objet du moment.
 
Sinon, le problème n'a rien à voir avec Linux. C'est un problème général : les choses évoluent très vite en info, les langages, plateformes apparaissent et disparaissent, c'est comme ça. Si l'amiga avait "survécu" plus longtemps, on aurait vu le même phénomème.
 
Exemple : y a 15 ans on programmait comment des applications distribuées ? En C avec des sockets TCP. Y a 5 ans ? En C++ et CORBA. Aujourd'hui ? En Java avec des EJB. Demain ? En C# et .Net ? C'est comme ca, on y peut rien.
 
Et donc, je peux te ressortir les mêmes arguments : C+ et DCOM, c'est dépassé. J'aurais pas tord. Tu me répondras : oui mais je fais tout ce que je veux avec. Ben avec mon Lisp ou mon Python aussi je vais tout ce que je veux. Un partout balle au centre ;)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2801291
The_Fury
Posté le 29-10-2003 à 23:57:12  profilanswer
 

Sr16 a écrit :


 
Possible, mais j'ai pas essayé.
 
En tout cas sur la Red Hat d'il y a 3 mois ça le faisait pas en standard.
 
Et puis d'un autre côté faut aussi avoir envie de perdre son temps a chercher tous les "freewares" pour corriger ce qui devrait être en standard. Le problème c'est qu'a part les nerdz la plupart des gens (y compris des informaticiens comme moi) manquent justement de temps.
 

il est intégrer a mandrake sauf il bug tres souvent


Message édité par The_Fury le 29-10-2003 à 23:57:25
n°2801358
sr16
@*#%$*%§!!
Posté le 30-10-2003 à 00:54:59  profilanswer
 

Ernestor a écrit :


Moi j'en fais et tous les jours. Et c'est pas pour de l'administration, c'est juste en tant qu'utilisateur. Bien sur, ce genre de fonctionnalité est utilisée par ceux qui ont décidé d'utiliser un Unix parce que ca leur convenait le mieux. Je parle pas de faire utiliser ça à tout le monde évidement.


 
Avant de vouloir pouvoir faire des choses a distance a l'autre bout de la planete qui ne servent qu'a 0.0001% des utilisateurs, ça serait bien d'optimiser ce qui sers a 99% des gens qui est loin d'être au top.
 

Citation :

Pourquoi dépassé ? Si ta config d'Emacs d'il y a dix ans te satisfait encore, où est le problème ?


 
Depuis on a fait des choses nettement plus puissantes. Je comprends qu'on s'attache a ce qui marchait bien il y a 10 ans. Mais aujourd'huis ça n'est tout simplement plus assez efficace. Mais si j'utilisait Emacs il y a 15 ans, j'ai changé des que j'ai trouvé mieux.
 
Bref, il faut savoir evoluer. C'est le nerf de la guerre en info.
 

Citation :

Quand tu t'es investi, que tu maitrises parfaitement l'outil, est-il utile d'en apprendre un autre ?


 
C'est le piège. La réponse est OUI a partir du moment ou on fait mieux.
J'admet qu'il y a des limites. Mais il ne faut pas s'attarder trop sur un outil trop dépassé sous peine de le payer après.
 
De plus et par rapport a Linux, on voit bien que suivre cette logique revient a inclure tous les editeurs de textes ayant eu du succès par le passé (chacun ayant ses préférences) parce que chacun aura SON editeur qu'il ne veut pas changer. Et si tu extrapole la logique ça veut dire que tu inclut tout ce qu'on a inventé depuis 25 ans. C'est malheureusement ça Linux. Et les 14 CD d'une distro Debian y sont pas pour rien. Mais résultat pour les newbies cet OS est un immense bordel.
 
Ce qu'il faudrait faire, c'est inclure uniquement UN editeur de texte. En choisir UN qui est bien, moderne et puissant. Et les autres ? C'est quand même pas la mort de downloader Emacs si tu peut pas dormir sans...
 
Un système doit être épuré.
 
Linux c'est une voiture avec 40 pédales d'accélérateur, 200 freins et 350 rétroviseurs. Bien sûr tu peut choisir d'utiliser celui qui te plait... si tu t'est pas pris un mur avant...
 

Citation :

Chacun son truc. Pour mon mail, j'utilise Pine, un mailer en mode texte :D J'ai essayé des outils "à la outlook", je m'y fais pas [:spamafote] Mais je vais persister :D


 
Inutile de te dire que tu sera complètement dépassé quand la présentation graphique des e-mail sera un aspect important.
 
Le graphisme est important pour la plupart des gens.  
 
Il ne faut pas refuser tout ce qui est graphique sous pretexte que pour l'instant on n'a pas encore batti d'architecture aussi efficace que celle qui permetait de manipuler le texte.
 
Justement, il y a encore beaucoup a faire pour obtenir un bon système graphique. Mais tous ces linuxiens qui s'attachent a leur mode texte n'y contribuent pas.
La plupart des innovations en terme d'ergonomie graphique, c'est Apple et Microsoft qui les pondent.  
 
Les linuxiens s'enferment trop dans le passé. C'est justement ce qui se sent trop dans Linux.
 
Et le passé ça corresponds a une epoque ou les maiframes etaient gérés par des informaticiens de métier. Ou les ecrans etaient non graphiques et en noir et blanc. A une epoque ou manipuler autre chose que du texte etait impossible.
 
Bref, que de choses qui ont changé depuis.
 
Unix date. Et les choix d'hiers etaient pertinents hiers. Plus demain.
 

Citation :

Python n'est pas dépassé, c'est même certainement un des meilleurs langages objet du moment.


 
Certes. Je disait cela surtout pour Lisp. Il n'y aurait rien a dire si tout le système utilisait 1 seul langage de scripting et pas 200.
 

Citation :

Sinon, le problème n'a rien à voir avec Linux. C'est un problème général : les choses évoluent très vite en info, les langages, plateformes apparaissent et disparaissent, c'est comme ça. Si l'amiga avait "survécu" plus longtemps, on aurait vu le même phénomème.


 
C'est tout a fait vrai. Et tu touche du doigt le fond du problème. C'est un phénomène qui touche tout système au bout d'un moment. On empile et on empile. C'est logique. Mais le problème c'est que ça n'est pas possible ad-vitam eternam.
 
C'est pour ça que a un moment donné il est obligatoire de refaire la synthèse et repartir de 0 sur un truc clean et propre.
 
Un système qui se traine plus de 30 ans d'histoire est forcément un empilement immonde. Et le reprendre quasiment tel quel n'est pas autre chose qu'une très mauvaise idée.
 
Il aurait fallu faire la synthèse des bonnes idées de tous les OS et egalement de voir ce qui manque.  
 
Mais ça c'est la limite du libre. Pour faire ça il faut des architectes. Et le genre de mecs qui sont très durs a trouver.
 
Malheureusement il y en a plus chez Minidou que a la FSF.
 

Citation :

Exemple : y a 15 ans on programmait comment des applications distribuées ? En C avec des sockets TCP. Y a 5 ans ? En C++ et CORBA. Aujourd'hui ? En Java avec des EJB. Demain ? En C# et .Net ? C'est comme ca, on y peut rien.


 
Normal. Tant qu'on a pas trouvé quelque chose d'idéal, on cherche... et on progresse.
Et c'est vrai que DCOM est chiant comme la pluie a côté des EJB. Cela dit pour programmer Windows, tu est encore obligé de passer par DCOM.
 

Citation :

Et donc, je peux te ressortir les mêmes arguments : C+ et DCOM, c'est dépassé. J'aurais pas tord. Tu me répondras : oui mais je fais tout ce que je veux avec. Ben avec mon Lisp ou mon Python aussi je vais tout ce que je veux. Un partout balle au centre ;)


 
Personellement, plus vite je peut ne plus entendre parler de DCOM mieux je me porterait. Franchement.
 
Après, pour C++ il n'est pas si dépassé que ça. Java et C# c'est très très proche de C++. Java et C# sont des evolutions : Rien de plus. Maintenant les evolutions de Java et C# ne sont pas non plus négligeables. Je programme déja en Java même si pour l'instant on ne peut tout faire avec. Et j'aime bien.
La seule chose, c'est que pour l'instant tout les grands softs sont et restent programmés en C++. Les nouveaux langages ont besoin de plus de maturité pour devenir réellement utilisables d'une manière aussi puissante que C++. Ca sera le cas quand l'architecture des systèmes aura changé pour s'y adapter.
Je pense que dans 10 ans il est fort peu probable que je programme encore en C++. Il y a 10 ans je programmait en C. Le C++ m'a beaucoup apporté. Et programmer en Java m'a encore apporté des nouvelles idées sur la façon de programmer.
Je programme aujourd'huis en C++ plus comme un programmeur Java. Je pense que les evolutions de ces langages vont dans le bon sens.
Maintenant il y a des modes que j'ai laissé passer. Comme Delphi par exemple. Il faut eviter de se perdre du temps avec des choses qui ne dureront pas car l'apprentissage d'un langage est un investissement.
Maintenant on ne sait pas encore quel sera le vrai successeur de C++. Il est fort probable qu'avant d'avoir UN langage qui s'imposera comme un vrai standard on y mettra encore du temps.
D'autant plus que ce n'est plus le seul langage qui devra constituer un standard. Mais aussi son framework. C'est l'enjeu de demain.
 
J'ai bien l'intention de ne pas m'arrêter d'évoluer.  
 

n°2801367
sr16
@*#%$*%§!!
Posté le 30-10-2003 à 01:02:38  profilanswer
 

fendnts a écrit :


 
en fait, je serais pas si catégorique, vu qu'en utilisation de deux cartes (1 AGP + 1 pci), il est possible de faire "croire" à windows qu'on est en 2048x768 avec deux écrans, et que dans les jeux suffisamment paramétrables, il y a moyen d'obtenir ce type de résolution (en tout cas sur les jeux avec moteur Q3, c'est sûr), pourquoi pas...
après que ça marche avec du bi-écran d'une carte + une supplémentaire pour le tri-écran et faire du vrai surround gaming, c't'une autre paire de couilles mais bon...
le mieux à faire, c'est d'essayer avec un pote avant d'acheter quoique ce soit...


 
Justement, je pense que DirectX est moins tolérant la dessus que le reste de Windows.
Parce que le render se fait dans le FrameBuffer d'une CG. Ca voudrait dire qu'il faut faire 3 renders simultanés(pas certain que DirectX en soit capable) soit qu'il faut extraire l'image d'un FrameBuffer pour la recopier dans celui des autres CG.  
Je sait pas pourquoi mais je le sent pas trop.
 
Maintenant je peut me tromper. Faudrait vraiment essayer. En tout cas si ça marchait ça serait top.

n°2801375
sr16
@*#%$*%§!!
Posté le 30-10-2003 à 01:09:15  profilanswer
 

cydrec a écrit :

parhelia + pentium iii : 50fps en pointe, 20/30fps en moyenne
parhelia + pentium iv : 66fps en pointe, 50fps en moyenne
 
changement que je considere radicale !!
 
jeux test : live for speed


 
J'en était sur.  
 
Le jeu était limité par le proco.
 
Je suis sur que tu verra des différences notables sur beaucoup d'autres jeux d'ailleurs.
 
Comme ça on sait que la config optimale pour la Parhelia c'est un P4.
 
Ce qui est marant d'ailleurs c'est avec une G400. Sur des jeux comme le vieux UT qui ne saturent pas un P4, la G400 qui n'a pas de T&L hardware utilise la puissance du P4 pour booster son framerate.
Résultat, la Radeon 8500 peut aller se coucher face a la vieille G400.
 
Bien sûr, il faut pas extrapoler ça sur le 2003. La, c'est la G400 qui va se coucher...
 
Bien sûr avec la Parhelia le T&L est en hardware comme sur toutes les cartes récentes.

n°2801399
Ernestor
modo-coco :o
Posté le 30-10-2003 à 01:26:28  profilanswer
 

Sr16 a écrit :


Avant de vouloir pouvoir faire des choses a distance a l'autre bout de la planete qui ne servent qu'a 0.0001% des utilisateurs, ça serait bien d'optimiser ce qui sers a 99% des gens qui est loin d'être au top.


C'est sur. Mais on peut faire les deux aussi ;)
 

Citation :


Depuis on a fait des choses nettement plus puissantes. Je comprends qu'on s'attache a ce qui marchait bien il y a 10 ans. Mais aujourd'huis ça n'est tout simplement plus assez efficace. Mais si j'utilisait Emacs il y a 15 ans, j'ai changé des que j'ai trouvé mieux.
 
Bref, il faut savoir evoluer. C'est le nerf de la guerre en info.
 
C'est le piège. La réponse est OUI a partir du moment ou on fait mieux.
J'admet qu'il y a des limites. Mais il ne faut pas s'attarder trop sur un outil trop dépassé sous peine de le payer après.


Voila le problème : comment se décider à évoluer pour une techno qui risque d'être dépassée dans quelques temps par une autre. Comment savoir si elle vaut vraiment le coup ? En plus, en général, pas de mal de technos ne sont que des réinventions de roues dans un contexte à la mode.
 

Citation :


De plus et par rapport a Linux, on voit bien que suivre cette logique revient a inclure tous les editeurs de textes ayant eu du succès par le passé (chacun ayant ses préférences) parce que chacun aura SON editeur qu'il ne veut pas changer. Et si tu extrapole la logique ça veut dire que tu inclut tout ce qu'on a inventé depuis 25 ans. C'est malheureusement ça Linux. Et les 14 CD d'une distro Debian y sont pas pour rien. Mais résultat pour les newbies cet OS est un immense bordel.
 
Ce qu'il faudrait faire, c'est inclure uniquement UN editeur de texte. En choisir UN qui est bien, moderne et puissant. Et les autres ? C'est quand même pas la mort de downloader Emacs si tu peut pas dormir sans...


C'est clair que ca ressemble souvent à un foutoir une distrib Linux :D Abondance de bien ne nuit pas mais nuit en même temps. D'un autre coté, un système à la Windows qui fait des choix pour toi sans te demander ton avis, est-ce une solution ? Faut trouver un juste milieu [:spamafote]
 
D'ailleurs, petite anecdote de cette après-midi. Je voulais écrire une lettre en vitesse. Un truc tout con. Je lance Star Office. Je commence et en haut à gauche j'écris :
 
Ernestor El Patator
25, rue de la ...

 
Et la, en passant à la ligne, il m'insère un 26 :heink:  
Ben ouais, il voulait m'aider ce con. Il a cru que je voulais entrer une liste de nombres. J'ai jamais réussi à écrire mon code postal sans qu'il me mette soit automatiquement 26, soit une tabulation :o  
Résultat : Emacs + LaTeX avec un modèle de lettre déjà tout fait (par mes soins et réutilisé plusieurs fois) :D
 
Bon, c'est encore HS par rapport à ce que je dis au dessus, mais ca m'a pas convaincu que le WYSIWYG était bon pour moi. Je dois être allergique :D
 
Et en gros c'est le dilemne : se galérer à adapter un outil à ses besoins, ou modifier ses besoins pour s'adapter à un outil ? Je suis plus dans le premier cas ...
 
Autre exemple con : j'aime qu'une fenêtre ait le focus juste quand le curseur est dessus et pas quand je clique dessus. Sous AfterStep (WindowManager sous Unix), j'ai galéré à modifier des fichiers de conf pour avoir ca. Sous Winodws, je m'habitue à cliquer sur la fenêtre.
 

Citation :


Inutile de te dire que tu sera complètement dépassé quand la présentation graphique des e-mail sera un aspect important.
 
Le graphisme est important pour la plupart des gens.  
 
Il ne faut pas refuser tout ce qui est graphique sous pretexte que pour l'instant on n'a pas encore batti d'architecture aussi efficace que celle qui permetait de manipuler le texte.


Qu'est ce que t'entend par graphisme ? Mon mailer est capable de lire des mails en HTML et de mettre le texte en gras, en couleur ou souligné. Bon, j'ai pas les immondes images de fond mais c'est pas vraiment un mal :D  
Le jour où il sera dépassé, je changerai. Changer de mailer c'est pas très compliqué. Mais actuellement, les trucs avec des boutons a cliquer a la souris m'apportent pas plus que le bouton a cliquer au clavier.
 

Citation :


Justement, il y a encore beaucoup a faire pour obtenir un bon système graphique. Mais tous ces linuxiens qui s'attachent a leur mode texte n'y contribuent pas.
La plupart des innovations en terme d'ergonomie graphique, c'est Apple et Microsoft qui les pondent.  
 
Les linuxiens s'enferment trop dans le passé. C'est justement ce qui se sent trop dans Linux.
 
Et le passé ça corresponds a une epoque ou les maiframes etaient gérés par des informaticiens de métier. Ou les ecrans etaient non graphiques et en noir et blanc. A une epoque ou manipuler autre chose que du texte etait impossible.
 
Bref, que de choses qui ont changé depuis.
 
Unix date. Et les choix d'hiers etaient pertinents hiers. Plus demain.


Franchement, des environnements à la KDE ou Gnome sont assez ergnomiques. Bien sur, on sent toujours derrière la ligne de commande mais c'est un Unix aussi. Quoique MacOS X est un bon exmple d'OS alliant les deux : un Unix avec une couche graphique Mac par dessus.  
 

Citation :


Certes. Je disait cela surtout pour Lisp. Il n'y aurait rien a dire si tout le système utilisait 1 seul langage de scripting et pas 200.


Est-ce possible ? Chaque langage a ses particularités, je pense pas qu'un jour on trouve le langage idéal [:spamafote]
 

Citation :

C'est tout a fait vrai. Et tu touche du doigt le fond du problème. C'est un phénomène qui touche tout système au bout d'un moment. On empile et on empile. C'est logique. Mais le problème c'est que ça n'est pas possible ad-vitam eternam.
 
C'est pour ça que a un moment donné il est obligatoire de refaire la synthèse et repartir de 0 sur un truc clean et propre.
 
Un système qui se traine plus de 30 ans d'histoire est forcément un empilement immonde. Et le reprendre quasiment tel quel n'est pas autre chose qu'une très mauvaise idée.
 
Il aurait fallu faire la synthèse des bonnes idées de tous les OS et egalement de voir ce qui manque.  
 
Mais ça c'est la limite du libre. Pour faire ça il faut des architectes. Et le genre de mecs qui sont très durs a trouver.
 
Malheureusement il y en a plus chez Minidou que a la FSF.


Y a pas vraiment de chef d'orchestre dans un projet aussi énorme que GNU-Linux. Et faut pas oublier que le but était de faire un Unix libre. Pas de créer l'OS du futur adapté à l'utilisateur lambda. GNU-Linux a été créé par des informaticiens pour des informaticiens. Et ça se voit ;)
 

Citation :

Normal. Tant qu'on a pas trouvé quelque chose d'idéal, on cherche... et on progresse.
Et c'est vrai que DCOM est chiant comme la pluie a côté des EJB. Cela dit pour programmer Windows, tu est encore obligé de passer par DCOM.
 
Personellement, plus vite je peut ne plus entendre parler de DCOM mieux je me porterait. Franchement.
 
Après, pour C++ il n'est pas si dépassé que ça. Java et C# c'est très très proche de C++. Java et C# sont des evolutions : Rien de plus. Maintenant les evolutions de Java et C# ne sont pas non plus négligeables. Je programme déja en Java même si pour l'instant on ne peut tout faire avec. Et j'aime bien.
La seule chose, c'est que pour l'instant tout les grands softs sont et restent programmés en C++. Les nouveaux langages ont besoin de plus de maturité pour devenir réellement utilisables d'une manière aussi puissante que C++. Ca sera le cas quand l'architecture des systèmes aura changé pour s'y adapter.
Je pense que dans 10 ans il est fort peu probable que je programme encore en C++. Il y a 10 ans je programmait en C. Le C++ m'a beaucoup apporté. Et programmer en Java m'a encore apporté des nouvelles idées sur la façon de programmer.
Je programme aujourd'huis en C++ plus comme un programmeur Java. Je pense que les evolutions de ces langages vont dans le bon sens.
Maintenant il y a des modes que j'ai laissé passer. Comme Delphi par exemple. Il faut eviter de se perdre du temps avec des choses qui ne dureront pas car l'apprentissage d'un langage est un investissement.
Maintenant on ne sait pas encore quel sera le vrai successeur de C++. Il est fort probable qu'avant d'avoir UN langage qui s'imposera comme un vrai standard on y mettra encore du temps.
D'autant plus que ce n'est plus le seul langage qui devra constituer un standard. Mais aussi son framework. C'est l'enjeu de demain.
 
J'ai bien l'intention de ne pas m'arrêter d'évoluer.  


C++ a l'énorme défaut d'être un C avec une couche objet par dessus. Et ca donne au final un truc batard avec lequel tu peux programmer en objet proprement ou écrire du code plein de cochonneries comme C permet de le faire. Ca rejoint ce que tu dis : on empile des trucs, des couches et ça donne un truc pas terrible. Java et son clone C# ont l'avantage d'être de vrais langages objets. Et avec quelques facilités comme les types int ou double qui sont une abberation dans un langage objet, et la syntaxe du C qui a l'avantage d'être simple et connu. Après y a des défauts dans ses langages c'est sur :/
 
Mais on va pas s'arrêter la. La prochaine étape sera peut-être un "bon" langage à composant. On verra :)
De toute facon, le langage universel et parfait existera jamais je pense ;)


Message édité par Ernestor le 30-10-2003 à 01:30:13

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2801448
impulse
Posté le 30-10-2003 à 08:03:52  profilanswer
 

sr16 > je ne repondrai pas car je ne veux pas pourrir ce topic qui traite de la Parhelia mais ça ne veut pas dire que je suis d'accord, loin de la d'ailleurs. Si tu veux discuter de ça tu peux toujours poster sur OSA. :D

n°2801569
muzah
Bal Musette @ HFR depuis 1997
Posté le 30-10-2003 à 10:27:06  profilanswer
 

c'est vraiment très intéressant :jap:

n°2802883
sr16
@*#%$*%§!!
Posté le 30-10-2003 à 21:44:31  profilanswer
 

Ernestor a écrit :


C'est sur. Mais on peut faire les deux aussi ;)


 
Oui
 

Citation :

Voila le problème : comment se décider à évoluer pour une techno qui risque d'être dépassée dans quelques temps par une autre. Comment savoir si elle vaut vraiment le coup ? En plus, en général, pas de mal de technos ne sont que des réinventions de roues dans un contexte à la mode.


 
Si tu veut mon avis sur la question, la réponse se trouve dans l'analyse des besoins futurs des gens. Il faut avoir un sens visionnaire pour anticiper ce qui evoluera et dans quel sens. Si la technologie en question semble apporter une réponse interessante sur le long terme, la réponse est OUI.
Il faut savoir aussi analyser les besoins des utilisateurs.
Après, c'est une question de flair. Mais il est evident que certaines technologies seront incontournables.
On peut jouer et se tromper. Mais ne pas jouer revient a se tromper a coup sûr.
 

Citation :

C'est clair que ca ressemble souvent à un foutoir une distrib Linux :D Abondance de bien ne nuit pas mais nuit en même temps. D'un autre coté, un système à la Windows qui fait des choix pour toi sans te demander ton avis, est-ce une solution ? Faut trouver un juste milieu [:spamafote]


 
Je pense que ça ne nuit absolument pas d'imposer ce choix. Car en réalité il n'y a pas de réelle imposition. Celui qui sait ce qu'il lui faut et qui veut autre chose ira le télécharger. Celui qui ne sait pas quoi utiliser ne se perdra pas.
 
C'est aussi une sorte de fascisme Linux. En gros cet OS c'est "les newbies allez vous faire voir ailleurs" et "vous n'avez qu'a savoir puisque c'est marque dans les 123439359 pages de howto.
 

Citation :

D'ailleurs, petite anecdote de cette après-midi. Je voulais écrire une lettre en vitesse. Un truc tout con. Je lance Star Office. Je commence et en haut à gauche j'écris :
 
Ernestor El Patator
25, rue de la ...

 
Et la, en passant à la ligne, il m'insère un 26 :heink:  
Ben ouais, il voulait m'aider ce con. Il a cru que je voulais entrer une liste de nombres. J'ai jamais réussi à écrire mon code postal sans qu'il me mette soit automatiquement 26, soit une tabulation :o  
Résultat : Emacs + LaTeX avec un modèle de lettre déjà tout fait (par mes soins et réutilisé plusieurs fois) :D


 
C'est pas la faute au WYSIWYG : J'ai connu des tas d'editeurs de texte qui prétendaient pas savoir a ta place ce que tu doit taper.
Non, ça c'est la méthode Microsoft. Ca me fais aussi chier au plus haut point ces softs qui pensent trop a ta place. A mon sens c'est une très grosse erreur d'ergonomie. Dans 100% des cas tu te retrouvera un jour emmerdé par ses "aides" qui pensent a ta place.
Je ne compte plus les "newbies" qui ont un jour été emmerdés parce qu'ils n'arrivent pas a taper ce qu'ils veulent vu que le soft modifie a leur place (!!!) soit disant pour bien faire (???).
C'est quand même plus simple d'afficher ce que les gens tapent sans rien modifier. Après il peut y avoir une aide intelligente qui quand le soft subodore que les gens cherchent a faire un truc sans y arriver ils peuvent afficher des bulles d'aides.
B
ref, Word n'est utilisable qu'a partir du moment ou tu sait ou il faut désactiver toutes ces aides automatiques qui t'emmerdent la vie au plus haut point.
 
Mais bon, entre Emacs et Word avec les aides a la con, il y a un juste millieu quand même.
 
Maintenant, Latex a des gros avantages aussi même si il ne conviendra jamais au newbie. Il pourait d'ailleurs avoir un support graphique un jour. Mais bon, un bon editeur de texte en mode fenêtré pour taper son Latex c'est pas mal aussi.
 

Citation :

Bon, c'est encore HS par rapport à ce que je dis au dessus, mais ca m'a pas convaincu que le WYSIWYG était bon pour moi. Je dois être allergique :D


 
Fais un peu de PAO. Tu va voir que c'est incontournable. Et bien pratique.
 

Citation :

Et en gros c'est le dilemne : se galérer à adapter un outil à ses besoins, ou modifier ses besoins pour s'adapter à un outil ? Je suis plus dans le premier cas ...


 
Justement, un Word ça se programme aussi de A a Z.  
 

Citation :

Autre exemple con : j'aime qu'une fenêtre ait le focus juste quand le curseur est dessus et pas quand je clique dessus. Sous AfterStep (WindowManager sous Unix), j'ai galéré à modifier des fichiers de conf pour avoir ca. Sous Winodws, je m'habitue à cliquer sur la fenêtre.


 
C'est un comportement assez rare ça. J'ai encore jamais vu d'OS ou c'était un comportement par défaut.
La personnalisation c'est bien. D'un autre côté il faut bien faire des choix. Et surtout qu'il y ait un comportement unifié.
Imagine une secrétaire qui change de boulot et que c'est pas le même Window Manager et pas les mêmes règlages...
Personellement déja que quand j'interviens sous un windows trop personnalisé (genre le pointeur de souris en forme de calamar...) ça me les gonfle parce que je mets 3 heures a trouver les trucs...
 
Donc oui il faut faire des choix unifiés et en imposer certains par défaut.
 
Maintenant, c'est pareil, Windows peut se personnaliser. Et je suppose que le comportement que tu aime doit pouvoir se trouver dans un quelconque freeware.  
 
Moi aussi quand je vais sous Linux je ne retrouve pas mes possibilités de personnalisation préférées. Par exemple le fait d'assigner le couper-coller a des boutons de la souris. C'est immensément pratique. Ben sous Linux tu te grattes....
 

Citation :

Qu'est ce que t'entend par graphisme ? Mon mailer est capable de lire des mails en HTML et de mettre le texte en gras, en couleur ou souligné. Bon, j'ai pas les immondes images de fond mais c'est pas vraiment un mal :D


 
Tu n'aime pas les calamars animés sur un fond rose ? ... Tant mieux, moi non plus...
 
Mais bon, souvent c'est ultra pratique d'envoyer des petits dessins explicatifs. Et pour donner a des mails un look plus "corporate". C'est important ça aussi quand tu doit faire de la communication.
 

Citation :

Le jour où il sera dépassé, je changerai. Changer de mailer c'est pas très compliqué. Mais actuellement, les trucs avec des boutons a cliquer a la souris m'apportent pas plus que le bouton a cliquer au clavier.


 
Chaque outil apporte des choses. Il faut bien admètre qu'il est parfois bien fastidieux de faire au clavier ce qu'un système graphique permet de faire en quelques clics.
Le texte ne permet pas non plus tout. Un dessin vaut parfois mille fois mieux qu'un long discours.
 
Tu prends par exemple le visual studio. Tu as l'arborescence de ton projet a gauche et le source a droite. Tu peut arranger tes fenêtres ou tu veut a l'écran. Leur donner la taille que tu veut. Et surtout c'est très lisible.
J'ai aussi personnalisé tout comme je le voulait. Tu peut créer des barres d'outils avec des boutons qui font ce que tu veut. Et tu peut configurer tes propres raccourcis clavier pour les actions que tu fait les plus souvent.
 

Citation :

Franchement, des environnements à la KDE ou Gnome sont assez ergnomiques.  


 
Ils ont beaucoup progressés, c'est vrai. C'est graphiquement joli. Mais ergonomique, non.
C'est lourd, lent, fouilli, mal étudié. C'est pleins de non sens ergonomiques. On est encore loin de Windows malheureusement.
 

Citation :

Bien sur, on sent toujours derrière la ligne de commande mais c'est un Unix aussi.


 
Cela n'est pas un problème tant qu'on est pas obligé de tout faire avec le shell.  
C'était aussi le cas de l'amiga a l'époque. Tu avait une couche graphique et un shell. En réalité il s'agissait d'une sorte d'unix répensé.
Cela dit, je pense que le shell actuel est dépassé. Dépassé par un concept presque aussi vieux que lui et tout aussi pratique pour les afficionados du clavier. Mais je n'en dirais pas plus car si ça se fait je sortirais l'idée.
 

Citation :

Quoique MacOS X est un bon exmple d'OS alliant les deux : un Unix avec une couche graphique Mac par dessus.


 
Tout a fait.  
 
Tu voit d'ailleurs bien la différence de qualité de l'interface graphique.
 
Entre Mac OS et KDE ou GNOME il y a un monde. Vraiment un monde.
 

Citation :

Est-ce possible ? Chaque langage a ses particularités, je pense pas qu'un jour on trouve le langage idéal [:spamafote]


 
Oui, c'est possible. Pas forcémént d'en avoir qu'un pour tout mais au moins de limiter leur nombre.  
Je ne connais aucun informaticien qui maitrise tout les langages. Ca serais d'ailleurs une grosse perte de temps.
La logique futur, c'est d'abord des interfaces qui permetent aux softs d'être pilotés dans n'importe quel langage. Ce fut le cas a l'époque de l'Amiga ou les softs incluaient des ports Arrex. Puis avec COM de microsoft.
Déja ça ça permet de piloter tout avec le même langage.
Ensuite, au lieu d'inclure Linux avec 200 langages tu n'en mets qu'un seul en standard. Ou plutot un seul langage de scripting.
Comme ça tout le monde inclut un support pour ce langage de script et pas un autre.
Il faut faire un choix. En choisir un bon. Et l'imposer en n'incluant que celui la en standard.
 
La communauté Linux ne veut pas faire de choix. Aucun. Elle distribue tout et c'est a l'utilisateur d'assembler son légo. Les linuxiens ne se rendent pas compte que de cette façon ils limitent l'utilisabilité de leur système.
 
Pire : Faire un système avec seulement quelques softs est déja très complexe comme ça.  
Et malheureusement je ne compte plus les soft Linux "livrés avec la distrib" que j'ai du réinstaller en manuel avec compilation des sources et tout le basard. Tout simplement parce qu'ils étaient mal installés a l'origine.  
 
Moi je pense que Linux devrait être livré en configuration minimale. Avec un seul windows manager, un seul editeur de texte. Et oui, dans la vie il faut faire des choix.
 
C'est aussi le travail d'un fabricant d'os de faire un minimum de choix cohérents pour toi au départ. Après, tu n'est pas non plus bloqué parce que tu peut installer ce que tu veut par la suite.
Mais la base doit être la même. Simple, unifiée.
 

Citation :

Y a pas vraiment de chef d'orchestre dans un projet aussi énorme que GNU-Linux. Et faut pas oublier que le but était de faire un Unix libre. Pas de créer l'OS du futur adapté à l'utilisateur lambda. GNU-Linux a été créé par des informaticiens pour des informaticiens. Et ça se voit ;)


 
C'est clair.
 
Cela dit, etant informaticien je me vois mal faire des développement sur un OS que le grand public n'utilisera pas.
Et même si j'en ai quand même fait sous Linux, il ne me viendrait pas a l'idée de faire mes plus gros projets pour cette plateforme.
 
De plus, cette logique elitiste me fais un peu chier d'un part. Et d'autre part je pense que la façon dont les linuxiens se complaisent dans des outils inutilement complexes finit par limiter terriblement la puissance de ce qui est possible avec cet environnement.
 
J'ai toujours considéré qu'un bon programmeur était avant tout quelqu'un qui devait surtout être capable de faire des choses pour les non informaticiens. C'est plus dur de faire un soft simple et puissant qu'un soft compliqué et abscons.
 
Tout dans unix m'énerve.  
 
Depuis les noms des logiciels "Gimp, Cron". Je comprends qu'a une époque les noms de fichiers étaient limités en longueur.
 
Mais franchement, quelle horreur tous ces acronymes. Je pense que les créateurs de l'amiga avaient raison(ils méprisaient cette façon de faire...).
 
KDE, Gnome, ça veut RIEN DIRE.
 
Un programmeur qui veut partager ne nomme pas son soft "Gimp" mais "Photoshop".  
 
L'interface graphique de l'Amiga s'appelait "intuition" et pas "Knepfgrmeuleu".
 
C'est juste des mecs qui se croient intelligents en donnant des noms incompréhensibles. En gros c'est pour préserver le côté elitiste de l'informatique d'un autre temps....
 
Désolé, mais cette logique est dépassée.... et conne.
 
Tout dans la phillosophie Unix sent la poussière, la nostalgie d'un temps révolu et un comportement egocentrique et renfermé qui ne peut avoir une place dans l'informatique de demain.
 
Bref, evoluons et tournons nous vers le futur, pas le passé révolu.
 

Citation :

C++ a l'énorme défaut d'être un C avec une couche objet par dessus. Et ca donne au final un truc batard avec lequel tu peux programmer en objet proprement ou écrire du code plein de cochonneries comme C permet de le faire. Ca rejoint ce que tu dis : on empile des trucs, des couches et ça donne un truc pas terrible. Java et son clone C# ont l'avantage d'être de vrais langages objets. Et avec quelques facilités comme les types int ou double qui sont une abberation dans un langage objet, et la syntaxe du C qui a l'avantage d'être simple et connu. Après y a des défauts dans ses langages c'est sur :/


 
Je me rapelle de mon premier C d'avant la norme ANSI ou quand tu appelait une fonction le compilateur ne vérifiait même pas que le type et le nombre des arguments correspondait. Si tu te trompait, ça plantait.
Autant te dire que je ne regrette pas ce compilo....
Et pourtant j'y ait appris a programmer rigoureusement et a analyser toutes les conditions d'erreur.  
Avec le temps, le C a terriblement evolué. C'est ce qui est le plus surprenant dans ce langage.
A tel point que les premiers programmes en C ne sont absoluement plus compilables par un programme récent.
Le C a su s'adjoindre une couche objet et une manière de programmer proprement. C'est un exploit.
 
Il faut malheureusement reconnaitre que l'ajout de Java par exemple se limite a supprimer les manières "sales" de programmer. C'est en quelque sort un "c" edulcoré et avec beaucoup de gardes fous.
Le gros ajout de Java et C#(que je connait mal...) c'est leur framework. C'est un gros manque de C et même C++.
 
Maintenant le vrai problème c'est que l'histoire risque de se répeter.
Certes JAVA permet une programmation plus propre. Certes ça empêche que le petit jeune programmeur dans l'equipe de 200 programmeurs ne fasse un bug tordu a coup de pointeur qui déraillle que tout le monde va chercher pendant 5 ans ou qui va subrepticement frapper cet airbus A390 au moment de son attérissage.
On evite aussi au programmeurs de nous faire des plats de nouille a objets avec des héritages multiples et inutiles. Les interfaces sont une bonne idée. La simplification du langage aussi.
 
Maintenant il y a un mais.  
 
A une époque il existait un langage concurent de C. Il était bien plus propre. Plus simple d'usage et qui empêchait toutes les mauvaises maneuvres.  
Il s'appelait "Pascal" et je suis certain que tout le monde se souvient du fameux "Turbo Pascal" de borland.
A une époque tout le monde disait que c'était le langage de l'avenir.
On ne pouvait pas faire de conneries. Les index des tableaux étaient vérifiés. Pas de pointeurs de type "C". Et surtout une toolkit asez complète pour l'époque et qui permetait quasiment de tout faire.
Mais il s'est litéralement fait écrabouiller par "C".
 
Pourquoi ? Parce que C permetait de tout faire. Et non pas simplement "presque tout".
 
Examinons un peu Java et sa virtual machine. Il faut bien a un moment qu'il y ait des connections au système. En quoi tout cela est il écrit. Je vous le donne en mille : En C.
En quoi est ecrit le système de gestion mémoire "ramasse miette" de java ? En java ? Bien sûr que non : En C.
 
En gros Java et C# ne sont pas des langages qui pour l'instant peuvent tout faire contrairement a C++.
 
Parce que pour programmer un OS ou simplement faire un driver il faudra toujours une possibilité d'accéder "salement" a des registres.
Parce que certains types de softs nécéssitent une gestion mémoire bien plus optimisée que ce que permet un "ramasse miette".
 
C'est précisément ce qui a fait le succès de C et qui a vallu la mort de Pascal. C permetait de faire bien plus de choses.
 
Aujourd'huis, aucun programmeur d'OS ne parle d'abandonner "C". Je pense qu'un OS ecrit en autre chose ne serait pas possible. Même si on en parle ça nécéssiterait au moins une couche en C même si tous les programmes applicatifs sont en Java ou C#.
 
Bref, c'est pas aussi simple qu'il n'y parait. Et Java et C# sont au mieux des langages interessants mais incomplets.
Sans renier les avancées de Java et C#, je pense que ce n'est qu'une étape.  
 
Peut être le futur est il dans un langage a base de droits d'accès qui permetrait d'utiliser certains types de choses a certains niveaux et des les empêcher a d'autres.
 
Pour moi un système doit pouvoir être programmé quasiment de A a Z dans le même langage.
Certes, il y a toujours un peu d'assembleur écrit directement dans un OS. Mais on ne peut pas tout ecrire en assembleur. Question bugs, c'est encore pire que le C première génération.
 

Citation :

Mais on va pas s'arrêter la. La prochaine étape sera peut-être un "bon" langage à composant. On verra :)
De toute facon, le langage universel et parfait existera jamais je pense ;)


 
Même si rien de parfait n'existera jamais, on peut s'en approcher. Mais finalement la n'est pas le but.
L'informatique est une science jeune. Ce qui signifie qu'il y a encore beaucoup de choses a trouver. Beaucoup de produits a mêtre au point. Ca ouvre un large champ créatif et de possibilités d'en vivre.


Message édité par sr16 le 30-10-2003 à 22:13:39
n°2802909
sr16
@*#%$*%§!!
Posté le 30-10-2003 à 21:54:37  profilanswer
 

impulse a écrit :

sr16 > je ne repondrai pas car je ne veux pas pourrir ce topic qui traite de la Parhelia mais ça ne veut pas dire que je suis d'accord, loin de la d'ailleurs. Si tu veux discuter de ça tu peux toujours poster sur OSA. :D


 
J'en ai pas mal discuté déja sur OSA.
 
Le problème c'est que personne ne veut ne fut ce qu'immaginer un instant que Linux puisse ne pas être la perfection.
Beaucoup de gens idéalisent Linux parce qu'il est aujourd'huis la seule réponse au "problème Microsoft".
 
Le problème aussi, c'est que tout le monde ne fait pas la même chose de son ordinateur. Pour certains un écran noir avec un Emacs et c'est le bonheur. Mais pour la majorité des gens, le bonheur c'est de l'animation, du son, de l'ergonomie, de la simplicité, de la communication avec les autres et pas de passer sa vie devant un écran noir en tapant des CTRL-X, CTRL-S.
Bref, les linuxiens sont une secte : Des utilisateurs qui ont un rapport particulier avec l'informatique mais qui sont loin d'en embrasser tous les usages.
Par exemple, beaucoup de Linuxiens ne jouent pas vraiment, ne sont pas des afficionados des films ou du multimédia.
Pour moi, ce sont un peu des déséquilibrés qui s'enferment dans une vision restrictive de la vie mais aussi de l'informatique.
L'informatique qu'ils considèrent comme parfaite ne convient pas aux autres.
 
Comment leur expliquer que Linux n'est pas l'idéal pour la majorité des gens alors que pour eux c'est justement l'idéal ?
 
Comment faire comprendre aux gens que Linux ne sera JAMAIS l'OS de l'avenir parce que il est fait par des gens qui font avant tout un OS pour eux et qui ont l'esprit obtu et un comportement elitiste. Et que de ce fait il ne conviendra jamais au plus grand nombre ni a une utilisation large de l'informatique.
 
 
Pour moi il y a deux types de programmeurs. Quand un utilisateur a des difficultés a se servir d'un programme ils réagissent différement. Le premier se dit que son programme est mal ecrit et n'est pas assez intuitif et qu'il faut le revoir. Le second estime que l'utilisateur est trop con et qu'il n'a qu'a lire le code source.
 
Je vous laisse immaginer qui a programmé quoi, de Windows et de Linux.
 
Il faut quand même réaliser : Aujourd'huis la plupart de gens ne veulent pas de Linux quand bien même il est gratuit.


Message édité par sr16 le 30-10-2003 à 22:03:41
n°2803009
MagiSim
Magique, et oui !
Posté le 30-10-2003 à 22:32:03  profilanswer
 

Je m'incruste en disant que je partage à la fois l'avis d'Enestor, et celui de Sr16.
 
Mais je retiendrai le dernier post de Sr16 comme synthèse de tout cela : Enfin, je n'irai pas jusqu'à dire que les linuxiens sont des déséquilibrés... quoique.....
 
Quand on voit les pauvres linuxiens sur CopinedeGeek..... :sweat:...
 
Bon, alors, c'est quand qu'on a un linux aussi puissant qu'actuellement mais qui sait AUSSI se mettre à la disposition de l'utilisateur ?
 
Linux, pour moi, c'est presque comme si on avait une voiture achetée en pièces détachées avec un manuel éparpillé sur plein de feuilles qu'on doit aller lire dans plein de revues.... Un truc de passionné. Pas un truc pour Mr tout le monde....
 
Et un bon programmeur doit s'adapter à Mr Tout le monde :)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  7  8  9  ..  37  38  39  40  41  42

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic unique] Catalyst 3.4 : Votre Avis Personnel[Topic Unique] Abit IS7 / IC7 (Intel i865/i875) [BIOS 1.3 !!]
[Topic unique] SPD, CPU-Z et autres horreurs2 cartes graphiques AGP ? NForce2 (4 MX intégrée) + Matrox G400 AGP
[Topic Unique] Abit IS7 / IC7 (Intel i865 - i875, dual DDR 400MHz)[Topic Unique] ASUS P4PE (BIOS 1007 officiel) !!!
[Topic Unique] Abit IS7 / IC7 (Intel i865 - i875, dual DDR 400MHz)[Topic Unique] ASUS P4C800 & P4P800 (BIOS 1006 officiel) !!!
[topic Unique]radeon 9500 64 mo connect 3d@109 euro(de surcouf)Matrox G550 sur PCI, ça existe ?
Plus de sujets relatifs à : Topic unique Matrox Parhelia


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)