Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2878 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  16  17  18  ..  37  38  39  40  41  42
Auteur Sujet :

Topic unique Matrox Parhelia

n°2958149
sr16
@*#%$*%§!!
Posté le 21-01-2004 à 00:43:35  profilanswer
 

Reprise du message précédent :

neototem a écrit :

j'ai vu un site US qui annonce que la Parhelia supporte l'AGP 1x, 2X en plus du 4X et 8X, contrairement à ce que m'a répondu matrox
 
je viens de vérifier sur le site Matrox, et ils indiquent AGP 2.0, donc 4x mini, alors que les deux encoches dans le connecteur sont en principe compatibles AGP 2X...
en revanche, les P650 et P750 n'ont qu'une encoche, donc 4X mini ?
 
le manuel trouvé sur le site jette encore plus le doute :
http://www.matrox.com/mga/support/ [...] ies_fr.pdf
là ils indiquent 2x et 4x pour la parhélia, et 2x, 4x et 8x pour le P650 et p750  :pt1cable:  
 
dans les specs de la p750 :
 AGP 8x, 4x, 2x, 1x*
...  
*Supported only on motherboards with a 1.5v or 0.8v AGP slot. AGP 1x and 2x not supported on motherboards with a 3.3v AGP slot.
 
 
qui peut me confirmer ça de façon sure ?


 
Problème compliqué.
 
Car il est fortement possible que la Parhelia supporte l'AGP 1x et 2x mais a condition que la tension soit de 1,5v.
Et il est même possible qu'entre le Parhelia 512 et les P650/750 (Chip Parhelia LX) ce soit différent.
 
Et, malheureusement les docs sont effectivement plutot ambigues.
 
 
Déja si matrox t'a répondu que non, c'est un mauvais point. Cela dit, tout dépends qui chez Matrox t'a répondu. Si c'est sur le forum officiel Matrox, c'est certainement vrai. Sinon va poser la question la bas.
 
Sinon il existe un autre site (en anglais) qui regroupe les utilisateurs Matrox. Poser la question ne mange pas de pain.
 
http://www.matroxusers.com

mood
Publicité
Posté le 21-01-2004 à 00:43:35  profilanswer
 

n°2958153
sr16
@*#%$*%§!!
Posté le 21-01-2004 à 00:50:06  profilanswer
 

neototem a écrit :

d'après le forum matrox US :
"The P650 and P750 (1.5 volt only) will not work on the 440BX motherboard but the Parhelia (1.5 or 3.3 volt) will."
 
donc la parhelia pourrait marcher avec mon chipset GX
...


 
Effectivement, ça semble bien le cas donc. L'excellent chipset 440 BX intel fut le dernier en AGP2X. Son déplorable successeur, le i820 était le premier a supporter le 4X.
 
La P512 peut donc effectivement passer sur un chipset ancien. C'est réellement bon a savoir.
 

Citation :

mais en dual DVI, les deux écrans sont limités à la résolution la plus basse, alors que la P750 n'a pas le problème
http://forum.matrox.com/mga/viewtopic.php?t=7593


 
Effectivement, ça semble une limitation.  
 
Tu dispose de deux écrans de taille différente ?

n°2958264
neototem
ça va passer !
Posté le 21-01-2004 à 07:33:50  profilanswer
 

actuellement, un lcd en 1280x1024 et un Sony 19" trinitron, mais madame pousse au remplacement par un tft,  
 
si je dois prendre deux nouveaux écrans pour pouvoir utliser le 1600x1200, cela va faire beaucoup
 
ce qui est frustrant, c'est qu'à l'inverse la majorité des cartes abordables qui supportent le dual dvi ne supportent le 1600x1200 que sur un seul écran, le second ne pouvant dépasser 1280x1024 (donc changer mon 17" LCD va imposer de rechanger de carte...)

n°2958272
themadcow
Matroxien dans l'âme
Posté le 21-01-2004 à 07:44:35  profilanswer
 

sr16 :
Je suis en train de tester, j'ai mis mon G420 en 1600*1200@80Hz (peut pas plus) et mon Eizo F520 en 1280*960@75Hz (peut pas plus). Et pour le moment, je trouve l'image bcp moins stable qu'avant. On va voir si je m'y fait et si ça ne me fait pas mal aux yeux. Jusqu'à présent je pouvais rester des jours et des nuits devant mes écran tout en ayant un excellent confort (j'étais en 100Hz et en 90Hz). Bon je ne pourrai pas tester sur de longues périodes tout de suite vu qu'il s'agit de mon PC perso et que je bosse ailleurs la journée...
 
PS: ma CG est une G400max :D

n°2960049
sr16
@*#%$*%§!!
Posté le 21-01-2004 à 19:41:00  profilanswer
 

neototem a écrit :

actuellement, un lcd en 1280x1024 et un Sony 19" trinitron, mais madame pousse au remplacement par un tft,  
 
si je dois prendre deux nouveaux écrans pour pouvoir utliser le 1600x1200, cela va faire beaucoup
 
ce qui est frustrant, c'est qu'à l'inverse la majorité des cartes abordables qui supportent le dual dvi ne supportent le 1600x1200 que sur un seul écran, le second ne pouvant dépasser 1280x1024 (donc changer mon 17" LCD va imposer de rechanger de carte...)


 
Tu as plusieurs options.
 
-Soit tu achètes un LCD 1600x1200 que tu utilise que en simple écran au départ. Le confort d'utilisation est cependant excellent avec ce seul écran. Avec possibilité ensuite d'évoluer vers le Dual Head.
 
-Soit tu achètes un second TFT en 1280x1024 pour l'utiliser en dual head avec celui que tu as déja. C'est une solution plus economique. Moins evolutive a terme.
 

n°2960079
sr16
@*#%$*%§!!
Posté le 21-01-2004 à 19:56:01  profilanswer
 

themadcow a écrit :

sr16 :
Je suis en train de tester, j'ai mis mon G420 en 1600*1200@80Hz (peut pas plus) et mon Eizo F520 en 1280*960@75Hz (peut pas plus). Et pour le moment, je trouve l'image bcp moins stable qu'avant. On va voir si je m'y fait et si ça ne me fait pas mal aux yeux. Jusqu'à présent je pouvais rester des jours et des nuits devant mes écran tout en ayant un excellent confort (j'étais en 100Hz et en 90Hz). Bon je ne pourrai pas tester sur de longues périodes tout de suite vu qu'il s'agit de mon PC perso et que je bosse ailleurs la journée...
 
PS: ma CG est une G400max :D


 
Pour le G420, il peut a l'aise dépasser le 80HZ avec une G400.  
 
Pour le Eizo F520, il peut monter a 85hz en 1280x960 comme l'indique sa fiche technique : Il peut monter a 89HZ dans cette résolution : http://www.moniteurs.com/images/up [...] p/F520.pdf
 
Quand au sony G420, il peut aller aussi a 89Hz mais en 1600x1200. Sur ma machine, j'ai pu tester que c'est possible.
 
Maintenant, faudra que je regarde quel est le max en dual head sur la G400. Mais il me semble que la limite viens plutot de certains OS.

n°2960426
nicolbolas
Optiquement votre.
Posté le 21-01-2004 à 21:49:23  profilanswer
 

tu peut modifier les modelines du monitor.inf pour faire passer des resolutions et des frequences exotiques... J'ai passé un 19" hyundaï en 1400*1050 en 88Hz comme ça. Va voir là pour le calcul : http://www.hut.fi/Misc/Electronics [...] /calc.html


---------------
#NetOp. T'as pas 10G ?
n°2960570
themadcow
Matroxien dans l'âme
Posté le 21-01-2004 à 22:14:00  profilanswer
 

sr16: en fait je pense que j'arrive aux limites de la carte. Elle est capable de tenir le 1600*1200@100Hz avec un seul moniteur. Mais avec deux je ne crois pas. Le second moniteur est lui limité au 1280*1024.
Pour l'instant j'ai:
- G420 en 1600*1200@80Hz
- F520 en 1280*960@75Hz
 
Et la carte refuse de monter les fréquences de rafraichissement. J'utilise toujours l'utilitaire intégré au PowerDesk (le dernier en date) et qd je veux augmenter, il fait bip et le taux ne change pas.
Je ne sais pas s'il est possible de faire aller la G400max au delà de ces paramètres (Powerstrip peut-être ?) mais si ce n'est pas possible, je pense redescendre à mes résolutions habituels car je trouve que l'image scintille un peu trop :/
 
nicolbolas : merci pour le lien c'est intéressant à avoir ! Mais dans mon cas, je crois bien que l'écran n'est pas le facteur limitant...
 
Edit: j'ai installé PowerStrip et cela m'a permis de passer le G420 à 85Hz (le 89 ne passe pas). Impossible de modifier les paramètres pour le F520 :/


Message édité par themadcow le 21-01-2004 à 22:58:01
n°2967807
Ernestor
modo-coco :o
Posté le 25-01-2004 à 15:08:45  profilanswer
 

Petit UP avec un petit HS :)
 
Neototem m'a fait part sur mon topic sur les CG d'un test de qualité de sorties DVI. Ca concerne que des cartes ATI et nVidia, y a pas de Matrox malheuresment.
 
En tout cas ca montre qu'en DVI aussi la qualité d'affichage est variable (à ce jeu là, ATI s'en sort mieux que nVidia visiblement)
 
C'est par la : http://www.extremetech.com/article [...] 516,00.asp


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2969002
neototem
ça va passer !
Posté le 25-01-2004 à 22:18:55  profilanswer
 

ya bon a écrit :

A toutes fins utiles il y a une Parhelia 128 r (en boite) en solde chez Planète Saturne ( à Lyon ) à 199 ? :)  


ya bon
je vois seulement le post, tu sais si elle est toujours dispo ?


Message édité par neototem le 25-01-2004 à 22:46:53
mood
Publicité
Posté le 25-01-2004 à 22:18:55  profilanswer
 

n°2970779
sr16
@*#%$*%§!!
Posté le 26-01-2004 à 20:00:11  profilanswer
 

Ernestor a écrit :

Petit UP avec un petit HS :)
 
Neototem m'a fait part sur mon topic sur les CG d'un test de qualité de sorties DVI. Ca concerne que des cartes ATI et nVidia, y a pas de Matrox malheuresment.
 
En tout cas ca montre qu'en DVI aussi la qualité d'affichage est variable (à ce jeu là, ATI s'en sort mieux que nVidia visiblement)
 
C'est par la : http://www.extremetech.com/article [...] 516,00.asp


 
Alors, en ce qui concerne la qualité DVI, théoriquement il ne devrait pas y avoir de différence de qualité puisque le signal est transmis en numérique il ne peut normalement pas être dégradé en route.
 
Mais il y a toujours un mais...
 
Il faut savoir qu'un signal numérique possède certaines particularités.
 
Une de ses particularité est d'être très résistant aux perturbations. Il faut en effet un très gros parasite pour faire passer un 1 a 0 ou vice versa, ce qui limite réellement la possibilité qu'il soit endommagé dans une transmission.
 
Alors d'ou peut venir le problème ?
 
Tout simplement parce que a des résolutions très elevées, les fréquences de transmissions deviennent elles aussi très elevées, ce qui ne va pas sans poser quelques problèmes qui révèlent surtout le fait qu'une transmission TMDS en 1600x1200 arrive a sa limite.
 
Si toutes les CG ou presque arrivent a se démerder en 1024*768 et 1280*1024, il n'en va pas toujours de même en 1600*1200.
 
De la même façon que quand on cherche a obtenir une vitesse de transmission très elevée sur une chaine SCSI, l'association de certains cables / périphériques / Terminateurs peut poser des problèmes de corruption de données, on retrouve les mêmes problèmes avec le DVI des écrans.
 
Normalement, toutes les données devraient arriver intégralement a destination. Mais un mauvais cable, un moniteur qui ne respecte pas les specs ou une CG dont le transmetteur TMDS n'est pas conforme peuvent donner une conjonction de facteurs qui vont provoquer des corruptions de données dans des cas de résolution elevées ou la transmission est poussée proche de ses limites théoriques.
 
On ne devrait d'ailleurs même pas parler de qualité d'affichage dans ce cas, mais de défectuosité. Car contrairement a la transmisssion analogique ou il est normal et inévitable que le signal soit toujours un peu dégradé par la transmission, dans le cas du DVI-D, cela ne l'est pas. C'est donc une defectuosité du matériel dans le sens ou quelqu'un n'a pas respecté les normes. Ca peut être du aussi bien a la CG qu'a l'écran qu'au cable ou même plusieurs elements.
 
En ce qui concerne les cartes graphiques, tout le problème les concernant est de metre en forme le signal de manière optimale de manière a diminuer au maximum le problème des erreurs de transmission au départ. On a donc effectivement un problème de qualité imputable a la CG. Les bonnes CG munies de bons transmetteurs TMDS seront a ce titre avantagées. Mais avec une différence notable par rapport a l'analogique : A partir du moment ou ça passe sans erreurs, tous les affichages auront la même qualité. Il faut considérer qu'il n'y aura pas de "petites différences de qualité" mais plutot du "ça marche ou pas".  
 
 
En ce qui concerne la Parhelia 512, je n'ai pas d'informations concernant la qualité de ses deux circuits TMDS Chrontel par rapport aux autres. Tout ce qu'on peut en dire c'est que l'on constate que l'utilisation de TMDS sous forme de circuits externes réduit généralement les risques d'avoir une implémentation catastrophique. Car les circuits spécialisés sont toujours en general plus au point que les implémentations foireuses "on die" des fabricants de CG. A mon sens, sur la P512, Matrox a voulu jouer la sécurité. Mais n'ayant pas testé, je ne pourais pas en dire plus.
 
A noter cependant que les P650 et P750 semblent utiliser des TMDS intégrés et non externes comme la P512.


Message édité par sr16 le 26-01-2004 à 20:14:13
n°2970808
neototem
ça va passer !
Posté le 26-01-2004 à 20:13:52  profilanswer
 

si tu regardes ce qui est présenté sur anandtech, ils indiquent bien que certaines cartes ne respectent pas la norme ou ne l'atteignent pas en haute résolution.
il ne s'agit pas d'une "panne" donc "ça marche" mais mal : certains signaux sont désynchronisées, d'où des "bruits" dans l'affichage, en particulier dans les conditions difficiles (cables long, écran limite lui aussi)
 
ils n'ont pas testé les matrox, donc pas de certitude sur les différences entre le P512 et les p650/750

n°2970822
sr16
@*#%$*%§!!
Posté le 26-01-2004 à 20:21:30  profilanswer
 

neototem a écrit :

si tu regardes ce qui est présenté sur anandtech, ils indiquent bien que certaines cartes ne respectent pas la norme ou ne l'atteignent pas en haute résolution.
il ne s'agit pas d'une "panne" donc "ça marche" mais mal : certains signaux sont désynchronisées, d'où des "bruits" dans l'affichage, en particulier dans les conditions difficiles (cables long, écran limite lui aussi)
 
ils n'ont pas testé les matrox, donc pas de certitude sur les différences entre le P512 et les p650/750
 


 
Non, bien sûr il ne s'agit pas d'une panne au sens circuit endommagé. Mais d'une panne au sens "mauvais fonctionnement". Peu importe que cela découle d'une mauvaise conception.
 
Mais la ou je parle de panne, c'est parce que dans une transmission numérique, le fait que toutes les données n'arrivent pas a bon port en bon état, c'est considéré comme étant totalement defectueux. Une transmission numérique DVI-D n'est pas sensée perdre un seul bit de données.
 
Si on avait ce problème concernant du son, ça donnerait des grésillements. On ne pourait pas considérer cela comme "écoutable".


Message édité par sr16 le 26-01-2004 à 20:22:23
n°2970849
sr16
@*#%$*%§!!
Posté le 26-01-2004 à 20:32:10  profilanswer
 

Il faut bien faire attention au fait qu'en numérique on n'a pas du tout la même phillosophie qu'en analogique.
 
En analogique, les signal arrive toujours plus ou moins dégradé. Plus ou moins selon la qualité des composants et du schéma. Et une transmission de mauvaise qualité donnera juste un peu plus de flou si c'est une image ou un peu moins de qualité si c'est un son.
 
Le problème c'est que si en numérique on "perds" des bits de données, tu peut te retrouver avec des pixels colorés bien pétants. Ce qui est potentiellement bien plus emmerdant qu'un simple flou. Pour un son, ça donne des gros grésillements.
 
Donc le numérique c'est aussi con qu'un bit : Ca marche ou ça marche pas.  
 
Autrement dit : Le numérique c'est cool.... mais seulement quand ça marche.


Message édité par sr16 le 26-01-2004 à 20:32:43
n°2970942
sr16
@*#%$*%§!!
Posté le 26-01-2004 à 21:05:46  profilanswer
 

Autre chose aussi par rapport aux tests "au banc". Autrement dit, les tests qui sont faits avec un oscilloscope.
 
J'ai déja vu des benchs aux résultats totalement en contradiction avec la réalité. Les mecs croient en leurs résultats théoriques alors qu'ils sont archi faux. Ils font les malins avec leur scope mais en oublient un peu vite qu'on utilise rarement une CG avec un scope de la même façon qu'on ne joue pas avec les benchmarks comme 3DMark.  
La réalité c'est que au lieu de faire les "intelligents" avec un scope, ils feraient beaucoup mieux de tester avec quelques ecrans REELS si ils le peuvent.
 
Il ne faut pas oublier que le simple branchement d'un système de mesure sur un circuit peut facilement fausser la mesure et décaller les résultats d'une part. Et d'autre part, parce que les résultats que ces testeurs pensent être l'idéal ne le sont pas toujours dans la pratique pour x ou y raisons que ces gars ignorent.
 
Ainsi, pour donner un exemple concernant l'analogique, l'idéal théorique serait une CG qui donne des fronts de signaux de transition blanc-noir ou noir-blanc totalement verticaux. Or, ce que les testeurs oublient un peu vite, c'est que les moniteurs intègrent des circuits de compensation du signal. Et que il faut en tenir compte parce que un front trop vertical pourait signifier un bel "overshoot" au bout de la chaine. Une bonne CG est donc une CG qui envoie la forme de signal qu'il faut pour que la transition donne une belle transistion.... sur la rétine de celui qui regarde.
N'oubliez jamais ça, c'est une nuance importante.
 
Personellement, ça fait longtemps que je dispose d'un scope. Assez pour savoir que c'est cool pour apprendre mais qu'il faut beaucoup de rigueur pour faire ce genre de mesures étant donné que les simples cables du scope peuvent modifier notoirement ce qu'on mesure. Je ne parle même pas de la terminaison interne de celui ci qui n'a rien a voir avec ce pourquoi la carte a été prévue a l'autre bout. Et ça aussi c'est primordial.
Sans compter de savoir avec quoi ils se sont reliés sur la sortie des CG. Si c'est un connecteur de récup avec des fils volants grossièrement soudés (cas malheureusement courant chez ces expérimentateurs en herbe), ça modifie absoluement tout.
 
Conclusion : Fions nous aux tests pratiques d'essais concrets et evitons les conclusions hasardeuses et pseudo scientifiques de premiers de la classe boutonneux en mal de reconnaissance qui font mumuse avec le scope du lycée et les CG de leurs copains.


Message édité par sr16 le 26-01-2004 à 21:08:55
n°2971127
neototem
ça va passer !
Posté le 26-01-2004 à 22:13:24  profilanswer
 

sr16 a écrit :


Il ne faut pas oublier que le simple branchement d'un système de mesure sur un circuit peut facilement fausser la mesure et décaller les résultats ...


 :jap:  
 
aux fréquences concernées l'aspect analogique du signal devient impossible à écarter : comme tu l'as indiqué, la forme du signal joue
la difficulté existe de corréler des mesures (objectives) avec une perception de qualité (forcément subjective), mais pour moi l'intérêt premier de ce type de test est de pouvoir mettre en évidence des différences alors que beaucoup de constructeurs semblent négliger la qualité sous prétexte que "c'est du numérique", et en profitent pour gratter sur les composants
(tout comme en analogique, il n'y a pas de miracle)  
 

n°2972264
sr16
@*#%$*%§!!
Posté le 27-01-2004 à 17:49:28  profilanswer
 

Oui, c'est certain que ça a le mérite de faire prendre conscience que même en numérique toutes les CG ne se valent pas.
 
D'un autre côté il faut souligner que 90% des problèmes de transmissions concernent potentiellement le mode UXGA (1600*1200) et que si l'on a pas l'intention de s'acheter un tel moniteur (qui reste encore assez couteux et peu adapté au jeu), le problème ne se posera sans doute jamais.
 
J'en profite pour rappeler que les moniteurs LCD posent plus de problème de choix que les moniteurs CRT.
 
D'abord, contrairement au CRT, un LCD ne donne une qualité d'image optimale que dans une seule résolution : Sa résolution native. Car toutes les autres résolutions sont obtenues par interpolation, ce qui dégrade lourdement l'image. Autrement dit, pour jouer avec un UXGA, mieux vaut utiliser une Radeon 9800 qu'une Radeon 9000.
 
Comme je l'ai dit dans un précédent post, ce qui est important dans un LCD, ce n'est pas le nombre de pouces mais le nombre de pixels. En d'autres termes sa résolution.
 
Malheureusement aussi, d'autres facteurs entrent en ligne de compte. On se rends compte qu'un superbe écran LCD de travail est totalement inadapté au jeu et vice versa car leur construction est très différente. Grande plage de couleur et grand angle de vision dans un cas et vitesse de réaction rapide dans l'autre. On retombe finalement dans la même problèmatique qu'avant, c'est a dire qu'un matériel optimal pour le travail ne l'est pas pour le jeu.

n°2972277
neototem
ça va passer !
Posté le 27-01-2004 à 19:35:34  profilanswer
 

sr16 a écrit :

...d'autres facteurs entrent en ligne de compte. On se rends compte qu'un superbe écran LCD de travail est totalement inadapté au jeu et vice versa car leur construction est très différente. Grande plage de couleur et grand angle de vision dans un cas et vitesse de réaction rapide dans l'autre. On retombe finalement dans la même problèmatique qu'avant, c'est a dire qu'un matériel optimal pour le travail ne l'est pas pour le jeu.


toi qui cherches ce type de solution "mixte" travail/jeu, as tu trouvé des LCD qui se comportent mieux que d'autres ?
les test sont le plus souvent orientés jeux, et beaucoup moins retouche photo, video...
 
j'ai vu que la parhelia n'est garantie qu'un an, contrairement à la majorité des cartes "pro" (quadro, firegl...)
c'est pareil en version box qu'en oem ?
 
est-ce que nos amis qui vendaient leur parhelia ont choisi la remplaçante ?


Message édité par neototem le 27-01-2004 à 19:57:16
n°2972410
neototem
ça va passer !
Posté le 27-01-2004 à 20:36:59  profilanswer
 

neototem a écrit :

j'ai vu que la parhelia n'est garantie qu'un an, contrairement à la majorité des cartes "pro" (quadro, firegl...)
c'est pareil en version box qu'en oem ?


selon le site matrox :
"Matrox hardware products purchased from Matrox authorized dealers will be free from defects in materials and workmanship for a period of three (3) years from the date of purchase. This warranty applies only to the original end-user purchaser and is non-transferable"
 
par contre les oem doivent passer par l'intégrateur pour le sav  :(  
je pense que je vais me laisser tenter par une version box quand je vais aux US (autour de 350$ actuellement)

n°2972976
sr16
@*#%$*%§!!
Posté le 28-01-2004 à 01:39:28  profilanswer
 

neototem a écrit :


toi qui cherches ce type de solution "mixte" travail/jeu, as tu trouvé des LCD qui se comportent mieux que d'autres ?
les test sont le plus souvent orientés jeux, et beaucoup moins retouche photo, video...


 
Personellement je suis pour l'instant resté en CRT. Et franchement, je pense que je vais attendre encore pour changer.
 
Oui, il y a des LCD qui sont beaucoup mieux que d'autres. Déja pour le travail parce que certains arrachent franchement la gueule : Le backlight de certains est beaucoup trop fort et pas règlable.
Pour le jeu, il y a de grosses différences aussi. On voit tout le débat autour des fréquences de rafraichissement.
 

Citation :

j'ai vu que la parhelia n'est garantie qu'un an, contrairement à la majorité des cartes "pro" (quadro, firegl...)
c'est pareil en version box qu'en oem ?


 
3 ans normalement.  
 
Apparement, Matrox semble assurer directement la garantie. Mais en france j'ignore ce qu'il en est. Pour tout dire, la seule Matrox en panne que j'ai jamais eue (une millenium) a cramée (avec fumée...) a la première utilisation et avait été échangée tout de suite par le revendeur. C'était il y a très longtemps.
 

Citation :

est-ce que nos amis qui vendaient leur parhelia ont choisi la remplaçante ?


 
En 3 lettres  ? ... :D
 

n°2973008
neototem
ça va passer !
Posté le 28-01-2004 à 07:17:58  profilanswer
 

sr16 a écrit :

Citation :

est-ce que nos amis qui vendaient leur parhelia ont choisi la remplaçante ?


 
En 3 lettres  ? ... :D
 


ou plus, c'est par curiosité

n°2974466
sr16
@*#%$*%§!!
Posté le 28-01-2004 à 18:23:26  profilanswer
 

neototem a écrit :


ou plus, c'est par curiosité


 
Moi je dirais que logiquement, si on remplace une Parhelia, c'est pour avoir quelque chose en plus.
 
Je vois deux raisons logiques qui pouraient justifier un changement.
 
-Avoir une 3D plus rapide.
 
-Recupérer de l'argent si on n'a pas l'usage de cette carte car elle conserve encore a l'heure d'aujourd'huis une valeur sur le marché de l'occasion.
 
Dans le cas ou l'on veut une 3D plus rapide, le choix me parait vite fait. La comparaison avec la 9600XT montre que si l'ATI est plus rapide, la différence ne justifie pas a mon sens un changement. Seul une 9800/9800Pro (ou son "equivalent" chez NVIDIA) vaut réellement de changer si on veut des perfs 3D plus elevées.  
 
Maintenant, soyons clair, la nouvelle génération de cartes va arriver tantot et ce n'est pas vraiment le moment de changer.
 
Parce que d'ici peu il va certainement y avoir de bonnes promos d'une part. Et d'autre part des circuits nouvelle génération avec des performances (Beaucoup ?) plus elevées pour le même prix aussi bien chez ATI que chez NVIDIA.
 
Donc il est urgent d'attendre.
 
Par contre, pour ceux qui vendent leur Parhelia, c'est effectivement le bon moment.

n°2974549
neototem
ça va passer !
Posté le 28-01-2004 à 18:49:49  profilanswer
 

sr16 a écrit :

pour ceux qui vendent leur Parhelia, c'est effectivement le bon moment.


 
j'ai vu qu'il y a pas mal de ventes sur ebay par exemple, et certains magasins US semble ne plus avoir la parhelia 128
 
je ne sais pas s'ils poussent vers les P650/750 ou la P256 , ou s'il y a une nouvelle sortie chez matrox en vue et qu'ils préfèrent être en rupture d'une carte qu'ils vendent peu, plutôt que de le liquider quand la nouvelle sortira ?
 
je vais attendre encore un peu pour voir comment cela évolue, baisse ou nouveauté dual dvi chez Ati
 

n°2974974
neototem
ça va passer !
Posté le 28-01-2004 à 22:05:10  profilanswer
 

up, et question en passant :
ça chauffe beaucoup une parhelia ?
la fréquence (relativement) basse devrait limiter la chauffe, non ?

n°2975235
muzah
Bal Musette @ HFR depuis 1997
Posté le 28-01-2004 à 23:37:57  profilanswer
 

bah ça doit pas chauffer des masses quand même.

n°2975336
smiley0041
Posté le 29-01-2004 à 00:12:29  profilanswer
 

de toutes façon vu le minable rad ça devrait pas chauffer des masses


---------------
Mon feed
n°2975940
neototem
ça va passer !
Posté le 29-01-2004 à 12:27:25  profilanswer
 

smiley0041 a écrit :

de toutes façon vu le minable rad ça devrait pas chauffer des masses


c'est sur, mais je préfèrerais que cela ne fasse pas tourner le ventilo à fond pour compenser

n°2975960
smiley0041
Posté le 29-01-2004 à 12:39:57  profilanswer
 

neototem a écrit :


c'est sur, mais je préfèrerais que cela ne fasse pas tourner le ventilo à fond pour compenser

sinon Zalman Powaaaa :love:


---------------
Mon feed
n°2976431
neototem
ça va passer !
Posté le 29-01-2004 à 16:28:19  profilanswer
 

ou vga silencer, si ça passe ?
 
il parait que le mode silence est inaudible, et il sort directement l'air chaud du boitier

n°2976838
smiley0041
Posté le 29-01-2004 à 18:36:04  profilanswer
 

neototem a écrit :

ou vga silencer, si ça passe ?
 
il parait que le mode silence est inaudible, et il sort directement l'air chaud du boitier

m'étonnerai que ça y aille :o

n°2976873
sr16
@*#%$*%§!!
Posté le 29-01-2004 à 18:46:54  profilanswer
 

neototem a écrit :

up, et question en passant :
ça chauffe beaucoup une parhelia ?
la fréquence (relativement) basse devrait limiter la chauffe, non ?


 
Non, le chip ne chauffe pas beaucoup. Ca n'a rien a voir avec une 9800 pro.

n°2976880
sr16
@*#%$*%§!!
Posté le 29-01-2004 à 18:47:46  profilanswer
 

smiley0041 a écrit :

de toutes façon vu le minable rad ça devrait pas chauffer des masses


 
Le minable rad est quand même plus conséquent que celui d'une Radeon 9600XT.
 

n°2976886
smiley0041
Posté le 29-01-2004 à 18:51:28  profilanswer
 

sr16 a écrit :


 
Le minable rad est quand même plus conséquent que celui d'une Radeon 9600XT.
 
 

ouais mais bon une radeon 9600XT ça chauffe absolument pas
tu peux faire tout ce que tu veux avec ça chauffe pas :love:

n°2976891
sr16
@*#%$*%§!!
Posté le 29-01-2004 à 18:53:48  profilanswer
 

smiley0041 a écrit :

sinon Zalman Powaaaa :love:  


 
Justement, il avait été dit que ça n'allait pas. Mais selon certains qui ont essayé, ça marche quand même.
 
En fait, ce qui se passe c'est que le chip de matrox est enorme au niveau taille. Il est couvert d'un gros heat spreader. C'est un très beau packaging fait très certainement pour absorber beaucoup plus de chaleur que ça.
Par contre, le Zallman ne le recouvre pas totalement. Donc zallman a décidé d'annoncer que ils ne garantissaient pas le bon fonctionnement (on perds quand même la garantie de Matrox a mon avis).
 
Selon les dires de certains, bien que le Zallman ne recouvre pas totalement le circuit, cela fonctionne tout de même très bien.
 
Moi personellement, je n'en sait pas plus.  
 
Mais je considère que la Parhelia est tout de même relativement silencieuse. En tout cas c'est pas le premier truc que j'entends.
 

n°2976900
smiley0041
Posté le 29-01-2004 à 18:57:14  profilanswer
 

chépas c'est écrit que c'est compatible sur mon bouquin de ZM80C-HP, mais uniquement si on met le ventilo de 80 OP1

n°2976904
smiley0041
Posté le 29-01-2004 à 18:57:55  profilanswer
 

t'as une tof du gpu de la parhelia ?

n°2976950
sr16
@*#%$*%§!!
Posté le 29-01-2004 à 19:09:03  profilanswer
 

smiley0041 a écrit :

chépas c'est écrit que c'est compatible sur mon bouquin de ZM80C-HP, mais uniquement si on met le ventilo de 80 OP1


 
Alors a mon avis il faut faire ce qu'ils disent. Mais donc c'est compatible.


Message édité par sr16 le 29-01-2004 à 19:09:20
n°2976951
sr16
@*#%$*%§!!
Posté le 29-01-2004 à 19:09:32  profilanswer
 

smiley0041 a écrit :

t'as une tof du gpu de la parhelia ?


 
http://www.tech-report.com/reviews/2002q2/parhelia/parhelia-chip.jpg

n°2976969
smiley0041
Posté le 29-01-2004 à 19:15:06  profilanswer
 

:ouch:  :love:  
le packaging :love:  
 
on dirait la même disposition des puces mémoire que sur les GeForceFX [:gratgrat]


---------------
Mon feed
n°2978535
neototem
ça va passer !
Posté le 30-01-2004 à 14:33:58  profilanswer
 

d'après la photo, le vga silencer pourrait s'installer : il y a les deux trous de fixations
 
SR16
si c'est une photo de la tienne, le rad est difficle à enlever ?

n°2979220
sr16
@*#%$*%§!!
Posté le 30-01-2004 à 19:32:08  profilanswer
 

neototem a écrit :

d'après la photo, le vga silencer pourrait s'installer : il y a les deux trous de fixations
 
SR16
si c'est une photo de la tienne, le rad est difficle à enlever ?


 
Non, ça n'est pas une photo de la mienne.
 
En fait sur la mienne j'ai laissé tout d'origine. C'est pas avec les 30 ou 40 ventilos que j'ai dans la pièce que ça va me gener.
 
Je ne pense pas que ça soit dur a enlever. Déja la présence d'un heat spreader comme celui la facilite les choses pour enlever le ventirad étant donné que tu peut certainement introduire assez facilement une lame entre le heat spreader et le radiateur. En pesant un peu avec précaution, ça devrait se détacher tout seul.
 
Sans compter que vu que le radia est fixé par des les trous de la carte, c'est très certainement de la simple pate thermique et non de la colle thermique. Il y a de grande chance que ça parte tout seul en tirant a peine une fois les attaches déclipsées.
 
Tu veut construire une machine silencieuse ?


Message édité par sr16 le 30-01-2004 à 19:35:24
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  16  17  18  ..  37  38  39  40  41  42

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic unique] Catalyst 3.4 : Votre Avis Personnel[Topic Unique] Abit IS7 / IC7 (Intel i865/i875) [BIOS 1.3 !!]
[Topic unique] SPD, CPU-Z et autres horreurs2 cartes graphiques AGP ? NForce2 (4 MX intégrée) + Matrox G400 AGP
[Topic Unique] Abit IS7 / IC7 (Intel i865 - i875, dual DDR 400MHz)[Topic Unique] ASUS P4PE (BIOS 1007 officiel) !!!
[Topic Unique] Abit IS7 / IC7 (Intel i865 - i875, dual DDR 400MHz)[Topic Unique] ASUS P4C800 & P4P800 (BIOS 1006 officiel) !!!
[topic Unique]radeon 9500 64 mo connect 3d@109 euro(de surcouf)Matrox G550 sur PCI, ça existe ?
Plus de sujets relatifs à : Topic unique Matrox Parhelia


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)