Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
915 connectés 

 


Dernière réponse
Sujet : Mauvaise qualité 2D des GeForce : légende ou vérité ?
[QUE]Frank Allez, quoi... :(
 
Sachant que ma config. est pas supra musclée : PIII 800EB @ 863 couplé à 512 Mo de SDRAM PC133 sous du i815, quelle serait la carte idéale à prendre pour :
 
- Améliorer la qualité de l'affichage 2D (prioritaire)
- Améliorer les performances 3D au passage (si c'est possible)
- en profiter pleinement sans être bridé par mon CPU
 
SIVOUPLAI :D

Votre réponse
Nom d'utilisateur    Pour poster, vous devez être inscrit sur ce forum .... si ce n'est pas le cas, cliquez ici !
Le ton de votre message                        
                       
Votre réponse


[b][i][u][strike][spoiler][fixed][cpp][url][email][img][*]   
 
   [quote]
 

Options

 
Vous avez perdu votre mot de passe ?


Vue Rapide de la discussion
[QUE]Frank Allez, quoi... :(
 
Sachant que ma config. est pas supra musclée : PIII 800EB @ 863 couplé à 512 Mo de SDRAM PC133 sous du i815, quelle serait la carte idéale à prendre pour :
 
- Améliorer la qualité de l'affichage 2D (prioritaire)
- Améliorer les performances 3D au passage (si c'est possible)
- en profiter pleinement sans être bridé par mon CPU
 
SIVOUPLAI :D
[QUE]Frank :bounce:
[QUE]Frank Up!
 
Cette question m'intéresse beaucoup.
 
Depuis peu, j'ai remplacé mon merdique Komodo H73 (un moniteur 17" à dalle bombée) par un ViewSonic P75f+ (dalle Trinitron, pas du caca quand même), j'ai le sentiment que la qualité 2D est pas parfaite.
 
J'ai une GeForce DDR d'Asus première du nom et j'suis en 1152*864 @ 100 Hz et je vois un léger effet de flou sur le texte. C'est pas flagrant, mais ça parait assez pour que ça agace.
 
J'ai donc dans l'idée de changer de carte. Je veux de la 3D décente (à peu près comme ma GeForce) et une qualité 2D digne de ce nom.
 
Z'en pensez quoi ?
 
- Passer à une ATI BBA ? Si oui, laquelle ?
- Prendre une GeForce2 MX ? :sarcastic:
- Garder ma carte actuelle étant donné que l'effet de flou ressenti est normal quand on passe d'un moniteur de merde à une dalle plate ? :(
- Obiwan ?
Esteb@n j'ai eu une TNT2 ultra et une Geforce 2, et c'etait vraiment pourri / Ati Rage 128 et Radeon SDR.
 
Maintenant avec la Geforce3 c bcp mieux mais pas au niveau d'ati qd meme.
antp j'en vois plein qui disent que c'est bof même maintenant mais ils ont une GeForce 2 :heink:
On est au temps des GeForce 4 hein :D
Chips

mastermatt a écrit a écrit :

Creative : TNT2 Ultra : absolument parfaite !!!!!!!




 
creative il parait que c'etait effectivement top quand ils fabriquaient eux même leur cartes ( j'ai eu une TNT1 d'excellente qualitée )
 
sinon on peut toujours virer les filtres de sortie, je l'ai fais pour ma 2GTS, mais le gain fut pas enorme. finalement je pense que c'est autant mon ecran qui a vieillit.
 
maintenant j'ai un TFT et la aucun pb :)

hide

isamu1024 a écrit a écrit :

 
 
 
presk -500



:'(

Creative : TNT2 Ultra : absolument parfaite !!!!!!!
Leadtek : GeForce 2 Pro : ultra floue : en 800*600 c'était limite, en 1280*960 @ 85 hz (19" ) : flou à mort --> remboursé (je l'ai gardé moins d'une semaine)
Hercules : GeForce 3 ti 200 : très bien mais moins bien que ma TNT2 Ultra :sweat:
 
Un pote à une MSI : GeForce 2 GTS : qualité très moyenne.

HidE a écrit a écrit :

 4000f ???  :D  




 
 
presk -500

xdc360 j'ai eut une différence flagrante lorsque je suis passsé de ma rage 128 à une geforce 2 MX. L'écran était vraiment flou en 1280 et faisiait mal aux yeux, alors qu'avec l'ATI rage no pob!!!!!!!!!!
Maitenant, j'ai une radeon 7500 non bba, et j'ai pas tout à fait retrouvé la qualité de ma première ATI???
hide

isamu1024 a écrit a écrit :

j ai une gf3 elsa ds les premieres sorties (mon dieu le prix que je l avais paye a l epok  :sweat: ) et la 2D est tres bonne.



4000f ???  :D

j ai une gf3 elsa ds les premieres sorties (mon dieu le prix que je l avais paye a l epok  :sweat: ) et la 2D est tres bonne.
sbe j'ai une radeon 7200 64 DDR VIVO   BOF la 2D
J'ai une GEFORCE 2MX DH  (ASUS)  POTABLE la 2D
J'ai une GEFORCE 3 TI200 SUMA  CORECTE la 2D
J'ai une MATROX G400 DH         HYPER BON la 2D
 
Bref Matrox avec une carte qui à plusieurs années c'est encore le top en 2D
immortal entre une leadtek gf2pro et gf4ti4200 je trouve qu'il y du progres mais c'est un choya au dessous des 8500 nonames club3d et une autre marque je sais plus laquelle enfin je prefere quand meme ma gf4 ti au radeon 8500 une fois en 3d ahahahah
nurgle Moi je suis passé dune Geforce2GTS a un i815 (oui je sais, c'est honteux) et bien la qualité du i815 est bien meilleur en 2D, dès le 1024*768, sinon le meilleur moyen de perdre en qualité : branchez des voodoo2 no-name, c'est fou comme le cable de liaison fout l'image en l'air.
reivax59 Geforce à la maison... matrox au boulot. et ben y'a pas photo!
niknolt

webzeb a écrit a écrit :

Bonjour!
 
Je me sers pas mal de mon PC pour le graphisme et le net...
 
Lorsque je rebranche ma vieille Rage Pro PCI, la différence avec ma 3D Prophet DDR/DVI est juste flagrante : j'ai l'impression de changer d'écran en haute rés'!
 
Alors je voudrais avoir si les ATI (les vraies, built by ati) et les Matrox ont encore une vraie avance en terme de qualité, ou si le GeForce se sont améliorées?




Sur un 17" je ne vois pas la difference avec une Ati rage pro

KikitheKing Je connai pas ati mais la kalité dédai de ma GeForce 1 DDr annihilator Pro de creative est tres bonne :)
 
De toute facon je conte macheté la Ati R250 kan elle sortira donc je pourrai remonter ce topic pour donner mon avis ;)
Je suis de l'avis: "mouais, 2D bof, pas mal, mais pas au niveau de ati/matrox".
 
Possédant une 2Ti ELSA 516 TV/Out achetée très récement (il y a 15 jours: c'étaient les toutes toutes dernières 2Ti :sol: du défunt ELSA :cry: ).
 
Ainsi qu'une MATROX G450, les deux cartes sont connectées par le biais d'un splitter sur le même écran et je peux par conséquent faire la différence en toute connaissance de cause!
 
Ma conclusion: "mouais, 2D bof, pas mal, mais pas au niveau de ati/matrox" :lol:  
 
Sérieusement, heureusement que c'est une ELSA, sinon :gun:  
 
 :hello:
antp en passant d'une Kyro2 Hercules à une Gf4 MSI j'ai pas vu de différence de qualité en 2D
(testé en 1280x960 et 1600x1200)
Y a paraît que la Kyro2 avait une assez bonne qualité (selon un ancien utilisateur de Matrox c'était pareil)
Par contre la TNT2 c'est pas terrible : c'est pas net en 1280x960. J'ose pas imaginer les GeForce 1 & 2 :o
ark

Tetedeiench a écrit a écrit :

 
En passant, Gigabyte n'a guère que rarement utilisé des compo de mauvaise qualité.




 
j'espère bien vu le prix que j'ai payé  :D  :D  

Tetedeiench leadtek c'est de la loterie (j'ai eu du bol sur ma GeForce3, nickelle, comparable a une ati sans problème, mais un ami sur sa Ti200 pas de bol... c'est selon leur humeur).
 
Ne pas faire de généralités habusives...
 
En passant, Gigabyte n'a guère que rarement utilisé des compo de mauvaise qualité.
ark oui mais...
j'ai une ati radeon
c'est pas une bba (gigabyte), donc ati a pas de contrôle la-dessus...
pourtant je trouve que la qualité d'affichage en 2d est un cran au-dessus, malgré mon écran pourri (j'attends d'en avoir un nouveau pour voir si ca se confirme en 1600*1200 ;) )
 
et avant j'avais une geforce ddr, leadtek (donc c'est de la kalitay :) )et la qualité en 2d était quand même moins bonne
 
:/
Tetedeiench Putain, la recherche, ca existe, ca fait la 10 000 0000 0000 000 00 000 00 000 00 00 00 ème fois que je répète le meme truc... j'en suis réduit a faire des copier/coller comme un bourrin pour vous éviter de  faire 3 clicks... pitoyable.
 

tilateur a écrit a écrit :

ca me parait bizarre : si c'etait aussi simple pourquoi nvidia ne l'a pas fait avant????
a tous les coups ds 2 mois vous aurez plus de carte du tout......et nous on va avoir droit aux messages du style "nvidia cai de la mairde, leurs cartes elles sont pas solides....." :D  




 
Pour la simple raison que ce n'est pas Nvidia qui controle ca.
 
Nvidia fabrique des chips, et fabrique un reference design (ou fait sous traiter le reference design, par creative notamment), en respectant les normes.
 
Et la norme CE implique la présence d'un filtre RFI sur la carte. Une histoire de radiations... bref.
 
Déjà, passage obligé.
 
Ensuite, ce qui conditionne beaucoup la qualité de l'image a la sortie, c la qualité des composants de ce  filtre...
 
Et qui assemble les cartes ? bah pas nvidia, mais des sociétés en sous traitances, creative, leadtek, hercules, elsa, etc...
 
Et c eux qui choisissent la qualité  de leur composants. Certains sont moins regardant que d'autres (notamment hercules... ), et pour certains c un peu de la chance (leadtek notamment, la mienne est géniale, celle d'un pote, une TI200, deja moins bonne bien que potable).
 
Pourquoi pas ce probleme chez ATI ? Bah c simple, ati, avant, ct eux qui fabriquaient leurs propres cartes, du chip au PCB en passant par le carton de la boite, et qui le distribuaient.
 
ils mettaient juste a chaque coup des composants de qualité.
 
Attention, maintenant, ce n'est plus vrai. Il y a des cartes fabriquées par des tiers, donc la bas aussi c la loterie...
 
Donc on peux dire que Nvidia/ATI sont sur un pied d'égalité, bien que jusqu'a présent, prendre une carte faite par ati eux meme n'aie pas posé de probleme niveau 2d (ce qui ne veux en aucun cas dire que ca changera jamais, juste que pour l'instant y a jamais eu de problemes.)
 
Voila :hello:

schumacher cf config
 
je te parle pas de mon expérience perso ms juste des réponses otbtenues qd g posé la question au moment de choisir ma CG :hello:
hide sortie tv chez leadtek ==> [:vomi]
webzeb t'as quelle marque? (je suppose que selon la qualité des filtres, ça varie)
schumacher depuis les gf3 ça va mieux
 
avant c t vrai ...
webzeb Bonjour!
 
Je me sers pas mal de mon PC pour le graphisme et le net...
 
Lorsque je rebranche ma vieille Rage Pro PCI, la différence avec ma 3D Prophet DDR/DVI est juste flagrante : j'ai l'impression de changer d'écran en haute rés'!
 
Alors je voudrais avoir si les ATI (les vraies, built by ati) et les Matrox ont encore une vraie avance en terme de qualité, ou si le GeForce se sont améliorées?

Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR