Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2864 connectés 

 


Dernière réponse
Sujet : TFT: avec ou sans DVI?
jfvde c'est vrai je vois pas pourquoi ils en sortent pas, perso j'en aurait rien a battre de pas avoir d'entree VGA...

Votre réponse
Nom d'utilisateur    Pour poster, vous devez être inscrit sur ce forum .... si ce n'est pas le cas, cliquez ici !
Le ton de votre message                        
                       
Votre réponse


[b][i][u][strike][spoiler][fixed][cpp][url][email][img][*]   
 
   [quote]
 

Options

 
Vous avez perdu votre mot de passe ?


Vue Rapide de la discussion
jfvde c'est vrai je vois pas pourquoi ils en sortent pas, perso j'en aurait rien a battre de pas avoir d'entree VGA...
cherpin

Neurone a écrit a écrit :

Les ecrans DVI sont souvent aussi compatibles VGA donc ils ont le convertisseur A => N




 
a oui logique, alors pourquoi il n'existe pas des ecran 100% DVI donc moins chere?

Neurone

cherpin a écrit a écrit :

 
 
 :??: j'ai toujours pas compris le fait que qu'un ecran DVI soit plus chere qu'un VGA pourtant il y a pas de convertisseur analogique => numerique  donc normalement moins chere!!



Les ecrans DVI sont souvent aussi compatibles VGA donc ils ont le convertisseur A => N

phiphi [:totoelectro] avec DVI [:z-bob]
cherpin

jfvde a écrit a écrit :

 
 
personne t'a insulté alors tu te calme. ralaaa ces jeunes  :sarcastic:  
 
c'est pas ma faute si certaines personnes n'arrivent pas a voir la différence entre VGA et DVI, a la limite ça m'etonne meme pas quand je vois que certains disent qu'un mp3 en 128kbit ou 256kbit c'est identique a l'oreille :/
 
enfin bref, techniquement quand on branche un LCD en VGA sur sa carte graphique il se passe la chose suivante:
Carte graphique (numerique) => Convertisseur analogique => cable VGA => Entree ecran, convertisseur numerique => Affichage.
 
pour simplifier: N => A => N
 
alors qu'en DVI on n'a aucune conversion, directement N => N
le signal est donc plus pur, plus rapide aussi (eh oui les conversion, ça ralentit !)
 
et les influences sont nombreuses: qualité d'affichage, stabilité, pureté des couleurs, temps de réponse, et j'en oublie peut etre.
 
voila, en esperant t'avoir convaincu... mais surtout pour haacheron, si tu es pret a investir dans cet ecran, oui les 300? en + sont justifiés, sinon autant investir dans une autre marque, qui pour le meme prix aura des caracteristiques sembables mais avec le DVI de base ;)




 
 :??: j'ai toujours pas compris le fait que qu'un ecran DVI soit plus chere qu'un VGA pourtant il y a pas de convertisseur analogique => numerique  donc normalement moins chere!!

jfvde

Hyp a écrit a écrit :

Ok merci!!!!!
 
donc avec une carte équpié d'une sortie DVI I je peux brancher une écran DVI D ou un CRT  
 
Cool  :sol:  




 
oui a condition d'avoir un adaptateur DVI-VGA de type DVI D pour brancher ton CRT ;)

jfvde

raminagrobi a écrit a écrit :

 
 
 :sarcastic: crétin !
 
Extrait du gros topic sur les TFT 17" :
 
Grohad a dit :

Citation :

Le DVI sert à rendre obsolète la double conversion analogique/numérique.  
En gros, ta carte graphique envoie un signal numérique traité numériquement par l'écran en DVI alors qu'en VGA, la carte convertit le signal en analogique puis l'écran convertit à son tour en numérique. J'ai déjà lu (à confirmer) que ça n'avait pas d'impact directe sur la qualité ou la rapidité d'affichage...


 
bijour a dit, après avoir essayé son Samsung d'abord en analogique, puis en DVI :  

Citation :

voilà j'ai brancher le cable DVI.  
 
je n'ai plus acces a certain fonction menu de mon écran.  
 
sinon jeu pour l'instant je n'ai pas vu encore de grande différence


 
Donc ça n'est pas l'air si tranché que ça, bande de neuneus...




 
personne t'a insulté alors tu te calme. ralaaa ces jeunes  :sarcastic:  
 
c'est pas ma faute si certaines personnes n'arrivent pas a voir la différence entre VGA et DVI, a la limite ça m'etonne meme pas quand je vois que certains disent qu'un mp3 en 128kbit ou 256kbit c'est identique a l'oreille :/
 
enfin bref, techniquement quand on branche un LCD en VGA sur sa carte graphique il se passe la chose suivante:
Carte graphique (numerique) => Convertisseur analogique => cable VGA => Entree ecran, convertisseur numerique => Affichage.
 
pour simplifier: N => A => N
 
alors qu'en DVI on n'a aucune conversion, directement N => N
le signal est donc plus pur, plus rapide aussi (eh oui les conversion, ça ralentit !)
 
et les influences sont nombreuses: qualité d'affichage, stabilité, pureté des couleurs, temps de réponse, et j'en oublie peut etre.
 
voila, en esperant t'avoir convaincu... mais surtout pour haacheron, si tu es pret a investir dans cet ecran, oui les 300? en + sont justifiés, sinon autant investir dans une autre marque, qui pour le meme prix aura des caracteristiques sembables mais avec le DVI de base ;)

Hyp Ok merci!!!!!
 
donc avec une carte équpié d'une sortie DVI I je peux brancher une écran DVI D ou un CRT  
 
Cool  :sol:
cherpin

Hyp a écrit a écrit :

 :bounce:  :bounce:  :bounce:  :bounce:  
 
Pas d'idée pour mon histoire de DVI I et de DVI D?????




 
vu sur:
http://www.ati.com/fr/products/wor [...] aq.html#10
 
Q10 : Quelle est la différence entre le DVI-I et le DVI-D ?
R10 :  
Le format DVI-I supporte les écrans numériques et les écrans analogiques (l'adaptateur est fourni pour piloter un écran analogique)  
Le format DVI-D supporte uniquement un écran numérique

raminagrobi

cedric_bix a écrit a écrit :

même si en theorie tu obtiens la même qualité entre DVi et VGA, je pense que tu obtiendras une meilleur qualité avec le dvi en pratique car ton signal ne seras pas ou peut perturbé par le interference venant du secteur, de ta tv, de la persseuse du voisin de l'alim de ton pc .......




 
Oui, mais la différence ne mérite pas de rajouter 300 ?  ;)

Hyp :bounce:  :bounce:  :bounce:  :bounce:  
 
Pas d'idée pour mon histoire de DVI I et de DVI D?????
cedric_bix même si en theorie tu obtiens la même qualité entre DVi et VGA, je pense que tu obtiendras une meilleur qualité avec le dvi en pratique car ton signal ne seras pas ou peut perturbé par le interference venant du secteur, de ta tv, de la persseuse du voisin de l'alim de ton pc .......
Hyp Slt  :hello:  
 
Pour étoffer la question: certains constructeurs de LCD équipent leurs écrans d'entrée DVI I  (iiyama) et d'autres de DVI D (samsung).
C'est quoi la différence, une Gforce 4 , c'est du DVI I ou du DVI D??????
 
Merci
reyan Oups, désolé j'avais pas vu que ce topic était une blague en fait :D
raminagrobi

jfvde a écrit a écrit :

 
 
oui mais fallait pas lire les commentaires des aveugles et mal voyants, c'est pas tres instructif tu sais...




 
 :sarcastic: crétin !
 
Extrait du gros topic sur les TFT 17" :
 
Grohad a dit :

Citation :

Le DVI sert à rendre obsolète la double conversion analogique/numérique.  
En gros, ta carte graphique envoie un signal numérique traité numériquement par l'écran en DVI alors qu'en VGA, la carte convertit le signal en analogique puis l'écran convertit à son tour en numérique. J'ai déjà lu (à confirmer) que ça n'avait pas d'impact directe sur la qualité ou la rapidité d'affichage...


 
bijour a dit, après avoir essayé son Samsung d'abord en analogique, puis en DVI :  

Citation :

voilà j'ai brancher le cable DVI.  
 
je n'ai plus acces a certain fonction menu de mon écran.  
 
sinon jeu pour l'instant je n'ai pas vu encore de grande différence


 
Donc ça n'est pas l'air si tranché que ça, bande de neuneus...

reyan Y'a une énorme différence, ça se voit tout de suite en activant le Nview des GF4 (double écran) et en comparant la qualité d'image en switchant sur l'écan LCD les entrées VGA analogique et DVI-D numérique !
 
Plus de voile gris, plus de moirage sur les fonds tramés fins, plus de bavures des lettres, couleurs moins "flashantes" et les colueurs sombres ne "scintillent" plus.
jfvde

raminagrobi a écrit a écrit :

Citation :

il faut absolument prendre la version DVI, la difference de qualité est ENORME  


 
:heink: tout les commentaires que j'ai pu lire disaient qu'ils ne distingaient aucune différence de qualité notable entre DVI et analogique.




 
oui mais fallait pas lire les commentaires des aveugles et mal voyants, c'est pas tres instructif tu sais...

Haacheron c'est moi qui ai posé la question, pas lui ;)
lovingbenji

raminagrobi a écrit a écrit :

Citation :

il faut absolument prendre la version DVI, la difference de qualité est ENORME  


 
:heink: tout les commentaires que j'ai pu lire disaient qu'ils ne distingaient aucune différence de qualité notable entre DVI et analogique.




 
alors pose pas la question si t'as déjà la réponse  :sarcastic:

raminagrobi

Citation :

il faut absolument prendre la version DVI, la difference de qualité est ENORME  


 
:heink: tout les commentaires que j'ai pu lire disaient qu'ils ne distingaient aucune différence de qualité notable entre DVI et analogique.

reyan Sans DVI sur un LCD c'est comme d'utiliser un camescope numérique avec sa sortie "composite jaune" analogique alors qu'il y a une sortie numérique DV en MPEG directement...
jfvde le seul interet de ne pas avoir de DVI sur un TFT c'est de le payer pas cher, genre 2500-3000 balles et la tes yeux profitent de la technologie TFT pour pas trop cher.
 
sinon si tu ne vises pas un ecran "le-moins-cher-possible", alors ne pas avoir de branchement DVI, c'est comme acheter une porsche et lui monter des pneus de velo...  :D  
 
et la visiblement c'est le cas si tu vises cet ecran, plutot haut de gamme, il faut absolument prendre la version DVI, la difference de qualité est ENORME ;)
lovingbenji faut clairement prendre la sortie DVI (quand bien même ta CG en aurait une of course ...)
Haacheron Bonjour, il y a t'il une difference notable de qualité entre un tft avec ou sans DVI? Dans mon coin paumé, on me propose le Hercules 920 (donc sans DVI), c'est bien ou il faut attendre la disponibilité du 920 DVI?

Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)