Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1004 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  158  159  160  ..  314  315  316  317  318  319
Auteur Sujet :

[Sujet Unique] Ecrans ≥30" OLED µLED UHD 4/8K BT.2020 ≥10bit HDR HFR

n°966985
gaffal
Posté le 07-01-2019 à 18:34:06  profilanswer
 

Reprise du message précédent :
Ok merci
je me mets à l' affut pour les soldes...

mood
Publicité
Posté le 07-01-2019 à 18:34:06  profilanswer
 

n°966994
obduction
Posté le 07-01-2019 à 20:18:43  profilanswer
 

Un portable oled par HP annoncé. Sortie en mars
https://www.oled-info.com/hp-spectre-x360-15-oled

n°967044
PitOnForum
thèse - antithèse - synthèse
Posté le 08-01-2019 à 01:00:41  profilanswer
 

15 pouces?

n°967047
Leilu
Posté le 08-01-2019 à 05:43:20  profilanswer
 

obduction a écrit :


Le brun in est déjà éradiqué depuis longtemps sur l'oled. C'est devenu un problème minime.
La ps vita, les smartphone le montrent.

Il y a déjà depuis plusieurs années des portables avec écrans oled et ils fonctionnent sans problème. La dalle oled utilisée par Dell était de très mauvaise qualité. C'est pour ça qu'ils l'ont à peine commercialisé très peu de temps.

 

Et ils prouvent le contraire aussi.

 

Voici mon s7 edge après quelques mois d'utilisation de waze pour le boulot.
https://www.flickr.com/gp/126067793@N04/47C813


---------------
Expert PAKRAM sur MOS 32 H-track en bibande PADIRAC | Logiciels utiles
n°967048
Profil sup​primé
Posté le 08-01-2019 à 07:18:53  answer
 

Comme je viens seulement d'arriver sur le Topic, je ne sais pas si ce test a déjà été posté
Mais il m'a été utile pour faire mon choix alors ..

n°967080
shaq46
Posté le 08-01-2019 à 14:09:21  profilanswer
 

Leilu a écrit :


 
Et ils prouvent le contraire aussi.
 
Voici mon s7 edge après quelques mois d'utilisation de waze pour le boulot.
https://www.flickr.com/gp/126067793@N04/47C813


 
 
J'ai un S7 edge depuis 2016, je l'utilise pour tout et j'ai pas du tout ce souci.

n°967092
Profil sup​primé
Posté le 08-01-2019 à 15:10:18  answer
 

Moniteur reçu !
Définitivement, le 4K sur un 32", ça aurait été impossible
Les textes sont juste comme je m'y attendais (à 100% d'échelle)

Spoiler :

& Windows qui me recommande 200% par défaut, ça fait toujours rire [:henri gaud-chiste:4]


Je redécouvre ce que contraste veut dire et pour ce qui est des couleurs, bah, c'est un BenQ quoi :d ..

Message cité 1 fois
Message édité par Profil supprimé le 08-01-2019 à 15:18:03
n°967112
sayen
vouloir c'est pouvoir
Posté le 08-01-2019 à 16:19:04  profilanswer
 


Impossible ? J'ai le même en 4K et je ne suis qu'à 125% dans Windows et tout me semble déjà bien gros :o


Message édité par sayen le 08-01-2019 à 16:21:51
n°967136
Profil sup​primé
Posté le 08-01-2019 à 18:13:02  answer
 

Oui parce que je ne voulais pas augmenter la taille des polices
C'était un de mes choix de départ
Là j'ai la même taille que du FHD sur un 24"
Edit : même avec +25%, tu serais encore en dessous de mes polices que je juge limite acceptable
Mais on ne doit pas avoir le même âge et plus important, la même vision
Et dans Windows certes, c'est "gros" mais pas nécessairement le cas dans tous les programmes
Quoique je ne sache pas vraiment, l'ayant juste lu mais dans le doute, j'ai préféré ne pas prendre le risque :d


Message édité par Profil supprimé le 10-01-2019 à 11:26:02
n°967167
obduction
Posté le 08-01-2019 à 21:24:17  profilanswer
 

Leilu a écrit :


 
Et ils prouvent le contraire aussi.
 
Voici mon s7 edge après quelques mois d'utilisation de waze pour le boulot.
https://www.flickr.com/gp/126067793@N04/47C813


Tout dépend l'écran que tu utilises. Il y a des dalles de moins bonne qualité que d'autres.
Si le marquage était un véritable problème, tu ne verrais pas d'écrans oled arriver dans tous les domaines.

mood
Publicité
Posté le 08-01-2019 à 21:24:17  profilanswer
 

n°967184
Leilu
Posté le 09-01-2019 à 00:28:24  profilanswer
 

obduction a écrit :


Tout dépend l'écran que tu utilises. Il y a des dalles de moins bonne qualité que d'autres.

 

La C7 n'est pas une dalle de qualité ?
https://www.rtings.com/tv/learn/rea [...] rn-in-test

 

https://blogs-images.forbes.com/johnarcher/files/2018/12/RtingsLatestTestShot.jpg

 

Oui, cela se produit sous certaines conditions particulières (partie d'image fixe, durée excessive et luminosité excessive). :jap:

 

Cependant, voir écrit ici-même que le burn-in c'est de l'histoire ancienne, c'est constater que certains se mettent manifestement des rondelles de saucisson devant les yeux.

 

Les conditions particulières et extrêmes, qui provoquent le burn-in, le sont bien moins lors une utilisation PC des dalles. Surtout quand Michel aura désactivé la veille automatique Windows de l'écran et aura laissé tourner Excel ou Chrome toutes les nuits.

 
obduction a écrit :


Si le marquage était un véritable problème, tu ne verrais pas d'écrans oled arriver dans tous les domaines.

 

Depuis quand faut-il attendre qu'un produit soit sans aucun défaut pour le lancer sur le marché ?  [:vulcain00]

 
shaq46 a écrit :

 

J'ai un S7 edge depuis 2016, je l'utilise pour tout et j'ai pas du tout ce souci.

 

Le traditionnel "chezmoicamarche".

 

Répondre cela, ce n'est pas avoir compris ce qui provoque le burn-in de l'OLED. En l'occurrence une utilisation excessive d'un logiciel avec des parties fixes pendant 6h par jour, pendant plusieurs mois, avec une luminosité au max.

Message cité 3 fois
Message édité par Leilu le 09-01-2019 à 00:28:43

---------------
Expert PAKRAM sur MOS 32 H-track en bibande PADIRAC | Logiciels utiles
n°967186
RoiPourpre
Be.
Posté le 09-01-2019 à 02:44:02  profilanswer
 

Leilu a écrit :


 
La C7 n'est pas une dalle de qualité ?
https://www.rtings.com/tv/learn/rea [...] rn-in-test
 
https://blogs-images.forbes.com/joh [...] stShot.jpg
 
Oui, cela se produit sous certaines conditions particulières (partie d'image fixe, durée excessive et luminosité excessive). :jap:  
 
Cependant, voir écrit ici-même que le burn-in c'est de l'histoire ancienne, c'est constater que certains se mettent manifestement des rondelles de saucisson devant les yeux.
 
Les conditions particulières et extrêmes, qui provoquent le burn-in, le sont bien moins lors une utilisation PC des dalles. Surtout quand Michel aura désactivé la veille automatique Windows de l'écran et aura laissé tourner Excel ou Chrome toutes les nuits.
 


 

Leilu a écrit :


 
Depuis quand faut-il attendre qu'un produit soit sans aucun défaut pour le lancer sur le marché ?  [:vulcain00]  
 


 

Leilu a écrit :


 
Le traditionnel "chezmoicamarche".
 
Répondre cela, ce n'est pas avoir compris ce qui provoque le burn-in de l'OLED. En l'occurrence une utilisation excessive d'un logiciel avec des parties fixes pendant 6h par jour, pendant plusieurs mois, avec une luminosité au max.


 
Gros +1.
 
Tous les écrans OLED marquent... Stop faire croire que vos écrans n'ont comme par magie aucuns soucis en utilisation courante... C'est un véritable cauchemar quand une image fixe dure trop longtemps au même endroit...
 
Imaginez un joueur League of Legend jouer avec un écran OLED, tout le bas de son écran deviendrait cramé...


---------------
Intel I7 10700k@5.1Ghz - 2x8Go DDR4 3600 mhz CL16 G.Skill Trident-Z RGB - MSI RTX 3080 Suprim X 10GB/ Alienware 3423DW QD-Oled Ultrawide
n°967189
senka
Only Geek
Posté le 09-01-2019 à 06:12:56  profilanswer
 

https://hothardware.com/ContentImages/NewsItem/46829/content/small_Alienware-55-OLED-120Hz-Gaming-Monitor.jpg

 

Alienware dévoile son "moniteur" de 55" OLED 4K à 120hz
https://hothardware.com/news/alienw [...] ng-display

 

Ok, on a droit à un moniteur oled cette année.... mais 55 pouces...  :sarcastic:

Message cité 1 fois
Message édité par senka le 09-01-2019 à 06:13:14
n°967190
Profil sup​primé
Posté le 09-01-2019 à 06:19:08  answer
 

Vu la distance qui doit être nécessaire pour pouvoir embrasser tout l'affichage d'un seul tenant, ça ne me surprend pas
Edit : qu'il ne soit pas incurvé est un signe ;)


Message édité par Profil supprimé le 09-01-2019 à 06:35:00
n°967191
sayen
vouloir c'est pouvoir
Posté le 09-01-2019 à 07:27:23  profilanswer
 

obduction a écrit :


Tout dépend l'écran que tu utilises. Il y a des dalles de moins bonne qualité que d'autres.
Si le marquage était un véritable problème, tu ne verrais pas d'écrans oled arriver dans tous les domaines.


Non, l'OLED dans sa technologie actuelle a toujours ce défaut de marquer sur les images fixes qui durent un certain temps.
 
Je pense à une histoire récente qui est arrivée à LG. Ayant décroché un contrat sur l'approvisionnement d'écrans dans un grand aéroport, ils ont eu la bonne idée de mettre leur écrans OLED dernier cris... Sauf que quelques semaines plus tard, tous les écrans étaient marqués et ils ont dû remettre des écrans mais en LCD  :D  
La techno n'est pas faite pour les images fixes, la qualité de la dalle n'a rien à voir là-dedans.

n°967193
PitOnForum
thèse - antithèse - synthèse
Posté le 09-01-2019 à 08:09:28  profilanswer
 

en ça la dalle micro LED (µLED), inorganique plus résistante et lumineuse, et autoémissive sans LCD, est une alternative intéressante - on attend la suite...

Message cité 1 fois
Message édité par PitOnForum le 09-01-2019 à 08:30:49
n°967194
Profil sup​primé
Posté le 09-01-2019 à 08:10:54  answer
 

C'est mieux pour le §§WOUAHOW§§ :o
Ce sera vendu combien, 2k5 mini non ?
Edit : mh, plus :whistle: ?

Message cité 1 fois
Message édité par Profil supprimé le 09-01-2019 à 08:13:33
n°967195
PitOnForum
thèse - antithèse - synthèse
Posté le 09-01-2019 à 08:12:46  profilanswer
 

senka a écrit :

https://hothardware.com/ContentImag [...] onitor.jpg
 
Alienware dévoile son "moniteur" de 55" OLED 4K à 120hz
https://hothardware.com/news/alienw [...] ng-display
 
Ok, on a droit à un moniteur oled cette année.... mais 55 pouces...  :sarcastic:


toujours glossy ? :/

n°967196
PitOnForum
thèse - antithèse - synthèse
Posté le 09-01-2019 à 08:33:14  profilanswer
 


ha, avec sa coque en plastique transparent, ça ressemble aux premiers tv OLED Full HD de 2013 (cf. début du topique)

n°967222
obduction
Posté le 09-01-2019 à 12:38:04  profilanswer
 

Leilu a écrit :

 

La C7 n'est pas une dalle de qualité ?
https://www.rtings.com/tv/learn/rea [...] rn-in-test

 

https://blogs-images.forbes.com/joh [...] stShot.jpg

 

Oui, cela se produit sous certaines conditions particulières (partie d'image fixe, durée excessive et luminosité excessive). :jap:

 

Cependant, voir écrit ici-même que le burn-in c'est de l'histoire ancienne, c'est constater que certains se mettent manifestement des rondelles de saucisson devant les yeux.

 

Les conditions particulières et extrêmes, qui provoquent le burn-in, le sont bien moins lors une utilisation PC des dalles.


Je reconnais que quand j'ai dis éradiqué ce n'était pas le bon terme mais dans la même hrase j'ai parlé de problème minime qui contredisait l'éradication. Ma phrase n'avait que peu de sens donc je vais la corriger.
Donc oui, je reconnais que le burn in est toujours présent mais c'est bien un problème minime et plus génant en utilisation d'un utilisateur classique.

 


Leilu a écrit :


Surtout quand Michel aura désactivé la veille automatique Windows de l'écran et aura laissé tourner Excel ou Chrome toutes les nuits.


Si michel fait n'importe quoi, c'est de sa faute.
si tu laisses ton écran allumé en permanence, il aura bien d'autres soucis à se faire que le burn-in pour sa durée de vie.

 
Leilu a écrit :

 

Depuis quand faut-il attendre qu'un produit soit sans aucun défaut pour le lancer sur le marché ?  [:vulcain00]

 



Ce n'est pas une question d'être sans défaut mais d'importance du problème.
Si c'était un défaut aussi gênant, tout le monde ne s'y mettrait pas. Or tout le monde s'y met et ça n'a pas l'air de gêner.

  

[quotemsg=967184,6331,505844]

 

Le traditionnel "chezmoicamarche".

 
Citation :

En l'occurrence une utilisation excessive d'un logiciel avec des parties fixes pendant 6h par jour, pendant plusieurs mois, avec une luminosité au max.


Chose que personne ne fait dans une situation normale.
Si tu as une situation extrême, tu n'utiliseras pas l'oled mais il ne faut pas généraliser une utilisation extrême qui concernera presque personne d'une utilisation normale qui concernera quasi 100% des gens.

 

A l'heure actuelle si le burn in était si génant, tu verrais une horde de consommateur débarqué sur internet se plaindre vu que c'est la mode de faire cela au moindre problème. Or, ce n'est pas le cas.

Message cité 1 fois
Message édité par obduction le 09-01-2019 à 12:39:06
n°967228
maxcolmx
Posté le 09-01-2019 à 13:49:22  profilanswer
 

obduction a écrit :


Chose que personne ne fait dans une situation normale.
Si tu as une situation extrême, tu n'utiliseras pas l'oled mais il ne faut pas généraliser une utilisation extrême qui concernera presque personne d'une utilisation normale qui concernera quasi 100% des gens.


 
 
 
Moi je dirais plutôt presque tout le monde…
 
N’importe quel professionnel qui utilise toute la journée le même logiciel…
 
Standard :
Word pour la secrétaire
Excel pour le comptable
 
Ou métier :
la caissière à Auchan
 
Alors ouhai on ne va pas filler un OLED à une caissière mais un graphiste
Photoshop / Zbrush etc… ?
 
Le graphiste combien même s’appelait il Michel n’est pas dans une situation aberrante…
 
 

n°967240
shaq46
Posté le 09-01-2019 à 15:23:30  profilanswer
 

Leilu a écrit :


 
La C7 n'est pas une dalle de qualité ?
https://www.rtings.com/tv/learn/rea [...] rn-in-test
 
https://blogs-images.forbes.com/joh [...] stShot.jpg
 
Oui, cela se produit sous certaines conditions particulières (partie d'image fixe, durée excessive et luminosité excessive). :jap:  
 
Cependant, voir écrit ici-même que le burn-in c'est de l'histoire ancienne, c'est constater que certains se mettent manifestement des rondelles de saucisson devant les yeux.
 
Les conditions particulières et extrêmes, qui provoquent le burn-in, le sont bien moins lors une utilisation PC des dalles. Surtout quand Michel aura désactivé la veille automatique Windows de l'écran et aura laissé tourner Excel ou Chrome toutes les nuits.
 


 

Leilu a écrit :


 
Depuis quand faut-il attendre qu'un produit soit sans aucun défaut pour le lancer sur le marché ?  [:vulcain00]  
 


 

Leilu a écrit :


 
Le traditionnel "chezmoicamarche".
 
Répondre cela, ce n'est pas avoir compris ce qui provoque le burn-in de l'OLED. En l'occurrence une utilisation excessive d'un logiciel avec des parties fixes pendant 6h par jour, pendant plusieurs mois, avec une luminosité au max.


 
 
Comment expliquer... Une personne qui va avoir une imagine fixe pendant des heures et des heures voir des journées entières a-t-elle besoin d'un écran OLED ?
 
Quand je disais "chezmoicamarche" c'était pour faire comprendre que avec une utilisation intensive d'un écran OLED (s7 edge), Presque 3 ans après il n'y a pas de marquage, et ce avec l'utilisation en GPS (Waze pendant 4h-5h) certes pas tous les jours.
 
En clair : pourquoi prendre une exception pour une généralité ? Tu vas utiliser ton écran pour afficher quasiment la même image pendant des heures ? Ben tu te passe de l'OLED c'est pas plus compliqué.
 
Je ne vois pas du coup, mis à part exception, en quoi le burn-in est un gros problème du coup.

n°967263
obduction
Posté le 09-01-2019 à 17:27:22  profilanswer
 

maxcolmx a écrit :

  

Moi je dirais plutôt presque tout le monde…

 

N’importe quel professionnel qui utilise toute la journée le même logiciel…

 

Standard :
Word pour la secrétaire
Excel pour le comptable

 

Ou métier :
la caissière à Auchan

 

Alors ouhai on ne va pas filler un OLED à une caissière mais un graphiste
Photoshop / Zbrush etc… ?

 

Le graphiste combien même s’appelait il Michel n’est pas dans une situation aberrante…


Comme tu le dis, le secrétaire, le comptable et la caissière n'utiliseront pas ce type d'écran car c'est pas demain la veille qu'une entreprise va leur acheter des écrans chères pour eux donc ça ne les concerne pas.
Le graphiste peut être mais depuis le début je parlais plutôt de l'utilisateur standard donc le particulier qui va l'utiliser soit pour jouer, soit pour regarder des vidéos, soit pour surfer, soit pour travailler dans des cas non extrêmes. C'est vrai que j'ai pas précisé mais en étant un vu que dans mon métier, je peux passer 2 à 4 heures sans que certains plans de l'image ne change et ça ne posera pas de problème, ça m'est pas venu à l'idée que c'était nécessaire de préciser. Désolé.

 

On est loin de presque tout le monde vu que ça concerne que des cas spéciaux qui seraient susceptible d'avoir un tel écran.
Maintenant, je suis d'accord avec toi si c'est pour des cas particuliers mais je n'ai jamais été contre cette opinion en fait.  Pour le particulier comme par exemple un gamer qui va l'acheter, cela ne posera pas de problème. Pour les cas particuliers, ils attendront soit une évolution de la techno soit ils se tourneront vers le lcd soit s'adapteront. A l'époque du CRt où fallait des économiseurs d'écrans dès qu'on s'en servait plus ou les premiers lcds qui avait du burn in, les gens s'adaptaient s'ils les utilisaient.

 


Message cité 1 fois
Message édité par obduction le 09-01-2019 à 17:30:33
n°967264
Profil sup​primé
Posté le 09-01-2019 à 17:30:35  answer
 

Et surtout ceux-là ne se demanderont jamais plus comment ils faisaient avant une fois leur choix fait [:otacon-yuiitsu:2]
Edit : t'as édité [:spacex2:4]


Message édité par Profil supprimé le 09-01-2019 à 17:31:46
n°967270
maxcolmx
Posté le 09-01-2019 à 17:56:50  profilanswer
 

obduction a écrit :


Comme tu le dis, le secrétaire, le comptable et la caissière n'utiliseront pas ce type d'écran car c'est pas demain la veille qu'une entreprise va leur acheter des écrans chères pour eux donc ça ne les concerne pas.
Le graphiste peut être mais depuis le début je parlais plutôt de l'utilisateur standard donc le particulier qui va l'utiliser soit pour jouer, soit pour regarder des vidéos, soit pour surfer, soit pour travailler dans des cas non extrêmes. C'est vrai que j'ai pas précisé mais en étant un vu que dans mon métier, je peux passer 2 à 4 heures sans que certains plans de l'image ne change et ça ne posera pas de problème, ça m'est pas venu à l'idée que c'était nécessaire de préciser. Désolé.
 
On est loin de presque tout le monde vu que ça concerne que des cas spéciaux qui seraient susceptible d'avoir un tel écran.
Maintenant, je suis d'accord avec toi si c'est pour des cas particuliers mais je n'ai jamais été contre cette opinion en fait.  Pour le particulier comme par exemple un gamer qui va l'acheter, cela ne posera pas de problème. Pour les cas particuliers, ils attendront soit une évolution de la techno soit ils se tourneront vers le lcd soit s'adapteront. A l'époque du CRt où fallait des économiseurs d'écrans dès qu'on s'en servait plus ou les premiers lcds qui avait du burn in, les gens s'adaptaient s'ils les utilisaient.
 
 


 
 
 
Ouhai bon j’ai peut-être un peu exagéré  :jap:  
 
Enfin moi perso si j’avais les moyen je tenterais le QLED y en à, a Auchan et ouhai la différence est visible ( TV )
 
Et puis vu le prix je préfère être sûr parce que moi par exemple qui suis un utilisateur lambda ben ma barre de tache Windows toujours au même endroit ( si c’est un Mac le dock ) et ma corbeille ça fait des année quelle est toujours à la même place… :jap:  
 
 
 

n°967303
RoiPourpre
Be.
Posté le 10-01-2019 à 01:49:50  profilanswer
 

PitOnForum a écrit :

en ça la dalle micro LED (µLED), inorganique plus résistante et lumineuse, et autoémissive sans LCD, est une alternative intéressante - on attend la suite...


 
Samsung à totalement raison avec le µled, c'est clairement le futur... Quand le µled sera accessible a bon prix, l'OLED va forcément mourir car il n'aura plus aucun intérêt...  
 
Maintenant j'espère que ça arrivera vite... J'attend toujours l'écran d'ordi parfait qui n'existe pas encore... Marre des noirs qui sont en réalité des tons de gris...  :(


---------------
Intel I7 10700k@5.1Ghz - 2x8Go DDR4 3600 mhz CL16 G.Skill Trident-Z RGB - MSI RTX 3080 Suprim X 10GB/ Alienware 3423DW QD-Oled Ultrawide
n°967310
PitOnForum
thèse - antithèse - synthèse
Posté le 10-01-2019 à 08:24:49  profilanswer
 

peut-être qu'entre temps les faiblesses de l'OLED seront corrigées
 
la durée de vie des OLED s'améliore en travaillant sur la composition des matériaux qui font la couleur et sur l'étanchéité des diodes
 
un autre important facteur c'est le spectre des couleurs : la technologie qui réussira à offrir un spectre super élargi devrait avoir un avantage concurrentiel, or pour l'instant il n'est pas encore clair si c'est l'OLED ou la microLED (µLED) qui l'emportera - Samsung met en avant le potentiel de la µLED

n°967377
obduction
Posté le 10-01-2019 à 15:33:30  profilanswer
 

RoiPourpre a écrit :

 

Samsung à totalement raison avec le µled, c'est clairement le futur... Quand le µled sera accessible a bon prix, l'OLED va forcément mourir car il n'aura plus aucun intérêt...

Maintenant j'espère que ça arrivera vite... J'attend toujours l'écran d'ordi parfait qui n'existe pas encore... Marre des noirs qui sont en réalité des tons de gris...  :(


Les microleds, c'est pour l'instant destiné surtout pour les très grosses dalles donc l'oled n'est pas prêt de mourir.

 

Niveau écran d'ordi parfait, tout dépend ce que tu appelles parfait vu que si on se base sur tous les paramètres, cela n'existe pas et cela n'existera sans doute jamais. L'oled et les microleds ne sont pas parfaits avec zéro défaut mais ces 2 technos équivalentes en terme de qualité sont proche de la perfection.

 

Si tu veux des écrans proche de la perfection en terme de qualité d'image, le CEs a été l'occasion du lancement de plusieurs portables utilisant des dalles oleds

 

Dell avec son g7
https://www.cowcotland.com/news/655 [...] -dell.html
Alienware avec son m15
https://www.cowcotland.com/news/655 [...] -oled.html
HP avec le spectre x360
https://www.oled-info.com/hp-spectre-x360-15-oled


Message édité par obduction le 10-01-2019 à 15:36:54
n°967390
PitOnForum
thèse - antithèse - synthèse
Posté le 10-01-2019 à 18:30:17  profilanswer
 

avec ces laptops OLED de 15" on a gagné 1" à 2" par rapport aux ordi portables OLED qui existaient déjà en 13"-14", mais tous toujours glossy https://forum.hardware.fr/forum2.ph [...] 0&filter=1  &  https://forum.hardware.fr/forum2.ph [...] 0&filter=1
 
je me souviens qu'en plein jour les anciennes dalles OLED d'ordinateur portable étaient trop faiblardes
https://forum.hardware.fr/hfr/Hardw [...] tm#t892327
qu'en est-il de ces nouvelles de 15"?
 
et est-il précisé quelque part qui produit ces dalles OLED de 15", Samsung ?


Message édité par PitOnForum le 10-01-2019 à 21:47:14
n°967431
Tim2460
Le Gentil Papa
Posté le 11-01-2019 à 15:32:53  profilanswer
 

C'est bien beau ces annonces le LG sur le VFR des dalles OLED LG 2019 mais je doute que tout ça marche du premier coup ...
 
Même les dernières comm de NVIDIA sur leur site web n'indiquent pas clairement que les 20xx serotn bien en HDM2.1...
 
Je vais regarder les slides de la présentation des nouvelles AMD VEGA...
 
C'est sencé marcher avec le XboxOne en tout cas ... si j'ai bien compris...
 
Tu as résolu tes problèmes de liaison avec ton Oled 2018 PitOnFurum ?
je ne suis plus le topic que de trop loin ...
 
du coup je ressort ce smiley de KALITAI/circonstance :
 
[:zobbi]  

Message cité 1 fois
Message édité par Tim2460 le 11-01-2019 à 15:34:14
n°967438
Tim2460
Le Gentil Papa
Posté le 11-01-2019 à 16:43:38  profilanswer
 

Clairement pas gagné cette histoire :
 
Quelles sont les GeForce compatibles ?
 
NVIDIA annonce la compatibilité pour les GeForce Série 10 et Série 20, sur GPU Pascal et Turing. En utilisant leur sortie DisplayPort, la compatibilité sera maximale. En revanche, la question se pose encore pour les sorties HDMI : Pascal est en HDMI 2.0b, et Turing aussi ! Du coup, pour les téléviseurs HDMI 2.1 VRR, difficile de s’avancer sur une compatibilité totale. Il est possible que NVIDIA mette à jour ses sorties HDMI 2.0b en 2.1, mais rien n’est certain pour l’instant.
 
https://www.tomshardware.fr/2019/01 [...] -freesync/

n°967463
RoiPourpre
Be.
Posté le 11-01-2019 à 23:46:37  profilanswer
 

Tim2460 a écrit :

Clairement pas gagné cette histoire :
 
Quelles sont les GeForce compatibles ?
 
NVIDIA annonce la compatibilité pour les GeForce Série 10 et Série 20, sur GPU Pascal et Turing. En utilisant leur sortie DisplayPort, la compatibilité sera maximale. En revanche, la question se pose encore pour les sorties HDMI : Pascal est en HDMI 2.0b, et Turing aussi ! Du coup, pour les téléviseurs HDMI 2.1 VRR, difficile de s’avancer sur une compatibilité totale. Il est possible que NVIDIA mette à jour ses sorties HDMI 2.0b en 2.1, mais rien n’est certain pour l’instant.
 
https://www.tomshardware.fr/2019/01 [...] -freesync/


 
Impossible de mettre a jour du 2.0 en 2.1, le hardware est différent...


---------------
Intel I7 10700k@5.1Ghz - 2x8Go DDR4 3600 mhz CL16 G.Skill Trident-Z RGB - MSI RTX 3080 Suprim X 10GB/ Alienware 3423DW QD-Oled Ultrawide
n°967469
PitOnForum
thèse - antithèse - synthèse
Posté le 12-01-2019 à 01:37:55  profilanswer
 

Tim2460 a écrit :

C'est bien beau ces annonces le LG sur le VFR des dalles OLED LG 2019 mais je doute que tout ça marche du premier coup ...
 
Même les dernières comm de NVIDIA sur leur site web n'indiquent pas clairement que les 20xx serotn bien en HDM2.1...
 
Je vais regarder les slides de la présentation des nouvelles AMD VEGA...
 
C'est sencé marcher avec le XboxOne en tout cas ... si j'ai bien compris...
 
Tu as résolu tes problèmes de liaison avec ton Oled 2018 PitOnFurum ?
je ne suis plus le topic que de trop loin ...
 
du coup je ressort ce smiley de KALITAI/circonstance :
 
[:zobbi]  


après plusieurs essais, différents câbles, j'ai fini par laisser tomber
donc, la connectique bride les capacités théoriques de l'écran
 
et l'extrême lenteur des fabricants d'écran à équiper leurs produits de la connectique dernier cri ou même "avant-dernier" cri me dépasse ! je n'y vois aucun sens...
c'est d'autant moins compréhensible que la connectique très haute capacité existe, qu'elle n'est pas très coûteuse par rapport au prix total de l'écran haut de gamme et qu'elle débride les capacités des écrans - bref : elle offre que des avantages

n°967471
HJ
Posté le 12-01-2019 à 09:10:06  profilanswer
 

C'est quoi pour toi connectique dernier cri ? Display Port 1.4 ?
Car le HDMI 2.1, bien que les specs finales ont été annoncées en décembre 2017, à ce jour, il n'y a toujours pas de composants compatibles à grand volume. Donc, difficile de sortir des équipements à cette norme. La dispo en volume est annoncée pour mars 2019.

n°967478
PitOnForum
thèse - antithèse - synthèse
Posté le 12-01-2019 à 10:44:17  profilanswer
 

que ce soit DisplayPort, HDMI, USB, Thunderbolt, la version la plus récente prend systématiquement des années à être intégrée à nos équipements (écrans, PC portables, tv, projecteurs...) ; même l'avant dernière version demeure rare ; généralement c'est l'avant-avant-dernière version qui est dispo

 

puis, les téléviseurs et projecteurs ne disposent carrément pas de DisplayPort

 

certains ordinateurs portables ne disposent pas de HDMI ou de Display Port récent : c'est souvent soit l'un soit l'autre, et ce d'ancienne génération, sans parler du vieux standard VGA...

 

la plupart des projecteur sont dotés de VGA et d'une ancienne génération de HDMI...

 

c'est mesquin et agaçant !
tous ces appareils, ces périphériques se gardent plusieurs années et sont déjà désespérément dépassés et inadaptés à l'achat

 

remarque : généralement la connectique de dernière génération est rétrocompatible avec les anciennes versions, donc rien ne justifie de nous refourguer ainsi pendant de nombreuses années des vieilleries limitantes, qui brident les capacités, la qualité d'affichage

Message cité 1 fois
Message édité par PitOnForum le 12-01-2019 à 10:48:12
n°967526
obduction
Posté le 13-01-2019 à 13:37:21  profilanswer
 

PitOnForum a écrit :

que ce soit DisplayPort, HDMI, USB, Thunderbolt, la version la plus récente prend systématiquement des années à être intégrée à nos équipements (écrans, PC portables, tv, projecteurs...) ; même l'avant dernière version demeure rare ; généralement c'est l'avant-avant-dernière version qui est dispo

 

puis, les téléviseurs et projecteurs ne disposent carrément pas de DisplayPort

 

certains ordinateurs portables ne disposent pas de HDMI ou de Display Port récent : c'est souvent soit l'un soit l'autre, et ce d'ancienne génération, sans parler du vieux standard VGA...

 

la plupart des projecteur sont dotés de VGA et d'une ancienne génération de HDMI...

 

c'est mesquin et agaçant !
tous ces appareils, ces périphériques se gardent plusieurs années et sont déjà désespérément dépassés et inadaptés à l'achat

 

remarque : généralement la connectique de dernière génération est rétrocompatible avec les anciennes versions, donc rien ne justifie de nous refourguer ainsi pendant de nombreuses années des vieilleries limitantes, qui brident les capacités, la qualité d'affichage


C'est pourtant souvent justifié.
Comme tu le dis, c'est rétrocompatible donc quel intérêt de mettre une connexion qui ne serait pas utilisée?
Si par exemple, sur une vidéoprojecteur qui gère que du 4K 60hz, tu lui colles du DP1.4 alors qu'il a du dp1.2, cela ne servirait à rien car le dp1.4 ne serait pas exploité.

 

Sur les tvs, idem. Une tv 4k 60hz n'a que faire de hdmi 2.1 car ne saura pas l'exploiter et tu paieras le cout supérieur du hdmi2.1 comparé à un ancien hdmi. Ces vieilles connexions son

 

C'est avec les tv 4k 120hz que ça ne sera plus adaptée. Celaa sera gênant et pas justifié. Les seuls moments où ce n'est pas justifié est si ça bride.

 

Sur les cartes graphiques desktops ou celles des ordinateurs portables, je suis d'accord avec toi qu'elles devraient gérer les connectiques même avant que les écrans ne soient là parce que tu ne changes pas de Cgs ou de portables tous les 6 mois. Les cartes turing devraient par exemple déjà avoir une sortie hdmi2.1 mais peut être que cela sera patché.

Message cité 1 fois
Message édité par obduction le 13-01-2019 à 13:41:07
n°967528
Sam Erousi​s
Posté le 13-01-2019 à 14:15:39  profilanswer
 

Tu oublies un truc concernant les TV, elles sont actuellement bridées par la connectique HDMI justement, la dalle supporte bien souvent 120hz en natif voir 200hz :).
 
Et comme tu l'as dit, la norme est rétrocompatible, donc autant mettre la dernière, au moins du point de vue marketting ;).


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°967530
PitOnForum
thèse - antithèse - synthèse
Posté le 13-01-2019 à 15:05:12  profilanswer
 

obduction a écrit :


C'est pourtant souvent justifié.
Comme tu le dis, c'est rétrocompatible donc quel intérêt de mettre une connexion qui ne serait pas utilisée?
Si par exemple, sur une vidéoprojecteur qui gère que du 4K 60hz, tu lui colles du DP1.4 alors qu'il a du dp1.2, cela ne servirait à rien car le dp1.4 ne serait pas exploité.
 
Sur les tvs, idem. Une tv 4k 60hz n'a que faire de hdmi 2.1 car ne saura pas l'exploiter et tu paieras le cout supérieur du hdmi2.1 comparé à un ancien hdmi. Ces vieilles connexions son
 
C'est avec les tv 4k 120hz que ça ne sera plus adaptée. Celaa sera gênant et pas justifié. Les seuls moments où ce n'est pas justifié est si ça bride.
 
Sur les cartes graphiques desktops ou celles des ordinateurs portables, je suis d'accord avec toi qu'elles devraient gérer les connectiques même avant que les écrans ne soient là parce que tu ne changes pas de Cgs ou de portables tous les 6 mois. Les cartes turing devraient par exemple déjà avoir une sortie hdmi2.1 mais peut être que cela sera patché.


c'est justement parce que la connectique est rétrocompatible et que l'ancienne connectique est bridante, limitante qu'il faudrait la connectique dernier cri sur nos périphériques
 
les cartes graphiques se changent facilement et plutôt régulièrement pour être à jour, par contre les périphériques se gardent de longues années durant
 
vendre des périphériques dont la connectique largement dépassée en bride le potentiel n'a pas de sens, est contraire aux intérêts des consommateurs et utilisateurs
 

n°967557
obduction
Posté le 13-01-2019 à 21:59:35  profilanswer
 

Sam Erousis a écrit :

Tu oublies un truc concernant les TV, elles sont actuellement bridées par la connectique HDMI justement, la dalle supporte bien souvent 120hz en natif voir 200hz :).
.


En 4k , je doute qu'il existe des dalles 200hz natif vu que même l'hdmi 2.1 ne gèrera pas cela. Même en 120hz natif 4k, j'en doute mais pourquoi pas, c'est possible.
De toute façon, le hdmi 2.1 ne pouvait pas être disponible avant vu qu'il était en test toute l'année 2018.
https://www.lesnumeriques.com/tv-te [...] 69037.html

Citation :

Fin 2018 pour les premiers téléviseurs compatibles HDMI 2.1
Les différents tests de compatibilité pour la norme HDMI 2.1 seront validés par étape entre le premier et le troisième trimestre 2018. Il ne faut donc pas s'attendre à voir les premiers téléviseurs équipés d'entrées HDMI 2.1 avant la fin de l'année prochaine.


Pour le coup, le hdmi 2.1 va être exploitée très peu de temps après sa validation finale par les tests de compatibilités. On est loin d'une attente de plusieurs années.

 
Citation :


Et comme tu l'as dit, la norme est rétrocompatible, donc autant mettre la dernière, au moins du point de vue marketting ;)


Faux parce qu'intégrer un contrôleur à la dernière norme ce sont des coûts supplémentaires  et niveau marketing, si ta tv n'exploite pas les capacités de la dernière norme, ça ne sert strictement à rien.
Une tv avec une dalle 4k 60hz, tu peux lui foutre de l'hdmi2.1, ça ne lui servira à rien.


Message édité par obduction le 13-01-2019 à 22:09:21
n°967558
obduction
Posté le 13-01-2019 à 22:07:27  profilanswer
 


PitOnForum a écrit :


c'est justement parce que la connectique est rétrocompatible et que l'ancienne connectique est bridante, limitante qu'il faudrait la connectique dernier cri sur nos périphériques


Pas forcément comme je l'ai expliqué.
 

PitOnForum a écrit :


les cartes graphiques se changent facilement et plutôt régulièrement pour être à jour, par contre les périphériques se gardent de longues années durant


C'est totalement faux. Une CG se garde des années maintenant.  
De plus, pas mal d egens maintenant garde les tvs peu de temps car les revendent pour en avoir un nouveau modèle.
En gros, la durée de vie n'est pas plus ni moins importante qu'une CG. Cela dépend des usages de chacun.
Par contre, une Cg va gérer les périphériques donc elle a besoin de tous els gérer alors qu'un périphérique n'a besoin que de se gérer lui même. Donc une Cg se doit d'être en avance sur les normes contrairement aux périphériques.
 

PitOnForum a écrit :


vendre des périphériques dont la connectique largement dépassée en bride le potentiel n'a pas de sens, est contraire aux intérêts des consommateurs et utilisateurs


Faux si le périphérique ne gère pas les avantages de la dernière norme.
 
Tu prends un écran 1440p 27", tu peux lui adjoindre du dp1.4, cela ne servira à rien car le dp1.2 suffit largement. Tu ne brideras rien et tu ne nuiras nullement aux intérêts du consommateurs.
 
Il faut justement éviter de faire des généralités. Un périphérique qui n'a pas besoin de la nouvelle norme, lui adjoindre la nouvelle norme ça sert qu'à faire joli sur le papier pour les 2-3 geeks qui bavent sur des normes, soit pas grand monde.
Un périphérique qui a besoin de la nouvelle norme pour pleinement s'exprimer, lui par contre, en a besoin.
 

n°967573
PitOnForum
thèse - antithèse - synthèse
Posté le 14-01-2019 à 03:16:03  profilanswer
 

mon téléviseur, qui sert aussi d'écran d'ordinateur, a des capacités théoriques (sa dalle) que je ne peux exploiter en raison de la connectique bridante

 

le problème ne vient pas de ma carte graphique ni de la dalle, mais de la bête connectique de mon écran

 

pour rappel, les écrans se gardent généralement plus de 5 ans (les tv 8 ans en moyenne !), ce qui est plus que les cartes graphiques

 

si les cartes graphiques proposent la double connexion DP en parallèle, c'est sans intérêt pour un tv, qui actuellement ne peut être relié à l'ordinateur que par une connexion HDMI dépassée

 

le bridage se fait par les versions dépassées (anciennes d'une ou deux générations), par l'absence de certains types de connecteurs (HDMI ou DP) et par le nombre de connecteurs

 

il y a des ordinateurs portables neufs qui se vendent encore sans connecteur HDMI ou DisplayPort, mais avec du VGA ; les projecteurs sont généralement démunis de DisplayPort ; les tv non plus n'ont pas de DP
et quand ces connecteurs sont présent, ils sont d'ancienne génération...

 

un connecteur de dernière génération coûterait combien à intégrer dans des millions d'écrans, quelques dizaines de dollars par appareil ?
sur le prix de plusieurs centaines de dollars, voir de plus de mil dollars, pour un écran d'ordinateur ou un tv haut de gamme, le coût d'une connectique dernier cri et complète paraît dérisoire

 

quoi qu'il en soit, bizarre que tu défendes la connectique dépassée et bridante sur les périphériques, en vendant cela comme une "qualité"

Message cité 1 fois
Message édité par PitOnForum le 14-01-2019 à 12:50:49
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  158  159  160  ..  314  315  316  317  318  319

Aller à :
Ajouter une réponse
 

Sujets relatifs
Recherche écran 27" full HD avec mode portrait ?Meilleur rapport qualité prix imprimante
imprimante canon mystérieuse et recherche driversRecherche une bonne mini clé usb Bluetooth sous windows 7 64bit
Recherche clavier + sourisrecherche CAM IP récente avec port I/O pour relais/interrupteur
Recherche casque sans fil pour jeux et filmRecherche d'une souris adaptée pour petite main
recherche de logiciel et pilote wifi usb elm327 obd2 eobd scan tool 
Plus de sujets relatifs à : [Sujet Unique] Ecrans ≥30" OLED µLED UHD 4/8K BT.2020 ≥10bit HDR HFR


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR