Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1473 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  161  162  163  ..  314  315  316  317  318  319
Auteur Sujet :

[Sujet Unique] Ecrans ≥30" OLED µLED UHD 4/8K BT.2020 ≥10bit HDR HFR

n°969004
RoiPourpre
Be.
Posté le 01-02-2019 à 00:44:34  profilanswer
 

Reprise du message précédent :

bertrand712 a écrit :

Ma samsung est défectueuse roi pourpre, et samsung reconnait pas le soucis, je me suis fait avoir tout simplement, encore de la malchance.
 
Mes deux oled échangés pour finir avec le samsung, était l'oled lg c8.
 
Malgré les années et les années j'ai l'impression d'être maudit, vous comprenez ?
 
Le samsung j'aurais été content, malheureusement elle est défectueuse, un moment trop c'est trop quoi.
 
Je compte m'en débarrasser, la suite ? Je sais pas.


 
Bah si elle est défectueuse, go garantie...


---------------
Intel I7 10700k@5.1Ghz - 2x8Go DDR4 3600 mhz CL16 G.Skill Trident-Z RGB - MSI RTX 3080 Suprim X 10GB/ Alienware 3423DW QD-Oled Ultrawide
mood
Publicité
Posté le 01-02-2019 à 00:44:34  profilanswer
 

n°969006
PitOnForum
thèse - antithèse - synthèse
Posté le 01-02-2019 à 02:14:26  profilanswer
 

obduction a écrit :

Je raisonne à l'instant t parce que c'est le présent.
Tout le matos vendu sera de toute façon obsiolète. Tu parles de mettre du hdmi 2.1 et du DP1.4. Que diras tu quand le DP 1.5 sortira? Ce sera obsolète.
Faut raisonner dans le temps présent pas dans le futur car vendre des périph futurs proof, c'est impossible vu que même tes connectiques dernier cri, elles seront dépassées dans quelques temps ou alors tout dépend où tu places ton curseur.

obduction a écrit :

Sauf que ton portable actuel ne te permettra pas d'avoir une qualité d'image plus qu'il ne peut.
On revient au même point. Faudra racheter si tu veux avoir mieux.
Ton écran que tu vas acheter maintenant, il aura beau avoir du hdmi 2.1 et DP 1.4 en double ou triple exemplaires, tu seras loins d'avoir la meilleure qualité d'image possible comparable à celle que tu pourras avoir dans 5 ou 10 ans.
C'est bien pour ça que les connectiques ne sont pas un problème en soi sauf si ça bride le matos lorsqu'il sort mais c'est jamais le cas sauf exception.


un écran ou un téléviseur ne s'achète pas pour un jour, un mois ou un an, mais pour plusieurs années
cette histoire de devoir racheter pour le court terme encore et encore, ben c'est vraisemblablement le but de cette connectique limitante : contraindre les consommateurs à devoir racheter non stop

 

mon tv est déjà bridé par sa connectique : il n'a pas de de DP et il n'y a qu'un connecteur HDMI pour PC, et en 2.0
je ne peux pas profiter de 100% des capacités théoriques de la dalle, même avec mon desktop : je dois réduire les specs [:airforceone]

 
obduction a écrit :

Utiliser 2 câbles, t'auras jamais ça car c'est tout sauf pratique et une solution temporaire peu esthétique. A l'époque le dualdvi passait par un cable.


les cartes graphiques, pour augmenter la bande passante et les qualités d'affichage, permettent l'utilisation p.ex. de 2 DP en parallèle
évidemment que c'est un truc justement pour pallier aux limites de la connectique : aucune connectique simple ne permet actuellement d'exploiter à fond les cartes graphiques et les écrans haut de gamme ; c'est bien que la connectique du moment bride les possibilités

 
obduction a écrit :


C'est différent de vouloir des appareils avec toutes les connectiques ou de vouloir des appareils avec la dernière norme.
Tant je suis d'accord que ce soit pénible d'avoir des appareils sans toutes les connectiques mais ce n'est pas la même chose que si ça avait la dernière connectique.
En fait si ta tv a du DP et HDMI, ça résout ton problème. Pas besoin que ton hdmi soit 2.1 vu que tu n'auras rien à lui mettre qui l'exploitera par rapport à du hdmi 2.0. t'aurais du DP 1.4 et du hdmi 2.0, ça te suffirait largement pour y connecter tout ce que tu veux sans rien brider.


bien entendu que c'est différent et c'est aussi un facteur limitant
aujourd'hui, la connectique est un problème, tant à cause de la multiplicité des standards que de leur manque de capacité de bande passante - un comble, alors que le câblage est censé être au service des ordinateurs et des écrans et que des solutions techniques (des nouvelles versions de connectiques) existent, mais ne sont toujours pas utilisées, ou plutôt mis à disposition
le but n'est pas forcément d'avoir toujours la dernière version par fétichisme du n° de la version, mais d'avoir la bande passante

 

c'est dingue tout de même qu'un bête accessoire (la connectique) puisse ainsi déterminer de :
- ce qu'on peut faire ou pas de nos appareils principaux, que sont nos ordinateurs et écrans
- quels appareils peuvent ou pas fonctionner ensemble
- la qualité d'affichage
cela dure depuis une "éternité"
c'est d'autant plus agaçant qu'on sait que des solutions techniques sont possibles et qu'elles existent (mais qui semblent freinées pour des raisons sûrement commerciales?)

Message cité 1 fois
Message édité par PitOnForum le 01-02-2019 à 02:22:47
n°969007
HJ
Posté le 01-02-2019 à 03:20:14  profilanswer
 

Les TV avec DP, c'est assez rare j'ai l'impression. Dommage d'ailleurs.

n°969014
PitOnForum
thèse - antithèse - synthèse
Posté le 01-02-2019 à 08:28:25  profilanswer
 

cela n'existe peut-être même pas

 

mon souci c'est d'être empêché par les limites de la connectique

 

soit on passe à une seule connectique universelle pour tous nos appareils , soit tous les appareils disposent de toutes les connectiques , et "last but not least" : quel que soit la connectique, actuellement elle devrait offrir la bande passante équivalente à celle du HDMI 2.1 et DP 1.4


Message édité par PitOnForum le 02-02-2019 à 13:29:42
n°969016
gaffal
Posté le 01-02-2019 à 09:20:39  profilanswer
 

Faut bien etre conscient du debit d' information qui passe dans une connectique d' ecran !
AMHA pour l' avenir , il faudra passer par une fibre optique !

n°969021
obduction
Posté le 01-02-2019 à 09:56:25  profilanswer
 

PitOnForum a écrit :


un écran ou un téléviseur ne s'achète pas pour un jour, un mois ou un an, mais pour plusieurs années
cette histoire de devoir racheter pour le court terme encore et encore, ben c'est vraisemblablement le but de cette connectique limitante : contraindre les consommateurs à devoir racheter non stop

 

mon tv est déjà bridé par sa connectique : il n'a pas de de DP et il n'y a qu'un connecteur HDMI pour PC, et en 2.0
je ne peux pas profiter de 100% des capacités théoriques de la dalle, même avec mon desktop : je dois réduire les specs [:airforceone]


Le problème c'est surtout que tu as du acheté une tv qui n'est pas pensé à la base pour connecter un ordinateur de gamer donc tu lui demandes quelque chose pour quoi elle n'a pas été faite.

 

Le problème ne vient pas de la connectique mais du public visé par cette tv, ce qui est un tout autre sujet.

 

A la base, une Tv ce n'est pas fait pour connecter son Pc gamer même s'il existe maintenant des tvs qui incorporent cette philosophie. Cela reste une minorité et il faut prendre en compte ce paramètre que tu sembles oublier et qui est pourtant fondamental.

Message cité 1 fois
Message édité par obduction le 01-02-2019 à 10:00:24
n°969029
bertrand71​2
Posté le 01-02-2019 à 11:13:51  profilanswer
 

RoiPourpre a écrit :


 
Bah si elle est défectueuse, go garantie...


 
Non. Cette samsung provient d'un 3ème échange après deux oled foireuse, donc le revendeur ne veut plus rien savoir et samsung eux même reconnaissent pas le problème.
 
Je fais quoi ? Rien au final et je peux rien faire à part m'en débarrasser.

n°969069
PitOnForum
thèse - antithèse - synthèse
Posté le 01-02-2019 à 23:12:16  profilanswer
 

obduction a écrit :

Le problème c'est surtout que tu as du acheté une tv qui n'est pas pensé à la base pour connecter un ordinateur de gamer donc tu lui demandes quelque chose pour quoi elle n'a pas été faite.  
 
Le problème ne vient pas de la connectique mais du public visé par cette tv, ce qui est un tout autre sujet.
 
A la base, une Tv ce n'est pas fait pour connecter son Pc gamer même s'il existe maintenant des tvs qui incorporent cette philosophie. Cela reste une minorité et il faut prendre en compte ce paramètre que tu sembles oublier et qui est pourtant fondamental.


osef de mon tv, de mes écrans, de mes PC, de mes laptops, etc. ; le problème ne se limite pas à mon matos
 
nous sommes très nombreux à ne pas trouver notre compte dans l'offre actuelle d'écrans (monitors intégrés, monitors indépendants, et téléviseurs) - raison de l'existence de ce topique
 
pour bon nombre d'entre nous, l'offre de matos est trop limitée en qualité et trop limitante en possibilités ; elle est trop restrictive
 
et c'est un raisonnement cocasse de dire que le client n'est pas adapté à l'offre de produits des industriels  :D  
 
j'assume : oui, les produits du moment, je veux dire les écrans et connectiques, ne sont pas encore à la hauteur de mes attentes et je ne renonce pas à ces dernières

n°969077
Profil sup​primé
Posté le 02-02-2019 à 06:42:46  answer
 

Perso. je pense qu'à cause de la profusion des résolutions, des technologies (G/FSync), des normes de branchement et la nécessité de fabriquer beaucoup, les contrôles qualité passent un peu à côté ..
Sans compter les multiples rétractations, ce qui pour un écran est mauvais signe et pas que parce que le transport les fait énormément souffrir :o


Message édité par Profil supprimé le 02-02-2019 à 06:43:18
n°969085
obduction
Posté le 02-02-2019 à 10:51:02  profilanswer
 

PitOnForum a écrit :


osef de mon tv, de mes écrans, de mes PC, de mes laptops, etc. ; le problème ne se limite pas à mon matos

 

nous sommes très nombreux à ne pas trouver notre compte dans l'offre actuelle d'écrans (monitors intégrés, monitors indépendants, et téléviseurs) - raison de l'existence de ce topique

 

pour bon nombre d'entre nous, l'offre de matos est trop limitée en qualité et trop limitante en possibilités ; elle est trop restrictive

 

et c'est un raisonnement cocasse de dire que le client n'est pas adapté à l'offre de produits des industriels  :D

 

j'assume : oui, les produits du moment, je veux dire les écrans et connectiques, ne sont pas encore à la hauteur de mes attentes et je ne renonce pas à ces dernières


Tu parlais de connectique jusqu'à maintenant et maintenant tu parles d'offres. Ce sont 2 choses différentes.
Tant sur les connectiques je ne suis pas d'accord car je trouve que c'est un faux problème, tant sur l'offre je suis d'accord.

 

J'adorerais avoir plus de choix dans les écrans HDRs que 2 pauvres écrans HDr 1000 à 2500€, avoir une offfre en écran oled pour Pc etc. Sur ce point, je suis entièrement d'accord avec toi mais c'est différent de la question des connectiques. Ce n'est pas parce que auras du hdmi 2.1 que les écrans oled vont arriver sur PC et je préfère mille fois avec des écrans oleds sur Pc avec un simple DP 1.4 et un hdmi 2.1 ou 2.0 que d'avoir des écrans LCDs avec double sortie dp et double hdmi 2.1.

Message cité 1 fois
Message édité par obduction le 02-02-2019 à 10:51:30
mood
Publicité
Posté le 02-02-2019 à 10:51:02  profilanswer
 

n°969093
PitOnForum
thèse - antithèse - synthèse
Posté le 02-02-2019 à 12:40:46  profilanswer
 

obduction a écrit :

Tu parlais de connectique jusqu'à maintenant et maintenant tu parles d'offres. Ce sont 2 choses différentes.
Tant sur les connectiques je ne suis pas d'accord car je trouve que c'est un faux problème, tant sur l'offre je suis d'accord.

 

J'adorerais avoir plus de choix dans les écrans HDRs que 2 pauvres écrans HDr 1000 à 2500€, avoir une offfre en écran oled pour Pc etc. Sur ce point, je suis entièrement d'accord avec toi mais c'est différent de la question des connectiques. [...]

dans l'offre j'inclus les écrans et la connectique, d'ailleurs les deux ne font qu'un : les écrans sont équipés de la connectique imposée par le fabricant, tant en qualité qu'en quantité, et la qualité d'affichage dépend e.a. de la bande passante de la connectique

 

les deux me posent problème : l'offre insatisfaisante d'écrans, avec leurs connectiques limitées, surtout en qualité et dans une moindre mesure en nombre

 
obduction a écrit :

[...]
Sur ce point, je suis entièrement d'accord avec toi mais c'est différent de la question des connectiques. Ce n'est pas parce que auras du hdmi 2.1 que les écrans oled vont arriver sur PC et je préfère mille fois avec des écrans oleds sur Pc avec un simple DP 1.4 et un hdmi 2.1 ou 2.0 que d'avoir des écrans LCDs avec double sortie dp et double hdmi 2.1.

ça c'est clair, que la connectique n'induit pas l'OLED ou la microLED, qui sont des technologies qui ne changent en rien la quantité de données à traiter et à transporter, et qui n'ont rien à voir avec la bande passante des connecteurs et câbles
comme il est tout aussi clair que nous attendons depuis longtemps, avant tout, enfin un monitor auto-emmissif (OLED ou µLED), 100% sRGB + 100% Adobe RGB, 10 bit, HDR, d'au moins 60Hz, de surface mate et de restitution fidèle

 

mon point est que la connectique du moment me limite déjà actuellement et que si l'on veut passer à l'étape suivante :
UHD 8K, 120i/s, Rec.2020 ou Rec.2100, en 12 bit et 4:4:4, il faut lever le bridage de la connectique, si possible avec une seule universelle, avec une bande passante largement suffisante pour les années à venir
techniquement c'est possible, et même plutôt facilement, je pense - l'obstacle est commercial

Message cité 1 fois
Message édité par PitOnForum le 02-02-2019 à 13:23:40
n°969096
Profil sup​primé
Posté le 02-02-2019 à 13:11:52  answer
 

Rassure-moi PitOnForum, : tu n'es pas en train de regretter que les écrans actuels n'ont pas les connectiques du futurs ..
Ces même connectiques qui seront, à n'en pas douter, adaptés aux dalles (du futur²) ?
J'espère car alors j'aimerais que tu me cites un seul écran qui soit jamais sorti n'ayant pas la (ou les) connectiques adaptées à sa dalle ..
Edit : après, qu'une dalle ne soit pas exploitée à 100%, là on serait je pense d'accords pour dire que c'est lié au commercial ;)

Message cité 1 fois
Message édité par Profil supprimé le 02-02-2019 à 13:15:10
n°969101
PitOnForum
thèse - antithèse - synthèse
Posté le 02-02-2019 à 13:33:48  profilanswer
 

gaffal a écrit :

Faut bien etre conscient du debit d' information qui passe dans une connectique d' ecran !
AMHA pour l' avenir , il faudra passer par une fibre optique !


plus loin dans le topique j'avais posté les différents types de connectiques, avec leur bande passante, et l'on y voit que le cuivre permet déjà à court et moyen terme de satisfaire les besoins, mais que la fibre optique de verre est déjà envisagée à plus long terme, sans doute pour l'UHD 8K, HFR 120, HDR, Rec.2020 ou Rec.2100, en 12 bit et 4:4:4
 
https://forum.hardware.fr/hfr/Hardw [...] tm#t881282
https://forum.hardware.fr/hfr/Hardw [...] tm#t914194
https://forum.hardware.fr/hfr/Hardw [...] tm#t922673
https://forum.hardware.fr/hfr/Hardw [...] tm#t938128


Message édité par PitOnForum le 02-02-2019 à 14:23:52
n°969103
PitOnForum
thèse - antithèse - synthèse
Posté le 02-02-2019 à 13:35:18  profilanswer
 


je suis contrarié du fait que :
- les écrans actuels ne soient pas encore équipés des connectiques qui existent déjà depuis 2017 : deux DP 1.4 + deux HDMI 2.1
- on nous impose depuis beaucoup trop longtemps les vieilles connectiques
- que les connectiques actuelles brident mes écrans et limitent mon usage


Message édité par PitOnForum le 02-02-2019 à 14:25:49
n°969172
obduction
Posté le 02-02-2019 à 23:29:01  profilanswer
 

PitOnForum a écrit :

dans l'offre j'inclus les écrans et la connectique, d'ailleurs les deux ne font qu'un : les écrans sont équipés de la connectique imposée par le fabricant, tant en qualité qu'en quantité, et la qualité d'affichage dépend e.a. de la bande passante de la connectique
 
les deux me posent problème : l'offre insatisfaisante d'écrans, avec leurs connectiques limitées, surtout en qualité et dans une moindre mesure en nombre
 


 

PitOnForum a écrit :

ça c'est clair, que la connectique n'induit pas l'OLED ou la microLED, qui sont des technologies qui ne changent en rien la quantité de données à traiter et à transporter, et qui n'ont rien à voir avec la bande passante des connecteurs et câbles
comme il est tout aussi clair que nous attendons depuis longtemps, avant tout, enfin un monitor auto-emmissif (OLED ou µLED), 100% sRGB + 100% Adobe RGB, 10 bit, HDR, d'au moins 60Hz, de surface mate et de restitution fidèle  
 
mon point est que la connectique du moment me limite déjà actuellement et que si l'on veut passer à l'étape suivante :
UHD 8K, 120i/s, Rec.2020 ou Rec.2100, en 12 bit et 4:4:4, il faut lever le bridage de la connectique, si possible avec une seule universelle, avec une bande passante largement suffisante pour les années à venir
techniquement c'est possible, et même plutôt facilement, je pense - l'obstacle est commercial


Tu nous dis d'abord que tu regrettes que les écrans n'ont pas les dernières connexions disponibles, ensuite qu'il n'y a pas assez d'offre en écran et maintenant que les écrans n'ont pas des connexions qui n'existent même pas encore.
 
Faudrait savoir car là je pige plus.
Ton écran, il aura beau avoir du hdmi 2.1 qu'il ne va pas gérer du 8K avec du 120hz et encore du full REC 2020 ni transformer un lcd en oled.
 
Plus on avance dans la discussion, plus le problème n'est pas qu'un écran a du hdmi 2.0 au lieu de hdmi 2.1 mais qu'il n'y a tout simplement pas l'écran ultime que tu rêves d'avoir et que pour cet écran, c'est plus une question de technologie non disponible actuellement qu'une question de connectique.
 

n°969181
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 00:15:49  profilanswer
 

tout est lié...

 

il n'y a pas les écrans souhaités, la connectique utilisée est limitante, le DP 1.4 et le HDMI 2.1 sont dans les tiroirs depuis 2017, mais toujours pas sur les écrans
c'est ce que je dis depuis le début...

Message cité 1 fois
Message édité par PitOnForum le 03-02-2019 à 00:19:51
n°969182
Profil sup​primé
Posté le 03-02-2019 à 00:20:26  answer
 

Les dalles (et les électroniques) ne fonctionnent pas comme elles devraient à cause de leurs connexions ?
Ou tu souhaites un type de connectique qui te permette une autre utilisation (et éventuellement une autre dalle/électronique) ?
C'est flou en fait du moins pour moi ..
Pour moi, c'est simple : les écrans (dans leur ensemble, avec connectiques + électroniques), fonctionnent
Hormis quand des choix sont faits pour ne pas exploiter au maximum le tout de manière complète
Bref, tu veux tel écran, avec telle électronique et telle connectique ?
Un conseil : travaille chez les Samsung, Nec etc., tu vas grandement les aider car il semble que d'après toi, ils n'y arrivent pas :o

n°969183
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 00:36:05  profilanswer
 

on trouve désormais à la vente sur nos étales de magasins au détail grand public le Samsung QE65Q900R(ALXXN), un téléviseur LCD LED de 65" en UHD 8K 7680 x 4320 pixels, entre 4.499€ et 4.999€

 

https://images.samsung.com/is/image/samsung/nl-qled-8k-tv-q900r-qe65q900ralxxn-black-1-127830299?$PD_GALLERY_L_JPG$

 

amusant de se souvenir que certains ici n'y croyaient pas, au point d'en tenir un discours hostile

 

serions-nous, en Europe, déjà, bien avant 2020, en route vers l'arrivée massive d'écrans UHD 8K ?
https://buffalomorningstar.com/wp-content/uploads/2019/01/8K-UHD-TV-Market-788x443.jpg

 

petits reportages vidéo :
https://youtu.be/HLByvHaxatg
https://www.youtube.com/watch?v=yajKZVdUWBQ

Message cité 1 fois
Message édité par PitOnForum le 22-06-2020 à 11:18:26
n°969185
Sam Erousi​s
Posté le 03-02-2019 à 00:40:49  profilanswer
 

Il est pas le seul à le penser hein  :kaola: , bien sûr que les TV sont sous-exploitées à cause de leur connectique, ça fait longtemps que les fabriquants de dalles TV nous sortent des dalles 100/120/200hz, seulement exploitées par des technologies proprio comme le BFI (black frame insertion) ou motion/movie plus, mais aucun support de ces fréquences en entrée à cause de leur connectique obsolète  :fou: .
 
D'ailleurs, ça pourrait être considéré comme de l'obsolescence programmée  [:canaille] ...


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°969187
Profil sup​primé
Posté le 03-02-2019 à 00:51:28  answer
 

Ta vidéo montre juste qu'un tel écran attend après une norme
Il est où le souci alors ?
Innover alors que dans le même temps, tout ne va pas à la même vitesse ?
C'est pas nouveau et on n'y arrivera jamais
En fait si : un jour les gens arrêteront de se plaindre et feront les choses par eux-mêmes
Bon, là, bon courage pour faire mieux que Samsung :jap: ..

n°969188
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 01:13:39  profilanswer
 

"faire mieux que ce tv LCD Samsung UHD 8K", évidemment qu'l y a moyen de faire mieux ; cet écran n'a que sa définition UHD 8K qui sorte du lot
 
les points à améliorer à court terme :  
dalle auto-émissive (OLED ou µLED), surface mate, HFR120, couverture de 100% des actuels spectres de couleurs TV + PC: Rec.709 + DCI-P3 + sRGB + Adobe RGB, profondeur des couleurs 12 bit, connectique au minimum 2 x HDMI 2.1 + 2 x DP 1.4, niveau énergétique A au lieu de D

n°969190
Profil sup​primé
Posté le 03-02-2019 à 01:47:32  answer
 

Facile : dans 10 ans on aura tout ça :jap:

Spoiler :

Tu es juste trop pressé, trop de tentations dans ce message [:slogan:3] < car elle/lui veut bien :d


Message édité par Profil supprimé le 03-02-2019 à 01:50:19
n°969192
mosie
GEEK PRO POWER !
Posté le 03-02-2019 à 08:03:07  profilanswer
 

Pour completer ce que dit Sam Erousis
et rejoindre PitOnForum.
 
Les écran OLED 4K actuel sont pour la plus par sinon tous, compatible 10BIT 60Hz mais impossible de tenir ca via connectique actuel,  
donc oui, il y a bien bridage du aux connectiques.
 
Et meme si ca a déjà était dit: le fait que le HDMI 2.1 sont déjà present sur des dalle commercial et juste AUCUN appareil / CG compatible soit dispo et juste complement dingue; et ca va bien duré une bonne année.
 
L'avancer techno des TV fassent au écran PC et devenu tees grande now !


---------------
DU LOURD, TOUJOURS !
n°969196
obduction
Posté le 03-02-2019 à 09:08:15  profilanswer
 

PitOnForum a écrit :

tout est lié...
 
il n'y a pas les écrans souhaités, la connectique utilisée est limitante, le DP 1.4 et le HDMI 2.1 sont dans les tiroirs depuis 2017, mais toujours pas sur les écrans  
c'est ce que je dis depuis le début...


Le problème est que même avec du dp1.4 et hdmi 2.1, tu n'auras pas les écrans souhaités vu que le problème n'est pas que la connectique.
Un écran 8K 120hz 12bits comme tu le rêves même avec du hdmi 2.1 et du DP1.4, il ne sera jamais exploité à son maximum.
 
 
Pourtant c'est toi qui est assez flou depuis le début vu que tu mélanges 3 problèmes en un alors qu'ils ne sont pas les mêmes.
Pour moi c'est clair et logique, je veux une connectique adaptée aux écrans et pas des connectiques qui ne serviront à rien en double exemplaire  sauf peut être un pèquenot qui de toute façon  ne sera pas content parce qu'il aurait voulu les avoir en triple ou quadruple exemplaires.
 

Citation :

Bref, tu veux tel écran, avec telle électronique et telle connectique ?
Un conseil : travaille chez les Samsung, Nec etc., tu vas grandement les aider car il semble que d'après toi, ils n'y arrivent pas :o


C'est dommage de partir dans la mauvaise foi. :(


Message édité par obduction le 03-02-2019 à 09:14:40
n°969203
gaffal
Posté le 03-02-2019 à 10:12:37  profilanswer
 

tant que vous y etes à causer connectique
 je me demandais quel est le debit theorique d' une prise LAN de smart TV ?  100Mo 1Go ??
 
Bon aprés le 10 bit c' est ok pour l' oeil
 12 ou 14 c' est pour avoir de la marge pour traiter les photos numeriques ...

n°969213
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 11:30:23  profilanswer
 

- 14 bit me paraît "over-the-top"
- 12 bit est prévu, c'est un progrès appréciable, si en 4:4:4, sinon le subsampling dégrade de trop
- 10 bit c'est le standard actuel et le minimum requis de nos jours

n°969215
webzeb
Posté le 03-02-2019 à 11:35:25  profilanswer
 

gaffal a écrit :

tant que vous y etes à causer connectique
 je me demandais quel est le debit theorique d' une prise LAN de smart TV ?  100Mo 1Go ??
 
Bon aprés le 10 bit c' est ok pour l' oeil
 12 ou 14 c' est pour avoir de la marge pour traiter les photos numeriques ...


Non, ça dépend de la dynamique à couvrir.
 
Et cela dépend de l'EOTF (la fonction qui donne la relation entre la valeur en entrée et la luminosité affichée par l'écran) choisie.
 
La capacité de la vision humaine à percevoir une différence de luminosité n'est pas la même selon la valeur de luminosité.
Par exemple, un rectangle à 0.5 cd/m² sur un fond parfaitement noir, tu vas le voir comme le nez au milieu de la figure.
UN rectangle blanc à 100.5 cd/m² sur un fond à 100 cd/m², il va falloir plisser les yeux.
 
Un dénommé BARTEN  notamment à étudié ça et c'est à lui qu'on doit l'EOTF utilisé en HDR10 et Dolby Vision  
 
Un PPT qui parle de ça et propose un test (dont je ne sais aps ce u'il vaut, mais c'est pour l'idée...) de diféfrent EOTF avec différentes quantifications :
https://www.smpte.org/sites/default [...] Miller.pdf
 

n°969217
webzeb
Posté le 03-02-2019 à 11:38:51  profilanswer
 

PitOnForum a écrit :

- 14 bit me paraît "over-the-top"
- 12 bit est prévu, c'est un progrès appréciable, si en 4:4:4, sinon le subsampling dégrade de trop
- 10 bit c'est le standard actuel et le minimum requis de nos jours


Le subsampling auquel tu fais allusion est spatial :
https://fr.wikipedia.org/wiki/Sous- [...] hrominance
 
10, 12, 14 bits n'y changeront rien...
 
Par contre, quantifier sur plus de bits augmente le besoin de bande passante.
Donc à un moment tu peux te retrouver à faire le choix entre "+ de bits et subsampling" ou "- de btis pas de subsampling", à bande passante équivalente.

n°969230
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 12:49:18  profilanswer
 

mosie a écrit :

Pour completer ce que dit Sam Erousis
et rejoindre PitOnForum.

 

Les écran OLED 4K actuel sont pour la plus par sinon tous, compatible 10BIT 60Hz mais impossible de tenir ca via connectique actuel,
donc oui, il y a bien bridage du aux connectiques.

 

Et meme si ca a déjà était dit: le fait que le HDMI 2.1 sont déjà present sur des dalle commercial et juste AUCUN appareil / CG compatible soit dispo et juste complement dingue; et ca va bien duré une bonne année.

 

L'avancer techno des TV fassent au écran PC et devenu tees grande now !


j'ai l'impression que le mal-entendu de toute la longue discussion de ci-dessus avec Obduction et Bierman trouve son origine sur la question du bridage ou pas de la connectique actuelle

 

j'ai beau dire que la connectique me limite, cette affirmation n'est pas toujours comprise

 

en 2013 (reposté en 2016) https://forum.hardware.fr/forum2.ph [...] =0#t754179  &
 https://forum.hardware.fr/hfr/Hardw [...] tm#t881282 je m'étais amusé à estimer, par des calcules, les besoins théoriques de bande passante en fonction du degré de qualité de l'image, et j'étais arrivé à ces chiffres :
- UHD 4K 60i/s Rec.2020 10bit 4:4:4 = ~15Gbit/s
- UHD 4K 60i/s Rec.2020 12bit 4:4:4 = ~18Gbit/s
- UHD 4K 120i/s Rec.2020 10bit 4:4:4 = ~30Gbit/s
- UHD 4K 120i/s Rec.2020 12bit 4:4:4 = ~36Gbit/s
- UHD 8K 60i/s Rec.2020 10bit 4:4:4 = ~60Gbit/s
- UHD 8K 60i/s Rec.2020 12bit 4:4:4 = ~72Gbit/s
- UHD 8K 120i/s Rec.2020 10bit 4:4:4 = ~120Gbit/s
- UHD 8K 120i/s Rec.2020 12bit 4:4:4 = ~144Gbit/s  

 

vu la bande passante théorique annoncée des différentes connectiques :
- Super MHL :              36Gbits/s physique et 108Gbits/s compressé 3:1  
                                  (attendu pour 2018-2020)
- Thunderbolt 3.0 :       40Gbits/s (version 2015-2016)
                                  jusqu'à 100Gbits/s pour les futures versions d'ici 2020
                                  https://forum.hardware.fr/hfr/Hardw [...] tm#t793898
- Thunderbolt 2.0 :       20Gbits/s
- Thunderbolt 1.0 :       10Gbits/s
- DisplayPort 1.4 :        32,4Gbits/s
- DisplayPort 1.3 :        32,4Gbits/s
- DisplayPort 1.2 :        21,6Gbits/s
- DisplayPort 1.0-1.1 :  10,8Gbits/s
- HDMI 2.1 :                18Gbits/s with High Speed cable and 48Gbits/s with 48G cable, supporting UHD 4K @ 120Hz, >10 bit, 4:4:4, HDR
- HDMI 2.0b :              18Gbits/s
- HDMI 2.0a :              18Gbits/s
- HDMI 2.0 :                18Gbits/s
- HDMI 1.4a :              10,2Gbits/s
- USB 3.1 :                  10Gbits/s
- USB 3.0 :                  5Gbits/s
- USB 2.0 :                  0,48Gbits/s
- FireWire 800 :           0,80Gbits/s (l'ancien nec plus ultra...)
https://forum.hardware.fr/hfr/Hardw [...] tm#t914194

 

j'avais confiance que le HDMI 2.0 suffirait à l'UHD 4K en 10 bit à 60-120Hz en HDR et couverture de 100% des spectres de couleurs courants: sur TV: Rec.709 + DCI-P3 et sur ordinateur: sRGB + Adobe RGB

 

en pratique, dans les faits, il s'avère qu'on atteint pas toujours ces degrés de qualité, malgré que la dalle de l'écran en est théoriquement capable au vu de sa fiche technique

 

en cherchant, avec d'autres formumeurs ici sur ce topique, la cause de ce écart entre la théorie et la pratique, on arrivait au constat que la connectique posait problème - regardez :
https://forum.hardware.fr/hfr/Hardw [...] tm#t899483
https://forum.hardware.fr/hfr/Hardw [...] tm#t900093
https://forum.hardware.fr/hfr/Hardw [...] tm#t900005
https://forum.hardware.fr/hfr/Hardw [...] tm#t900075
https://forum.hardware.fr/hfr/Hardw [...] tm#t902226
https://forum.hardware.fr/hfr/Hardw [...] tm#t902242
https://forum.hardware.fr/hfr/Hardw [...] tm#t922673

 

conclusion : la combinaison de produits et d'usages n'est pas encore au point, n'est pas encore mature, n'est pas encore prête pour tirer tout le potentiel actuel de qualité d'affichage, et la connectique y est aussi pour quelque chose dans cette limite subie

Message cité 2 fois
Message édité par PitOnForum le 07-02-2019 à 22:59:35
n°969232
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 12:59:42  profilanswer
 

webzeb a écrit :

Le subsampling auquel tu fais allusion est spatial :
https://fr.wikipedia.org/wiki/Sous- [...] hrominance

 

10, 12, 14 bits n'y changeront rien...

les deux ne sont pas directement liés, mais ce que je veux dire c'est qu'il ne faudrait pas que le bénéfice de qualité par un encodage plus profond en 12 bit par composante RGB soit dégradé ensuite par de l'échantillonnage qui impacte la qualité d'affichage

 
webzeb a écrit :

Par contre, quantifier sur plus de bits augmente le besoin de bande passante.
Donc à un moment tu peux te retrouver à faire le choix entre "+ de bits et subsampling" ou "- de btis pas de subsampling", à bande passante équivalente.

+1

 

=> si la bande passante le permet, alors passons à 12 bit en 4:4:4, sinon faisons du 10 bit en 4:4:4, mais pas du 4:2:2 et encore moins du 4:2:0, car le subsampling dégrade trop la qualité d'image

Message cité 1 fois
Message édité par PitOnForum le 03-02-2019 à 13:01:02
n°969233
webzeb
Posté le 03-02-2019 à 13:00:48  profilanswer
 

PitOnForum a écrit :


j'ai l'impression que le mal-entendu de toute la longue discussion de ci-dessus avec Obduction et Bierman trouve son origine sur la question du bridage ou pas de la connectique actuelle
 
j'ai beau dire que la connectique me limite, cette affirmation n'est pas toujours comprise
 
en mai 2016 https://forum.hardware.fr/hfr/Hardw [...] tm#t881282 je m'étais amusé à estimer, par des calcules, les besoins théoriques de bande passante en fonction du degré de qualité de l'image, et j'étais arrivé à ces chiffres :  
- UHD 4K 60i/s Rec.2020 10bit 4:4:4 = ~15Gbit/s  
- UHD 4K 60i/s Rec.2020 12bit 4:4:4 = ~18Gbit/s  
- UHD 4K 120i/s Rec.2020 10bit 4:4:4 = ~30Gbit/s  
- UHD 4K 120i/s Rec.2020 12bit 4:4:4 = ~36Gbit/s  
- UHD 8K 60i/s Rec.2020 10bit 4:4:4 = ~60Gbit/s  
- UHD 8K 60i/s Rec.2020 12bit 4:4:4 = ~72Gbit/s  
- UHD 8K 120i/s Rec.2020 10bit 4:4:4 = ~120Gbit/s  
- UHD 8K 120i/s Rec.2020 12bit 4:4:4 = ~144Gbit/s  
 
vu la bande passante théorique annoncée des différentes connectiques :
- Super MHL :              36Gbps physique et 108Gbps compressé 3:1  
                                  (attendu pour 2018-2020)  
- Thunderbolt 3.0 :       40Gb/s (nouvelle version 2015-2016)  
                                  jusqu'à 100Gb/s pour les futures versions d'ici 2020  
                                  https://forum.hardware.fr/hfr/Hardw [...] tm#t793898  
- Thunderbolt 2.0 :       20Gb/s (version actuelle)  
- Thunderbolt 1.0 :       10Gb/s (version précédente)  
- DisplayPort 1.4 :        32,4Gbits/s (prochaine version)  
- DisplayPort 1.3 :        32,4Gbits/s (prochaine version)  
- DisplayPort 1.2 :        21,6Gbits/s (version actuelle)  
- DisplayPort 1.0-1.1 :  10,8Gbits/s (version précédente)  
- HDMI 2.1 :
- HDMI 2.0b :              18Gbits/s (nouvelle version)  
- HDMI 2.0a :              18Gbits/s (nouvelle version)  
- HDMI 2.0 :                18Gbits/s (version actuelle)  
- HDMI 1.4a :              10,2Gbits/s (version précédente)  
- USB 3.1 :                  10Gb/s (nouvelle version)  
- USB 3.0 :                  5Gb/s (version précédente)  
- USB 2.0 :                  0,48Gb/s (version ancienne)  
- FireWire 800 :           0,80Gb/s (l'ancien nec plus ultra...)
https://forum.hardware.fr/hfr/Hardw [...] tm#t914194
 
j'avais confiance que le HDMI 2.0 suffirait à l'UHD 4K en 10 bit à 60-120Hz en HDR et couverture de 100% des spectres de couleurs courants: sur TV: Rec.709 + DCI-P3 et sur ordinateur: sRGB + Adobe RGB
 
en pratique, dans les faits, il s'avère qu'on atteint pas toujours ces degrés de qualité, malgré que la dalle de l'écran en est théoriquement capable au vu de sa fiche technique
 
en cherchant, avec d'autres formumeurs ici sur ce topique, la cause de ce écart entre la théorie et la pratique, on arrivait au constat que la connectique posait problème - regardez :
https://forum.hardware.fr/hfr/Hardw [...] tm#t899483
https://forum.hardware.fr/hfr/Hardw [...] tm#t900093
https://forum.hardware.fr/hfr/Hardw [...] tm#t900005
https://forum.hardware.fr/hfr/Hardw [...] tm#t900075
https://forum.hardware.fr/hfr/Hardw [...] tm#t902226
https://forum.hardware.fr/hfr/Hardw [...] tm#t902242
https://forum.hardware.fr/hfr/Hardw [...] tm#t922673
 
conclusion : la combinaison de produits et d'usages n'est pas encore au point, n'est pas encore mature, n'est pas encore prête pour tirer tout le potentiel actuel de qualité d'affichage, et la connectique y est aussi pour quelque chose dans cette limite subie


La quantification et l'espace couleur couvert sont deux choses différentes.
(Bien qu'il y ait un intérêt à quantifier sur plus de bit quand tu veux reproduire un espace couleurs plus large...)
 
Tu peux encoder une vidéo dans un espace couleur immense en 8-bit par canal...

n°969234
webzeb
Posté le 03-02-2019 à 13:11:43  profilanswer
 

PitOnForum a écrit :

les deux ne sont pas directement liés, mais ce que je veux dire c'est qu'il ne faudrait pas que le bénéfice de qualité par un encodage plus profond en 12 bit par composante RGB soit dégradé ensuite par de l'échantillonnage qui impacte la qualité d'affichage
 


 

PitOnForum a écrit :

+1
 
=> si la bande passante le permet, alors passons à 12 bit en 4:4:4, sinon faisons du 10 bit en 4:4:4, mais pas du 4:2:2 et encore moins du 4:2:0, car le subsampling dégrade trop la qualité d'image


Cela n'impacte pas les mêmes choses !
 
La quantification sur 8, 10 ou 12 bits par canal impacte la reproduction des dégradés et la précision des couleurs.
Cet impact est variable selon l'EOTF, la dynamique, la plage de tons à laquelle tu t'intéresses...
 
Il existe des "contournement" pour limiter cet impact, comme le dithering (spatial et/ou temporel), des filtres de decontouring/debanding, etc.
Ces traitement peuvent aussi bien être appliqués directement au média (si tu fais un dégradé dans Photoshop il utilise automatiquement du dithering), par le lecteur, pas le diffuseur...
 
Le chroma subsampling affecte l’échantillonnage spatial des couleurs.
C'est une technique hyper courante en vidéo pour économiser de la bande passante. Un Blu-Ray disc par exemp^le, utilise du chroma subsampling.
Si tu affiches un média qui utilise du chroma subsampling sur un écran qui fait de même, typiquement une TV, tu n'auras aucune dégradation.
Cela se corse sur certains cas particuliers, notamment du texte, des choses avecv des contours ultra nets et tranchés (typiquement en bureautique).

n°969235
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 13:27:04  profilanswer
 

webzeb a écrit :


Cela n'impacte pas les mêmes choses !

 

La quantification sur 8, 10 ou 12 bits par canal impacte la reproduction des dégradés et la précision des couleurs.
Cet impact est variable selon l'EOTF, la dynamique, la plage de tons à laquelle tu t'intéresses...

 

Il existe des "contournement" pour limiter cet impact, comme le dithering (spatial et/ou temporel), des filtres de decontouring/debanding, etc.
Ces traitement peuvent aussi bien être appliqués directement au média (si tu fais un dégradé dans Photoshop il utilise automatiquement du dithering), par le lecteur, pas le diffuseur...

 

Le chroma subsampling affecte l’échantillonnage spatial des couleurs.
C'est une technique hyper courante en vidéo pour économiser de la bande passante. Un Blu-Ray disc par exemp^le, utilise du chroma subsampling.
Si tu affiches un média qui utilise du chroma subsampling sur un écran qui fait de même, typiquement une TV, tu n'auras aucune dégradation.
Cela se corse sur certains cas particuliers, notamment du texte, des choses avecv des contours ultra nets et tranchés (typiquement en bureautique).


je sais bien que cela n'affecte pas les mêmes choses, mais bien la qualité générale de l'affichage

 

c'est bien de nous mettre de l'UHD 4K et 8K, du 120HZ, du HDR, du contraste infini, du 1500-5000 nit, une profondeur des couleurs codée en 12 ou 14 bits par composante RGB pour un dégradé plus fluide ou carrément invisible et un spectre de couleurs élargi ou super élargi Rec.2020/2100 plus proche de la vision humaine, mais je voudrais aussi qu'on abandonne ce sacré subsampling, qui dégrade la qualité d'affichage (le monde TV, cinéma, vidéo, photographie et ordinateur ne sont plus aussi cloisonnés comme avant ; désormais tout s'utilise avec tout)

 

Illustration caricaturale de l'effet de profondeur des couleurs - encodage en nombre de bits par composante

PitOnForum a écrit :

illustration caricaturale de l'intérêt d'une plus grande profondeur des couleurs (min. 10 bit, mieux 12 bit, si possible plus à long terme)

Citation :

http://www.son-video.com/images/lexique/456.jpg
À gauche, le phénomène de postérisation est très marqué. En augmentant la profondeur de couleurs affichables, le dégradé est reproduit de manière plus fine et nuancée. L'image de droite montre un dégradé lissé, avec une transition douce entre les différentes teintes affichées.


http://www.son-video.com/Guide/Blu-ray-ultra-hd


https://forum.hardware.fr/hfr/Hardw [...] tm#t897189

 

Illustration de l'effet du subsampling

PitOnForum a écrit :

tout ne se résume pas à la seule et unique définition et résolution de l'image

 

à côté, il y a aussi:
- le type de dalle: LCD néons versus LCD LED (et toutes les variantes: Edge LED, Full LED, etc.) versus OLED
- le maillage, l'agencement des pixels
- la surface de dalle brillante versus mate
- l'étendue du spectre des couleurs REC.709 versus REC.2020 (ou sRGB, Adobe RGB, BT.2020/REC.2020)
- la profondeur des couleurs 8bit versus 10bit versus 12bit
- l'échantillonage 4:2:0 versus 4:2:2 versus 4:4:4
- le HDR
- le taux d'images par seconde HFR 60i/s versus 120i/s
- les réglages d'usine: Delta E<2, Gamma, la temp. de couleurs en °K...
- le traitement électronique d'image
- ...

 

dommage que les contenus UHD 4K Premium, même sur UHD Blu-ray Disc, seront au mieux en 10bit et sutout 4:2:2, au lieu de 12bit 4:4:4
entre le FullSampling 4:4:4 et le SubSampling 4:2:0 la perte de qualité est énorme, et elle reste considérable en 4:2:2
https://upload.wikimedia.org/wikipedia/commons/0/06/Colorcomp.jpg
https://en.wikipedia.org/wiki/Chroma_subsampling

 

https://upload.wikimedia.org/wikipedia/commons/1/1c/420-progressive-still.png
4:2:0 progressive sampling applied to a still image. Both fields are shown.

 

https://upload.wikimedia.org/wikipedia/commons/c/c2/420-interlaced-still.png
4:2:0 interlaced sampling applied to a still image. Both fields are shown.

 

source: https://en.wikipedia.org/wiki/Chroma_subsampling


https://forum.hardware.fr/hfr/Hardw [...] tm#t885679

 

tous ces critères ne sont pas directement liés, mais constituent ensemble la qualité globale de l'affichage

 

;)


Message édité par PitOnForum le 03-02-2019 à 13:41:34
n°969239
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 14:58:24  profilanswer
 

rappel du programme industriel, en matière du spectre des couleurs, pour les années à venir

 

http://www.sharp-world.com/aquos/en/8Ktech/images/technology/img-technology04.png

 

http://www.sharp-world.com/aquos/en/8Ktech/


Message édité par PitOnForum le 03-02-2019 à 15:07:05
n°969245
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 15:43:36  profilanswer
 

quelques nouvelles e.a. sur des laptops OLED

 
Citation :

LGD says that it will invest $7.1 billion in 2019 in capacity expansion, and $3.5 billion in 2020. It will divert all of its investments into OLED displays - with 60% going to large area OLED TV production and 40% going to small/medium pOLED production.


https://www.oled-info.com/lgd-start [...] -expansion

 
Citation :

Here come the OLED laptops - SDC to start producing 15.6" UHD OLEDs next month
Samsung Display announced that it will start mass producing its new 15.6" UHD (3840x2160) OLED display panels in February 2019. SDC is targeting premium laptops, as these ultra high resolution panels are optimized for gaming, graphic design and video streaming.

 

https://www.oled-info.com/files/HP-Spectre-x360-15-img_assist-400x284.jpg
HP Spectre x360 15 photo

 

At CES we saw three companies that announced 15" OLED laptops - HP with its Spectre x360, Lenovo with the Yoga C730 and Dell with the XPS 15, Dell G7 15 and the Alienware m15. It is likely that at least some of these laptops will start shipping in March 2019 when SDC can start supplying the panels.

 

Samsung says that the new AMOLED panels, in addition to the very high resolution, feature high contrast ratio,extreme color accuracy, full HDR compatibility, a very wide color gamut, and remarkable outdoor visibility. The brightness level ranges from 0.0005 to 600 nits. Coupled with the high contrast (120,000:1), this maximizes the HDR benefits.

 

Samsung also says that the displays support the entire DCI-P3 color gamut - while emitting "significantly less blue wavelengths" compared to LCDs. Blue light emission can potentially be harmful to the eye.

 

Samsung has been producing laptop OLEDs in the past, but it seems that the company is finally confident that its new panels are really suitable for a larger part of the market, and hopefully we will see more laptop makers adopt OLEDs in the future - also in mid-range devices and not just high-end ones.


https://www.oled-info.com/here-come [...] next-month

 

on a vu précédemment que 293 cd/m² mesuré est insuffisant pour voir clair à l'extérieur, en pleine lumière du jour
https://forum.hardware.fr/hfr/Hardw [...] tm#t890965
à voir si 600 cd/m² théoriques suffisent
à priori le spectre DCI-P3 + les 600 nits + HDR, le tout en OLED, à l'air vraiment bien
https://www.journaldugeek.com/content/uploads/2019/01/samsung-oled-portable-laptop-2.jpg
https://www.journaldugeek.com/2019/ [...] -de-gamme/

 

Apple adopte également l'OLED à.p.d. 2020 pour ses futurs iPhones
https://www.oled-info.com/wsj-apple [...] 20-iphones


Message édité par PitOnForum le 30-07-2020 à 22:02:28
n°969246
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 15:55:31  profilanswer
 

pour la première fois, Samsung ne se cache plus d'être le producteur de la dalle OLED qui équipe les nouveaux laptops 15,6" UHD 4K OLED de Dell, AlienWare, HP et Lenovo, toutes ces marques qui utilisaient déjà les dalles OLED "secrètes" de Samsung les années passées
ce alors que ses dirigeants juraient publiquement année après année ne pas croire en l'OLED et que Samsung ne produirait pas de dalles OLED ni à court, ni à moyen, ni à long terme :sarcastic:

 

cf. plus haut dans le topique depuis 2015 déjà ; on a commencé en 2015 à 12" ; là, en 2019, on atteint 16" ; donc chaque année on gagne 1" : https://forum.hardware.fr/forum2.ph [...] 0&filter=1  

 

il reste à combler le trou béant entre les dalles OLED de 16" (de SDC = Samsung Display Corporation) et celles de 55" et plus (de LGD = LG Display)


Message édité par PitOnForum le 03-02-2019 à 16:09:45
n°969247
gaffal
Posté le 03-02-2019 à 16:17:28  profilanswer
 

Bravo pour toutes ces explications
là on voit bien la limitation du HDMI 2.0 à 18Gbits/s  
Aprés plutot que de pousser audela de 10 bit / couleur en RGB
je verrais plutot de commencer à travailler en WRGB
 notamment pour les capteurs photo..
 

n°969249
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 16:38:37  profilanswer
 

nos appareils photos, en tout cas Nikon, sont déjà depuis bien longtemps en :
- 12, 14 (et même 16 bits  :pt1cable: ) pour la profondeur... https://forum.hardware.fr/hfr/Hardw [...] tm#t899629
- sRGB + Adobe RGB pour le spectre (= étendue) des couleurs
 
les téléviseurs haut de gamme récents sont théoriquement à 10 ou 12 bit et DCI-P3
 
c'est aussi pour cela que je voudrais tout harmoniser, au moins au standard actuel le plus élevé, puis on verra au-delà de 2020 pour du UHD 8K en Rec.2020/2100

Message cité 1 fois
Message édité par PitOnForum le 03-02-2019 à 17:22:23
n°969263
webzeb
Posté le 03-02-2019 à 19:29:08  profilanswer
 

PitOnForum a écrit :

nos appareils photos, en tout cas Nikon, sont déjà depuis bien longtemps en :
- 12, 14 (et même 16 bits  :pt1cable: ) pour la profondeur... https://forum.hardware.fr/hfr/Hardw [...] tm#t899629
- sRGB + Adobe RGB pour le spectre (= étendue) des couleurs
 
les téléviseurs haut de gamme récents sont théoriquement à 10 ou 12 bit et DCI-P3
 
c'est aussi pour cela que je voudrais tout harmoniser, au moins au standard actuel le plus élevé, puis on verra au-delà de 2020 pour du UHD 8K en Rec.2020/2100


Cela n'a rien à voir !
 
La réponse du capteur CMOS de ton appareil photo est  linéaire.
En d'autres termes, le signal en sortie est proportionnel à la quantité de lumière reçu.
 
La réponse de ton afficheur est elle non-linéaire.
Elle suit une EOTF (fonction de transfert électrique vers optique), par exemple une loi du type E^gamma avec E compris dans l'intervalle [0; 1] et gamma = 2,2.
 
Donc pour que l'image puisse s'afficher correctement, il faut préalablement lui avoir appliqué la fonction inverse.
 
Graphiquement, ça donne ça :
http://2.bp.blogspot.com/-nnjemlYtN0c/Upb8LGtk9NI/AAAAAAAAADU/LRvgpU-CMQA/s1600/blog_graph.png
En jaune la réponse du capteur photo.
En bleu la réponse de l'écran.
En rose la fonction a appliqué à la photo pour qu'elle s'affiche correctement sur l'écran (transformation que ton apapreil fait totu seul comme un grand quand tu sauvegardes en JPEG).
 
Si tu regardes la focntion en rose tu verras qu'elle dilate sérieusement la zone des ton sombres (à gauche).
Il te faut donc une quantification plus "fine", avant transformation, sinon après la transformation tu va avoir de la postérisation dans ces tons sombres ==> c'est une des raisons pour lesquelles tu as besoin d'une quantification sur 12, 14 voire 16 bits sur ton appareil.
 
Une autre étant la dynamique...
(Et là encvore, la réponse linéaire du capteur a y voir. Si la réponse du capteur n'était aps linéaire, tu n'aurais pas forcément besoin d'autant de bits pour la même dynamique...)
 

n°969264
webzeb
Posté le 03-02-2019 à 19:34:19  profilanswer
 

Pour le gamut, le REC.2020 a cet objectif.
 
Côté média, le REC.2020 tu peux le voir comme un immense container.
Ses primitives sont des "tons purs" (monochromatique).
Donc vois le comme un gros container, où l'on peut faire rentrer plein d'autres espaces couleurs : DCI-P3, Adobe RGB, sRGB, etc....
 
Côté diffuseur, je ne suis pas sûr que ce soit une bonne idée d'avoir un écran REC.2020 "natif", car tu aurais sans doute de gros problème pour le calibrer et des grosses différences de perception des couleurs d'une personne à l'autre.
(Plus le spectre des primitive est étroit, plus c'est la merde...)
 
Le média dans un gros container, l'écran qui mappe ça sur son propre gamut, ça marche très bien...
 

n°969265
PitOnForum
thèse - antithèse - synthèse
Posté le 03-02-2019 à 20:08:42  profilanswer
 

merci pour les explications sur l'appareil photo versus écran

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  161  162  163  ..  314  315  316  317  318  319

Aller à :
Ajouter une réponse
 

Sujets relatifs
Recherche écran 27" full HD avec mode portrait ?Meilleur rapport qualité prix imprimante
imprimante canon mystérieuse et recherche driversRecherche une bonne mini clé usb Bluetooth sous windows 7 64bit
Recherche clavier + sourisrecherche CAM IP récente avec port I/O pour relais/interrupteur
Recherche casque sans fil pour jeux et filmRecherche d'une souris adaptée pour petite main
recherche de logiciel et pilote wifi usb elm327 obd2 eobd scan tool 
Plus de sujets relatifs à : [Sujet Unique] Ecrans ≥30" OLED µLED UHD 4/8K BT.2020 ≥10bit HDR HFR


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR