Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2999 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  37  38  39  ..  291  292  293  294  295  296
Auteur Sujet :

[Topic Unique] Reflex Numérique Sony α100

n°1086817
lem0nstre
Posté le 13-07-2006 à 16:16:58  profilanswer
 

Reprise du message précédent :
Il fallait me dire qu eje dois compter les differentes couleurs, je recommence...

mood
Publicité
Posté le 13-07-2006 à 16:16:58  profilanswer
 

n°1086819
Spoofix
Posté le 13-07-2006 à 16:18:04  profilanswer
 

lem0nstre a écrit :

Il fallait me dire qu eje dois compter les differentes couleurs, je recommence...


 
Oui mais si tu comptes sur l'image interpolée (derawtisée), ca marche pas ;)

n°1086822
nahu
Posté le 13-07-2006 à 16:21:00  profilanswer
 

Et puis prend une grosse réso, du style 16M comme ca tu minimises la marge d'erreur.

n°1086823
lem0nstre
Posté le 13-07-2006 à 16:22:09  profilanswer
 

nahu a écrit :

Et puis prend une grosse réso, du style 16M comme ca tu minimises la marge d'erreur.


Il faut donc que j'achete un nouvelle appareil? Qui me file la tune? (Mon interressement est purement scientifique)

n°1086825
Spoofix
Posté le 13-07-2006 à 16:22:43  profilanswer
 

Un petit indice : le RAW 8Mpx du Canon 20D fait environ 8.7Mo (src : http://www.megapixel.net/reviews/c [...] en2f.php). Ce qui fait environ 1 octets/pixel.
Donc à moins qu'il appliquent une compression sans perte de facteur 4 (ce qui est très peu probable), il y a bien nombre de pixels = nombre de photosites. L'image finales non compressées (8bit -> 3 octets/pixel) fait environ 3*8M = 24Mo, donc il y a bien génération d'informations par interpolation.
 
non ?


Message édité par Spoofix le 13-07-2006 à 16:24:14
n°1086830
Glouba Car​amba
Posté le 13-07-2006 à 16:23:42  profilanswer
 

Dandu a écrit :


Parce il y a environ 10millions de photosites, pas 40 millions.


10 millions de photosites pour 10 millions de pixels en sortie, pour moi voilelec fume lorsqu'il dit ce genre de choses : Prenons l'exemple d'un capteur de 3 Mp signifie qu'il comporte environ 3 millions de grappes de 3 (ou plus) photosites.
 

Dandu a écrit :

C'est le filtre de Bayer qui donne ça.  
Mais ça se superposent, hein, donc y a rien de ridicule.  
Un photosite rouge donne l'info pour 4 pixels, et chaque pixels prend l'info de 4 phtosites.  


Le filtre de Bayer ne groupe pas les photosites par 4.
Quant a savoir combien de photosites interviennent dans les calculs de couleur d'un pixel, bonne chance. A mon avis, y'en a au moins 5 a chaque fois, et meme probablement 9.
 

Dandu a écrit :


Ben l'interpolation tire des infos inexistantes à la base, donc c'est quand même pas l'idéal.


En meme temps c'est exactement ce qui se fait la.
Parce que le pixel derriere un photosite rouge, ses composantes V et B sont pas tombees du ciel, elles ont ete calculees en fonction des valeurs des photosites voisins, par... interpolation.  
 

Dandu a écrit :


J'en savais rien, c'est pour ça que je demande, même si l'utilité est quand même marginale.  
 
Sur le Nikon, c'est du "classique" ou du "smart zoom" ? (...)


Sur le Nikon, c'est "smart", un recadrage sur le centre, avec un transfert accelere pour cette partie-la si j'ai bien suivi. En gros, le capteur peut n'etre lu qu'en partie centrale, ce qui permet de booster la vitesse de lecture. Clairement destine aux pros qui mitraillent sur les circuits ou les paparazzi, ca augmente au passage le facteur de zoom (qui passe de 1.5 a 2).
 

n°1086832
lem0nstre
Posté le 13-07-2006 à 16:25:12  profilanswer
 

j'ai l'impression que cette conversation sur les pixels ne sert pas a grand chose, de moins point de vu, je vais plutot sortir faire des photos, je trouve ca plus constructif :p

n°1086835
Spoofix
Posté le 13-07-2006 à 16:26:35  profilanswer
 

Au passage, on s'en fout de savoir combien de pixels du voisinages sont utilisés pour le calcul d'un pixel. Ce qui compte c'est que si on a 10M de photosites qui captent chacun UNE seule composante R, V ou B, on a une division par 3 du nombre de pixels effectifs. L'interpolation ne permet JAMAIS d'ajouter de l'information.

n°1086836
Glouba Car​amba
Posté le 13-07-2006 à 16:27:13  profilanswer
 

Spoofix a écrit :

Donc chaque photosite captant seulement 1/3 de l'information, le nombre de pixels "réels" est de 10/3 = 3.33 (même s'il y a 2x plus de vert)


Il n'y a pas de pixel "reel", il y a 10 millions de photosites donc 10 millions d'information "luminance", chacune coloree.
Si l'info d'un photosite etait destinee a un seul pixel final, on pourrait parler de "3.3 millions de pixels reels", mais l'interpretation de la matrice de Bayer est bien plus fine que ca. Par interpolation.

n°1086837
Profil sup​primé
Posté le 13-07-2006 à 16:27:17  answer
 

en fait il y a 10 millions (par ex.) de vrais pixels physiques (donc monochrome). Chacun a un filtre de couleur selon un motif dit de bayer (si je me rappelle bien VRVBVRVB et idem sur la ligne du dessous mais alterné RVBVRV...).
 
Pour obtenir le meme nombre de pixels mais couleurs (avec 3 composantes couleur chacun) il y a un interpollation qui est faite, en chaque pixel, avec ses voisins. je me rappelle plus exactement quels voisins sont pris en compte, je pense qu'il y a plusieurs algorithmes plus ou moins compliquées et/ou précis.
 
Pour résumer un capteur 10Mpixels = 10Mpixels monochromes qui sont interpollés en 10Mpixels couleurs. Il n'y a effectivement pas les 3 composantes de couleur captées en chacun des 10Mpixels.  
 
cela dit je ne pense pas que le nombre de pixels est le parametre le plus important. On parle toujorus de possibilités de recadrage, d'agrandissements etc... mais il vaut toujours mieux 1M de super pixels de bonne qualité que 2M de pixels tout pourris...  mais c'est sur qu'à niveau de gamme équivalent plus de pixels ouvrent des possibilités intéressantes (zoom numérique /recadrage...).

mood
Publicité
Posté le 13-07-2006 à 16:27:17  profilanswer
 

n°1086841
Spoofix
Posté le 13-07-2006 à 16:28:01  profilanswer
 

lem0nstre a écrit :

j'ai l'impression que cette conversation sur les pixels ne sert pas a grand chose, de moins point de vu, je vais plutot sortir faire des photos, je trouve ca plus constructif :p


 
Ca n'a rien à voir. On parle de technique parce que ça nous intéresse, pas parce que ça permet de faire de plus belles photos. Par contre, je suis d'accord pour dire qu'on est légèrement HS... ;)

n°1086845
ansadajl
Posté le 13-07-2006 à 16:31:15  profilanswer
 

Moi je demandais juste si ce capteur 10 Mpx etait mieux que les 8 et 6 Mpx (mis a part la taille)...:)
Je pensais pas que ca prendrait une telle envergure!! :pt1cable:  
 
Mais ca reste tres interessant quand meme. D'un point de vue purement technique.

n°1086847
Spoofix
Posté le 13-07-2006 à 16:33:08  profilanswer
 


 
Je suis d'accord pour dire que 3Mpx pourris ne valent pas 1Mpx super précis, mais ce n'est pas le débat.
En considérant que chaque pixel est bon, c'est à dire ne capte pas de lumière qui devrait être sur un autre pixel, tout le calcul des formats d'impression basés sur "il faut 300ppp" est faux dans l'absolu...
Si on avait un capteur 3CCD 10Mpx qui donne donc une image 10Mpx, il y aurait 3x plus d'information (au sens "théorie de l'information" du terme) qu'à partir d'un capteur 1CCD 10Mpx


Message édité par Spoofix le 13-07-2006 à 16:33:43
n°1086860
Glouba Car​amba
Posté le 13-07-2006 à 16:46:34  profilanswer
 

Spoofix a écrit :

Ca n'a rien à voir. On parle de technique parce que ça nous intéresse, pas parce que ça permet de faire de plus belles photos. Par contre, je suis d'accord pour dire qu'on est légèrement HS... ;)


On blablate technique aussi parce qu'il faut bien tuer le temps en attendant la sortie du A100 !
 
 

ansadajl a écrit :

Moi je demandais juste si ce capteur 10 Mpx etait mieux que les 8 et 6 Mpx (mis a part la taille)...:) (...)


Ce qui est sur, c'est qu'il n'est pas le capteur ultime a dynamique etendue facon Fuji S3 pro, ce qui est bien dommage quelque part. Apres, si le nombre de points t'indiffere, y'a de bonnes affaires a faire sur le 6 MPs, que ce soit avec un des derniers KM ou sur les Pentax (voire les Nikon)...

n°1086863
pirlouit_i​st-d
Posté le 13-07-2006 à 16:50:20  profilanswer
 

Dandu a raison : 10 Mp = 10 Mphotosite.
La différence entre les pixels réel et les pixels utilisés tient aux 3 ou 4 rangées de pixels sur les 4 cotés du capteur. Ces pixels donnent la valeur du noir pur au calculateur, le photographe peut alors donner la valeur du blanc (BdB). ces 2 valeurs, blanc et noir, permettent au calculateur d'extrapoler les autres couleurs.

n°1086929
Dandu
Posté le 13-07-2006 à 17:59:35  profilanswer
 

Spoofix a écrit :

Donc chaque photosite captant seulement 1/3 de l'information, le nombre de pixels "réels" est de 10/3 = 3.33 (même s'il y a 2x plus de vert)


 
Non.
 
Le nombre de pixels est bien de 10 millions, avec 10 millions de photosites.
 
Chaque photosite capte 1/3 de l'info, mais chaque photosite est utilisé plusieurs fois. Donc le nombre de pixels réels calculés est bien égal au nombre de photosites (moins la marge sur les côtés). Chaque pixel est calculé à partir des infos de plusieurs photosites, en décalant au fur et à mesure.
 
La meilleure preuve que ton raisonnement est faux, c'est que en supposant ça, une image N&B devraient être plus belles qu'une image couleur, vu que on pourrait utiliser chaque photosite. Hors c'est pas le cas.
 

Citation :

Si on avait un capteur 3CCD 10Mpx qui donne donc une image 10Mpx, il y aurait 3x plus d'information (au sens "théorie de l'information" du terme) qu'à partir d'un capteur 1CCD 10Mpx


 
Non, vu qu'un capteur 3CCD de 10Mpixels, c'est un assemblage de 3 capteurs de 3,3Mpixels, donc il n'y a pas plus d'infos qu'un 10Mpixels classique.
 
 
L'avantage du 3CCD, c'est moins de parasitages entre les couleurs, et éventuellement moins de bruit numérique vu qu'on utilise des capteurs moins denses.
 
Une chose aussi, quand je dis l'interpolation, c'est mal, c'est dans la cas du zoom numérique classique, pas dans le calcul des valeurs ici.


Message édité par Dandu le 13-07-2006 à 18:06:51

---------------
Le journal du lapin
n°1086931
hdophan
Posté le 13-07-2006 à 18:00:51  profilanswer
 

pirlouit_i st-d, des souces ? des détails ? des explications ?  
 
(bien que ce soit hors sujet ici, on aimerait en avoir le coeur net une fois pour toutes, et revenir à notre bon vieux Alpha 100)
 
:)
 
(mais comme dit plus haut, le temps qu'il soit dispo dans les rayons, pourquoi ne pas passer le temps en se divertissant intelligemment !!!!)
 
 
:D :D :D
 
:)

n°1086953
langmc
Posté le 13-07-2006 à 18:34:55  profilanswer
 

Dandu>La meilleure preuve que ton raisonnement est faux, c'est que en supposant ça, une image N&B devraient être plus belles qu'une image couleur, vu que on pourrait utiliser chaque photosite. Hors c'est pas le cas.  
 
Faudrai enlever le filtre de bayer pour ça, ;)

n°1086954
the_iota
Posté le 13-07-2006 à 18:35:29  profilanswer
 

Salut.
 
Le New York Times a rédigé un article sur deux reflex numérique, le Sony a100 et l'Olympus E-330.
 
Il y a quelques images comparatives entre les deux appareils.


---------------
@+ iota
n°1086971
Spoofix
Posté le 13-07-2006 à 18:47:33  profilanswer
 

Désolé dandu, mais c'est ton raisonnement qui est faux. Si on t'écoutes, si on avait des photosites qui captait les 3 composantes directement (on peut rêver ;)), et qu'on en mettait 10M, on n'aurait pas une meilleure résolution qu'avec les capteurs actuels (même en mettant de côté le problème de la non-superposition des photosites R,V et B). Et quand je parle de 3CCD 10Mpx, je veux dire que chaque couche fait 10Mpx. Dans ce cas, les images générées ne font pas 30Mpx (ou alors c'est purement marketing), mais bien 10Mpx (chaque CCD donne la valeur d'une composante).
 
Puisque chaque photosite est utilisé plusieurs fois (ce que je ne conteste pas), les valeurs entre pixels voisins sont liées. C'est-à-dire que les pixels ne sont pas entièrement indépendants les uns des autres. L'intérêt de l'interpolation de Bayer est de limiter les effets pervers du fait que les différents photosites utilisés pour le calcul d'UN pixel ne sont pas exactement à la même position, donc ne captent pas les mêmes rayons de lumière.
 
Concernant ta théorie sur le N&B, elle est fausse aussi. On aurait du N&B de meilleur qualité si et seulement si il n'y avant pas de filtres de couleur sur les photosites. Or il y en a, et ils filtrent en moyenne les 2/3 de la lumière reçue (donc des photons reçus). Couleur ou N&B, le nombre de photons reçus par le capteur est le même, d'où la qualité semblable entre les deux.

n°1086996
pirlouit_i​st-d
Posté le 13-07-2006 à 19:01:31  profilanswer
 

hdophan a écrit :

pirlouit_i st-d, des souces ? des détails ? des explications ?  
 
(bien que ce soit hors sujet ici, on aimerait en avoir le coeur net une fois pour toutes, et revenir à notre bon vieux Alpha 100)
 
:)
 
(mais comme dit plus haut, le temps qu'il soit dispo dans les rayons, pourquoi ne pas passer le temps en se divertissant intelligemment !!!!)
 
 
:D :D :D
 
:)


 
Citer des sources je ne peux pas, c'est le fruit de 3 ans de navigation sur le net et de la lecture de qques magazines;
Ce dont je suis sûr :
Il y a autant de photosites que de pixels sur un capteur Sony ou Canon
La surface du photosite n'est pas entièrement photosensible, il faut de la place pour les connexions et pour les semi-conducteurs et c'est là entre autre que la technologie progresse : augmentation relative de la surface photosensible
Les photosites qui ne sont pas utilisés servent à donner le noir au calculateur (0,0,0) le blanc étant fixé par l'utilisateur (determination d'un point auquel on donne la valeur 255,255,255) de ces 2 extrême sont défini toutes les autres couleurs par extrapolation de la valeur d'un point par rapport à tous ces voisins
Pour avoir une vrai photo N&B il faudrait enlever le filtre de Bayer et le calculateur nous aurions des points défini par une seule valeur de 0 à un XXX selon l'échantillonnage.

n°1087123
Dandu
Posté le 13-07-2006 à 20:01:29  profilanswer
 

Spoofix a écrit :

Désolé dandu, mais c'est ton raisonnement qui est faux. Si on t'écoutes, si on avait des photosites qui captait les 3 composantes directement (on peut rêver ;)), et qu'on en mettait 10M, on n'aurait pas une meilleure résolution qu'avec les capteurs actuels (même en mettant de côté le problème de la non-superposition des photosites R,V et B). Et quand je parle de 3CCD 10Mpx, je veux dire que chaque couche fait 10Mpx. Dans ce cas, les images générées ne font pas 30Mpx (ou alors c'est purement marketing), mais bien 10Mpx (chaque CCD donne la valeur d'une composante).


 
mais je dis pas que les photosites captent les 3 composantes. Un photosite capte 1 composante, mais cette composante est utilisée pour les valeurs de plusieurs pixels. Et chaque pixels utilisent les composantes de plusieurs photosites.
 
et pour les capteurs 3CCD, c'est marketing, mais les données constructeurs indiquent 3CCD 1,2Mpixels (par exemple) pour un 3X400Kpixels.
Donc pour moi un 3CCD 10Mpixels (en suivant la terminologie des constructeurs) c'est un 3X 3,3Mpixels, et si ils utilisent 3X 10Mpixels, les constructeurs indiqueront 30Mpixels, c'est évident.
 
 


---------------
Le journal du lapin
n°1087134
xavierdjx
Alphiste à 100 %
Posté le 13-07-2006 à 20:07:28  profilanswer
 

Et bien vous pouvez vous crier dessus, moi je reçois mon alpha 100 jeudi prochain, et la plupart seront distribués dès lundi.


---------------
www.tsekwa.be
n°1087144
Spoofix
Posté le 13-07-2006 à 20:15:34  profilanswer
 

Dandu a écrit :

mais je dis pas que les photosites captent les 3 composantes. Un photosite capte 1 composante, mais cette composante est utilisée pour les valeurs de plusieurs pixels. Et chaque pixels utilisent les composantes de plusieurs photosites.
 
et pour les capteurs 3CCD, c'est marketing, mais les données constructeurs indiquent 3CCD 1,2Mpixels (par exemple) pour un 3X400Kpixels.
Donc pour moi un 3CCD 10Mpixels (en suivant la terminologie des constructeurs) c'est un 3X 3,3Mpixels, et si ils utilisent 3X 10Mpixels, les constructeurs indiqueront 30Mpixels, c'est évident.


 
Oui, les constructeurs mettent ça pour le côté marketing, justement pour ne pas perdre la face face à la concurrence qui triche sur les megapixels ;) Mais les images générées seront bien de 3.3 Mpx réels (ou 10 Mpx avec un rééchantillonage).
Et ce n'est pas parce qu'une composante est utilisée pour les valeurs de plusieurs pixels que c'est comme si il y avait plusieurs composantes indépendantes. C'est justement pour ça que les valeurs des pixels sont corrélées entre elles que le nombre "réel" de pixel est inférieur. En gros, on pourrait avoir une image plus petite qui contiendrait autant d'information.
 
Enfin bref, je pense qu'on peut arrêter là, il faudrait introduire des notions de théorie de l'information pour formaliser tout ça, et je n'ai pas le courage...

n°1087145
Spoofix
Posté le 13-07-2006 à 20:16:41  profilanswer
 

xavierdjx a écrit :

Et bien vous pouvez vous crier dessus, moi je reçois mon alpha 100 jeudi prochain, et la plupart seront distribués dès lundi.


 
Mais non, on se crie pas dessus ;)
 
Sinon, on attend ton retour avec impatience ! Tu l'as commandé où ?

n°1087148
Spoofix
Posté le 13-07-2006 à 20:19:43  profilanswer
 

Dandu a écrit :


et pour les capteurs 3CCD, c'est marketing, mais les données constructeurs indiquent 3CCD 1,2Mpixels (par exemple) pour un 3X400Kpixels.
Donc pour moi un 3CCD 10Mpixels (en suivant la terminologie des constructeurs) c'est un 3X 3,3Mpixels, et si ils utilisent 3X 10Mpixels, les constructeurs indiqueront 30Mpixels, c'est évident.


 
En fait, ils mettent "Capteur CCD 3x 1 Mégapixel" pour les camescopes (cf http://www.rueducommerce.fr/Photo- [...] -GS400.htm)
Ils jouent sur les mots (megapixels, photosites...)

n°1087154
xavierdjx
Alphiste à 100 %
Posté le 13-07-2006 à 20:24:30  profilanswer
 

Spoofix a écrit :

Mais non, on se crie pas dessus ;)
 
Sinon, on attend ton retour avec impatience ! Tu l'as commandé où ?


 
 
Ben ça aide d'être vendeur, je l'ai commandé dans l'action shop où je bosse en Belgique. Mais la représentante Sony m'a confirmé à 15h que les appareils arrivaient chez eux ce vendredi...Enfin...
 
PS : Y a moyen de poster des images ici ?

Message cité 1 fois
Message édité par xavierdjx le 13-07-2006 à 20:26:27

---------------
www.tsekwa.be
n°1087162
Spoofix
Posté le 13-07-2006 à 20:32:04  profilanswer
 

the_iota a écrit :

Salut.
 
Le New York Times a rédigé un article sur deux reflex numérique, le Sony a100 et l'Olympus E-330.
 
Il y a quelques images comparatives entre les deux appareils.


 
Sur ces photos (http://nytimes.com/tech/, colonne du milieu, lien "Photos Taken With the Cameras" ), on commence à voir de la bonne qualité faite par le Sony (cf les crops). En tout cas, face à l'Olympus, y'a pas photo !

n°1087164
Spoofix
Posté le 13-07-2006 à 20:32:48  profilanswer
 

xavierdjx a écrit :

Ben ça aide d'être vendeur, je l'ai commandé dans l'action shop où je bosse en Belgique. Mais la représentante Sony m'a confirmé à 15h que les appareils arrivaient chez eux ce vendredi...Enfin...
 
PS : Y a moyen de poster des images ici ?


 
Bien sûr, au contraire !

n°1087166
xavierdjx
Alphiste à 100 %
Posté le 13-07-2006 à 20:34:56  profilanswer
 

Spoofix a écrit :

Bien sûr, au contraire !


 
Mais comment on poste des images ?  
Bah sinon je hackerai quelques semaines mon site perso ...  :pt1cable:


---------------
www.tsekwa.be
n°1087171
Spoofix
Posté le 13-07-2006 à 20:38:11  profilanswer
 

Tu mets l'adresse de ton image (que tu peux déposer sur imageshack par exemple) entre les balises [img][/img]

n°1087178
xavierdjx
Alphiste à 100 %
Posté le 13-07-2006 à 20:40:43  profilanswer
 

oki merci.
 
Sinon, pour en revenir à cette dispute...
 
voici un lien intéressant... Ce site a beau être vieux, j'ai vu tellement de bétises dans les pages précédentes...que ça vaut la peine pour certain d'y faire un petit tour...
 
http://laphotonumerique.free.fr/precision_techn3.htm
http://laphotonumerique.free.fr/super_CCD.html#
 
Mais voici quand même mon explication :
1 pixels = 1 photodiode sur un ccd conventionnel, mais il y a la moitié de vert, et le quart de rouge et de bleu. Les fabricants d'appareil de 10MP devraient donc plutôt mettre 5MP vert + 2,5MP rouge + 2,5MP Bleu.... Mais vous avourez que ça fait un peu long.  
Alors, si je prend une caméra 3CCD de 3MP, il y a "rééllement" 1MP de chaque couleur. Maintenant, si vous superposez ( et pas additionez) 3 capteurs de 1MP, la superficie est toujours de 1MP. Toute la différence entre le 3CCD eet un capteur conventionnel se joue donc dans l'extrapolation !!!
Sinon, pour ce qui est des chiffres annoncés, sachez par exemple qu'une caméra affichant 1,3MP peut n' utiliser qu' 1MP, les bords du capteur sont perdus et le reste sert pour le stabilisateur. Des Caméras Canon annoncent 1,3MP mais ne les utilisent que pour la photo, alors qu'en vidéo, pour une question de débit et de processeur, elle n'utilise que 800000 pixels. Pour terminer, les caméras 3MP (non 3CCD) de chez Sony regroupent les pixels pour avoir une superficie photosensible plus grande en vidéo, ce qui permet de descendre à quelques lux avec un niveau de bruit moindre. Les 3MP ne sont utilisés que pour la photo...

Message cité 2 fois
Message édité par xavierdjx le 13-07-2006 à 20:59:53

---------------
www.tsekwa.be
n°1087186
Spoofix
Posté le 13-07-2006 à 20:46:26  profilanswer
 

xavierdjx a écrit :

oki merci.
 
Sinon, pour en revenir à cette dispute...
voici un lien intéressant...
http://laphotonumerique.free.fr/precision_techn3.htm


 
Mouais, ils sont pas très clairs sur la question "1 pixel = 1 photosite ?", et puis "le pixel est une composante d'un quadruplet de photosites" c'est plutot l'inverse non ?

n°1087200
the_iota
Posté le 13-07-2006 à 21:00:04  profilanswer
 

Pour la question du fonctionnement du capteur, voir ici.


---------------
@+ iota
n°1087219
xavierdjx
Alphiste à 100 %
Posté le 13-07-2006 à 21:11:56  profilanswer
 

the_iota a écrit :

Pour la question du fonctionnement du capteur, voir ici.


 
Voila qui colle avec ce que j'ai dit... il me semble
Sinon, pour en revenir à autre chose, saviez-vous que les pixels de l'alpha sont bel et bien octogonaux comme un super CCD...


---------------
www.tsekwa.be
n°1087337
rootdown
Don't be croul
Posté le 13-07-2006 à 22:33:15  profilanswer
 

J'en suis ravi  [:delarue4]  
Et ca sert a quoi ?  [:delarue2]

n°1087371
xavierdjx
Alphiste à 100 %
Posté le 13-07-2006 à 22:54:39  profilanswer
 

rootdown a écrit :

J'en suis ravi  [:delarue4]  
Et ca sert a quoi ?  [:delarue2]


 
Et bien en résumé, comme la surface de la partie photosensible du pixel est octogonale, celle-ci est légèrement plus grande que celle d'un pixel conventionnel de forme rectangulaire => résultat et bien il y a un tout petit peu moins de bruit en basse lumière, vu que le pixel capte un peu plus de lumière.  
Mais je disais ça juste pour info... car finalement les réflex sont tous des "Super CCD", et Fuji reste toujours le seul à le crier haut et fort ... (Auraient-ils des copyrights sur ce terme ?) Enfin, les autres marques n'avaient qu'à trouver un autre nom...comme " l'octopixelplus CCD ", mais ceci est encore un autre sujet, et je vous laisse le soin de leur trouver un nom  
 :)


---------------
www.tsekwa.be
n°1087522
rootdown
Don't be croul
Posté le 14-07-2006 à 00:30:29  profilanswer
 

Merci  :jap:

n°1087544
langmc
Posté le 14-07-2006 à 00:51:50  profilanswer
 


http://sites.estvideo.net/amaryllis/chapitre1.htm
 
3.      Obtention du signal en couleur (17, 87)
 
Comme nous avons pu le voir précédemment la matrice d’un capteur n’est sensible qu’à l’intensité lumineuse. Afin d’obtenir un signal intégrant  la couleur, un filtre de couleur (ou filtre mosaïque), dont la répartition des 3 couleurs primaires est déterminée par l’arrangement de Bayer, Fig 19, est placé devant la matrice constituée d’une seule couches de photosites. Chaque pixel de cette matrice présente donc un filtre de couleur (bleu, rouge ou vert) et n’est sensible qu’à une longueur d’onde.
 
L’information ainsi obtenue ne fournie pas une image en couleur mais des informations locales sur chacune des couleurs . Il existe deux façons d’obtenir une image en couleur :
 
-         l’algorithme développé par Bayer est appliqué afin d’obtenir une image plus petite en couleur
 
Filtre couleur selon l’arrangement de Bayer
-         par interpolation des informations des pixels voisins afin obtenir une image de la taille et de la résolution de la matrice du capteur. Cette méthode est la plus utilisée mais l’image restituée est moins précise puisque seul le tiers de la scène est enregistrée.

n°1087580
othumerel
Posté le 14-07-2006 à 05:49:16  profilanswer
 

Bon le lancement est prevu ici a SIngapour le 18 (mardi) dans un grand hotel. J'ai reservé le mien et devrais l'avoir en fin de semaine prochaine, si ce n'est avant.
 
J'ai pris le kit avec le 18-70, on m'a annoncé un prix maxi de 1500 dollars singap, soit 750 euros. A ce prix la je pense que c'est vraiment une affaire, en plus le vendeur m'a confirmé que la garantie est internationale. Je pense prendre 4 ans de garantie direct, c'est moins de 100 euros et c'est sans doute plus prudent.
 
Des que je l'ai, je fais le tour de la bayte et prends qq photos.  
 
J'ai l'impression que les lancements vont commencer ce w-e, on devrait donc avoir les premiers tests de versions definitives assez vite. (quoi que le firmware evoluera sans doute tres vite).

n°1087654
Spoofix
Posté le 14-07-2006 à 09:49:46  profilanswer
 

xavierdjx a écrit :

oki merci.
 
Sinon, pour en revenir à cette dispute...
 
voici un lien intéressant... Ce site a beau être vieux, j'ai vu tellement de bétises dans les pages précédentes...que ça vaut la peine pour certain d'y faire un petit tour...
 
http://laphotonumerique.free.fr/precision_techn3.htm
http://laphotonumerique.free.fr/super_CCD.html#
 
Mais voici quand même mon explication :
1 pixels = 1 photodiode sur un ccd conventionnel, mais il y a la moitié de vert, et le quart de rouge et de bleu. Les fabricants d'appareil de 10MP devraient donc plutôt mettre 5MP vert + 2,5MP rouge + 2,5MP Bleu.... Mais vous avourez que ça fait un peu long.  
Alors, si je prend une caméra 3CCD de 3MP, il y a "rééllement" 1MP de chaque couleur. Maintenant, si vous superposez ( et pas additionez) 3 capteurs de 1MP, la superficie est toujours de 1MP. Toute la différence entre le 3CCD eet un capteur conventionnel se joue donc dans l'extrapolation !!!
Sinon, pour ce qui est des chiffres annoncés, sachez par exemple qu'une caméra affichant 1,3MP peut n' utiliser qu' 1MP, les bords du capteur sont perdus et le reste sert pour le stabilisateur. Des Caméras Canon annoncent 1,3MP mais ne les utilisent que pour la photo, alors qu'en vidéo, pour une question de débit et de processeur, elle n'utilise que 800000 pixels. Pour terminer, les caméras 3MP (non 3CCD) de chez Sony regroupent les pixels pour avoir une superficie photosensible plus grande en vidéo, ce qui permet de descendre à quelques lux avec un niveau de bruit moindre. Les 3MP ne sont utilisés que pour la photo...


 
L'histoire des photosites du bord a déjà été écarté quelques posts plus haut, ce n'est pas la question. Concernant les caméra 3MP, si le capteur est de même taille que ceux 1MP, le gain en lumière doit être nul ou très faible. C'est plutot au niveau de la précision de la mesure de couleur qu'on y gagne -> on peut obtenir 1 millions de pixels réellement indépendants les uns des autres, avec 3M de photosites.
 
De plus, on ne peut pas parler de "pixel vert ou bleu ou rouge". Un pixel c'est 3 composantes RVB. Sinon c'est une composante. Au total, sur un capteur appelé "10Mpx", il y a :
- 5M de composantes vertes
- 2,5M de composantes rouges
- 2,5M de composantes bleues
 
Donc 10M composantes, soit 3.33 millions de pixels réellement indépendants. Comme je l'ai déjà dit, les 10 millions de pixels calculés ne sont pas indépendants les uns des autres, puisqu'une composante captées par un photosite est utilisée pour le calcul de PLUSIEURS pixels.
Mais bon, c'est pas très important, je suis juste étonné qu'on n'en parle jamais, et selon moi, ça change quelque chose quand il s'agit de calculer le format imprimable.
 

langmc a écrit :

http://sites.estvideo.net/amaryllis/chapitre1.htm
 
3.      Obtention du signal en couleur (17, 87)
 
Comme nous avons pu le voir précédemment la matrice d’un capteur n’est sensible qu’à l’intensité lumineuse. Afin d’obtenir un signal intégrant  la couleur, un filtre de couleur (ou filtre mosaïque), dont la répartition des 3 couleurs primaires est déterminée par l’arrangement de Bayer, Fig 19, est placé devant la matrice constituée d’une seule couches de photosites. Chaque pixel de cette matrice présente donc un filtre de couleur (bleu, rouge ou vert) et n’est sensible qu’à une longueur d’onde.
 
L’information ainsi obtenue ne fournie pas une image en couleur mais des informations locales sur chacune des couleurs . Il existe deux façons d’obtenir une image en couleur :
 
-         l’algorithme développé par Bayer est appliqué afin d’obtenir une image plus petite en couleur
 
Filtre couleur selon l’arrangement de Bayer
-         par interpolation des informations des pixels voisins afin obtenir une image de la taille et de la résolution de la matrice du capteur. Cette méthode est la plus utilisée mais l’image restituée est moins précise puisque seul le tiers de la scène est enregistrée.


 
Je suis parfaitement d'accord.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  37  38  39  ..  291  292  293  294  295  296

Aller à :
Ajouter une réponse
 

Sujets relatifs
Nikon numérique avec matos argentiqueProbleme sony F717
teleobjectif sony dsc h1Sony DSC-H5
mise au point manuelle avec un Sony P10, c'est pas possible?[Topic Unique] Une histoire de nounours ...
Sony DSC-S600 ( besoin d'aide ! )Recherche pièces détaché pour sony dsc -p100 !
Appareil photo numérique 
Plus de sujets relatifs à : [Topic Unique] Reflex Numérique Sony α100


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)