Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2680 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  23  24  25  ..  244  245  246  247  248  249
Auteur Sujet :

[Topic Unique] stéréoscopie: tout sur la 3ème dimension

n°7003433
TapTap
Posté le 19-06-2009 à 19:35:36  profilanswer
 

Reprise du message précédent :
Snif, n'a plus de Zalman 19" chez CDiscount. Y aurait-il un parisien intéressé pour l'avoir à 110€ port inclus en se groupant à deux ?

mood
Publicité
Posté le 19-06-2009 à 19:35:36  profilanswer
 

n°7003443
upsilandre​51
Posté le 19-06-2009 à 19:41:44  profilanswer
 

TapTap a écrit :

Snif, n'a plus de Zalman 19" chez CDiscount. Y aurait-il un parisien intéressé pour l'avoir à 110€ port inclus en se groupant à deux ?


 
http://www.delixir.com/html/ishop/?INFOPROD/MON_ZMM190

n°7003448
TapTap
Posté le 19-06-2009 à 19:45:59  profilanswer
 

Merci upsilandre51 : 200€ + 20€ de port soit 110€ chacun.  Donc, je réitère ma question : un parisien intéressé pour commander groupé sur Delixir ?


Message édité par TapTap le 19-06-2009 à 19:51:53
n°7003458
BlackShark
En 3D c'est mieux.
Posté le 19-06-2009 à 19:55:13  profilanswer
 

pour le support entrelacé des lunettes, il y a de fortes raisons de penser que ce ne sont pas les lunettes qui bloqueront mais l'écran.
Je n'ai jamais vu un seul écran LCD supporter un affichage entrelacé.
 
Pour ce qui est du bouger avec l'écran Zalman, tout dépend de ta définition de bouger.
Si tu veux dire bouger la tête, un peu les épaules de gauche à droite, un peu en avant et en arrière, tu devrais arriver à régler l'écran pour que trackir ne te gène pas.
Si tu veux dire bouger comme dans le spublicités pour la nintendo wii... là le zalman n'est pas bon, il te faudra une grande télé.

n°7003572
bigboss69
Posté le 19-06-2009 à 21:07:36  profilanswer
 

Les jeux 3D débarquent, Disney ouvre le bal avec des lunettes incluses dans la boite de son jeu.

 

En juillet, G-force sort, puis Toy Story bien plus tard.

 

Bien curieux de voir comment ca va être.

 

(Source: http://www.play3-live.com/news-ps3 [...] 15412.html )

Message cité 1 fois
Message édité par bigboss69 le 19-06-2009 à 21:08:29
n°7003631
edony44
Posté le 19-06-2009 à 21:53:24  profilanswer
 

bigboss69 a écrit :

Les jeux 3D débarquent, Disney ouvre le bal avec des lunettes incluses dans la boite de son jeu.
 
En juillet, G-force sort, puis Toy Story bien plus tard.
 
Bien curieux de voir comment ca va être.
 
(Source: http://www.play3-live.com/news-ps3 [...] 15412.html )


 
Ca va être clairement de l'anaglyphe ! seul technologie commercialisable sur une tv a l'heure actuelle ...

n°7003637
nac76
bein quoi?
Posté le 19-06-2009 à 21:58:10  profilanswer
 

edony44 a écrit :


 
Ca va être clairement de l'anaglyphe ! seul technologie commercialisable sur une tv a l'heure actuelle ...


 
pour les lunettes surement mais ce qui compte c'est qu'ils fassent comme pour trackmania: lunettes anaglyphes fournie dans le revue officielle mais support d'autres technologies 3d en natif dans le jeu  :love:  
 
pour avatar, il parait qu'il est tellement bien fichu que certaines scènes vont être intégrées au film  :ouch:  


---------------
le site de toute la 3D
n°7003728
basketor63
Sarkozy en prison
Posté le 19-06-2009 à 23:09:01  profilanswer
 

fixbornes a écrit :

J'ai toujours pas reçu mes lunettes (la poste a égaré mon colis apparemment :(), mais je suis curieux itou. Tu sembles dire que pour les jeux, Zalman et nvidia se valent. Est-ce que tu as testé des jeux de str, comme daw2 par exemple ? Ou d'autres jeux avec pas mal de texte ?
Perso, j'avais choisi nvidia en grande partie pour ne pas être gêné par le mode interlacé dans ces jeux là.
(et puis aussi parceque je veux essayer le track ir avec la 3d. Donc si je dois pas bouger.... ;))

 


 

le head tracking couplé à la stéréoscopie ça doit poutrer :o http://www.youtube.com/watch?v=Jd3-eiid-Uw

 


j'ai trouvé chez mes parents des veilles lunettes anaglyphe IMAX/OMNIMAX rouge et cyan que j'avais eu à la géode :sol:
ainsi que des lunettes vert rouge que j'avais eu avec le jeux épic pour atari st :D

 

jusque là sur les images que je trouve, le rouge est bien filtré par le bleu, par contre le bleu donne un affreux ghosting par la lunette rouge :/


Message édité par basketor63 le 19-06-2009 à 23:13:00
n°7003826
itou
Posté le 20-06-2009 à 00:09:29  profilanswer
 

nac76 a écrit :


 
punaise, pour une fois je suis content que mon banquier m'ait refusé une dépense, quelle déception  :ouch:  
 
sinon j'ai pas mal utilisé les édimensionnal avant de passer au zalman et bien que le rendu sur ce dernier soit 10x mieux, j'avais quand même l'impression que l'effet de jaillissement sur certaines vidéos avaient plus de consistance, notamment sur des vidéos comme celle du tourne-vis:
http://www.ray3d.com/video/SP/DivX [...] 02Mbps.zip
ou la tienne avec les bourgeons (la 1ere que tu as posté ici), tu peut confirmer cette impression avec les nvidia?
 
derniere chose, je n'ai pas encore réussi a savoir si il était possible de visionner mes vidéos entrelacées avec les nvidia, si tu ne les as pas encore rangé tu me ferais pas un petit essais pour voire si elle supporte un mode entrelacé?


 
Et oui, c'est une déception. J'avais un apriori trop sur de moi depuis que je suis revenu du cinéma avec les xpand. là, j'ai du ghosting dans mes videos, dans les jeux (un peu moins car on est concentré sur l'action). Du coup j'ai un rendu de couleur assez bizarre sur les video parfois à cause du ghosting. On dirait que 60Hz n'est pas suffisant (on ressent le "scintillement" ).
Les popup passe en effet mieux à cause de la résolution de la video.
La video du tournevis passe bien avec nvidia (full screen obligatoire), et moins bien avec le zalman car res vertical / 2.
Tes video compressé entrelacées ne passe pas avec les nvidia, pas de mode interlacé.
 
@fixbornes : oui les nvidia permette de mieux lire le texte (testé avec WIC, j'ai pas DAW2) et effectivement convient mieux que le Zalman, mais c'est vrai que dans un jeux d'action, je n'ai pas trop senti de différence due à la resolution verticale /2. J'ai senti surtout le /2 de la puissance de ma 8800GTS512 OC avec les nvidia ( mais du coup je peux réduire la résolution pour jouer).
 
En conclusion :
Pour les jeux : pack nvidia (avec grosse machine nvidia)
pour la video : Zalman (on voit directement le résultat dans la fenetre, moins de ghosting --> couleurs qui ne bavent pas).
 
Un point positif pour les lunettes nvidia : mes enfants voient plus facilement le relief (due au positionnement, et puis ils ne restent pas en place, ça sautillent tout le temps)

n°7003910
edony44
Posté le 20-06-2009 à 01:37:17  profilanswer
 

Un petit hors-sujet : recu mon zalman 22" aujourd'hui , prise DVI ne fonctionne pas ... Du coup je veux l'echanger
 
Je l'ai commander sur cdiscount. Je suis accro j'ai pas envi de le lacher pendant 1 mois ... vous avez des conseils ?

mood
Publicité
Posté le 20-06-2009 à 01:37:17  profilanswer
 

n°7003932
basketor63
Sarkozy en prison
Posté le 20-06-2009 à 02:56:53  profilanswer
 

edony44 a écrit :

Un petit hors-sujet : recu mon zalman 22" aujourd'hui , prise DVI ne fonctionne pas ... Du coup je veux l'echanger
 
Je l'ai commander sur cdiscount. Je suis accro j'ai pas envi de le lacher pendant 1 mois ... vous avez des conseils ?


 
un dépistage pour alzaimer ? :o
 

edony44 a écrit :

nouvelle curiosite : impossible de faire fonctionner l'écran en DVI... non detecté par windows ... bon ca commence a bien sentir le sav quand meme... pour ceux qui l'ont ? problème de pixel mort ?


n°7003937
nac76
bein quoi?
Posté le 20-06-2009 à 03:35:33  profilanswer
 

edony44 a écrit :

Un petit hors-sujet : recu mon zalman 22" aujourd'hui , prise DVI ne fonctionne pas ... Du coup je veux l'echanger
 
Je l'ai commander sur cdiscount. Je suis accro j'ai pas envi de le lacher pendant 1 mois ... vous avez des conseils ?


 
ne traine pas trop a déclarer la panne pour bien montrer que c'est une panne au déballage, tu peux par exemple essayer de leur expliquer que tu as un réel besoin de cette écran et qu'il t'es impossible de t'en séparer trop longtemps pour un SAV et leur proposer de ne leur renvoyer que quand ces écrans seront a nouveaux dispos pour un échange.
précise leur aussi qu'en cas d'indisponibilité de ce modèle tu serais prêt a l'échanger contre 1 autre, a condition que ce soit aussi un modèle en 3d mais que tes moyens actuels ne te permettent pas l'acquisition d'un 22" a moins d'une ristourne non négligeable sur ce dernier (ça coute rien d'essayer)
si il ne te proposent rien ou que les délais sont inacceptables tu peux alors essayer de contacter le sav de zalman directement, ce qui n'est pas forcément avantageux si leur sav est aux usa et qu'il te faut renvoyer renvoyer l'écran pour 1 échange :sweat:
http://www.zalman.co.kr/ENG/Contact/RMA/Rma.asp
 
ps: ou a la limite tu te retracte sur ton achat et tu le recommande sur le lien cité plus haut par upsilandre51:
http://www.delixir.com/html/ishop/?INFOPROD/MON_ZMM190
 
*******************************************************
 
a part ça toujours pas de nouvelles de mes 3 films commandés chez edimensional le 9 juin, déja qu'ils avaient mis plusieurs mois pour expédier les lunettes, j'espere qu'ils vont pas me refaire le coup  :fou:  
en plus les lunettes était envoyées d'angleterre, les films viennent des usa donc je croise les doigts pour les recevoir cette année  :pt1cable:


Message édité par nac76 le 20-06-2009 à 04:06:01

---------------
le site de toute la 3D
n°7003944
basketor63
Sarkozy en prison
Posté le 20-06-2009 à 04:54:44  profilanswer
 

bon j'ai tenté le mode anglyphe avec bioschock et left4dead

 

bioshock, très bof, il n'y a pas assez de détails dans le décor donc pas assez de relief, et je débutait à capter comment régler séparation et convergence.

 

left4dead montre plus de profondeur.

 

Mais le truc qui fait cruellement défaut c'est d'avoir un autofocus qui regle la convergence en fonction de ce que vise la cible, et j'ai pas trouvé comment faire, ça n'a pas l'air de marcher sur les 1.09.

 

l'idéal serait bien entendu un systeme de tracking de la vue, pour faire le focus sur ce qu'on regarde à l'écran.
Ou alors un systeme avec lequel on pilote la convergence dans le jeu, avec la convergence de nos yeux comme ça pas besoin d'autofocus :D

 

Ce que j'ai pas ressenti c'est vraiment les éléments qui sortiraient de l'écran, comme j'avais pu voir à la géode et au futuroscope

Message cité 1 fois
Message édité par basketor63 le 20-06-2009 à 04:55:25
n°7003949
nac76
bein quoi?
Posté le 20-06-2009 à 05:16:39  profilanswer
 

basketor63 a écrit :

bon j'ai tenté le mode anglyphe avec bioschock et left4dead
 
bioshock, très bof, il n'y a pas assez de détails dans le décor donc pas assez de relief, et je débutait à capter comment régler séparation et convergence.
 
left4dead montre plus de profondeur.
 
Mais le truc qui fait cruellement défaut c'est d'avoir un autofocus qui regle la convergence en fonction de ce que vise la cible, et j'ai pas trouvé comment faire, ça n'a pas l'air de marcher sur les 1.09.
 
l'idéal serait bien entendu un systeme de tracking de la vue, pour faire le focus sur ce qu'on regarde à l'écran.
Ou alors un systeme avec lequel on pilote la convergence dans le jeu, avec la convergence de nos yeux comme ça pas besoin d'autofocus :D
 
Ce que j'ai pas ressenti c'est vraiment les éléments qui sortiraient de l'écran, comme j'avais pu voir à la géode et au futuroscope


 
inutile de chercher des effets de jaillissement dans les jeux actuels, ceux-ci n'étant pas encore conçu pour ça il faut dans la plupart des cas de contenter d'une profondeur qui rend déjà pas si mal mais vivement que des "avatar" ou autres "g-force" viennent changer la donne, du moins c'est ce que j'espère.
 
si vraiment tu veux du jaillissement, il vaut mieux te tourner (pour l'instant) vers des vidéos et la encore, toutes ne sont pas destinées a produire un tel effet, certain vidéastes préfèrent garder la sobriete d'un effet de profondeur plutot que de chercher a en mettre plein les yeux avec le pop-up.
 
en plus les lunettes anaglyphes ont du mal a restituer ces effet, ça donne parfois des résultats "sympa" (malgré la gêne visuelle) sur grand écran mais d'après moi ça reste pas terrible sur un écran de pc, ni-même sur une tv.
pour finir je dirai qu'il est préférable de visionner des vidéos en noir et blanc meme si certain titres recents ne s'en sortent pas trop mal en couleur


---------------
le site de toute la 3D
n°7004012
fixbornes
Posté le 20-06-2009 à 09:39:33  profilanswer
 

En anaglyphe, j'ai récupéré les colorcode pour tester, et je trouve que, même si sur L4D ça rend très moyen, les vidéos de leur site rendent vraiment pas mal (avec des effets de jaillissement impressionnants). Mais bon, les vidéos ont été spécialement réalisée pour ces lunettes et n'ont pas beaucoup de couleur au final....

n°7004248
basketor63
Sarkozy en prison
Posté le 20-06-2009 à 14:11:15  profilanswer
 

ce que je comprends pas en anaglyphe, c'est que l'oeil gauche donc rouge, voit beaucoup trop ce que voit l'oeil droit en cyan.
le cyan parvient à filtre le rouge entierement donc quand c'est l'eoil directeur c'est encore mieux (le droit pour moi), mais avec l'oeil gauche on voit tout.
 
Donc à la limite pourquoi ne pas faire un mode vraiment bicolore ?
tout serait en dégradé de rouge ou cyan, mais je pense que ça serait plus immersif au niveau de l'effet.
 
 
Et pour l'autofocus ça fonctionne bien dans vos jeux ?
Ca anaglyphe ou pas, c'est quand même le truc le plus genant dans un jeu, ou contrairement à un film le focus est géré par le caméraman/réalisateur.
Là on est réalisateur dans un jeu mais le drivers donnent pas de moyen de gérer le focus de façon assez efficace.
Il y a bien 3 presets, mais ça donne que trois reglages, possibles, près, milieu, loin.

n°7004278
pault6
-- -- -- -- -- -- -- -- -- --
Posté le 20-06-2009 à 14:35:49  profilanswer
 

J'ai aussi des problèmes de ghosting en anaglyphes, par contre il me semble que c'est sur le cyan, je vois encore du rouge, enfin je me plante peut être j'ai pas les lunettes sous la main pour tester. Le gros problèmes des anaglyphes pour moi vient du fait qu'il faut se concentrer sur l'image pour qu'elle soit bien claire. En augmentant l'effet 3d (en augmentant la distance du dédoublage) il faut limite loucher pour voir clair et pour avoir un super effet 3d en profondeur. Bref, c'est sympa pour tester mais c'est difficile de jouer longtemps comme ça...


---------------
[FEED-BACK]
n°7004527
basketor63
Sarkozy en prison
Posté le 20-06-2009 à 17:49:05  profilanswer
 

ça donne un bon apperçu une fois qu'on a trouvé le réglage, car je me demandais parfois si les lunettes étaient dans le bon sens :D
 
j'ai éssayé le mode symétrique, qui fait que le centre est entre les deux yeux
puis right shift en me disant que comme mon oeuil directeur est le droit, ça serait moins fatiguant, mais raté, c'est en fait left shift qu'il faut utiliser.
Je pense que ça peut rendre le louchage moins fatiguant.
 
Pour le probleme de "louchage", je pense que c'est pas du aux lunettes, mais à l'absence d'autofocus.
Ton cerveau est obligé de se faire au fait que ton oeuil gauche ne peut pas faire de mise au point.
 
Par exemple tu regles la séparation à 60.
C'est normal que le flingue soit dédoublé par exemple, du moment que tu le regardes pas. Par contre si tu le regardes, là naturellement on ferait une mise au point, mais comme il n'y a pas d'eye tracking, la convergence s'ajuste pas. Donc tout ce qui est OSD en fait sur un fps, ça sera forcément pas au point. mais on peut désactiver la stéréo.
 
Par contre pour tout ce qui est élément du décors, comme on connait la distance, on doit pouvoir faire en sorte que sur le point fixé par la souris on puisse ajuster la convergence.
Bizarrement ça marche pas dans les jeux que j'ai testé.
 
Et à ce niveau je vois pas ce que les systemes avec shutters peuvent apporter, mais peut être que nvidia gère bien l'autofocus dans ses drivers.
 
Sinon les couleurs moches avec les anaglyphes, ouais c'est sur que ça aide pas, ça demande un effort en plus.

n°7004563
BlackShark
En 3D c'est mieux.
Posté le 20-06-2009 à 18:22:14  profilanswer
 

Sur un écran stéréo, la mise au point est toujours identique. Il n'y a aucun objet qui n'est pas "au point".
 
La difficulté vient d'un réflex naturel qui est de faire changer la mise au point de nos yeux dès qu'on regarde un objet à une distance différente.
Après des années où notre cerveau finit par instinctivement associer chaque profondeur avec une certaine mise au point, le fait de regarder un écran stéréo où l'intégralité de l'image est toujours au point quelle que soit la distance de représentation des objets est perturbant, mais on s'y habitue.
 
J'ai remarqué qu'en anaglyphe j'arrive à jouer avec des séparations beaucoup plus fortes que sur l'écran Zalman. Peut être que mon cerveau se rend plus facilement compte qu'il est dans une situation différente à cause des filtres de couleur, là où avec un vrai écran stéréo le cerveau tente de retomber sur ses repères de situation normale.
 
 
Basketor, ton problème vient du fait que les développeurs du jeu mélangent un élément 2D plaqué sur l'écran (curseur, hud, viseur) avec des éléments 3D.
Sur un écran classique cela rend très bien, mais pose des problèmes en stéréo car la profondeur du hud n'a rien à voir avec la véritable profondeur à laquelle devrait se situer cet élément du hud.
C'est comme quand tu regardes à travers une vitre recouverte de saletés, tu regardes soit le paysage soit les saletés sur la vitre mais pas deux en même temps.
 
L'auto-convergence n'est pas fait pour corriger ce problème, il est là pour éviter qu'un objet s'approche trop près de la caméra dans une configuration de jaillissement exagéré. Je ne l'utilise jamais, il y a souvent des bugs et ca fait trop chuter le framerate.

n°7004591
edony44
Posté le 20-06-2009 à 18:43:20  profilanswer
 

Je viens de tester les drivers TriDef sur le zalmnan 22" ! L'Effet est impressionnant, jamais reussi a avoir de tel resultat avec iz3d !
 
En fait ya une sorte d'autofocus en temps reel qui regle les parametres ( et un systeme qui conserve en 2d les armes par exemple pour les fps )
 
Tres parametrable et tres mis a jour ( la derniere version date de mai ! )
 
 
Tomb raider underworld trop beau par contre ya des defaut de luminosité qui font mal au crane ! dommage
 
call of duty injouable avec iz3d devient excellent !


Message édité par edony44 le 20-06-2009 à 18:49:14
n°7004678
basketor63
Sarkozy en prison
Posté le 20-06-2009 à 19:54:50  profilanswer
 

BlackShark a écrit :

Sur un écran stéréo, la mise au point est toujours identique. Il n'y a aucun objet qui n'est pas "au point".

 

La difficulté vient d'un réflex naturel qui est de faire changer la mise au point de nos yeux dès qu'on regarde un objet à une distance différente.
Après des années où notre cerveau finit par instinctivement associer chaque profondeur avec une certaine mise au point, le fait de regarder un écran stéréo où l'intégralité de l'image est toujours au point quelle que soit la distance de représentation des objets est perturbant, mais on s'y habitue.

 

J'ai remarqué qu'en anaglyphe j'arrive à jouer avec des séparations beaucoup plus fortes que sur l'écran Zalman. Peut être que mon cerveau se rend plus facilement compte qu'il est dans une situation différente à cause des filtres de couleur, là où avec un vrai écran stéréo le cerveau tente de retomber sur ses repères de situation normale.

 


Basketor, ton problème vient du fait que les développeurs du jeu mélangent un élément 2D plaqué sur l'écran (curseur, hud, viseur) avec des éléments 3D.
Sur un écran classique cela rend très bien, mais pose des problèmes en stéréo car la profondeur du hud n'a rien à voir avec la véritable profondeur à laquelle devrait se situer cet élément du hud.
C'est comme quand tu regardes à travers une vitre recouverte de saletés, tu regardes soit le paysage soit les saletés sur la vitre mais pas deux en même temps.

 

L'auto-convergence n'est pas fait pour corriger ce problème, il est là pour éviter qu'un objet s'approche trop près de la caméra dans une configuration de jaillissement exagéré. Je ne l'utilise jamais, il y a souvent des bugs et ca fait trop chuter le framerate.

 

Je ne parle pas de cette mise au point :D

 

Si nos yeux convergent et divergent c'est pour que les deux droites qui partent des yeux se croisent sur le point que l'ont regarde.
Si tu mets ton doigt à 20cm, et que tu le fixes de façon à le distinguer parfaitement, si tu bouges ton doigt d'avant en arrière tu vois que tes deux yeux fixent ce point.
Après si avec ta deuxieme main, tu leves un doigt situé 50cm plus loin, tout en restant fixé sur le premier doigt, tu vas remarquer que le doigt au loin apparait en double.

 

sans la fonction d'autofocus, donc sans correction automatique de la convergence, si tu te mets à regarder le doigt à 50cm, il apparaitra toujours en double.

 

Ce qui se passe dans les jeux, c'est comme si par exemple si tu fixes ton doigt le plus près, puis tu le met dans l'axe du second doigt.
Ensuite tu retires le premier doigt, et tu vas voir les deux images du second doigt qui vont s'aligner.
L'autofocus dans les drivers iz3d c'est censé être ça.

 

Ce qu'il faut c'est que les deux images d'un point visé s'alignent. Et c'est ce que la convergence permet d'ajuster. Pour le faire il faut que les deux droites orthogonales aux centre des deux images, donc les deux droites qui partent des yeux, se croisent sur le point fixé.

 

Ca n'a pas grand chose à voir avec la mise au point sur appareils optiques, caméras, appareil photo, microscope etcetera, mais ça peut tout à fait s'appeller mise au point à mon avis.

 

Message cité 1 fois
Message édité par basketor63 le 20-06-2009 à 19:57:01
n°7004707
nac76
bein quoi?
Posté le 20-06-2009 à 20:24:46  profilanswer
 

news intéressante, nvidia rétabli le support de windows xp dans ses drivers pour carte quatro, on peut peut-être espérer qu'il en sera bientôt de même pour les gforce  :love:  
http://us.download.nvidia.com/Wind [...] _Notes.pdf
 

Citation :

Version 186.18 Highlights
This section provides highlights of version 186.18 of the NVIDIA Release 186 Driver.
 
NVIDIA Control Panel Updates
 
3D Settings Pages
 
• Workstation/Quad‐buffered 3D Stereo (new Stereo‐Display mode settings in the Manage 3D Settings page)
 
Added support for the following stereoscopic 3D hardware and modes:
 
• GeForce 3D Vision hardware–generic active stereo, via on‐board DIN connector, passive (Clone mode) modes, and 3D DLP display
 
• Generic active stereo
 
• Horizontal interlaced stereo displays
 
• Texas Instruments 3D Ready DLP® (Digital Light Processing technology) displays


 
source:
http://www.mtbs3d.com/phpBB/viewto [...] f=2&t=3652


Message édité par nac76 le 20-06-2009 à 20:31:12

---------------
le site de toute la 3D
n°7004844
upsilandre​51
Posté le 20-06-2009 à 22:00:06  profilanswer
 

basketor63 a écrit :


 
Je ne parle pas de cette mise au point :D
 
Si nos yeux convergent et divergent c'est pour que les deux droites qui partent des yeux se croisent sur le point que l'ont regarde.
Si tu mets ton doigt à 20cm, et que tu le fixes de façon à le distinguer parfaitement, si tu bouges ton doigt d'avant en arrière tu vois que tes deux yeux fixent ce point.
Après si avec ta deuxieme main, tu leves un doigt situé 50cm plus loin, tout en restant fixé sur le premier doigt, tu vas remarquer que le doigt au loin apparait en double.
 
sans la fonction d'autofocus, donc sans correction automatique de la convergence, si tu te mets à regarder le doigt à 50cm, il apparaitra toujours en double.
 
Ce qui se passe dans les jeux, c'est comme si par exemple si tu fixes ton doigt le plus près, puis tu le met dans l'axe du second doigt.
Ensuite tu retires le premier doigt, et tu vas voir les deux images du second doigt qui vont s'aligner.
L'autofocus dans les drivers iz3d c'est censé être ça.
 
Ce qu'il faut c'est que les deux images d'un point visé s'alignent. Et c'est ce que la convergence permet d'ajuster. Pour le faire il faut que les deux droites orthogonales aux centre des deux images, donc les deux droites qui partent des yeux, se croisent sur le point fixé.
 
Ca n'a pas grand chose à voir avec la mise au point sur appareils optiques, caméras, appareil photo, microscope etcetera, mais ça peut tout à fait s'appeller mise au point à mon avis.
 


 
c'est pas comme cela que ce passe la steroscopie
c'est justement le parallaxe (le decalage d'un meme objet entre l'image gauche et droite, ou dedoublement si tu prefere) qui va definir la distance virtuel percu, si tu passe ton temps a annuler le paralaxe a chaque fois que tu regarde un objet ca n'a plus de sens, c'est ce dedoublement des objets, et le degrée de dedoublement, qui produit les effets des reliefs.
ce qu'on appele le point de convergence c'est effectivement l'endroit ou va converger les 2 camera virtuel qui est donc l'endroit de l'espace ou les objet n'auront aucun paralaxe et c'est ce qui va definir l'endroit ou se trouve la surface de ton ecran dans cette espace 3D (car c'est l'endroit ou la convergence des camera virtuel et celle de ta vision binoculaire se superopose). les objets qui seront affichés sans parallaxe seront alors percu comme etant a la distance ou se trouve la surface de ton ecran (si ton ecran est a 50cm alors tout ce qui est affiché sans parallaxe sera percu par ton cerveau comme etant a 50cm), les objet avec un parallaxe positif seront percu comme etant plus loin que la surface de l'ecran (donc + de 50cm dans cette exemple), d'autant plus loin que le parallaxe positif est elevé (mais ne doit surtout pas depasser la distance interocculaire, environ 6.5cm, qu'elle que soit la taille de l'ecran ou t a distance d'observation, ce qui induit que la convergence doit etre regler en fonction de la taille de l'ecran) et ceux avec un parallaxe negatif seront percu comme etant plus proche que la surface de l'ecran (donc a moins de 50cm dans cette exemple), d'autant plus proche qu'il est elevé (la y a pas de limite absolu contrairement au parallaxe positif, plutot une limite relative a la distance a laquel tu observe l'ecran et a la taille de l'ecran)
modifier la convergence ne fait que deplacer virtuelement la position de la surface de l'ecran dans l'espace 3D de la scene ou juste modifier l'echelle de la scene 3D selon que c'est le point d'observation virtuel qui reste fixe ou l'ecran. mais theoriquement une fois que t'as parametré la convergence des camera virtuel selon le contexte (taille d'ecran, distance interocculaire, FOV ou simplement par preference personel) tu n'es pas censé y touché, c'est censé etre un parametre fixe
 

n°7004865
basketor63
Sarkozy en prison
Posté le 20-06-2009 à 22:12:16  profilanswer
 

non c'est exactement le même principe que pour les yeux

 

l'effet paralaxe dont tu parles est toujours présent de par le parametre de séparation, qui est la distance entre tes deux yeux.
La convergence permet elle simplement de définir la distance ou les deux axes se croisent, c'est ce qui permet de faire en sorte que si tu regardes un poteau situé à 5 mettres virtuels dans un jeu, alors il apparaitra qu'un seul poteau et pas deux.
et c'est pareil dans la réalité

 

L'effet qui te donne une impression de distance du poteau c'est justement toute la paralaxe entre le point d'où tu regardes et ce que tu regardes.

 

Là différence dans un film, c'est que c'est le cinéaste qui fait la mise au point à ta place.
et il y a moyen de jouer sur la séparation et de l'exagérer pour faire ressortir plus les objets je pense.

Message cité 1 fois
Message édité par basketor63 le 20-06-2009 à 22:24:22
n°7004873
upsilandre​51
Posté le 20-06-2009 à 22:19:16  profilanswer
 

BlackShark a écrit :

Sur un écran stéréo, la mise au point est toujours identique. Il n'y a aucun objet qui n'est pas "au point".


 
sauf pour des jeux qui utilise un traitement post-process type DoF (depth of field) mais je sais que ca n'a rien a voir avec ce qu'evoque basketor  :p  
mais n'empeche ca oblige quand meme les devs a zapper ce genre d'effet de plus en plus courant (dailleurs c'est pareille pour la production de film d'animation en 3D, ca fait partie des habitude qu'il faut changer quand on passe a la stereo). dans ce cas faudrait effectivement un systeme capable de connaitre l'endroit exacte que tu regarde sur l'ecran pour pouvoir apliquer un DoF dynamique selon ce parametre.
 
 

n°7004888
upsilandre​51
Posté le 20-06-2009 à 22:30:18  profilanswer
 

basketor63 a écrit :

non c'est exactement le même principe que pour les yeux
 
l'effet paralaxe dont tu parles est toujours présent de par le parametre de séparation, qui est la distance entre tes deux yeux.
La convergence permet elle simplement de définir la distance ou les deux axes se croisent, c'est ce qui permet de faire en sorte que si tu regardes un poteau situé à 5 mettres virtuels dans un jeu, alors il apparaitra qu'un seul poteau et pas deux.
et c'est pareil dans la réalité
 
L'effet qui te donne une impression de distance du poteau c'est justement toute la paralaxe entre le point d'où tu regardes et ce que tu regardes.
 
Là différence dans un film, c'est que c'est le cinéaste qui fait la mise au point à ta place.
et il y a moyen de jouer sur la séparation et de l'exagérer pour faire ressortir plus les objets je pense.


 
apriori on est pas daccord et si j'ai bien compris ton propos tu te trompe ou alors faudrait que tu fasses un petit shema car malheureusement tes expliquations sont un peu confuses ou pas asser detaillés, peut etre qu'on parle finallement de la meme chose mais pour l'instant c'est difficile a dire  :D

Message cité 1 fois
Message édité par upsilandre51 le 20-06-2009 à 22:40:05
n°7004930
nac76
bein quoi?
Posté le 20-06-2009 à 23:25:10  profilanswer
 

d'après ce que j'ai compris, il y'a 2 écoles de stéréoscopie dans la prise de vue, ceux qui filment avec des cameras convergentes comme je l'ai fait pour mes vidéos et ceux qui préfèrent les aligner en parallèle.  
 
dans le 1er cas, si la convergence se focalise sur un point a 1 mètre des caméras, tout ce qui apparait a cette distance n'est pas sujet au "dédoublement d'images alors que pour ce qui apparait loin derrière en second plan, la séparation est bien plus grande et devient problématique.
c'est le même principe que la convergence des yeux qui explique qu'on a l'impression de loucher sur l'arrière plan quand on fixe notre vision sur un objet trés proche de nos yeux.
le gros avantage de cette méthode c'est qu'elle donne selon moi plus de relief et de pop-up  
le désavantage c'est que les objets ne se trouvant pas au point de convergence soufrent d'une séparation qui s'accentue selon la distance ou il se trouvent. si on visionne un personnage devant un murs, pas de problème mais si on le visionne devant un paysage avec une église a 200m, mieux vaut ne pas trop chercher a distinguer l'église dont la séparation des vues risque d'être énorme.
on peut essayer de corriger un peu ce problème en diminuant la distance entre les 2 images
 
dans le 2em cas, l'effet de convergence n'est crée que par la séparation entre les yeux ou les cams, la convergence plutôt que d'être ajustée a un point fixe reste la même ou qu'on regarde, ne variant pas d'une prise de vue rapprochée a une prise de vue lointaine. l'effet de 3d est dans ce cas plus basé sur la séparation des images qu'il faut alors recalculer et l'angle de vision des 2 yeux que sur la convergence naturelle telle que nos yeux la pratiquent.
l'avantage de cette méthode c'est que la séparation des 2 vue varie beaucoup moins d'un sujet proche a un sujet éloigné, quand même un peu grâce a l'angle de vue qui change de par la distance entre les 2 cams.
le défaut c'est un rendu 3D moins flagrant et des effets de jaillissements amoindris.
 
ce qui vaut pour la prise de vue vaut aussi pour le rendu, dans les jeux on a souvent tendance a régler la séparation de sorte que les objets en 1er plan ne soient pas dédoublés mais ça se ressent beaucoup plus sur les objets distants... mieux vaut trouver un juste compromis pour que la séparation reste acceptable dans les 2 cas

Message cité 2 fois
Message édité par nac76 le 20-06-2009 à 23:50:50

---------------
le site de toute la 3D
n°7004944
BlackShark
En 3D c'est mieux.
Posté le 20-06-2009 à 23:42:12  profilanswer
 

Pour la première partie de ma réponse précédente sur la mise au point, je répondais à Pault6
 
Edony, ce que tu décris me fait penser à un mauvais réglage du paramètre de convergence.
nvidia effectue un pré-réglage de la convergence via ses profils pré-existants pour régler l'image de cette manière.
Dans le driver iZ3D, tu dois régler toi même le réglage de convergence pour retrouver ton arme sur le plan de convergence de l'écran... ou ailleurs selon les préférences de chacun.
Tu devrais pouvoir obtenir le même réglage avec les deux drivers (en excluant les bugs propres à chaque jeu)
 
 
Basketor, tu t'es emmêlé les pinceaux yeux sur la convergence.
 
Dans le monde réel, tes yeux se focalisent sur l'objet que tu regardes, ce qui fait que ton cerveau perçoit une image nette et unique de l'objet que tu regardes, mais dédoublée de tous les autres objets. Ceci, tu l'as décrit correctement.
Cependant pour une image stéréo, tu ne vois pas directement l'objet que tu regardes, il y a un intermédiaire qui est l'écran.
Si tu regardes une image stéréo sans les lunettes, chaque objet possède deux images, une pour chaque oeil. Pour chaque objet, la séparation entre les deux images va définir sa position en profondeur.
Certains objets sont représentés en profondeur derrière l'écran : l'image pour l'oeil droit se trouve à droite et l'image pour l'oeil gauche se trouve à gauche, de manière à ce que les yeux convergent vers un point derrière l'écran.
d'autres sont représentés jaillissants devant l'écran : l'image pour l'oeil droit se trouve à gauche et l'image pour l'oeil gauche se trouve à droite, de manière à ce que les yeux convergent vers un point devant l'écran.
Il y a un cas particulier qui est lorsque la séparation entre les deux images est nulle : les deux images se superposent parfaitement : cela signifie que tes yeux convergent exactement à la surface de l'écran. Ce point particulier est appelé le point de convergence des caméras ou également plan de zéro parallaxe.
 
Cela signifie que tout objet n'ayant qu'une seule image à l'écran (les deux images sont superposées) sera rendu exactement à la distance de l'écran, ni devant, ni derrière.
Le réglage de convergence des drivers modifie l'angle des caméras de manière à déplacer ce point de convergence/parallaxe-zéro, afin de faire en sorte que les objets s'affichent plus en jaillissement ou plus en profondeur. C'est là le seul but du réglage de convergence.
 
Lorsque tu regardes l'image stéréo, le fait de focaliser les deux images en une n'est pas le fait de l'écran, du réalisateur ou du driver mais ce sont tes yeux qui le font lorsque tu choisis de regarder un objet particulier. Le driver/réalisateur choisit la convergence d'une scène, ce qui va déterminer la distance à laquelle se toruve l'écran, libre à toi ensuite d'aller regarder les différents objets de la scène.

n°7004950
upsilandre​51
Posté le 20-06-2009 à 23:53:08  profilanswer
 

nac76 a écrit :

d'après ce que j'ai compris, il y'a 2 écoles de stéréoscopie dans la prise de vue, ceux qui filment avec des cameras convergentes comme je l'ai fait pour mes vidéos et ceux qui préfèrent les aligner en parallèle.  
 
dans le 1er cas, si la convergence se focalise sur un point a 1 mètre des caméras, tout ce qui apparait a cette distance n'est pas sujet au "dédoublement d'images alors que pour ce qui apparait loin derrière en second plan, la séparation est bien plus grande et devient problématique.
c'est le même principe que la convergence des yeux qui explique qu'on a l'impression de loucher sur l'arrière plan quand on fixe notre vision sur un objet trés proche de nos yeux.
le gros avantage de cette méthode c'est qu'elle donne selon moi plus de relief et de pop-up  
le désavantage c'est que seul les objets ne se trouvant pas au point de convergence soufrent d'une séparation qui s'accentue selon la distance ou il se trouvent. si on visionne un personnage devant un murs, pas de problème mais si on le visionne devant un paysage avec une église a 200m, mieux vaut ne pas trop chercher a distinguer l'église dont la séparation des vues risque d'être énorme.
on peut essayer de corriger un peu ce problème en diminuant la distance entre les 2 images
 
dans le 2em cas, l'effet de convergence n'est crée que par la séparation entre les yeux ou les cams, la convergence plutôt que d'être ajustée a un point fixe reste la même ou qu'on regarde, ne variant pas d'une prise de vue rapprochée a une prise de vue lointaine. l'effet de 3d est dans ce cas plus basé sur la séparation des images qu'il faut alors recalculer et l'angle de vision des 2 yeux que sur la convergence naturelle telle que nos yeux la pratiquent.
l'avantage de cette méthode c'est que la séparation des 2 vue varie beaucoup moins d'un sujet proche a un sujet éloigné, quand même un peu grâce a l'angle de vue qui change de par la distance entre les 2 cams.
le défaut c'est un rendu 3D moins flagrant et des effets de jaillissements amoindris.


 
 
ca c'est encore autre chose et les difference que tu evoques ne sont pas réel, tu peux obtenir exactement le meme resultat avec des camera paralelle qu'avec des camera convergente, la seul difference c'est que la camera parallele t'offres plus de flexibilité en post-production (a condition d'avoir de la marge sur le FOV a la prise de vue car faut l'elargir) mais en contrepartie tu perd en definition d'images mais le resultat est exactement le meme si tu sais vraiment gerer la post-production et le FOV.

n°7004952
upsilandre​51
Posté le 20-06-2009 à 23:57:23  profilanswer
 

BlackShark a écrit :


 
Basketor, tu t'es emmêlé les pinceaux yeux sur la convergence.
 
Dans le monde réel, tes yeux se focalisent sur l'objet que tu regardes, ce qui fait que ton cerveau perçoit une image nette et unique de l'objet que tu regardes, mais dédoublée de tous les autres objets. Ceci, tu l'as décrit correctement.
Cependant pour une image stéréo, tu ne vois pas directement l'objet que tu regardes, il y a un intermédiaire qui est l'écran.
Si tu regardes une image stéréo sans les lunettes, chaque objet possède deux images, une pour chaque oeil. Pour chaque objet, la séparation entre les deux images va définir sa position en profondeur.
Certains objets sont représentés en profondeur derrière l'écran : l'image pour l'oeil droit se trouve à droite et l'image pour l'oeil gauche se trouve à gauche, de manière à ce que les yeux convergent vers un point derrière l'écran.
d'autres sont représentés jaillissants devant l'écran : l'image pour l'oeil droit se trouve à gauche et l'image pour l'oeil gauche se trouve à droite, de manière à ce que les yeux convergent vers un point devant l'écran.
Il y a un cas particulier qui est lorsque la séparation entre les deux images est nulle : les deux images se superposent parfaitement : cela signifie que tes yeux convergent exactement à la surface de l'écran. Ce point particulier est appelé le point de convergence des caméras ou également plan de zéro parallaxe.
 
Cela signifie que tout objet n'ayant qu'une seule image à l'écran (les deux images sont superposées) sera rendu exactement à la distance de l'écran, ni devant, ni derrière.
Le réglage de convergence des drivers modifie l'angle des caméras de manière à déplacer ce point de convergence/parallaxe-zéro, afin de faire en sorte que les objets s'affichent plus en jaillissement ou plus en profondeur. C'est là le seul but du réglage de convergence.
 
Lorsque tu regardes l'image stéréo, le fait de focaliser les deux images en une n'est pas le fait de l'écran, du réalisateur ou du driver mais ce sont tes yeux qui le font lorsque tu choisis de regarder un objet particulier. Le driver/réalisateur choisit la convergence d'une scène, ce qui va déterminer la distance à laquelle se toruve l'écran, libre à toi ensuite d'aller regarder les différents objets de la scène.


 
+1

n°7004982
nac76
bein quoi?
Posté le 21-06-2009 à 00:23:38  profilanswer
 

upsilandre51 a écrit :


 
 
ca c'est encore autre chose et les difference que tu evoques ne sont pas réel, tu peux obtenir exactement le meme resultat avec des camera paralelle qu'avec des camera convergente, la seul difference c'est que la camera parallele t'offres plus de flexibilité en post-production (a condition d'avoir de la marge sur le FOV a la prise de vue car faut l'elargir) mais en contrepartie tu perd en definition d'images mais le resultat est exactement le meme si tu sais vraiment gerer la post-production et le FOV.


 
pas d'accord, il y'a bien de vraies différences entre les 2 méthodes, pour t'en convaincre imagine 2 caméscopes parallèles filmant ton écran de face,  les 2 sont logiquement a un angle de 90° par rapport a l'ecran.
maintenant imagine que les 2 caméscopes convergent vers le milieu de l'écran..l'1 des caméscope aura 1 angle de 80° (j'dis un chiffre au pif) alors que l'autre aura un angle de 100°, les 2 images sont donc complètement différentes en produisant en plus un effet de perspective inversée l'une par rapport a l'autre.
 
en exagérant un peu on peut donc affirmer que pour un objet filmé en "parallèle" les 2 images représentent la face de l'objet alors que les 2 vues filmées en "convergence" présente plus les cotés de l'objet.
 
je dis "en exagérant" car il faut vraiment que l'objet soit très proche pour que ça se voit mais un objet filmé en jaillissement est par définition très proche et l'écart entre les 2 cams n'étant pas énorme ce n'est pas forcément très visible si on n'y fait pas attention. ce n'est bien sure pas tout ce qui fait la 3D mais je suis certain que ça aide a un meilleur rendu du pop-up

Message cité 1 fois
Message édité par nac76 le 21-06-2009 à 00:28:42

---------------
le site de toute la 3D
n°7004983
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 00:27:47  profilanswer
 

upsilandre51 a écrit :

 

sauf pour des jeux qui utilise un traitement post-process type DoF (depth of field) mais je sais que ca n'a rien a voir avec ce qu'evoque basketor  :p
mais n'empeche ca oblige quand meme les devs a zapper ce genre d'effet de plus en plus courant (dailleurs c'est pareille pour la production de film d'animation en 3D, ca fait partie des habitude qu'il faut changer quand on passe a la stereo). dans ce cas faudrait effectivement un systeme capable de connaitre l'endroit exacte que tu regarde sur l'ecran pour pouvoir apliquer un DoF dynamique selon ce parametre.

 

bon là c'est pas assez détaillé j'ai rien capté :o

 
upsilandre51 a écrit :

apriori on est pas daccord et si j'ai bien compris ton propos tu te trompe ou alors faudrait que tu fasses un petit shema car malheureusement tes expliquations sont un peu confuses ou pas asser detaillés, peut etre qu'on parle finallement de la meme chose mais pour l'instant c'est difficile a dire  :D

 

Bon je vais exposer de façon détaillée mon impression :o

 

Le but de la stéréoscopie est de faire en sorte que ce qu'on voit sur un plan 2D, donc un écran, corresponde à ce qu'on verrait si on voyait la scène en réalité.
Dans la réalité l'écran est plat, il n'y a pas de paralaxe visible si on bouge la tête par exemple.
Le but est de faire en sorte qu'on croit regarder à travers une vitre.
Donc on veut qu'un effet paralaxe apparaisse, c'est ce qui donne l'effet de profondeur, plus aussi éventuellement la reflexion de la lumière.
Alors pour ça il y a le head tracking par exemple comme ça http://www.youtube.com/watch?v=Jd3-eiid-Uw , qui permet de donner un effet de profondeur grace à l'effet paralaxe. (ici un seul oeuil suffit pour avoir une idée de la profondeur).
Et il y a la stéréoscopie, qui permet de voir la profondeur et la paralaxe, même en étant statique, donc pas comme le headtracking, et ça c'est grace au fait que nos deux yeux voient toujours ce qu'ils ont devant eux sous un angle différent. C'est ce que le parametre de la séparation permet controller.

 

Le but du jeu c'est bien que l'écran 2D fournisse aux yeux la même chose que ce qu'ils verraient en réalité, si l'écran était en fait une vitre.
Donc on se démerde pour que l'écran fournisse une image à chaque oeuil. (shutters, anaglyphes, filtres polarisés peu importe)

 

Après voilà, si t'as un poteau réel derrière une fenetre à 2 metres, ou virtuel sur l'écran, si on veut la même sensation de distance pour les deux, il faut que tes yeux et ton cerveau reçoivent de l'écran virtuel, la même chose que ce que la fenetre montre.

 

Dans la réalité, si tu veux fixer le poteau, comme pour lire un truc dessus ou distinguer la texture, tes deux yeux font une sorte de mise au point et convergent sur le poteaux.
Cet alignement des deux représentations du poteau qui arrive à notre cerveau, est idéal pour que le cerveau puisse analyser l'image. Si tu te caches un oeuil c'est pas mal aussi.
Dans un truc virtuel, comme derrière une fenêtre, je ne vois pas de raison qu'il en soit différement, vu que ce qu'on veut c'est que le virtuel corresponde à ce qui se passe dans le réel, vu que notre cerveau est conditionné pour.

 

Avec une convergence fixe, tu peux pas avoir cet effet, tu ne peux distinguer clairement que les objets à une distance donnée, là ou t'as fixé la convergence.
Peut être qu'avec l'habitude tu fais comme ce que fait un type avec un gros strabisme, son cerveau met l'oeil de traviol en "off".
Mais toi qui n'a pas de strabisme, t'as tout intérêt à ce que l'afficheur aligne les images de la même façon que ton cerveau le demanderait en regardant à travers la fenetre et en regardant un objet donné, ça sera nettement moins fatiguant.

 

Et en plus en ne mettant pas un oeuil completement sur off, tu ne perds pas l'effet paralaxe.

 

Donc voilà je peux pas être plus clair :D

 
nac76 a écrit :

d'après ce que j'ai compris, il y'a 2 écoles de stéréoscopie dans la prise de vue, ceux qui filment avec des cameras convergentes comme je l'ai fait pour mes vidéos et ceux qui préfèrent les aligner en parallèle.

 

dans le 1er cas, si la convergence se focalise sur un point a 1 mètre des caméras, tout ce qui apparait a cette distance n'est pas sujet au "dédoublement d'images alors que pour ce qui apparait loin derrière en second plan, la séparation est bien plus grande et devient problématique.
c'est le même principe que la convergence des yeux qui explique qu'on a l'impression de loucher sur l'arrière plan quand on fixe notre vision sur un objet trés proche de nos yeux.
le gros avantage de cette méthode c'est qu'elle donne selon moi plus de relief et de pop-up
le désavantage c'est que seul les objets ne se trouvant pas au point de convergence soufrent d'une séparation qui s'accentue selon la distance ou il se trouvent. si on visionne un personnage devant un murs, pas de problème mais si on le visionne devant un paysage avec une église a 200m, mieux vaut ne pas trop chercher a distinguer l'église dont la séparation des vues risque d'être énorme.
on peut essayer de corriger un peu ce problème en diminuant la distance entre les 2 images

 

dans le 2em cas, l'effet de convergence n'est crée que par la séparation entre les yeux ou les cams, la convergence plutôt que d'être ajustée a un point fixe reste la même ou qu'on regarde, ne variant pas d'une prise de vue rapprochée a une prise de vue lointaine. l'effet de 3d est dans ce cas plus basé sur la séparation des images qu'il faut alors recalculer et l'angle de vision des 2 yeux que sur la convergence naturelle telle que nos yeux la pratiquent.
l'avantage de cette méthode c'est que la séparation des 2 vue varie beaucoup moins d'un sujet proche a un sujet éloigné, quand même un peu grâce a l'angle de vue qui change de par la distance entre les 2 cams.
le défaut c'est un rendu 3D moins flagrant et des effets de jaillissements amoindris.

 

ce qui vaut pour la prise de vue vaut aussi pour le rendu, dans les jeux on a souvent tendance a régler la séparation de sorte que les objets en 1er plan ne soient pas dédoublés mais ça se ressent beaucoup plus sur les objets distants... mieux vaut trouver un juste compromis pour que la séparation reste acceptable dans les 2 cas

 

Tu dis qu'il y a deux écoles, mais il y en aurait surement 3.
Il y aurait en plus la convergence ajustée dynamiquement. Ou en filmant tu ajusterais la convergence, un peu à la façon de ce qu'on fait sur un objectif pour la mise au point.
C'est ce qui te permettrais d'avoir dans la même séquence le perso net au premier plan, puis ensuite l'église nette.
Car si tu veux réajuster ça après coup, d'une part tu modifies la séparation, et en plus il te faudrait des bouts d'images en rab sur les côtés. :o

Message cité 1 fois
Message édité par basketor63 le 21-06-2009 à 00:37:57
n°7004984
upsilandre​51
Posté le 21-06-2009 à 00:31:35  profilanswer
 

nac76 a écrit :


 
pas d'accord, il y'a bien de vraies différences entre les 2 méthodes, pour t'en convaincre imagine 2 caméscopes parallèles filmant ton écran de face,  les 2 sont logiquement a un angle de 90° par rapport a l'ecran.
maintenant imagine que les 2 caméscopes convergent vers le milieu de l'écran..l'1 des caméscope aura 1 angle de 80° (j'dis un chiffre au pif) alors que l'autre aura un angle de 100°, les 2 images sont donc complètement différentes en produisant en plus un effet de perspective inversée l'une par rapport a l'autre.
 
en exagérant un peu on peut donc affirmer que pour un objet filmé en "parallèle" les 2 images représentent la face de l'objet alors que les 2 vues filmées en "convergence" présente plus les cotés de l'objet.
 
je dis "en exagérant" car il faut vraiment que l'objet soit très proche pour que ça se voit mais un objet filmé en jaillissement est par définition très proche et l'écart entre les 2 cams n'étant pas énorme ce n'est pas forcément très visible si on n'y fait pas attention. ce n'est bien sure pas tout ce qui fait la 3D mais je suis certain que ça aide a un meilleur rendu du pop-up


 
non tu obtiendras exactement la meme chose, c'est qu'une question de FOV et de post-production mais je te ferais un petit shema quand j'aurais le temps pour que tu comprene mieux pourquoi  :p  
 

n°7004999
nac76
bein quoi?
Posté le 21-06-2009 à 00:44:36  profilanswer
 

upsilandre51 a écrit :


 
non tu obtiendras exactement la meme chose, c'est qu'une question de FOV et de post-production mais je te ferais un petit shema quand j'aurais le temps pour que tu comprene mieux pourquoi  :p  
 


 
je ne parlai pas de post-production dans mes exemples, tu peux en effet regler les perspectives en PP mais ça revient a imiter la solution convergente des 2 cams en limitant l'effet de séparation des objets plus lointains, ça revient au même que ce que je disais sauf que tu le fais en PP plutot qu'en agissant directement sur les 2 cams


---------------
le site de toute la 3D
n°7005007
upsilandre​51
Posté le 21-06-2009 à 00:52:12  profilanswer
 

basketor63 a écrit :


Après voilà, si t'as un poteau réel derrière une fenetre à 2 metres, ou virtuel sur l'écran, si on veut la même sensation de distance pour les deux, il faut que tes yeux et ton cerveau reçoivent de l'écran virtuel, la même chose que ce que la fenetre montre.

 

Dans la réalité, si tu veux fixer le poteau, comme pour lire un truc dessus ou distinguer la texture, tes deux yeux font une sorte de mise au point et convergent sur le poteaux.

 

et pour obtenir la meme chose par l'intermediaire de l'ecran et bien ton poteau qui est a 2 metres deriere l'ecran doit etre affiché de facon dedoublé sur l'ecran avec un parallaxe positif (c'est a dire que la representation du poteau destiné a l'oeil gauche doit etre decalé vers la gauche sur l'ecran et celle de l'oeil droit decalé vers la droite). maintenant quand tu voudra vraiment observer ce poteau sur l'ecran ton cerveaux va naturelement essayé de superposé les 2 images du poteaux affiché sur l'ecran au meme endroit sur la retine ce qui va l'obliger a converger ta vision binoculaire 2 metres derriere l'ecran (ce qui aura pour effet de projeter les 2 images du poteau au centre de ta retine) comme si le poteau etait réelement a cette distance (ensuite le probleme c'est que ton crystallin lui sera toujours focalisé sur la surface de l'ecran quelque soit ta convergence binoculaire ce qui envoie une information un peu contradictoire mais on peux rien faire contre ca malheureusement). et ce decalage des images du poteau sur l'ecran est du au fait justement que le point de convergence des camera virtuel est fixé 2 metre devant le poteau, si jamais tu change la convergence de la camera pour la placé sur le poteau alors le poteau va se retrouver sur l'ecran collé a la "vitre" et plus 2 metres derrieres.
je t'assure que tu t'es egarés quelque part dans ta reflexion sur la stereoscopie, faut que tu prennes le temps de reprendre la reflexion du depart

 

Message cité 1 fois
Message édité par upsilandre51 le 21-06-2009 à 00:58:31
n°7005012
upsilandre​51
Posté le 21-06-2009 à 00:56:42  profilanswer
 

nac76 a écrit :

 

je ne parlai pas de post-production dans mes exemples, tu peux en effet regler les perspectives en PP mais ça revient a imiter la solution convergente des 2 cams en limitant l'effet de séparation des objets plus lointains, ça revient au même que ce que je disais sauf que tu le fais en PP plutot qu'en agissant directement sur les 2 cams

 

on parle forcement de post-production car sans post-production la solution parallele ne peux pas vraiment etre utilisé, ca ne correspond a rien d'exploitable en l'etat
et une fois passer en post-production non ca limite rien du tout, ca reduit juste la definition de l'image, les images elle seront exactement pareille qu'avec les 2 cams en convergences si t'as anticiper en elargissant le FOV a la prise de vue

Message cité 1 fois
Message édité par upsilandre51 le 21-06-2009 à 00:59:28
n°7005014
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 00:58:27  profilanswer
 

BlackShark a écrit :

Pour la première partie de ma réponse précédente sur la mise au point, je répondais à Pault6
 
Edony, ce que tu décris me fait penser à un mauvais réglage du paramètre de convergence.
nvidia effectue un pré-réglage de la convergence via ses profils pré-existants pour régler l'image de cette manière.
Dans le driver iZ3D, tu dois régler toi même le réglage de convergence pour retrouver ton arme sur le plan de convergence de l'écran... ou ailleurs selon les préférences de chacun.
Tu devrais pouvoir obtenir le même réglage avec les deux drivers (en excluant les bugs propres à chaque jeu)
 
 
Basketor, tu t'es emmêlé les pinceaux yeux sur la convergence.
 
Dans le monde réel, tes yeux se focalisent sur l'objet que tu regardes, ce qui fait que ton cerveau perçoit une image nette et unique de l'objet que tu regardes, mais dédoublée de tous les autres objets. Ceci, tu l'as décrit correctement.
Cependant pour une image stéréo, tu ne vois pas directement l'objet que tu regardes, il y a un intermédiaire qui est l'écran.
Si tu regardes une image stéréo sans les lunettes, chaque objet possède deux images, une pour chaque oeil. Pour chaque objet, la séparation entre les deux images va définir sa position en profondeur.
Certains objets sont représentés en profondeur derrière l'écran : l'image pour l'oeil droit se trouve à droite et l'image pour l'oeil gauche se trouve à gauche, de manière à ce que les yeux convergent vers un point derrière l'écran.
d'autres sont représentés jaillissants devant l'écran : l'image pour l'oeil droit se trouve à gauche et l'image pour l'oeil gauche se trouve à droite, de manière à ce que les yeux convergent vers un point devant l'écran.
Il y a un cas particulier qui est lorsque la séparation entre les deux images est nulle : les deux images se superposent parfaitement : cela signifie que tes yeux convergent exactement à la surface de l'écran. Ce point particulier est appelé le point de convergence des caméras ou également plan de zéro parallaxe.
 
Cela signifie que tout objet n'ayant qu'une seule image à l'écran (les deux images sont superposées) sera rendu exactement à la distance de l'écran, ni devant, ni derrière.
Le réglage de convergence des drivers modifie l'angle des caméras de manière à déplacer ce point de convergence/parallaxe-zéro, afin de faire en sorte que les objets s'affichent plus en jaillissement ou plus en profondeur. C'est là le seul but du réglage de convergence.
 
Lorsque tu regardes l'image stéréo, le fait de focaliser les deux images en une n'est pas le fait de l'écran, du réalisateur ou du driver mais ce sont tes yeux qui le font lorsque tu choisis de regarder un objet particulier. Le driver/réalisateur choisit la convergence d'une scène, ce qui va déterminer la distance à laquelle se toruve l'écran, libre à toi ensuite d'aller regarder les différents objets de la scène.


 
non c'est pas vrai, cf exemple du poteau derrière une fenetre :o
tes yeux alignent les images, pourtant le poteau n'est pas collé à la fenêtre.
 
l'effet de jaillissement vient du fait que l'écran affiche deux images d'un objet, séparées d'une façon identique à ce que nos yeux verraient si l'objet était réellement situé à cet endroit ET qu'on regardait loin devant.
 
Il est clair qu'en jouant sur la séparation on peut augmenter l'effet paralaxe et l'effet de profondeur, mais pour correspondre à l'image 3D fidele, le parametre initial devrait tenter de coller à l'écart des yeux.
 
Dans la plupart des jeux actuels, si il n'y a pas d'objets qui sortent de l'écran, c'est parceque en fait aucun objet n'est rendu entre la fenetre qui donne sur le monde virtuel et le joueur.
 

n°7005015
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 01:01:08  profilanswer
 

upsilandre51 a écrit :

ca c'est encore autre chose et les difference que tu evoques ne sont pas réel, tu peux obtenir exactement le meme resultat avec des camera paralelle qu'avec des camera convergente, la seul difference c'est que la camera parallele t'offres plus de flexibilité en post-production (a condition d'avoir de la marge sur le FOV a la prise de vue car faut l'elargir) mais en contrepartie tu perd en definition d'images mais le resultat est exactement le meme si tu sais vraiment gerer la post-production et le FOV.


 
bah non, l'idéal serait d'ajuster la convergence dynamiquement pendant la prise de vue.
Là t'aurais pas de perte de définition d'image.
Après je sais pas si au visionage on pourrait encaisser des changement de convergence comme ça, ça serait un coup à faire vomir.

n°7005017
upsilandre​51
Posté le 21-06-2009 à 01:05:10  profilanswer
 

basketor63 a écrit :


 
bah non, l'idéal serait d'ajuster la convergence dynamiquement pendant la prise de vue.
Là t'aurais pas de perte de définition d'image.
Après je sais pas si au visionage on pourrait encaisser des changement de convergence comme ça, ça serait un coup à faire vomir.


 
bien sure que les realisateurs qui utilisent un systeme de camera qui converge modifie la convergence selon la scene et les besoins. mais justement c'est bien cela que l'on compare, il sagit de comparer cette solution ou on regle soit meme la convergence des cameras selon les besoins et donc on profite totalement de la defintiion des capteurs a l'autres solution ou l'on utilise des camera parellele avec un FOV tres large et ou l'on regle la convergence a la post-production ce qui oblige a grignoter sur la definition

n°7005021
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 01:09:53  profilanswer
 

upsilandre51 a écrit :


 
et pour obtenir la meme chose par l'intermediaire de l'ecran et bien ton poteau qui est a 2 metres deriere l'ecran doit etre affiché de facon dedoublé sur l'ecran avec un parallaxe positif (c'est a dire que la representation du poteau destiné a l'oeil gauche doit etre decalé vers la gauche sur l'ecran et celle de l'oeil droit decalé vers la droite). maintenant quand tu voudra vraiment observer ce poteau sur l'ecran ton cerveaux va naturelement essayé de superposé les 2 images du poteaux affiché sur l'ecran au meme endroit sur la retine ce qui va l'obliger a converger ta vision binoculaire 2 metres derriere l'ecran (ce qui aura pour effet de projeter les 2 images du poteau au centre de ta retine) comme si le poteau etait réelement a cette distance (ensuite le probleme c'est que ton crystallin lui sera toujours focalisé sur la surface de l'ecran quelque soit ta convergence binoculaire ce qui envoie une information un peu contradictoire mais on peux rien faire contre ca malheureusement). et ce decalage des images du poteau sur l'ecran est du au fait justement que le point de convergence des camera virtuel est fixé 2 metre devant le poteau, si jamais tu change la convergence de la camera pour la placé sur le poteau alors le poteau va se retrouver sur l'ecran collé a la "vitre" et plus 2 metres derrieres.
je t'assure que tu t'es egarés quelque part dans ta reflexion sur la stereoscopie, faut que tu prennes le temps de reprendre la reflexion du depart
 


 
non car ce qui compte pour que ton cerveau se fasse une idée de la distance et de la profondeur donc, ce n'est pas le souvenir du fait que "si tu regardes à telle distance, alors tes nerfs optiques sont orientés de tant degrés", mais bien les images qui lui parviennent.
 

n°7005026
upsilandre​51
Posté le 21-06-2009 à 01:11:10  profilanswer
 

basketor est ce que tu as bien saisie la difference entre la convergence binoculaire (la direction dans laquel sont pointé les yeux) et le point de focal du cristallin (qui se contracte plus ou moins pour qu'un point soit net et pas flou selon la distance)
j'essaye juste de trouver sur quoi tu bloque pour comprendre a quelle endroit t'es sortie de la piste dans ton raisonnement :D
je pense pas que ton probleme soit la mais je suis a court d'idée, j'arrive pas a comprendre le truc qui t'echape, je laisse cette tache a Blackshark qui a l'aire plus perspicace pour decoder :)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  23  24  25  ..  244  245  246  247  248  249

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic unique] Carte mère ASRock Conroe 1333 DVI/H R2[Topic unique] Maximus II Formula
[Topic Unique] Asus Maximus Extreme[Topic unique] Boitier Gigabyte 3D Mars - Le successeur du 3D Aurora
[topic_unique]4core1333-FULL HD 
Plus de sujets relatifs à : [Topic Unique] stéréoscopie: tout sur la 3ème dimension


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)