Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2808 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  25  26  27  ..  244  245  246  247  248  249
Auteur Sujet :

[Topic Unique] stéréoscopie: tout sur la 3ème dimension

n°7006305
nac76
bein quoi?
Posté le 22-06-2009 à 02:14:03  profilanswer
 

Reprise du message précédent :

basketor63 a écrit :

je fais un récap des lunettes shutters dont on a parlé.
 

Citation :

ces lunettes filaires à obturation sont à 24,90€ pour les CRT
http://www.razor3d.de/en/3d_pc.asp
 
http://www.razor3d.de/shopimages/3d_pc_zoom.jpg
 
et à 69€ en filaire pour crt et lcd
et 99€ en wireless pour crt et lcd
http://www.razor3d.de/shopimages/v [...] s_zoom.jpg
 
alors je comprends pas bien pourquoi le premier marcherait pas sur crt et les seconds si, vu qu'ils sont tous deux en prise vga.


 


 

Citation :

xforce3D sans fils http://www.xforce3d.com/wi3dgl.html  
http://img.photobucket.com/albums/ [...] 2000hi.gif
 
et filaire http://www.xforce3d.com/wipcglki.html à 49€
http://img.photobucket.com/albums/ [...] orce3d.gif
 
à 49€ pour les deux, les fillaires extremement laides [:vomit], et qui semblent hyper fragiles


 
 
 


 
et les nvidias à 150€ au moins.
 
Je sais pas si il y a une différence de qualité énorme entre les lunettes, difficile de savoir lesquelles inspirent plus confiance. les xforce3d on l'air fragiles
je pense que je preferais tenter du filaire, je me dis que la synchro à plus de chance d'être solide, et je pense pas que le fils soit plus emmerdant qu'un casque audio. Et pour les batteries, si c'est un gouffre à piles au lithium qui coutent cher ...
 
En sachant que les nvidias seront inutilisables autrement qu'avec une carte et des drivers nvidia pour le moment.
 
Je tenterais bien les razors à 25€ pour voir, (c'est les moins cheres par contre donc ptetre de la merde ) et si c'est pourrit je pourrais bèner définitivement mon CRT :D


 
celles qui sont sensée fonctionner sur lcd je pense que c'est du pipeau, d'ailleurs les lunettes sur la photo sont celles d'edimensional (d'après la photo) qui avait aussi annoncé une telle compatibilité et d'après les retours ça ne marche pas du tout... a moins qu'ils ne parlent d'un écran a 120hz comme le samsung   :heink:  
si il s'avere que c'est bien les edimensional se sont de très bonnes lunettes mais qui ont 2 défaut a l'heure actuelle.
d'abord elles assombrissent beaucoup l'image, je sais que les nvidia ont ce problème aussi mais peut-être pas dans les mêmes proportions, ensuite nvidia ne les prenant plus en charge coté drivers, il te faudra utiliser les drivers d'IZ3D et je ne sais pas si ils ont réussi a regler leur problème de désynchronisation fréquentes, il te faudra alors jouer en mode interlacée, ce qui passe très bien si tu joues en haute résolution.
un autre petit truc qui peut déranger, les "cache vue" sur le coté des lcd est transparent, ce qui fait qu'il ne cachent pas la vue (pas terrible pour des caches vue LOL) et la moindre source de lumiere a coté de l'écran peut s'avérer un peu dérangeante. un bout de scotch noir la dessus et il n'y paraitra plus  ;)  
 

Gossip a écrit :

Bonjour à tous
ce post m'a aidé à faire mon choix pour l'achat d'un zalman 22" et j'espere le recevoir dans la semaine :love: donc je remercie aux participants de ce sujet :)  
Sinon j'ai vu dans le meme genre de produit que le zalman et iz3d (un peu cher et trés peu répandu voir introuvable  en france) qu'il existe un autre écran le Hyundai W220S et personne n'en parle (ou trés peu à part les numériques qui ont fait un test) http://www.lesnumeriques.com/article-312-3689-49.html il a l'air bien mais un peu cher (509 euros chez top achat et 589 euros chez rue du commerce).
Je voudrais connaître des avis sur ce produit, par exemple si l'ecran est aussi brillant que le zalman et autres.
sinon il ya un de vous qui a acheté jaws 3d (je m'en rapelle + c'est qui) et je voudrais savoir s'il vaux le coup d'acheter.
Merci d'avance :)


 
bon choix, l'écran zalman est un très bon moniteur stéréoscopique a un prix très raisonnable et je me régale depuis que je l'ai acheté, j'espère qu'il te satisfera autant que moi  :jap:  
pour le hyundai, il y'a eu pas mal d'annonces sur des produits, certains ne sont pas encore sortis, d'autre ne sortiront pas en france et d'autres sortiront peut-être beaucoup plus tard. il me semble (de mémoire) qu'on en a parlé quelque part sur le topic mais il ne devait pas être sorti a l'époque et il était très difficile de faire le tri parmi toutes ces annonces.
il me semble même avoir lu le test de lesnum a l'époque mais le prix était encore inconnu et la faut avouer que pour un 22" c'est assez exorbitant  :ouch:  
c'est moi qui ai acheté jaws, je l'avais vu au ciné il y'a longtemps et j'en gardai un souvenir inoubliable, par contre le dvd m'a un peu déçu, il ne semble pas super bien adapté a un petit écran et beaucoup de scène sont très sombre, ce qui rendait le visionnage limite agaçant avec les lunettes edimensional qui assombrissent déja fortement l'image.
 c'était quand meme sympa de le revoir et je me suis promis de le re-revoir bientôt sur le zalman pour voire si ça passe mieux  ;)  
 

itou a écrit :

Bon, je n'arrive pas à éditer avec les nvidia.
Apres quelques jours d'utilisation, finalement le rendu 3D est à peine meilleur sur les nvidia. L'avantage c'est qu'on peut montrer ses videos sans se mettre pile devant, pour les enfants c'est mieux, car on ne sait toujours pas s'ils arrivent à bien se mettre devant (3 ans).
 
Voilà donc mon ancienne config
http://zorgzorg31.free.fr/Luigi/temp/3D-1.jpg
 
Finalement, j'ai ressorti le zalman pour éditer les videos
http://zorgzorg31.free.fr/Luigi/temp/3D-2.jpg
 
Full screen nvidia en bas et interlacé fenétré zalman en bas. (les videos saccades quand le fais tourner les deux quand même 4x1080p finalement)
 
Quelques photos à travers les lunettes pour ceux qui sont intéressés (y'a pas gd chose à voir finalement)
http://zorgzorg31.free.fr/Luigi/temp/3D-3.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-4.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-5.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-6.jpg


 
wow l'installation qui fait réver  :love:  :love:  
 
 
 
 
 


---------------
le site de toute la 3D
mood
Publicité
Posté le 22-06-2009 à 02:14:03  profilanswer
 

n°7006439
basketor63
Sarkozy en prison
Posté le 22-06-2009 à 10:42:13  profilanswer
 

nac76 a écrit :

celles qui sont sensée fonctionner sur lcd je pense que c'est du pipeau, d'ailleurs les lunettes sur la photo sont celles d'edimensional (d'après la photo) qui avait aussi annoncé une telle compatibilité et d'après les retours ça ne marche pas du tout... a moins qu'ils ne parlent d'un écran a 120hz comme le samsung   :heink:

 

vu le type de prises il faudrait que ça soit une connection en vga
peut être que les LCD utilisent un signal de synchro particulier qui ne serait pas géré par certaines dongles ?

 
nac76 a écrit :

si il s'avere que c'est bien les edimensional se sont de très bonnes lunettes mais qui ont 2 défaut a l'heure actuelle.
d'abord elles assombrissent beaucoup l'image, je sais que les nvidia ont ce problème aussi mais peut-être pas dans les mêmes proportions, ensuite nvidia ne les prenant plus en charge coté drivers, il te faudra utiliser les drivers d'IZ3D et je ne sais pas si ils ont réussi a regler leur problème de désynchronisation fréquentes, il te faudra alors jouer en mode interlacée, ce qui passe très bien si tu joues en haute résolution.
un autre petit truc qui peut déranger, les "cache vue" sur le coté des lcd est transparent, ce qui fait qu'il ne cachent pas la vue (pas terrible pour des caches vue LOL) et la moindre source de lumiere a coté de l'écran peut s'avérer un peu dérangeante. un bout de scotch noir la dessus et il n'y paraitra plus  ;)

 

pour l'assombrissement, tu parles des verres qui sont sombres même quand les crystaux n'obstruent pas l'affichage ?
parceque sinon c'est logique qu'il y ai quasiment 50% de perte de luminosité :o

 

Je compterais les utiliser avec iz3d car j'ai une ati.
Là, pour les histoires de synchro je vais me renseigner.
Donc les problemes possibles sont que soit les trames s'inversent, ou alors les drivers iz3d n'arrivent pas à se synchro sur le vsync. Car le dongle des lunettes se synchronise directement avec le rafraichissement en sortie de carte graphique.

  
nac76 a écrit :

bon choix, l'écran zalman est un très bon moniteur stéréoscopique a un prix très raisonnable et je me régale depuis que je l'ai acheté, j'espère qu'il te satisfera autant que moi  :jap:
pour le hyundai, il y'a eu pas mal d'annonces sur des produits, certains ne sont pas encore sortis, d'autre ne sortiront pas en france et d'autres sortiront peut-être beaucoup plus tard. il me semble (de mémoire) qu'on en a parlé quelque part sur le topic mais il ne devait pas être sorti a l'époque et il était très difficile de faire le tri parmi toutes ces annonces.
il me semble même avoir lu le test de lesnum a l'époque mais le prix était encore inconnu et la faut avouer que pour un 22" c'est assez exorbitant  :ouch:
c'est moi qui ai acheté jaws, je l'avais vu au ciné il y'a longtemps et j'en gardai un souvenir inoubliable, par contre le dvd m'a un peu déçu, il ne semble pas super bien adapté a un petit écran et beaucoup de scène sont très sombre, ce qui rendait le visionnage limite agaçant avec les lunettes edimensional qui assombrissent déja fortement l'image.
 c'était quand meme sympa de le revoir et je me suis promis de le re-revoir bientôt sur le zalman pour voire si ça passe mieux  ;)

 

dommage qu'il n'y ai pas de 24", franchement aussi j'irais bien acheter le zalman ce soir à montgallet [:cerveau d]


Message édité par basketor63 le 22-06-2009 à 11:26:45
n°7006485
basketor63
Sarkozy en prison
Posté le 22-06-2009 à 11:26:52  profilanswer
 

bon je me suis renseigné, apparement ça marche pas encore http://forum.iz3d.com/viewtopic.ph [...] utter#9160 :o
donc je vais m'abstenir :o
dommage, ça parait pas si dur à implémenter pourtant ...

 


le futur écran 3D de LG façon zalman je pense http://www.akihabaranews.com/en/ne [...] p?id=18182
http://img150.imageshack.us/img150/3466/lg3dlcd1.jpg


Message édité par basketor63 le 22-06-2009 à 11:48:32
n°7006792
nac76
bein quoi?
Posté le 22-06-2009 à 14:36:40  profilanswer
 

oui je parle bien de l'assombrissement quand les lunettes clignotent et tu as raison, c'est logique. pourtant, bien qu'itou nous a expliqué que le problème existe aussi sur les nvidia, j'imagine ou du moins j'espère qu'ils ont réussi a réduire ce problème au minimum.
la plus grosse claque visuelle que j'ai reçu en passant des édim au zalman pour la 1ere fois venait bien de la luminosité, la différence est énorme et ça change vraiment la donne pour le visionnage.
 
pour le truc de la synchro, je n'ai essayé que les 1ere version beta des drivers IZ3D, faudrait voire si ça a évolué depuis, ils bossaient vraiment hard pour les faire marcher mais ça avait pas l'air évident.
sinon en interlacé c'est quand même impec, si tu joue en reso suffisante tu ne vois pas les lignes a moins d'avoir le nez collé a l'écran.
 
 


---------------
le site de toute la 3D
n°7006833
basketor63
Sarkozy en prison
Posté le 22-06-2009 à 14:58:05  profilanswer
 

ils disent qu'ils veulent le corriger pour les drivers 2.0
 
c'est quoi le soucis exactement que tu as rencontré avec les drivers ?

n°7006837
upsilandre​51
Posté le 22-06-2009 à 14:58:38  profilanswer
 

basketor63 a écrit :

 

Ce que tu dis qu'il ne faut pas faire, se révèle être un compromis acceptable dans le cas des anaglyphes par exemple pour le cas 2 ou les systemes avec pas mal de ghosting.

 

car oui on est d'accord que le cas idéal c'est le cas 3 au début.

 

Et concernant la convergence dynamique dont on parlait, même dans le cas parfait, on voit bien que si on recule le poteau, et bien on a tout intérêt pour le cas ou on fixe le poteau, de modifier la convergence, donc l'angle des deux rayons verts quoi.
Le systeme d'autofocus de iz3d dans le driver consiste à faire en sorte que l'objet visé au centre, de la mire, aie les rayons verts à converger dessus. Ca ne pourrait servir qu'a ça.
et c'est aussi ce que le systeme présenté dans le vidéo de cameron permet de faire.

 

si il y a un truc inexact que j'ai dit à un moment, c'est que l'angle était toujours bon si on tentait d'aligner le poteau sur les deux images sur l'écran. (mais j'ai rectifié)
Il n'est pas bon, c'est clair, cependant ce que j'ai pu constater c'est que malgré qu'il soit faux, et bien tu conserves quand même une très bonne immersion 3D, grace au fait que tous les objets autour qui sont à d'autres distances subissent le décalage stéréoscopique.

 

il ne sagit pas de dire que la convergence doit se faire absolument ici ou la. la convergence on la fait ou on veux selon certaine contrainte divers (meme si y a qu'une seul valeur de convergence qui soit realiste et qui se trouve etre le plan de convergence qui correspond a l'ecran de diffusion, tout les autres choix de convergence ne sont que des artifices et des compromis) mais ce qui est sure c'est qu'on la fait pas varier selon ce qu'on regarde.
je peux comprendre que intuitivement certain puisse pensé que c'est comme cela que devrait fonctionner idealement la stereoscopie c'est a dire en faisant converger les cameras virtuels sur l'objet que l'on observe comme le ferais nos yeux dans la realité mais c'est une intuition totalement erroné car les camera virtuel ne sont pas nos yeux, c'est un intermediaire qui avec l'ecran va permetre de créer l'illusion et l'illusion fonctionne parfaitement uniquement a condition que la convergence soit justement fixe et fixé sur un plan de convergence bien particulier qui doit correspondre a l'ecran de diffusion (et idealement avec les meme caracteristique, meme taille et distance a l'observateur) et c'est a partir de la que tes yeux vont eux pouvoir dynamiquement ajuster leur convergence selon les element de la scene que tu observes exactement de la meme maniere que dans la realité, c'est ca les bases de la stereoscopie, dire le contraire en affirmant que c'est les camera virtuel qui devrait converger vers l'objet observé est totalement faux.

 

sans se torturer l'esprit ce qu'il faut principalement retenir de la convergence c'est que ca definie ou se trouve la surface de ton ecran dans la scene 3D (et indirectement les dimmension percu de la scene et des objets) donc tu comprend bien que c'est pas quelque chose que tu dois faire varier en court de jeu ou de plan. c'est exactement comme le FOV, c'est un parametre qui definie toute la perception de la scene et que tu ne change pas constament  sinon tu change alors toute la perception de la scene a chaque instant. imagine que quand tu regardes un poteau a 1m on te met un FOV de 70 degrées puis 1 seconde apres on te met un FOV de 15 degrées parce que tu regarde un mur qui est a 50m, ca n'a pas de sens et bien c'est pareille avec la convergence. si quand tu regarde le poteau a 1 metre il te parait etre a 50cm (c'est a dire a la distance de ton ecran) et que la seconde d'apres tu regarde un mur a 50m qui va soudainement t'aparaitre aussi comme si il etait a 50cm c'est absurde. tu peux t'amuser a faire varier rapidement le FOV ou la convergence pour faire des effet psyché genre "le joueur a pris une dose de drogue qui le rend invincible" mais en dehors de ca ca n'a pas de raison d'etre
le faite qu'on te propose des option dans les driver qui font varier automatiquement la convergence ce n'est que du bricolage du au fait que les jeux ne sont pas actuelement pensé pour la stereo et qui servent a palier je ne sais quelle probleme causé par cela (et sans doute des variation lente car sinon ca serait pas suportable), on peux trouver divers raison (eviter l'intrusion d'objet dans la zone de jaillissement si elle deborde de la boite de collision a cause de la convergence, compenser des effet de zoom, se calibrer sur un effet de DoF dans un jeu, accentuer artificielement le relief dans certaine zone vaste qui contraste avec des zone d'interieur...) mais c'est pas comme cela qu'est censé fonctionner la stereo, ce n'est qu'un artifice exploité par des driver qui viennent detourner le fonctionement d'un jeu pas prevu pour cela

 


ensuite je lis pas mal de reference a l'acte de filmer en stereo et la je dis attention de pas tout melanger. un film et un jeu sont deux choses totalement differente vis a vis de l'aproche de la stereoscopie. un film c'est une oeuvre artistique, un film est composé d'une multitude de scene et de plan dans lesquels le realisateur va faire des choix personnel pour exprimé ceci ou cela selon le plan et bien sure qu'il va changer le FOV, la profondeur de champ, la convergence ect... selon le plan. dans un film il ne sagit pas du tout de donner l'illusion que l'ecran est un portal, une fenetre sur un monde virtuel. un film c'est une illustration d'un recit par la mise en scene.
l'une des contraintes d'un film cinema c'est aussi entre autre de devoir projeter sur un tres grand ecran ou la zone de jaillisement peux faire 15 metre au lieu de 50cm/2m pour des TV/moniteur. par exemple on ne peux pas garder des parametres de FOV et de convergence realiste tout en filmant un dialogue entre 2 personages car si on fait cela soit on a 2 personages qu'on laisse en terme de profondeur juste derriere l'ecran de cinema (c'est la generalement qu'on place le sujet principale de la scene) a 15 metre du spectateur et qui alors aparaitront tout petit comme si tu regardais une piece de theatre. soit il faut aprocher les 2 acteurs a 1 metre du spectateur pour qu'ils puissent les voir de suffisement pret mais si t'es a 15 metres de l'ecran ca veut dire placer les 2 personages tres loin dans la zone de jaillissement ce qui est a eviter donc bien sure que selon la scene et ce que tu veux placer au premier plan derriere l'ecran alors tu vas jouer forcement avec la convergence (mais tu ne fait pas varier la convergence pas plus que le FOV pendant que tu film le plan a moins de vouloir faire un effet visuel)
y a une autre grosse difference entre le cinema et un jeu c'est que quand tu film avec une camera tu as une profondeur de champ fini qui varie selon certain choix de prise de vue et qui fait qu'il y a une zone net en dehors de laquel les plans peuvent etre flou et naturelement tu vas devoir plus ou moins calibrer la convergence de la scene en correlation avec le focus et la profondeur de champ et donc le sujet de la scene qui lui meme est en general destiné a etre au premier plan pour le mettre en valeur. on est dans la mise en scene pure
dans un jeu il n'y a pas de contrainte de profondeur de champ (a moins de l'ajouter artificelement en post-process) elle est total. en une seul image tu a toute les informations necessaire pour reproduire tout le relief. tout les plans du premier au dernier sont aussi net les uns que les autres ce qui est un avantage car on peux promener sont regard ou l'on veux dans la scene quelque soit les variation de distance comme dans la realité. et justement on doit etre libre de porter notre attention ou l'on veux comme si la TV n'etait qu'un portal, une fenetre sur un autre monde sans rien imposé, on est pas dans le cadre d'un film.

 

restera toujours le probleme de la plano-stereoscopie ou le cristallin reste toujours focalisé sur la surface de l'ecran ce qui est une information contradictoire pour le cerveau (et par la meme occasion l'absence de flou sur les plan qui sont devant et derriere le plan de convergence qui peuvent perturber mais qu'on pourait a la limite simuler avec de l'eye tracking et un DoF en post-process, utiliser l'eyetracking pour modifier la convergence selon ce qu'on regarde ce n'est surtout pas a faire mais l'utiliser pour parametrer le DoF ca ca pourait etre utile). il existe des solutions qui essaye de contourner cela comme l'holovision http://www.holovisionproject.org/news_files/92_91.pdf mais ca utilise une centaine de micro-projecteur, c'est pas destiné a nos maisons (sans parler de l'eternel probleme de ce genre de source multi-angle) ou peut etre un jour des lunettes ecran a base de laser qui projette directement sur la retine (ca existe deja depuis quelque année) mais avec une optique adaptative tel que dans les telescope geant moderne (peut etre avec des micro-mirroir Mems ou je ne sais quoi) dont on pourait modifier la forme a haut frequence pour modifier la focale de chaque pixel individuelement selon le Z-buffer. j'avais lu y a longtemps l'evoquation de cette possibilité purement theorique mais je sais pas si c'est realisable, c'est compliqué l'optique. avec quelque chose comme ca l'illusion serait parfaite.

 

Message cité 1 fois
Message édité par upsilandre51 le 22-06-2009 à 15:29:54
n°7006851
upsilandre​51
Posté le 22-06-2009 à 15:06:35  profilanswer
 

nac76 a écrit :

oui je parle bien de l'assombrissement quand les lunettes clignotent et tu as raison, c'est logique. pourtant, bien qu'itou nous a expliqué que le problème existe aussi sur les nvidia, j'imagine ou du moins j'espère qu'ils ont réussi a réduire ce problème au minimum.
la plus grosse claque visuelle que j'ai reçu en passant des édim au zalman pour la 1ere fois venait bien de la luminosité, la différence est énorme et ça change vraiment la donne pour le visionnage.

 

la quantité d'assombrissement est effectivement l'un des critere les plus important a prendre en compte dans les comparaisons des differentes solution je pense et c'est pas a l'avantage des shutterglass. t'as deja 50% de perte theorique de luminosité qu'on ne poura jamais contourner a cause du principe meme du shutter et meme probablement plus car la reacitivité des shutter n'est pas instantané donc l'ouverture prend un certain temps et la fermeture est probablement anticipé pour eviter le ghost donc le moment d'ouverture total ne dure peut etre que 40% du temps ou moins. puis y a les filtres polarisant que sont les LCD meme une fois ouvert. je crois que c'est de l'ordre de 70-80% de perte de luminosité qu'ils indiquent dans les caracteristique des shutterglass en general

Message cité 1 fois
Message édité par upsilandre51 le 22-06-2009 à 16:30:41
n°7006981
nac76
bein quoi?
Posté le 22-06-2009 à 16:16:26  profilanswer
 

basketor63 a écrit :

ils disent qu'ils veulent le corriger pour les drivers 2.0
 
c'est quoi le soucis exactement que tu as rencontré avec les drivers ?


blackshark t'en parlerai beaucoup mieu que moi mais le truc (a peu-prêt d'après ce que j'ai compris) c'est que même avec une carte graphique très puissante il est difficile voire impossible d'afficher 2x 50fps d'un jeux en continu sans avoir de fluctations (je prend un ecran a 100hz pour l'exemple)
hors si les fps ne sont pas a 2x 50, elles se désynchronisent avec l'écran qui lui reste a 100hz
du coup la 3D va marcher un moment plus ou moins long selon la gourmandise du jeu mais la synch fini par se perdre et tu vois les 2 images séparément.
les drivers de nvidia corrigent ce problème je sais plus comment mais IZ3D n'ayant pas accès au code des drivers ou au bios du gpu ne peut pas régler ce probleme.
par contre ça semble marcher correctement en mode interlacé, je sais pas pourquoi ni comment mais je n'avais aucun problème en utilisant ce mode
 

upsilandre51 a écrit :


 
la quantité d'assombrissement est effectivement l'un des critere les plus important a prendre en compte dans les comparaisons des differentes solution je pense et c'est clairement pas a l'avantage des shutterglass. ca ne le sera jamais, les shutterglass partent avec un handicape du fait que t'as deja 50% de perte theorique de luminosité qu'on ne poura jamais contourner a cause du principe meme du shutter et meme probablement plus car la reacitivité des shutter n'est pas instantané donc l'ouverture prend un certain temps et la fermeture est probablement anticipé pour eviter le ghost donc le moment d'ouverture total ne dure peut etre que 40% du temps ou moins. puis y a les filtres polarisant que sont les LCD meme une fois ouvert. je crois que c'est de l'ordre de 70-80% de perte de luminosité qu'ils indiquent dans les caracteristique des shutterglass en general


je crois me souvenir que tu avais essayé les shuters sur grand écran, est-ce qu'il arrivent a compenser cette perte de luminosité ou le problème est toujours présent?
j'aimerai bien avoir un comparatif entre les nvidia et les edim ou autre razor pour savoir si nvidia a corrigé un tant soit peu le problème, peut-être justement en augmentant la réactivité des lunettes


Message édité par nac76 le 22-06-2009 à 16:25:49

---------------
le site de toute la 3D
n°7007053
pault6
-- -- -- -- -- -- -- -- -- --
Posté le 22-06-2009 à 16:49:37  profilanswer
 

ça y est j'ai reçu mon zalman 19" (cdiscount a été rapide, je l'ai acheté lors de la promo à 99€).
Premier allumage, pas de pixel mort  :love: , j'installe ensuite les pilotes iz3d (les 1.10RC1), pas de soucis.
 
Je mets mode "interlaced horizontal optimized" dans le menu de configuration du pilote, je lance Left 4 Dead. La 3d marche youpi  :D  
Mais, il y a un mais, j'ai du mal à bien doser la divergence et la séparation... soit je mets beaucoup de divergence (genre +10) et la séparation très peu (3%) sinon je vois super double mais a ce niveau la l'effet 3d est plutot puissant, soit l'inverse je mets peu de divergence et je peux mettre beaucoup de séparation avant de voir double.  
 
Je comprends pas vraiment comment optimiser le truc en fait. Vous qui avez de l'expérience si vous pouvez m'en apprendre un peu plus, me dire comment vous faîtes, ect...  
 
Sur quoi je dois me baser pour régler ces 2 paramètres ? avec le wizard du pilote lors du lancement d'un jeu y a un mini tuto qui permet de régler les paramètres, si mes souvenirs sont bon ils disent de fixer un objet proche pour la divergence et un lointain pour la séparation, j'ai tester mais je trouve que ça fait un effet 3d faiblard.
 
Merci  :jap:  
 
 
 
 


---------------
[FEED-BACK]
n°7007165
nac76
bein quoi?
Posté le 22-06-2009 à 17:34:22  profilanswer
 

pault6 a écrit :

ça y est j'ai reçu mon zalman 19" (cdiscount a été rapide, je l'ai acheté lors de la promo à 99€).
Premier allumage, pas de pixel mort  :love: , j'installe ensuite les pilotes iz3d (les 1.10RC1), pas de soucis.
 
Je mets mode "interlaced horizontal optimized" dans le menu de configuration du pilote, je lance Left 4 Dead. La 3d marche youpi  :D  
Mais, il y a un mais, j'ai du mal à bien doser la divergence et la séparation... soit je mets beaucoup de divergence (genre +10) et la séparation très peu (3%) sinon je vois super double mais a ce niveau la l'effet 3d est plutot puissant, soit l'inverse je mets peu de divergence et je peux mettre beaucoup de séparation avant de voir double.  
 
Je comprends pas vraiment comment optimiser le truc en fait. Vous qui avez de l'expérience si vous pouvez m'en apprendre un peu plus, me dire comment vous faîtes, ect...  
 
Sur quoi je dois me baser pour régler ces 2 paramètres ? avec le wizard du pilote lors du lancement d'un jeu y a un mini tuto qui permet de régler les paramètres, si mes souvenirs sont bon ils disent de fixer un objet proche pour la divergence et un lointain pour la séparation, j'ai tester mais je trouve que ça fait un effet 3d faiblard.
 
Merci  :jap:  
 


 
au début c'est vraiment galère pour trouver les bons réglages mais avec l'expérience tu fini par t'en sortir plus facilement.
sinon je vois que tu es sous seven, tu peux tester les drivers de nvidia que je trouve beaucoup plus faciles a régler, tu vas dans le panneau de controle de nvidia, onglet stéreoscopie et tu regles a peu près, tu n'aura plus qu'a ajuster avec les raccourcis dans les jeux.
 
pardon, oublié que tu as une ati  :pt1cable:

Message cité 1 fois
Message édité par nac76 le 22-06-2009 à 17:36:46

---------------
le site de toute la 3D
mood
Publicité
Posté le 22-06-2009 à 17:34:22  profilanswer
 

n°7007212
edony44
Posté le 22-06-2009 à 18:07:16  profilanswer
 

Moi je te conseil d'essayer le drivers DDD ( TriDef Ignition pour les intimes )... L'effet 3d est intense et il y a un reglage automatique sympa.
 
En plus pour les jeux qui gère mal la 3d : (exemple tomb raider underworld :  les effets de lumière sont différents sur les deux yeux ce qui donne tres tres vite mal au crane. ).. tu as un mode virtual 3d qui en plus d'economiser des FPS donne une sensation 3d ( moins prononcée) mais très compatible !
 
Enfin a tester avant de choisir un drivers a acheter
 
je rajoute que pour les fps il y une option qui maintient les objets TROP proche en 2d ( armes etc etc ) Du coup le decor prend une autre dimension
 

Message cité 1 fois
Message édité par edony44 le 22-06-2009 à 18:13:50
n°7007228
pault6
-- -- -- -- -- -- -- -- -- --
Posté le 22-06-2009 à 18:15:51  profilanswer
 

nac76 a écrit :


 
au début c'est vraiment galère pour trouver les bons réglages mais avec l'expérience tu fini par t'en sortir plus facilement.
sinon je vois que tu es sous seven, tu peux tester les drivers de nvidia que je trouve beaucoup plus faciles a régler, tu vas dans le panneau de controle de nvidia, onglet stéreoscopie et tu regles a peu près, tu n'aura plus qu'a ajuster avec les raccourcis dans les jeux.
 
pardon, oublié que tu as une ati  :pt1cable:


 
Hélas, je peux pas utiliser les pilotes nvidia. J'ai déjà eu l'occasion de les tester en anaglyphe avec mon portable (qui possède une 8600m gt), je les ai trouvé moins bons que les iz3d, enfin étant donné que je n'ai testé que le mode anaglyphe c'est pas forcément représentatif de la qualité du pilote  :whistle:  
 
enfin, tout fonctionne bien, c'est l'essentiel, c'est qu'une question de réglage.
 
Sinon pour faire un petit comparatif avec les anaglyphes, c'est vraiment beaucoup plus confortable le zalman, niveau couleurs rien à voir, pas besoin de loucher (sauf quand on pousse les paramètres super loin  :p ), je suis très agréablement surpris pas la diminution de résolution verticale, imperceptible pour moi. J'ai pas encore eu le temps de beaucoup le tester (30min environ), je continuerai les réglages demain. Je n'ai testé que sur Left 4 Dead pour le moment, c'est le jeu qui m'avait le plus impressioné en anaglyphe.
 
Je suis toujours à l'écoute de vos conseils pour le réglage  :)


---------------
[FEED-BACK]
n°7007230
pault6
-- -- -- -- -- -- -- -- -- --
Posté le 22-06-2009 à 18:17:09  profilanswer
 

edony44 a écrit :

Moi je te conseil d'essayer le drivers DDD ( TriDef Ignition pour les intimes )... L'effet 3d est intense et il y a un reglage automatique sympa.
 
En plus pour les jeux qui gère mal la 3d : (exemple tomb raider underworld :  les effets de lumière sont différents sur les deux yeux ce qui donne tres tres vite mal au crane. ).. tu as un mode virtual 3d qui en plus d'economiser des FPS donne une sensation 3d ( moins prononcée) mais très compatible !
 
Enfin a tester avant de choisir un drivers a acheter
 
je rajoute que pour les fps il y une option qui maintient les objets TROP proche en 2d ( armes etc etc ) Du coup le decor prend une autre dimension
 


 
Merci du conseil, je testerai ça demain  :jap:


---------------
[FEED-BACK]
n°7007276
basketor63
Sarkozy en prison
Posté le 22-06-2009 à 18:47:04  profilanswer
 

upsilandre51 a écrit :

 

il ne sagit pas de dire que la convergence doit se faire absolument ici ou la. la convergence on la fait ou on veux selon certaine contrainte divers (meme si y a qu'une seul valeur de convergence qui soit realiste et qui se trouve etre le plan de convergence qui correspond a l'ecran de diffusion, tout les autres choix de convergence ne sont que des artifices et des compromis) mais ce qui est sure c'est qu'on la fait pas varier selon ce qu'on regarde.
je peux comprendre que intuitivement certain puisse pensé que c'est comme cela que devrait fonctionner idealement la stereoscopie c'est a dire en faisant converger les cameras virtuels sur l'objet que l'on observe comme le ferais nos yeux dans la realité mais c'est une intuition totalement erroné car les camera virtuel ne sont pas nos yeux, c'est un intermediaire qui avec l'ecran va permetre de créer l'illusion et l'illusion fonctionne parfaitement uniquement a condition que la convergence soit justement fixe et fixé sur un plan de convergence bien particulier qui doit correspondre a l'ecran de diffusion (et idealement avec les meme caracteristique, meme taille et distance a l'observateur) et c'est a partir de la que tes yeux vont eux pouvoir dynamiquement ajuster leur convergence selon les element de la scene que tu observes exactement de la meme maniere que dans la realité, c'est ca les bases de la stereoscopie, dire le contraire en affirmant que c'est les camera virtuel qui devrait converger vers l'objet observé est totalement faux.

 

sans se torturer l'esprit ce qu'il faut principalement retenir de la convergence c'est que ca definie ou se trouve la surface de ton ecran dans la scene 3D (et indirectement les dimmension percu de la scene et des objets) donc tu comprend bien que c'est pas quelque chose que tu dois faire varier en court de jeu ou de plan. c'est exactement comme le FOV, c'est un parametre qui definie toute la perception de la scene et que tu ne change pas constament  sinon tu change alors toute la perception de la scene a chaque instant. imagine que quand tu regardes un poteau a 1m on te met un FOV de 70 degrées puis 1 seconde apres on te met un FOV de 15 degrées parce que tu regarde un mur qui est a 50m, ca n'a pas de sens et bien c'est pareille avec la convergence. si quand tu regarde le poteau a 1 metre il te parait etre a 50cm (c'est a dire a la distance de ton ecran) et que la seconde d'apres tu regarde un mur a 50m qui va soudainement t'aparaitre aussi comme si il etait a 50cm c'est absurde. tu peux t'amuser a faire varier rapidement le FOV ou la convergence pour faire des effet psyché genre "le joueur a pris une dose de drogue qui le rend invincible" mais en dehors de ca ca n'a pas de raison d'etre
le faite qu'on te propose des option dans les driver qui font varier automatiquement la convergence ce n'est que du bricolage du au fait que les jeux ne sont pas actuelement pensé pour la stereo et qui servent a palier je ne sais quelle probleme causé par cela (et sans doute des variation lente car sinon ca serait pas suportable), on peux trouver divers raison (eviter l'intrusion d'objet dans la zone de jaillissement si elle deborde de la boite de collision a cause de la convergence, compenser des effet de zoom, se calibrer sur un effet de DoF dans un jeu, accentuer artificielement le relief dans certaine zone vaste qui contraste avec des zone d'interieur...) mais c'est pas comme cela qu'est censé fonctionner la stereo, ce n'est qu'un artifice exploité par des driver qui viennent detourner le fonctionement d'un jeu pas prevu pour cela

 


ensuite je lis pas mal de reference a l'acte de filmer en stereo et la je dis attention de pas tout melanger. un film et un jeu sont deux choses totalement differente vis a vis de l'aproche de la stereoscopie. un film c'est une oeuvre artistique, un film est composé d'une multitude de scene et de plan dans lesquels le realisateur va faire des choix personnel pour exprimé ceci ou cela selon le plan et bien sure qu'il va changer le FOV, la profondeur de champ, la convergence ect... selon le plan. dans un film il ne sagit pas du tout de donner l'illusion que l'ecran est un portal, une fenetre sur un monde virtuel. un film c'est une illustration d'un recit par la mise en scene.
l'une des contraintes d'un film cinema c'est aussi entre autre de devoir projeter sur un tres grand ecran ou la zone de jaillisement peux faire 15 metre au lieu de 50cm/2m pour des TV/moniteur. par exemple on ne peux pas garder des parametres de FOV et de convergence realiste tout en filmant un dialogue entre 2 personages car si on fait cela soit on a 2 personages qu'on laisse en terme de profondeur juste derriere l'ecran de cinema (c'est la generalement qu'on place le sujet principale de la scene) a 15 metre du spectateur et qui alors aparaitront tout petit comme si tu regardais une piece de theatre. soit il faut aprocher les 2 acteurs a 1 metre du spectateur pour qu'ils puissent les voir de suffisement pret mais si t'es a 15 metres de l'ecran ca veut dire placer les 2 personages tres loin dans la zone de jaillissement ce qui est a eviter donc bien sure que selon la scene et ce que tu veux placer au premier plan derriere l'ecran alors tu vas jouer forcement avec la convergence (mais tu ne fait pas varier la convergence pas plus que le FOV pendant que tu film le plan a moins de vouloir faire un effet visuel)
y a une autre grosse difference entre le cinema et un jeu c'est que quand tu film avec une camera tu as une profondeur de champ fini qui varie selon certain choix de prise de vue et qui fait qu'il y a une zone net en dehors de laquel les plans peuvent etre flou et naturelement tu vas devoir plus ou moins calibrer la convergence de la scene en correlation avec le focus et la profondeur de champ et donc le sujet de la scene qui lui meme est en general destiné a etre au premier plan pour le mettre en valeur. on est dans la mise en scene pure
dans un jeu il n'y a pas de contrainte de profondeur de champ (a moins de l'ajouter artificelement en post-process) elle est total. en une seul image tu a toute les informations necessaire pour reproduire tout le relief. tout les plans du premier au dernier sont aussi net les uns que les autres ce qui est un avantage car on peux promener sont regard ou l'on veux dans la scene quelque soit les variation de distance comme dans la realité. et justement on doit etre libre de porter notre attention ou l'on veux comme si la TV n'etait qu'un portal, une fenetre sur un autre monde sans rien imposé, on est pas dans le cadre d'un film.

 

restera toujours le probleme de la plano-stereoscopie ou le cristallin reste toujours focalisé sur la surface de l'ecran ce qui est une information contradictoire pour le cerveau (et par la meme occasion l'absence de flou sur les plan qui sont devant et derriere le plan de convergence qui peuvent perturber mais qu'on pourait a la limite simuler avec de l'eye tracking et un DoF en post-process, utiliser l'eyetracking pour modifier la convergence selon ce qu'on regarde ce n'est surtout pas a faire mais l'utiliser pour parametrer le DoF ca ca pourait etre utile). il existe des solutions qui essaye de contourner cela comme l'holovision http://www.holovisionproject.org/news_files/92_91.pdf mais ca utilise une centaine de micro-projecteur, c'est pas destiné a nos maisons (sans parler de l'eternel probleme de ce genre de source multi-angle) ou peut etre un jour des lunettes ecran a base de laser qui projette directement sur la retine (ca existe deja depuis quelque année) mais avec une optique adaptative tel que dans les telescope geant moderne (peut etre avec des micro-mirroir Mems ou je ne sais quoi) dont on pourait modifier la forme a haut frequence pour modifier la focale de chaque pixel individuelement selon le Z-buffer. j'avais lu y a longtemps l'evoquation de cette possibilité purement theorique mais je sais pas si c'est realisable, c'est compliqué l'optique. avec quelque chose comme ca l'illusion serait parfaite.

 

pour le cas basique ou l'objet que tu observes se situe sur l'axe partant du centre de l'écran et passant par le point de fuite, l'intérêt et le réalisme de la convergence dynamique est totalement indiscutable.
On s'en rend bien compte pour le cas ou on regarde une photo en stéréo dans stéréoscope basique. On ne voit le relief que si on regarde d'une certaine façon. on a le regard enprisoné sur un rail. pour un plan plus proche ça ne marcherait pas, on verrait un objet centré en face de soit en double.

 

La convergence fixe en 3D c'est fait pour être utilisé un peu comme quand on conduit, on regarde pas la ligne blanche à 5 metres, non on regarde loin devant, sinon on a de grandes chances de finir dans le fossé.
Ca c'est une façon passive de concevoir la stéréoscopie, avec une convergence lointaine tu pourras montrer que des paysages, mais si veux montrer un truc centré en premier plan tu l'as dans l'os.
Si tu veux dans ta scène fixer un objet qui se trouve pas trop loin, alors il faut que tu changes la convergence, sinon le spectateur se demandera pourquoi on lui met un obstacle dédoublé devant lui pour lequel il doit loucher à mort si il veut le distinguer, alors que tout dans la convergence de la scène le pousse à regarder loin sur l'horizon et "derrière" cet objet.

 

Pour ce qui est la question de distinguer des objets qui ne sont pas dans l'axe, la question parait moins facile à résoudre.

 

Pour le cas où on veut "regarder dans les coins" il y a bien le systeme de head tracking tel que là http://www.youtube.com/watch?v=Jd3-eiid-Uw
ce système change le point de fuite de la projection, et utilise en gros le systeme de l'anamorphose. Mais là aussi il part du principe que l'utilisateur regarde toujours au centre de l'écran.

 

pour ce qui est du cas où on a la tête centrée et qu'on regarde ailleurs que dans l'axe, là je vois moins comment on pourrait faire avec du eye tracking. Là ça serait très dur (ptetre en fesant comme si on projetais sur une sorte de cône ? moi je pense qu'il doit y avoir moyen :D )

 

Pour ce qui est du changement de fov dont tu parles, l'exemple du système avec headtracking montre qu'avoir un changement dynamique du point de vue ne pose pas de probleme, à partir du moment ou c'est suffisament fluide et continu. Tant que le cerveau se fait gruger c'est bon.

 
nac76 a écrit :


blackshark t'en parlerai beaucoup mieu que moi mais le truc (a peu-prêt d'après ce que j'ai compris) c'est que même avec une carte graphique très puissante il est difficile voire impossible d'afficher 2x 50fps d'un jeux en continu sans avoir de fluctations (je prend un ecran a 100hz pour l'exemple)
hors si les fps ne sont pas a 2x 50, elles se désynchronisent avec l'écran qui lui reste a 100hz
du coup la 3D va marcher un moment plus ou moins long selon la gourmandise du jeu mais la synch fini par se perdre et tu vois les 2 images séparément.
les drivers de nvidia corrigent ce problème je sais plus comment mais IZ3D n'ayant pas accès au code des drivers ou au bios du gpu ne peut pas régler ce probleme.
par contre ça semble marcher correctement en mode interlacé, je sais pas pourquoi ni comment mais je n'avais aucun problème en utilisant ce mode

 

ben en effet, ça dépend si ils éssayent d'afficher deux images prise à l'instant T pour chaque oeil, ou si c'est t pour un oeil et t+1 pour l'autre, ce qui serait logique dans un sens, mais quand la carte rame, qu'est ce que tu fais afficher sur t+2 ? si t'affiche t, la seule image disponible, tu reviens alors en arrière dans le temps :D

 

c'est un soucis dans ce genre ?

Message cité 2 fois
Message édité par basketor63 le 22-06-2009 à 19:08:06
n°7007335
upsilandre​51
Posté le 22-06-2009 à 19:33:42  profilanswer
 

basketor63 a écrit :


La convergence fixe en 3D c'est fait pour être utilisé un peu comme quand on conduit, on regarde pas la ligne blanche à 5 metres, non on regarde loin devant, sinon on a de grandes chances de finir dans le fossé.
Ca c'est une façon passive de concevoir la stéréoscopie, avec une convergence lointaine tu pourras montrer que des paysages, mais si veux montrer un truc centré en premier plan tu l'as dans l'os.
Si tu veux dans ta scène fixer un objet qui se trouve pas trop loin, alors il faut que tu changes la convergence, sinon le spectateur se demandera pourquoi on lui met un obstacle dédoublé devant lui pour lequel il doit loucher à mort si il veut le distinguer, alors que tout dans la convergence de la scène le pousse à regarder loin sur l'horizon et "derrière" cet objet.

 

Pour ce qui est la question de distinguer des objets qui ne sont pas dans l'axe, la question parait moins facile à résoudre.

 


avoir une convergence fixe sur le plan virtuel de diffusion ca ne fait que reproduire la realité. si tu observe un objet a 5 metre et qu'il y a quelque chose devant a 1 metre bien sur qu'il aparaitra dedoublé dans ton champ visuel comme dans la realité et que si tu veux le regarder il faudra intuitivement converger tes yeux dessus comme dans la realité pour reduire le parallaxe jusqu'a l'annuler (ce n'est pas louché, c'est juste convergé tes yeux, converger a 30 cm si l'objet est virtuellement a 30cm comme tu le ferais dans la realité), bien entendu aussi que si tu met un objet trop proche de toi a 10cm tu poura pas converger dessus comme dans la realité, et tout ce qui est au dela d'une centaine de metre est trop loin pour avoir une sensation de relief et percevoir les nuances de distance comme dans la realité car les variation de convergence de tes yeux sont trop faible, ca ne fait que reproduire les meme contrainte de convergence que dans la realité, ni plus ni moins
la je parle de comment utiliser la stereo pour reproduire la realité, pas de faire un film 3D avec une mise en scene. utiliser une convergence dynamique qui change selon ce que tu regarde c'est tout sauf reproduire la realité
definitivement tu ne comprend pas ce dont je parle mais bon c'est pas grave tanpis

Message cité 2 fois
Message édité par upsilandre51 le 22-06-2009 à 20:37:43
n°7007390
NoixPecan
Posté le 22-06-2009 à 20:08:25  profilanswer
 

Ne t'inquiète pas upsilandre51, tes explications n'auront pas été inutiles. Grâce à toi j'ai compris. :jap:  

n°7007399
upsilandre​51
Posté le 22-06-2009 à 20:13:57  profilanswer
 

basketor63 a écrit :


Pour le cas où on veut "regarder dans les coins" il y a bien le systeme de head tracking tel que là http://www.youtube.com/watch?v=Jd3-eiid-Uw
ce système change le point de fuite de la projection, et utilise en gros le systeme de l'anamorphose. Mais là aussi il part du principe que l'utilisateur regarde toujours au centre de l'écran.

 

non ca part pas de ce principe, c'est pas moins conforme en dehors du centre de l'image
il sagit juste de modifier la position des camera virtuel par raport au plan de projection dans l'espace 3D selon comment le joueur se positionne par raport a l'ecran donc la il sagit bien de reproduire la realité, l'observateur bouge et on reporte ces meme mouvement sur le point d'observation virtuel de la scene 3D. selon la position que tu prend par raport a l'ecran il va falloir modifier la position de la camera virtuel, l'angle d'observation, le FOV et la convergence mais la c'est bien dans le bute ici de conserver le realisme car le faite que l'observateur change de position par raport au plan de diffusion necessite forcement de modifier les parametre de prise de vue virtuel pour conserver une projection conforme de la scene sur la plan de diffusion car ces parametre sont calibrer pour un seul point d'observation bien precis
dailleurs j'ai hate de voir ce genre de fonction utiliser dans un jeu stereo, les 2 combinés permettent de réelement tranformer l'ecran en portal. sony a montrer une demonstration semblable mais sans accessoire sur la tete, juste du face tracking a l'aide de la camera PSeye ( http://www.youtube.com/watch?v=80VWGjWYWd4 ) . sony fournis deja ces libs de face-tracking avec les devs kit, je pense qu'un jeu PS3 finira bien par experimenter cela notement avec les nouveaux controller motion tracking qui sortiront l'année prochaine et qui sont accompagné de la camera

 


Citation :

Pour ce qui est du changement de fov dont tu parles, l'exemple du système avec headtracking montre qu'avoir un changement dynamique du point de vue ne pose pas de probleme, à partir du moment ou c'est suffisament fluide et continu. Tant que le cerveau se fait gruger c'est bon.

 

non y a pas vraiment de rapport entre les deux cas comme je l'ai expliqué plus haut

Message cité 1 fois
Message édité par upsilandre51 le 22-06-2009 à 20:36:04
n°7007411
upsilandre​51
Posté le 22-06-2009 à 20:19:02  profilanswer
 

NoixPecan a écrit :

Ne t'inquiète pas upsilandre51, tes explications n'auront pas été inutiles. Grâce à toi j'ai compris. :jap:  


 
au moins j'aurais pas le sentiment d 'avoir perdu tout ce temps, c'est toujours ca de pris   :cry:  

n°7007570
basketor63
Sarkozy en prison
Posté le 22-06-2009 à 22:32:44  profilanswer
 

upsilandre51 a écrit :

avoir une convergence fixe sur le plan virtuel de diffusion ca ne fait que reproduire la realité. si tu observe un objet a 5 metre et qu'il y a quelque chose devant a 1 metre bien sur qu'il aparaitra dedoublé dans ton champ visuel comme dans la realité et que si tu veux le regarder il faudra intuitivement converger tes yeux dessus comme dans la realité pour reduire le parallaxe jusqu'a l'annuler (ce n'est pas louché, c'est juste convergé tes yeux, converger a 30 cm si l'objet est virtuellement a 30cm comme tu le ferais dans la realité)

 

j'emploie le terme "loucher" pour parler du cas où avec une convergence fixe, tu serais obligé de te forcer à aligner les deux images en louchant si tu veux fixer l'objet, car l'alignement tu ne l'obtiendrais pas juste en fesant converger tes yeux sur l'objet, mais en convergent plus, donc à priori devant l'objet.
c'est ce que la convergence fixe pousse à faire, en tout cas dans le cas ou le point de convergence fixe est situé plus loin que l'objet (dont on parle)
ce que je veux dire c'est que pour que ton cerveau superpose les deux images de l'objet, tu devras loucher.
C'est ce qu'on fait avec certaines images en 3D, je ne me rappelle plus comment ça s'appelle, je trouve ça insuportable :D

 
upsilandre51 a écrit :

bien entendu aussi que si tu met un objet trop proche de toi a 10cm tu poura pas converger dessus comme dans la realité, et tout ce qui est au dela d'une centaine de metre est trop loin pour avoir une sensation de relief et percevoir les nuances de distance comme dans la realité car les variation de convergence de tes yeux sont trop faible, ca ne fait que reproduire les meme contrainte de convergence que dans la realité, ni plus ni moins

 

à partir du moment où il "sortira hors de l'écran" tu ne pourras en effet pas converger dessus comme dans la réalité.
concernant la distance, je ne suis pas completement de ton avis, car je pense que ce qui va te renseigner sur la distance jusqu'a à l'objet que tu vises, c'est aussi la paralaxe sur tous les objets avoisinants qui vont se trouver entre toi et l'objet.
C'est pour cette raison que je te disais que même en fesant un truc faux comme aligner un objet situé à 5 metre sur la surface de l'écran, ne fesait pas perdre la sensation de profondeur, même si clairement elle est faussée sur les distances. C'est juste que pour les trucs en anaglyphes, il y a un ghosting tellement énorme que ça parait un compromis acceptable.

 
upsilandre51 a écrit :

la je parle de comment utiliser la stereo pour reproduire la realité, pas de faire un film 3D avec une mise en scene. utiliser une convergence dynamique qui change selon ce que tu regarde c'est tout sauf reproduire la realité
definitivement tu ne comprend pas ce dont je parle mais bon c'est pas grave tanpis

 

toi on dirait que tu comprends pas ce qu'est la notion de réalité.
la réalité stéréoscopique n'est ce qu'elle est uniquement parceque notre cerveau combine deux images 2D et en déduit des choses grace à son expérience acquise.

 

Quand il y a un paysage derrière une fenetre, que toi tu sois là ou non, que tu le regardes où non, ça ne change rien à la réalité géométrique du paysage, le paysage est fixe, il ne bouge pas. Et c'est normal. Cependant quand tu représentes l'univers sur un écran, comme tu as une surface 2D, et que tu sais que en changeant le point de vue par rapport à la fentre (virtuelle ou non ça revient au même), tu révèles plus ou moins certaines parties de cet univers, tu sais donc que tu as le choix concernant le point d'observation.
En général le choix qui est fait c'est qu'on admet qu'on va regarder la scène en étant pile en face au milieu. Mais on pourrait très bien faire un tableau ou on décide que en fait il faut le regarder à 45° . C'est le principe des anamorphoses.
et bien pour la stéréoscopie c'est un peu pareil, tu n'as plus une projection orthogonale centré classique pour une des images, (ou les deux si c'est symétrique). Sauf qu'on a pas un déclage de 45° par rapport à l'orthogonale à l'écran, mais quelques ° seulement.

 
upsilandre51 a écrit :

non ca part pas de ce principe, c'est pas moins conforme en dehors du centre de l'image
il sagit juste de modifier la position des camera virtuel par raport au plan de projection dans l'espace 3D selon comment le joueur se positionne par raport a l'ecran donc la il sagit bien de reproduire la realité, l'observateur bouge et on reporte ces meme mouvement sur le point d'observation virtuel de la scene 3D. selon la position que tu prend par raport a l'ecran il va falloir modifier la position de la camera virtuel, l'angle d'observation, le FOV et la convergence mais la c'est bien dans le bute ici de conserver le realisme car le faite que l'observateur change de position par raport au plan de diffusion necessite forcement de modifier les parametre de prise de vue virtuel pour conserver une projection conforme de la scene sur la plan de diffusion car ces parametre sont calibrer pour un seul point d'observation bien precis
dailleurs j'ai hate de voir ce genre de fonction utiliser dans un jeu stereo, les 2 combinés permettent de réelement tranformer l'ecran en portal. sony a montrer une demonstration semblable mais sans accessoire sur la tete, juste du face tracking a l'aide de la camera PSeye ( http://www.youtube.com/watch?v=80VWGjWYWd4 ) . sony fournis deja ces libs de face-tracking avec les devs kit, je pense qu'un jeu PS3 finira bien par experimenter cela notement avec les nouveaux controller motion tracking qui sortiront l'année prochaine et qui sont accompagné de la camera

 

non y a pas vraiment de rapport entre les deux cas comme je l'ai expliqué plus haut

 

oui mais ce principe anamorphique est en partie présent pour l'oeil qui est décalé justement.
vu que au moins une des images projetée ne peut pas être orthogonale

 
upsilandre51 a écrit :

Citation :

Pour ce qui est du changement de fov dont tu parles, l'exemple du système avec headtracking montre qu'avoir un changement dynamique du point de vue ne pose pas de probleme, à partir du moment ou c'est suffisament fluide et continu. Tant que le cerveau se fait gruger c'est bon.

 

non y a pas vraiment de rapport entre les deux cas comme je l'ai expliqué plus haut

 

pourtant si, en stéréoscopie une des images n'a pas son centre projeté orthogonalement.

 


l'exemple de la vidéo postée par nac76 avec la caméra stéréo de James Cameron qui utilise une convergence amovible est pourtant on ne peut plus explicite à ce niveau.

 

ca voudrait dire que d'après toi James Cameron est un gros demeuré d'utiliser un tel système :??: que le mec il a claqué plusieurs millions dans un truc qui ne sert absolument à rien ?  :lol:

Message cité 2 fois
Message édité par basketor63 le 22-06-2009 à 22:48:26
n°7007609
upsilandre​51
Posté le 22-06-2009 à 22:53:56  profilanswer
 

basketor63 a écrit :


j'emploie le terme "loucher" pour parler du cas où avec une convergence fixe, tu serais obligé de te forcer à aligner les deux images en louchant si tu veux fixer l'objet, car l'alignement tu ne l'obtiendrais pas juste en fesant converger tes yeux sur l'objet, mais en convergent plus, donc à priori devant l'objet.

 

non

 


Citation :


à partir du moment où il "sortira hors de l'écran" tu ne pourras en effet pas converger dessus comme dans la réalité.

 

si

 


Citation :

C'est juste que pour les trucs en anaglyphes, il y a un ghosting tellement énorme que ça parait un compromis acceptable.

 

on s'en fou de l'anaglyphe

  
Citation :

toi on dirait que tu comprends pas ce qu'est la notion de réalité.

 

ouai ca doit etre ca...

 


Citation :

Quand il y a un paysage derrière une fenetre, que toi tu sois là ou non, que tu le regardes où non, ça ne change rien à la réalité géométrique du paysage, le paysage est fixe, il ne bouge pas. Et c'est normal. Cependant quand tu représentes l'univers sur un écran, comme tu as une surface 2D, et que tu sais que en changeant le point de vue tu révèles plus ou moins certaines parties de cet univers, tu sais que tu as le choix. En général le choix qui est fait c'est qu'on admet qu'on va regarder la scène en étant pile en face au milieu. Mais on pourrait très bien faire un tableau ou on décide que en fait il faut le regarder à 45° . C'est le principe des anamorphoses.
et bien pour la stéréoscopie c'est un peu pareil, tu n'as plus une projection orthogonale centré classique pour une des images, (ou les deux si c'est symétrique). Sauf qu'on a pas un décalage de 45° par rapport au centre, mais quelques ° seulement.

 

expliquation qui n'aporte rien. comme je l'ai expliqué l'ecran est un plan de l'espace sur lequel tu projete la scene virtuel selon le point d'observation, ca suffis a tout expliquer et a respecter la conformité de la scene quelque soit le point de vue. le faite que l'image resultante soit bien evidement une forme d'anamorphose quand l'angle n'est pas perpendiculaire ne change rien.

 


Citation :

 

pourtant si, sauf que en stéréoscopie il y a aussi un décalage du centre (pour un oeuil au moins)

 


 

aucun rapport

 

Message cité 1 fois
Message édité par upsilandre51 le 22-06-2009 à 23:07:00
n°7007621
upsilandre​51
Posté le 22-06-2009 à 23:04:27  profilanswer
 

basketor63 a écrit :


l'exemple de la vidéo postée par nac76 avec la caméra stéréo de James Cameron qui utilise une convergence amovible est pourtant on ne peut plus explicite à ce niveau.
 
ca voudrait dire que d'après toi James Cameron est un gros demeuré d'utiliser un tel système :??: que le mec il a claqué plusieurs millions dans un truc qui ne sert absolument à rien ?  :lol:


 
je comprend toujours pas le rapport. j'ai expliquer 10 fois que bien entendu que sur une camera tu a besoin de pouvoir jouer avec la convergence selon les besoin. soit tu le fait a la post-production soit tu le fais directement avec la camera si t'as une camera suffisement perfectionner pour pouvoir gerer parfaitement se parametre mais ca n'a rien a voir avec le propos

n°7007646
basketor63
Sarkozy en prison
Posté le 22-06-2009 à 23:24:33  profilanswer
 

le rapport c'est que dans un jeu c'est pareil

 

admetons que tu regardes au loin, ta convergence est quasi parallèle.
maintenant on te colle un objet à 5 mettres
tu vas le voir double

 

après c'est pas forcément ce que tu veux.
Si t'as envie de faire un headshot sur un mec t'as tout intérêt à avoir ta convergence sur sa trombine. Ou alors tu fermes un oeil.
Pour un jeu de basket ça serait pareil si tu veux shooter.

Message cité 1 fois
Message édité par basketor63 le 22-06-2009 à 23:33:07
n°7007654
upsilandre​51
Posté le 22-06-2009 à 23:36:16  profilanswer
 

on en est toujours au meme point comme si j'avais rien expliqué, c'est formidable  :lol:

 

bon je vais m'arreter la, je vais vous laisser un peu tranquil quelque temps en attendant mon zalman, amusez vous bien.  :pt1cable:


Message édité par upsilandre51 le 22-06-2009 à 23:39:41
n°7007664
basketor63
Sarkozy en prison
Posté le 22-06-2009 à 23:48:40  profilanswer
 

mais tu n'as absolument rien expliqué
ou plutot rien prouvé

 
upsilandre51 a écrit :

Citation :

C'est juste que pour les trucs en anaglyphes, il y a un ghosting tellement énorme que ça parait un compromis acceptable.

 

on s'en fou de l'anaglyphe

 

c'est que tu ne comprends absolument pas de quoi je parle.

 


Message édité par basketor63 le 22-06-2009 à 23:49:53
n°7007683
basketor63
Sarkozy en prison
Posté le 23-06-2009 à 00:12:18  profilanswer
 

upsilandre51 a écrit :

avoir une convergence fixe sur le plan virtuel de diffusion ca ne fait que reproduire la realité.

 

justement c'est là que tu trompes sur la notion de réalité

 


upsilandre51 a écrit :

si tu observe un objet a 5 metre et qu'il y a quelque chose devant a 1 metre bien sur qu'il aparaitra dedoublé dans ton champ visuel comme dans la realité et que si tu veux le regarder il faudra intuitivement converger tes yeux dessus comme dans la realité pour reduire le parallaxe jusqu'a l'annuler (ce n'est pas louché, c'est juste convergé tes yeux, converger a 30 cm si l'objet est virtuellement a 30cm comme tu le ferais dans la realité)

 

là c'est pas loucher dans la réalité.

 

Par contre dans le cas d'un monde virtuel avec deux projections venant de deux caméras virtuelles permetant de donner une image pour chaque oeil, si tu ne changes pas la convergence des caméras, jamais en resserant la convergence de tes yeux tu ne pourras aligner les deux images en ayant toujours le centre de l'objet le plus proche au centre de l'axe de vision de chaque oeil ET avec une paralaxe correcte.
Pourquoi ?
Parceque les deux droites qui partent des caméras jusqu'au centre de l'objet lointain ne pourront pas aussi toutes les deux passer en même temps au centre de l'objet le plus proche.

 

Et c'est pour ça que tu es obligé de loucher pour avoir le sentiment de converger sur l'objet le plus proche, dont d'ailleurs les angles de vue seront faux par rapport à ce qu'ils devraient être dans une situation réelle.

 

Et en plus c'est super inconfortable et désagréable.

 

D'où l'intérêt de pouvoir changer la convergence à la volée


Message édité par basketor63 le 23-06-2009 à 00:29:24
n°7007686
itou
Posté le 23-06-2009 à 00:14:46  profilanswer
 

Ouh là, ce débat est un peu ... comment dire, euh, il faut que je relise un peu vos posts.  :whistle:  
Sinon, je peux dire que suivant mon expérience (nac76 me confirmera  :hello: ):
- caméras convergents, bien ajusté sur ce qu'on veut, donne un très bon résultat avec un petit ajustement à la post-prod
- caméras //, la post-prod donne un résultat bonne mais pas aussi bonne que caméras convergents bien ajusté.
 
voilà, apres, on fait croire au spectateur qu'il est tout pres ou loin du sujet.
 
Sinon, pas de réponse de Masuji SUTO, alors j'ai commencé à coder un petit prg qui va générer les avs en sortie de SMM en récupérant les infos que SMM donne dans le haut de sa fenetre.  

n°7007706
nac76
bein quoi?
Posté le 23-06-2009 à 01:01:06  profilanswer
 

itou a écrit :

Ouh là, ce débat est un peu ... comment dire, euh, il faut que je relise un peu vos posts.  :whistle:  
Sinon, je peux dire que suivant mon expérience (nac76 me confirmera  :hello: ):
- caméras convergents, bien ajusté sur ce qu'on veut, donne un très bon résultat avec un petit ajustement à la post-prod
- caméras //, la post-prod donne un résultat bonne mais pas aussi bonne que caméras convergents bien ajusté.
 
voilà, apres, on fait croire au spectateur qu'il est tout pres ou loin du sujet.
 
Sinon, pas de réponse de Masuji SUTO, alors j'ai commencé à coder un petit prg qui va générer les avs en sortie de SMM en récupérant les infos que SMM donne dans le haut de sa fenetre.  


 
oula, j'ai zappé le sujet depuis longtemps, ça devenait un peu trop "...comment dire" a mon gout  :lol:
 
sinon je confirme, une bonne convergence des 2 cams sur le sujet me semble aussi meilleure bien que je n'ai pas essayé de filmer en // .  :D  
la ou la convergence automatisée façon James Cameron me plait et me donne envie de reflechir a un moyen de faire un systeme dans le meme genre c'est pour filmer des sujets qui s'approchent ou s'éloignent, je m'imagine mal filmer un truc comme ça:
http://www.youtube.com/watch?v=xin4uHQyOO4
ou
http://video.google.fr/videoplay?d [...] mera&hl=fr
avec des cams en convergence fixe ou en // car même en post prod il faudrait faire des miracles pour obtenir un résultat qui tienne la route.
 
**********************************************************************************
 
encore des shutters dont je n'avais jamais entendu parler,  
http://host2.clickandbuild.com/cnb/shop/3dexperience?imageID=161&op=imgLib-viewImage
 
il s'agirait des shutters les plus legeres du monde avec un poids de...4 grammes  :ouch:  
 
http://host2.clickandbuild.com/cnb [...] egoryID=19

Message cité 1 fois
Message édité par nac76 le 23-06-2009 à 02:41:43

---------------
le site de toute la 3D
n°7007831
itou
Posté le 23-06-2009 à 10:15:13  profilanswer
 

nac76 a écrit :


la convergence automatisée façon James Cameron me plait et me donne envie de reflechir a un moyen de faire un systeme dans le meme genre c'est pour filmer des sujets qui s'approchent ou s'éloignent, je m'imagine mal filmer un truc comme ça:
http://www.youtube.com/watch?v=xin4uHQyOO4
ou
http://video.google.fr/videoplay?d [...] mera&hl=fr
avec des cams en convergence fixe ou en // car même en post prod il faudrait faire des miracles pour obtenir un résultat qui tienne la route.


Tout à fait d'accord, j'y pense aussi, pour mes futurs lointains xacti FH1... double systeme à vis pour séparation et convergence miniaturisé  :love:

n°7007932
nac76
bein quoi?
Posté le 23-06-2009 à 11:38:36  profilanswer
 

itou a écrit :


Tout à fait d'accord, j'y pense aussi, pour mes futurs lointains xacti FH1... double systeme à vis pour séparation et convergence miniaturisé  :love:


 
c'est ce que je suis en train de regarder depuis ce matin, en plus tout mon montage est a refaire, je me rend de plus en plus compte qu'il est truffé de défaut

  • 1, l'écran entre les 2 cams: il est presque pas visible et du coup mes réglages de convergence c'est du n'importe quoi, brancher une tv portable dessus c'est bien beau mais c'est un écran crt qui pese beaucoup trop lourd pour ce genre de montage et il est très gourmand en piles.  :sweat:

du coup j'ai acheté un lecteur dvd portable pour me servir de l'écran en attendant de peut-être pouvoir réaliser une idée que j'ai eu cette nuit grace a un forumeur d'mtbs. il s'agirait de fabriquer un truc comme ça:
http://www.3dexperience.co.uk/cambuddy.html
mais a moindre coup, avec les 2 images superposées mais sans rendu stéréoscopique. ça me permettrait de faire mes ajustements en 1 coup d'oeil
 

  • 2, j'ai pris des photos pour me faire un fond d'écran 3D mais en les éditant, je réalise a quel point les cams sont mal alignées.non seulement y'en a une qui filme un peu plus haut que l'autre mais en plus y'en a une qui est penchée, je suis obligé d'appliquer en post prod une rotation a une des 2 images pour que les 2 soient d'aplomb


  • 3, les trous pour fixer les cams a un trépied (ou a une planche dans notre cas) sont situés a l'arriere des cams, ce qui fait que quand on fait pivoter celles ci, l'axe de rotation est trop loin des objectifs qui se rapprochent trop l'un de l'autre quand on les fait converger.


du coup je suis en train de réfléchir a un montage qui offre beaucoup plus de possibilités:

  • réglage de convergence,
  • réglage de la hauteur des cams pour bien les aligner,
  • visionnage externe pour les réglages
  • déplacement des fixations des cams sous les objectifs
  • et montage des cams bien droites, qu'il n'y en est pas une de penchée


voila, plus qu'a mettre tout ça en forme, ça va faire du boulot et comme je suis pas doué en bricolage ça sera jamais parfait mais j'espère bien améliorer le tout  :)
 
*******************************************************************************
 
wow, des nouveaux drivers Iz3d avec une fonction pour afficher des vidéos 3d sur youtube  :love:  
http://www.mtbs3d.com/phpBB/viewto [...] =30&t=3516
 
*******************************************************************************
 
un petit doc que je trouve vraiment sympa:
http://www.stereo3d.com/Barco_Stereoscopic_proj.pdf


Message édité par nac76 le 23-06-2009 à 21:39:26

---------------
le site de toute la 3D
n°7008943
itou
Posté le 24-06-2009 à 00:10:49  profilanswer
 

ça y est, j'ai fini mon petit prg qui m'aide au calcul du crop (alignement vertical ou horizontal de SMM) et trim (synchro des 2 video dans SMM) me permettant ainsi de rester en script avs apres SMM.
Donc maintenant plus de transcodage inutiles :
MOV (aiptek) --> h264 synchro et correction alignement avec avisynth (avec quelques filtres au passage.)
ça reste quand même un peu manuel (car manque d'info dans SMM), mais c'est quand même un gain de temps très appréciable !
il faudrait que je paufine un peu pour ceux qui veulent utiliser.

n°7008967
nac76
bein quoi?
Posté le 24-06-2009 à 00:31:03  profilanswer
 

itou a écrit :

ça y est, j'ai fini mon petit prg qui m'aide au calcul du crop (alignement vertical ou horizontal de SMM) et trim (synchro des 2 video dans SMM) me permettant ainsi de rester en script avs apres SMM.
Donc maintenant plus de transcodage inutiles :
MOV (aiptek) --> h264 synchro et correction alignement avec avisynth (avec quelques filtres au passage.)
ça reste quand même un peu manuel (car manque d'info dans SMM), mais c'est quand même un gain de temps très appréciable !
il faudrait que je paufine un peu pour ceux qui veulent utiliser.


 
j'essayerai bien ce prg d'aide au crop et trim si c'est un truc pour newbies comme moi  :D  
par contre, le truc des scripts, je comprend pas trop, ça veut dire que ta vidéo reste en mov au final mais par exemple a chaque fois que tu voudra la rééditer il faudra repasser par un script?
 
moi je continu a chercher des solutions pour mon caméscope, un début de piste aujourd'huis, je pense que je vais monter les 2 cams sur des roues dentées, pour qu'il n'y en ait pas un qui pivote plus que l'autre et que le point de convergence reste bien au centre des 2
http://www.gotronic.fr/catalog/rob [...] enages.htm
 
ça plus une vis sans fin (meme page) pour un réglage bien précis, ça devrait faire des merveilles  :love:


Message édité par nac76 le 24-06-2009 à 01:17:59

---------------
le site de toute la 3D
n°7009455
pault6
-- -- -- -- -- -- -- -- -- --
Posté le 24-06-2009 à 12:48:57  profilanswer
 

Bon, j'ai continué à tester mon zalman, je maîtrise mieux les paramètres du driver iz3d, j'ai bien réglé la position de l'écran pour ne pas avoir de ghosting (d'ailleurs c'est impressionnant le peu de ghosting qu'il y a).
 
Par contre, j'ai installé le driver Tridef pour voir ce que ça donne comparé au zalman mais j'arrive pas à le faire marcher...  
 
L'installation se passe bien, je règle l'écran avec le mode interlaced, quand je lance le 3d experience machin ça m'affiche bien le logo en 3d, mais quand je lance un jeu depuis Ignition j'arrive pas à passer le jeu en 3d, j'ai pourtant bien régler les hotkeys (shift+D pour activer la 3d) mais rien ne se passe, aucuns hotkeys ne marche, je peux pas accéder à l'OSD ni rien). Par contre, le jeu marche normalement mais en 2d. Avec le driver iz3d j'ai juste à appuyer sur * et ça marche bien.
 
Si quelqu'un a déjà eu le même soucis...
 
J'aime autant essayer tous les drivers dispo avant d'en acheter un  :D  
 
Bonne journée  ;)


---------------
[FEED-BACK]
n°7009629
basketor63
Sarkozy en prison
Posté le 24-06-2009 à 14:28:11  profilanswer
 

ces drivers tridef marchent avec des shutters ?

n°7009771
BlackShark
En 3D c'est mieux.
Posté le 24-06-2009 à 15:47:53  profilanswer
 

sur une télé équipée DLP3D oui certainement, mais sur un écran normal je ne sais pas.

n°7009823
basketor63
Sarkozy en prison
Posté le 24-06-2009 à 16:15:01  profilanswer
 

Sur un DLP les lunettes se synchronisent directement au rafraichissement de l'écran si j'ai bien compris. Le driver ne fait qu'envoyer un flux vidéo, il ne communique pas avec les lunettes.
Donc sur un CRT où les lunettes se synchronisent avec le vsync du moniteur au niveau de la prise vga ça "devrait" fonctionner pareil à première vue [:klemton]
Enfin c'est une première hypothèse :D

n°7009878
nac76
bein quoi?
Posté le 24-06-2009 à 16:49:47  profilanswer
 

j'voulais les essayer a l'époque avec mes edimensional mais il me semble qu'il y'avait une histoire de payer les drivers indépendamment pour chaque jeu ou un truc comme ça, du coup j'avais abandonné l'idée mais j'espère que ça a changé depuis


---------------
le site de toute la 3D
n°7009904
basketor63
Sarkozy en prison
Posté le 24-06-2009 à 17:06:17  profilanswer
 

donc là tes edimensional ne te servent à rien en fait
 
comment iz3d peut vendre son driver shutter alors qu'il marche pas ? :??:

n°7009912
nac76
bein quoi?
Posté le 24-06-2009 à 17:13:34  profilanswer
 

basketor63 a écrit :

donc là tes edimensional ne te servent à rien en fait
 
comment iz3d peut vendre son driver shutter alors qu'il marche pas ? :??:


 
pour le moment non mais je réfléchis a l'acquisition d'un projecteur qui fonctionnerait a 85hz avec ces lunettes


---------------
le site de toute la 3D
n°7010005
fixbornes
Posté le 24-06-2009 à 18:20:48  profilanswer
 

Dites, les spécialistes stereo 3D, quel soft vous me conseillez pour retravailler des photos en stéréoscopie. J'ai fait quelques essais qui marchent pas trop mal, mais s'il y a des softs qui permettent d'améliorer le tout, ça m'intéresse :)

n°7010014
nac76
bein quoi?
Posté le 24-06-2009 à 18:30:47  profilanswer
 

fixbornes a écrit :

Dites, les spécialistes stereo 3D, quel soft vous me conseillez pour retravailler des photos en stéréoscopie. J'ai fait quelques essais qui marchent pas trop mal, mais s'il y a des softs qui permettent d'améliorer le tout, ça m'intéresse :)


 
j'ai essayé que anaglyph maker qui contrairement a ce que son nom indique permet de faire d'autres formats en plus de l'anaglyphe et qui est gratuit:
http://www.clubic.com/telecharger- [...] maker.html
en plus pas besoin de l'installer, tu décompresse et c'est partit
sinon pour faire dans la perfection j'avais vu un tuto pour le faire directement dans photoshop mais c'est plus compliqué et j'arrive pas a retrouver le lien


Message édité par nac76 le 24-06-2009 à 18:33:04

---------------
le site de toute la 3D
n°7010098
NoixPecan
Posté le 24-06-2009 à 19:15:54  profilanswer
 

Stereo Photo Maker, gratuit lui aussi, me semble très complet.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  25  26  27  ..  244  245  246  247  248  249

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic unique] Carte mère ASRock Conroe 1333 DVI/H R2[Topic unique] Maximus II Formula
[Topic Unique] Asus Maximus Extreme[Topic unique] Boitier Gigabyte 3D Mars - Le successeur du 3D Aurora
[topic_unique]4core1333-FULL HD 
Plus de sujets relatifs à : [Topic Unique] stéréoscopie: tout sur la 3ème dimension


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)