Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3006 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  24  25  26  ..  244  245  246  247  248  249
Auteur Sujet :

[Topic Unique] stéréoscopie: tout sur la 3ème dimension

n°7005026
upsilandre​51
Posté le 21-06-2009 à 01:11:10  profilanswer
 

Reprise du message précédent :
basketor est ce que tu as bien saisie la difference entre la convergence binoculaire (la direction dans laquel sont pointé les yeux) et le point de focal du cristallin (qui se contracte plus ou moins pour qu'un point soit net et pas flou selon la distance)
j'essaye juste de trouver sur quoi tu bloque pour comprendre a quelle endroit t'es sortie de la piste dans ton raisonnement :D
je pense pas que ton probleme soit la mais je suis a court d'idée, j'arrive pas a comprendre le truc qui t'echape, je laisse cette tache a Blackshark qui a l'aire plus perspicace pour decoder :)

mood
Publicité
Posté le 21-06-2009 à 01:11:10  profilanswer
 

n°7005028
upsilandre​51
Posté le 21-06-2009 à 01:15:01  profilanswer
 

basketor63 a écrit :


 
non car ce qui compte pour que ton cerveau se fasse une idée de la distance et de la profondeur donc, ce n'est pas le souvenir du fait que "si tu regardes à telle distance, alors tes nerfs optiques sont orientés de tant degrés", mais bien les images qui lui parviennent.
 


 
ah on commence peut etre a avoir un debut de piste. c'est probablement la que tu te trompe. l'une des informations principale de percpetion de distance pour le cerveau c'est justement l'orientation que tes yeux forme (la convergence binoculaire) lorsque les 2 images de l'objets que tu pointe se superpose au meme endroit sur les 2 retines :)  

n°7005030
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 01:16:47  profilanswer
 

upsilandre51 a écrit :


 
bien sure que les realisateurs qui utilisent un systeme de camera qui converge modifie la convergence selon la scene et les besoins. mais justement c'est bien cela que l'on compare, il sagit de comparer cette solution ou on regle soit meme la convergence des cameras selon les besoins et donc on profite totalement de la defintiion des capteurs a l'autres solution ou l'on utilise des camera parellele avec un FOV tres large et ou l'on regle la convergence a la post-production ce qui oblige a grignoter sur la definition


 
c'est bien pour ça que je dis que dans un jeu, pouvoir ajuster la convergence à volonté est à mon avis important.
 
 

upsilandre51 a écrit :

basketor est ce que tu as bien saisie la difference entre la convergence binoculaire (la direction dans laquel sont pointé les yeux) et le point de focal du cristallin (qui se contracte plus ou moins pour qu'un point soit net et pas flou selon la distance)
j'essaye juste de trouver sur quoi tu bloque pour comprendre a quelle endroit t'es sortie de la piste dans ton raisonnement :D
je pense pas que ton probleme soit la mais je suis a court d'idée, j'arrive pas a comprendre le truc qui t'echape, je laisse cette tache a Blackshark qui a l'aire plus perspicace pour decoder :)


 
 [:ripeer]

n°7005031
nac76
bein quoi?
Posté le 21-06-2009 à 01:17:30  profilanswer
 

upsilandre51 a écrit :


 
on parle forcement de post-production car sans post-production la solution parallele ne peux pas vraiment etre utilisé, ca ne correspond a rien d'exploitable en l'etat
et une fois passer en post-production non ca limite rien du tout, ca reduit juste la definition de l'image, les images elle seront exactement pareille qu'avec les 2 cams en convergences


 
j'ai pas essayé la méthode parallèle donc je n'imaginai pas que la post-pro soit importante a ce point, mis a part pour les réglages de séparation et de synchro. faudra bien que j'essaye un jour :D mais malgré tout je pense que ça peut quand même poser certains problèmes, par exemple sur une image filmée de très près , le sujet va apparaitre complètement a droite de la vue gauche et vice versa, il faudra alors recentrer complètement l'image pour avoir quelque chose de potable, au détriment de la largeur de l'image qui va effectivement en prendre un sacré coup
de toutes façon tant que j'aurai pas essayé je ne pourrai pas dire quelle est la meilleur des 2 méthodes mais je trouve plus logic pour du pop-up de faire converger les cams.
 

upsilandre51 a écrit :


 
bien sure que les realisateurs qui utilisent un systeme de camera qui converge modifie la convergence selon la scene et les besoins. mais justement c'est bien cela que l'on compare, il sagit de comparer cette solution ou on regle soit meme la convergence des cameras selon les besoins et donc on profite totalement de la defintiion des capteurs a l'autres solution ou l'on utilise des camera parellele avec un FOV tres large et ou l'on regle la convergence a la post-production ce qui oblige a grignoter sur la definition


en fait ce qui serait pas mal c'est de savoir qui utilise quelle méthode et pourquoi, dans quelles occasion etc etc
 
********************************************************
 
dites, sans vouloir trop changer de sujet, ils ont été super sympa sur mtbs de faire en sorte qu'on puisse afficher des vidéos, vous croyez qu'on pourrait faire pareille sur hfr? si oui faut contacter qui pour en discuter?

Message cité 2 fois
Message édité par nac76 le 21-06-2009 à 01:28:53

---------------
le site de toute la 3D
n°7005038
upsilandre​51
Posté le 21-06-2009 à 01:25:23  profilanswer
 

nac76 a écrit :

par exemple sur une image filmée de très près , le sujet va apparaitre complètement a droite de la vue gauche et vice versa, il faudra alors recentrer complètement l'image pour avoir quelque chose de potable, au détriment de la largeur de l'image qui va effectivement en prendre un sacré coup
 


 
oui mais c'est pas la largeur de l'image qui en prend un coup mais la definition. pour garder la meme largeur, le meme champ visuel, il suffis de prevoir un FOV bien plus large quand tu utilise les camera parallele

Message cité 1 fois
Message édité par upsilandre51 le 21-06-2009 à 01:32:58
n°7005040
nac76
bein quoi?
Posté le 21-06-2009 à 01:27:34  profilanswer
 

upsilandre51 a écrit :


 
oui mais c'est pas la largeur de l'image qui en prend un coup mais la definition pour garder la meme largeur, le meme champ visuel, il suffis de prevoir un FOV bien plus large quand tu utilise les camera parallele


 
oui mais la ça fini par dépasser largement mes moyens  :lol:


---------------
le site de toute la 3D
n°7005043
upsilandre​51
Posté le 21-06-2009 à 01:30:23  profilanswer
 

nac76 a écrit :


en fait ce qui serait pas mal c'est de savoir qui utilise quelle méthode et pourquoi, dans quelles occasion etc etc

 

en faite si tu veux vraiment filmer de facon parfaitement realiste alors il faudrait choisir une convergence fixe (et une separation des camera de 6.5cm) qui depend uniquement de la taille de l'ecran sur lequel tu vas projeter (10 cm, 50 cm, 1 metre, 10 metres, 20 metres...) et dans ce cas tu reproduira parfaitement la realité. mais les realisateurs  n'hesites sans doute pas a jouer sur la convergence pour donner du style a certaine scene. ca altere la realité et les dimensions (parfois tu sera comme une fourmis dans un monde de geant et parfois un geant dans un monde miniature) mais ca fait partie des outils du realisateur


Message édité par upsilandre51 le 21-06-2009 à 01:33:50
n°7005050
BlackShark
En 3D c'est mieux.
Posté le 21-06-2009 à 01:40:02  profilanswer
 

basketor63 a écrit :


non c'est pas vrai, cf exemple du poteau derrière une fenetre :o
tes yeux alignent les images, pourtant le poteau n'est pas collé à la fenêtre.
 
l'effet de jaillissement vient du fait que l'écran affiche deux images d'un objet, séparées d'une façon identique à ce que nos yeux verraient si l'objet était réellement situé à cet endroit ET qu'on regardait loin devant.


Justement, ton exemple du poteau ne fonctionne que si tu regardes directement cet objet dans le monde réel. En image stereo tu as obligatoirement une surface de projection intermédiaire : L'ECRAN
 
Pour obtenir une image correcte sur un écran : en partant du principe que ta vitre est représentée au niveau de l'écran et que le poteau soit loin derrière : un moustique posé sur la vitre aura ses deux images (quasi) superposées, tandis que les images du poteau seront séparées sur l'écran.
Ce sont tes yeux qui convergent vers l'objet regardé (le moustique ou le poteau) et qui font que le cerveau voit l'objet regardé bien et l'objet non regardé doublé.
Afin de respecter la représentation de la réalité, la convergence des caméras doit être réglée une fois pour toutes et ne surtout pas bouger.
 
Tout changement de la convergence des caméras n'est pas réaliste et réduit la sensation de profondeur, cependant il peut être recherché par un réalisateur pour éviter de mettre le spectateur mal à l'aise dans des cas de très fort jaillissement ou de gros plans.
 

basketor63 a écrit :


Dans la plupart des jeux actuels, si il n'y a pas d'objets qui sortent de l'écran, c'est parceque en fait aucun objet n'est rendu entre la fenetre qui donne sur le monde virtuel et le joueur.


Non
la position de la fenêtre qui donne sur le monde virtuel est déterminée par le réglage de la convergence des caméras : si tu places les caméras parfaitement parallèle cela revient à placer ton écran à l'infini et avoir l'intégralité de la scène en jaillissement. (c'est la méthode la plus facile à utiliser pour filmer dans le monde réel en 3D mais nécessite de décaler les images ensuite pour avoir quelque chose d'agréable à regarder, c'est pour cela que le driver iZ3D ne le permet pas)
La raison pour laquelle il n'y a pas de jaillissement avec les drivers nvidia est parce que le driver nvidia règle automatiquement la convergence par défaut pour que l'intégralité de la scène soit rendu derrière la fenêtre qui donne sur le monde virtuel. Tu peux avoir du jaillissement avec les drivers nvidia mais il faut aller dans les options avancées pour accéder aux réglages de convergence.

n°7005051
nac76
bein quoi?
Posté le 21-06-2009 à 01:40:03  profilanswer
 

il me semble que Cameron avait envisager de tester un système de convergence dynamique sur sa camera stéréoscopique, ça me rappelle un petit probleme que j'ai avec les aiptek:
je les ai fixé a 64mm mais les trous de fixation pour les mettre sur un trépied sont a l'arrière des cams, du coup que je les fais converger, les 2 objectifs se rapprochent alors qu'ils s'éloignent quand je les fais diverger.
n'empêche que cette idée de convergence dynamique ça serait plutôt pas mal et sa permettrait de faire des panning avec la camera ce qui est maintenant difficile, la convergence ne correspondant pas forcement a la distance de l'arrière plan et ça meme en post pro c'est pas simple a regler


---------------
le site de toute la 3D
n°7005057
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 01:44:36  profilanswer
 

upsilandre51 a écrit :

ah on commence peut etre a avoir un debut de piste. c'est probablement la que tu te trompe. l'une des informations principale de percpetion de distance pour le cerveau c'est justement l'orientation que tes yeux forme (la convergence binoculaire) lorsque les 2 images de l'objets que tu pointe se superpose au meme endroit sur les 2 retines :)

 

oui, mais toi tu confonds la convergence/divergence physique des yeux, c'est à dire l'orientation du nerf optique, et la convergence divergences des images qui parviennent au cerveau.

 

Comme tu dis le probleme c'est que l'écran est fixe, donc les cristalins sont fixes, la convergence physique des yeux est à peu près fixe aussi, clairement on perd 2 information sensorielle, ça c'est une chose.

 

Pour en revenir à l'histoire du poteau vu à travers la fenetre, quand tu le fixes pour mieux le distinguer, ça converge sur le poteau, comme tu le dis, le centre des deux rétines donne à peu près la même image, et le cerveau superpose facilement les deux images.

 

sur un écran fixe, avec ton alignement des nerfs optiques qui converge sur la surface de l'écran, le meilleur moyen que ton cerveau aie une représentation la plus fidele à "ce que tu vois quand tu regardes fixe le poteau à travers une fenetre", c'est d'avoir les deux images du poteau qui convergent sur la surface de l'écran.

 

Je comprends pas ce que t'as du mal à comprendre là.

 

Avec des lunettes anaglyphes c'est quasiment indispensable, car il y a bien trop de ghosting. Et ça j'ai pu le constater pendant 3 heures hier soir sur left4dead.
Et pour des lunettes à shutters ou polarisées qui isolent "parfaitement" les deux images, à mon avis ca sera nettement moins fatiguant d'avoir physiquement les images du poteau alignées sur la surface de l'écran, que d'avoir les images divergentes sur l'écran et de devoir faire l'effort de réalignement avec le cerveau.
De plus l'angle paralaxe des autres objets de la scène sera plus réaliste et conforme à ce que tu verrais dans la réalité.
En effet dans la réalité, la convergence n'est PAS fixe. Donc quand tu fixes un certain objet, l'angle change.
C'est ce que nac76 tentait d'expliquer avec l'église et le perso en premier plan.

Message cité 1 fois
Message édité par basketor63 le 21-06-2009 à 01:53:01
mood
Publicité
Posté le 21-06-2009 à 01:44:36  profilanswer
 

n°7005063
nac76
bein quoi?
Posté le 21-06-2009 à 01:50:44  profilanswer
 

BlackShark a écrit :


Tout changement de la convergence des caméras n'est pas réaliste et réduit la sensation de profondeur, cependant il peut être recherché par un réalisateur pour éviter de mettre le spectateur mal à l'aise dans des cas de très fort jaillissement ou de gros plans.


 
ça je pense que ça vient du fait qu'il faudrait que le changement de convergence intervienne en fonction du positionnement des yeux sur l'écran.
 
par exemple dans un FPS, je suis arreté et je regarde d'abord en gros plan si y'a pas un ennemi caché la, juste derrière ce bidon... ensuite je regarde un peu plus loin derrière un poteau et je fini par scruter la montagne au loin pour voir si une embuscade ne s'y prépare pas..etc etc
il faudrait qu'a chaque fois, le point de convergence suive le mouvement de mes yeux, plus de convergence quand je regarde le bidon et moins quand je regarde la montagne.
ça me parait encore infesable mais je pense que ça donnerai un effet vraiment fort


---------------
le site de toute la 3D
n°7005064
upsilandre​51
Posté le 21-06-2009 à 01:51:38  profilanswer
 

basketor63 a écrit :


Pour en revenir à l'histoire du poteau vu à travers la fenetre, quand tu le fixes pour mieux le distinguer, ça converge sur le poteau, comme tu le dis, le centre des deux rétines donne à peu près la même image, et le cerveau superpose deux images.

 

sur un écran fixe, avec ton alignement des nerfs optiques qui converge sur la surface de l'écran

 

Non, non, non, non et non. tes yeux vont physiquement converger 2 metres derrieres l'ecran pour regarder ce poteau projeté sur l'ecran (le cristalin restant lui focalisé sur l'ecran), c'est ce point la que tu n'arrives pas a comprendre et qui fausse tout ton raisonement depuis le debut
tu trouves pas ca curieux que moi et Blackshark qui s'interressont au sujet assidument depuis quelque temps ayont exactement le meme avis? y a pas un moment ou t'as envies de remetre un peu en doute ton raisonement?  :)
moi j'ai fais le maximum, je laisse la main :D

Message cité 1 fois
Message édité par upsilandre51 le 21-06-2009 à 02:05:18
n°7005067
upsilandre​51
Posté le 21-06-2009 à 01:56:04  profilanswer
 

nac76 a écrit :

 

ça je pense que ça vient du fait qu'il faudrait que le changement de convergence intervienne en fonction du positionnement des yeux sur l'écran.

 

par exemple dans un FPS, je suis arreté et je regarde d'abord en gros plan si y'a pas un ennemi caché la, juste derrière ce bidon... ensuite je regarde un peu plus loin derrière un poteau et je fini par scruter la montagne au loin pour voir si une embuscade ne s'y prépare pas..etc etc
il faudrait qu'a chaque fois, le point de convergence suive le mouvement de mes yeux, plus de convergence quand je regarde le bidon et moins quand je regarde la montagne.
ça me parait encore infesable mais je pense que ça donnerai un effet vraiment fort

 


naaaaaan pitieeeeeeeer tu va pas t'y mettre aussi? :D
Blackshark a raison, en theorie pour reproduire la realité il n'y a qu'un point de convergence possible pour les camera virtuel (qui depend de parametre externe) et qui ne devrait jamais bougé


Message édité par upsilandre51 le 21-06-2009 à 02:00:07
n°7005081
nac76
bein quoi?
Posté le 21-06-2009 à 02:10:24  profilanswer
 

bein dans un jeu si tu règle ta convergence pour que les 2 vues d'1 objet proche se chevauchent a peu-prêt, avec un minimum de séparation dans le jeu quand même, tu regardes une église hyper lointaine et tu vois que les 2 images sont trop séparées, du coup tu arrives a un point ou après t'avoir bien tiraillé les yeux, le cerveau finit par identifier les 2 vues comme 2 objets différents et tu te retrouve a regarder 2 églises au lieu d'une.. c'est ce point la que je pense qu'on peu corriger en changeant la convergence

Message cité 3 fois
Message édité par nac76 le 21-06-2009 à 02:11:35

---------------
le site de toute la 3D
n°7005082
BlackShark
En 3D c'est mieux.
Posté le 21-06-2009 à 02:11:14  profilanswer
 

Ce n'est pas le nerf optique qui s'aligne mais je vois ce que tu veux dire. tu peux parler de la toute petite zone hyper sensible au centre de la rétine. elle porte un autre nom que j'ai oublié (la macula, merci wikipedia), le nerf optique est situé un peu plus sur le côté.

 

La sensation de profondeur engendrée par la stereoscopie est en très très grande majorité une sensation tactile, dans le sens ou c'est le mouvement de l'oeil qui déclenche la sensation de profondeur.
L'analyse des images n'intervient que secondairement et dans une moindre mesure.

 

Si tous les objets que tu regardes convergent systématiquement sur l'écran (ce que tu demandes) alors cela signifie que tu regardes une image plate normale (en 2D)
Si tu veux que la convergence soit modifiée dynamiquement  en plein milieu d'une scène, c'est possible mais très dangereux car si c'est mal fait, tu as la garantie que le spectateur aura instantanément un mal de crâne.
L'auto-convergence du driver iZ3D est fait pour modifier la convergence uniquement si la caméra se rapproche trop près mais laisser la convergence fixe si la caméra s'éloigne.

Message cité 1 fois
Message édité par BlackShark le 21-06-2009 à 02:14:42
n°7005085
upsilandre​51
Posté le 21-06-2009 à 02:15:43  profilanswer
 

nac76 a écrit :

bein dans un jeu si tu règle ta convergence pour que les 2 vues d'1 objet proche se chevauchent a peu-prêt, avec un minimum de séparation dans le jeu quand même, tu regardes une église hyper lointaine et tu vois que les 2 images sont trop séparées, du coup tu arrives a un point ou après t'avoir bien tiraillé les yeux, le cerveau finit par identifier les 2 vues comme 2 objets différents et tu te retrouve a regarder 2 églises au lieu d'une.. c'est ce point la que je pense qu'on peu corriger en changeant la convergeance

 

si tu genere un parallaxe positive superieur a 6.5cm sur l'horison alors oui ca va poser de serieux probleme mais ca c'est du a des reglage de depart qui sont mauvais. si les reglages sont bon au depart y a rien a touché
pour faire une prise de vue totalement realiste tu devrais normalement separer tes 2 camera de 6.5cm et ensuite choisir une convergence qui depend du FOV de ta camera et de la taille de l'ecran sur lequel tu va projeter la sequence. y a qu'un seul parametre de convergence possible pour repondre a ces criteres externe et une fois que tu la definie tu ne dois plus rien touché du tout a moins de vouloir faire des effets visuel iréel


Message édité par upsilandre51 le 21-06-2009 à 02:16:18
n°7005086
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 02:18:21  profilanswer
 

upsilandre51 a écrit :


 
Non, non, non, non et non. tes yeux vont physiquement converger 2 metres derrieres l'ecran pour regarder ce poteau projeté sur l'ecran, c'est ce point la que tu n'arrives pas a comprendre et qui fausse tout ton raisonement depuis le debut
tu trouves pas ca curieux que moi et Blackshark qui s'interressont au sujet assidument depuis quelque temps ayont exactement le meme avis? y a pas un moment ou t'as envies de remetre un peu en doute ton raisonement?  :)  
moi j'ai fais le maximum, je laisse la main :D


 
non ça ne fausse pas mon raisonnement, car ce que je te dis, c'est que l'alignement physique des yeux est beaucoup moins important pour que le cerveau se fasse une idée de la distance, que les images qui parviennent aux yeux.
 
En gros avec le systeme de convergence fixe dont tu parles, si tu veux distinguer un objet sur lequel il n'y aucune convergence au niveau de la prise de vue, alors tu vas devoir loucher mentalement pour que ton cerveau aligne les deux images d'une part.
D'autre part, l'angle de prise de vue de l'image qui parviendra à ton oeuil non directeur sera faux par rapport à l'angle de l'image qu'il verrait si il convergeait rellement sur le poteau derriere une vraie fenetre.
 
Alors qu'en jouant dynamiquement sur la convergence de la prise de vue, ton oeuil non directeur pourra obtenir une image parfaitement correcte par rapport à ce qu'il devrait voir en réalité.
 
Et comme tu dis, comme nos yeux convergent naturellement physiquement "sur la surface de l'écran", et non "à deux mettres sur le poteau", c'est à mon avis bien plus facile pour le cerveau d'avoir déjà les deux images alignées à l'endroit ou les yeux convergent.
En tout cas pour les anaglyphes il y a pas trop le choix à cause du ghosting.
 
Pour un systeme shutters parfait sans aucun ghosting, on peut imaginer vouloir tenter d'avoir une convergence physique des yeux qui correspondrait exactement à ce qu'elle serait en réalité si on regardait le poteau à travers la fenetre.
Il ne faudrait donc pas avoir les deux images alignées sur la surface de l'écran, mais tenter d'avoir deux images du poteau séparées physiquement sur l'écran de la bonne distance, cf théorème de thales, mais même pour faire ça, on serait quand même obligé d'avoir une convergence de prise de vue ajustable dynamiquement, si on veut pouvoir distinguer clairement sans se ruiner le cerveau autre chose que des objets situés virtuellement à deux mètres.

n°7005087
upsilandre​51
Posté le 21-06-2009 à 02:21:09  profilanswer
 

BlackShark a écrit :


L'auto-convergence du driver iZ3D est fait pour modifier la convergence uniquement si la caméra se rapproche trop près mais laisser la convergence fixe si la caméra s'éloigne.


 
et j'imagine dans le bute d'eviter que des objet entre dans la zone de jaillissement car si ce n'est pas parfaitement controlé alors inevitablement tu va te retrouver avec des objet qui coupe le champ visuel gauche ou droit tout en etant dans cette zone de jaillisement ce qui genere des bug de cerveau a l'effet catastrophique
la zone de jaillissement ne peut etre exploitable que par des jeux vraiment programmer pour la stereo et qui exploite cette zone de facon 100% controllé (une cut-scene scripté, pour placer des element du HUD ou afficher des item 3D de l'inventaire ect...)

n°7005090
BlackShark
En 3D c'est mieux.
Posté le 21-06-2009 à 02:23:38  profilanswer
 

nac76 a écrit :

bein dans un jeu si tu règle ta convergence pour que les 2 vues d'1 objet proche se chevauchent a peu-prêt, avec un minimum de séparation dans le jeu quand même, tu regardes une église hyper lointaine et tu vois que les 2 images sont trop séparées, du coup tu arrives a un point ou après t'avoir bien tiraillé les yeux, le cerveau finit par identifier les 2 vues comme 2 objets différents et tu te retrouve a regarder 2 églises au lieu d'une.. c'est ce point la que je pense qu'on peu corriger en changeant la convergence


Ce que tu décris là est un phénomène tout à fait normal de la réalité.
Lorsque tu essayes de comparer un objet très proche d'un objet lointain, la différence de distance est tellement grande que tes yeux ont du mal à passer de l'un à l'autre.
Tu arrives en général à voir facilement que l'un est devant l'autre mais impossible d'estimer la distance, le saut entre les deux est trop grand.
 
Solution utilisée par l'être humain : reculer un peu et utiliser d'autres objets dans l'environement (peerspective du sol, murs, etc...) pour faire des sauts intermédiaires plus petits pour évaluer les distances.
 
Solution artificielle : modifier le paramètre de séparation (non, pas la convergence) pour réduire la différence de séparation entre les deux objets regardés.

n°7005092
upsilandre​51
Posté le 21-06-2009 à 02:25:25  profilanswer
 

basketor63 a écrit :

 

non ça ne fausse pas mon raisonnement, car ce que je te dis, c'est que l'alignement physique des yeux est beaucoup moins important pour que le cerveau se fasse une idée de la distance, que les images qui parviennent aux yeux.

 

En gros avec le systeme de convergence fixe dont tu parles, si tu veux distinguer un objet sur lequel il n'y aucune convergence au niveau de la prise de vue, alors tu vas devoir loucher mentalement pour que ton cerveau aligne les deux images d'une part.
D'autre part, l'angle de prise de vue de l'image qui parviendra à ton oeuil non directeur sera faux par rapport à l'angle de l'image qu'il verrait si il convergeait rellement sur le poteau derriere une vraie fenetre.

 

Alors qu'en jouant dynamiquement sur la convergence de la prise de vue, ton oeuil non directeur pourra obtenir une image parfaitement correcte par rapport à ce qu'il devrait voir en réalité.

 

Et comme tu dis, comme nos yeux convergent naturellement physiquement "sur la surface de l'écran", et non "à deux mettres sur le poteau", c'est à mon avis bien plus facile pour le cerveau d'avoir déjà les deux images alignées à l'endroit ou les yeux convergent.
En tout cas pour les anaglyphes il y a pas trop le choix à cause du ghosting.

 

Pour un systeme shutters parfait sans aucun ghosting, on peut imaginer vouloir tenter d'avoir une convergence physique des yeux qui correspondrait exactement à ce qu'elle serait en réalité si on regardait le poteau à travers la fenetre.
Il ne faudrait donc pas avoir les deux images alignées sur la surface de l'écran, mais tenter d'avoir deux images du poteau séparées physiquement sur l'écran de la bonne distance, cf théorème de thales, mais même pour faire ça, on serait quand même obligé d'avoir une convergence de prise de vue ajustable dynamiquement, si on veut pouvoir distinguer clairement sans se ruiner le cerveau autre chose que des objets situés virtuellement à deux mètres.

 


non c'est faux desolé, mais je pense que je n'ai plus rien a ajouté qui n'ai pas deja ete dis (et j'avoue que ca semble peine perdu  :cry:  ). a partir de la il ne reste plus qu'une solution, aller chercher plutot des liens externes qui explique tout ca avec des shemas puisque aparement on est pas vraiment credible avec Blackshark :D
en attendant, bonne nuit :)


Message édité par upsilandre51 le 21-06-2009 à 02:31:16
n°7005095
BlackShark
En 3D c'est mieux.
Posté le 21-06-2009 à 02:32:07  profilanswer
 

basketor63 a écrit :


non ça ne fausse pas mon raisonnement, car ce que je te dis, c'est que l'alignement physique des yeux est beaucoup moins important pour que le cerveau se fasse une idée de la distance, que les images qui parviennent aux yeux.


Tu te trompes.
La stéréoscopie c'est justement utiliser l'alignement physique des yeux pour obtenir la sensation de relief.
Evaluer les distances par l'analyse des images c'est l'analyse 2D traditionnelle (perspective, obstruction, déplacement différentiel, profondeur de champ, etc...)

 

Attention aussi à ne pas mélanger la convergence des deux yeux (le point regardé) et la focalisation (comme la mise au point d'une caméra)
En stereoscopie, la convergence bouge en profondeur, mais la focalisation est fixe sur la surface de l'écran.

 


Oui t'as raison upsilandre je vais me coucher aussi. Demain grosse journée je pars en Angleterre (Bristol)


Message édité par BlackShark le 21-06-2009 à 02:36:55
n°7005098
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 02:37:45  profilanswer
 

nac76 a écrit :


 
ça je pense que ça vient du fait qu'il faudrait que le changement de convergence intervienne en fonction du positionnement des yeux sur l'écran.
 
par exemple dans un FPS, je suis arreté et je regarde d'abord en gros plan si y'a pas un ennemi caché la, juste derrière ce bidon... ensuite je regarde un peu plus loin derrière un poteau et je fini par scruter la montagne au loin pour voir si une embuscade ne s'y prépare pas..etc etc
il faudrait qu'a chaque fois, le point de convergence suive le mouvement de mes yeux, plus de convergence quand je regarde le bidon et moins quand je regarde la montagne.
ça me parait encore infesable mais je pense que ça donnerai un effet vraiment fort


 
c'est clair ça serait dur
 
avec le head tracking tel que là, http://www.youtube.com/watch?v=Jd3-eiid-Uw tu as l'effet fenetre.
avec du eye tracking utilisé dans des systemes d'accessibilité pour handicapés, ou par les publicitaires, pour savoir sur une image données où se balade en moyenne l'oeil des personnes afin de placer les logos et les textes, tu peux savoir quel point tu fixes à l'écran.
 
Ensuite en lançant une droite passant par la position de la tête et du point regardé sur l'écran tu peux savoir ce que tu regardes dans la scène virtuelle.
 
Reste ensuite à gérer la convergence, et là faudrait que ça soit automatique sur la distance du premier obstacle recontré, ou alors faudrait qu'elle s'ajuste en tentant de reproduire exactement celle de tes yeux.
 
Ca donnerait surement de quoi remplir pas mal de sacs à vomit [:ddr555]

n°7005100
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 02:38:50  profilanswer
 

nac76 a écrit :

bein dans un jeu si tu règle ta convergence pour que les 2 vues d'1 objet proche se chevauchent a peu-prêt, avec un minimum de séparation dans le jeu quand même, tu regardes une église hyper lointaine et tu vois que les 2 images sont trop séparées, du coup tu arrives a un point ou après t'avoir bien tiraillé les yeux, le cerveau finit par identifier les 2 vues comme 2 objets différents et tu te retrouve a regarder 2 églises au lieu d'une.. c'est ce point la que je pense qu'on peu corriger en changeant la convergence

 

c'est de ça que je parle en effet.  :jap:

 
upsilandre51 a écrit :

non c'est faux desolé, mais je pense que je n'ai plus rien a ajouté qui n'ai pas deja ete dis (et j'avoue que ca semble peine perdu  :cry:  ). a partir de la il ne reste plus qu'une solution, aller chercher plutot des liens externes qui explique tout ca avec des shemas puisque aparement on est pas vraiment credible avec Blackshark :D
en attendant, bonne nuit :)

 

bah au moins nac76 me comprends, ça me rassure.
Je pense pas que vous racontiez des choses fausses, mais plutot que vous ne vous ouvrez pas :D

 
BlackShark a écrit :

Tu te trompes.
La stéréoscopie c'est justement utiliser l'alignement physique des yeux pour obtenir la sensation de relief.

 

Justement, je vois pas comment tu peux obtenir un alignement physique des yeux proche de la réalité sans une convergence ajustable dynamiquement.
D'autre part pour que les images parvenant aux yeux correspondent à ce qu'ils devraient voir en réalité, si ils se focalisaient sur tel ou tel point, là encore il faudrait une convergence dynamique. nac76 a tenté de vous l'expliquer.

 

concernant la question de l'alignement physique, certains arrivent bien à voir des images en 3D en louchant comme des malades. J'ai quasiment jamais réussit, mais comme c'est un procédé avéré, ça prouve bien que l'alignement physique des yeux n'est pas l'élément essentiel dans la sensation du relief. C'est le cerveau qui fait le taf, avec son experience acquise.

 
BlackShark a écrit :

Evaluer les distances par l'analyse des images c'est l'analyse 2D traditionnelle (perspective, obstruction, déplacement différentiel, profondeur de champ, etc...)

 

Je vois pas le rapport avec ce que je disais.
L'alignement physique des yeux permet de fournir au cerveau deux images suffisament différentes pour que à force d'experience le cerveau puisse avoir des informations additionnelles sur l'éloignement d'objets. L'effet paralaxe qu'on obtient même en étant statiques. On a besoin de se déplacer pour avoir un point de vue différent, vu qu'il est fournit par l'autre oeuil.
Mais dans le cas d'image 3D virtuelles stéréoscopiques on donne à chaque oeuil ce qu'il doit voir, et le cerveau se démerde avec. Je pense que si on se branchait directement sur le nerf optique ça changerait pas grand chose. La position physique de l'oeil importe alors peu, la position physique de l'oeil c'est surtout important pour une question de confort. Problemes de mal de mer, désynchro entre la réalité perçue et celle ressentie, mal de crane etcetera.

 
BlackShark a écrit :

Attention aussi à ne pas mélanger la convergence des deux yeux (le point regardé) et la focalisation (comme la mise au point d'une caméra)
En stereoscopie, la convergence bouge en profondeur, mais la focalisation est fixe sur la surface de l'écran.

 

le probleme c'est que vous pensez qu'on les confonfs, alors que non ...

Message cité 1 fois
Message édité par basketor63 le 21-06-2009 à 03:18:41
n°7005104
nac76
bein quoi?
Posté le 21-06-2009 à 02:45:42  profilanswer
 

bof, encore quelques décennies a attendre et on va bien finir par l'avoir notre systeme de convergence dynamique automatisée  :lol:  
 
allez, j'vais au dodo moi aussi, j'ai les yeux qui commencent a voire carré  :pt1cable:

******************************************************************

 
au fait basketor, tu les as vu ceux la  :D  
http://www.2d-3dvideo.com/Overlays.html
 
bon apparemment c'est des trucs d'autostéréoscopie donc ça m'inspire pas mais on va bien finir par les avoir nos filtres interlacés a collé sur nos écrans  :)


Message édité par nac76 le 21-06-2009 à 03:27:42

---------------
le site de toute la 3D
n°7005315
upsilandre​51
Posté le 21-06-2009 à 12:08:09  profilanswer
 

basketor63 a écrit :


 
c'est de ça que je parle en effet.  :jap:  
 


 

basketor63 a écrit :


 
bah au moins nac76 me comprends, ça me rassure.
Je pense pas que vous racontiez des choses fausses, mais plutot que vous ne vous ouvrez pas :D
 


 

basketor63 a écrit :


 
Justement, je vois pas comment tu peux obtenir un alignement physique des yeux proche de la réalité sans une convergence ajustable dynamiquement.
D'autre part pour que les images parvenant aux yeux correspondent à ce qu'ils devraient voir en réalité, si ils se focalisaient sur tel ou tel point, là encore il faudrait une convergence dynamique. nac76 a tenté de vous l'expliquer.
 
concernant la question de l'alignement physique, certains arrivent bien à voir des images en 3D en louchant comme des malades. J'ai quasiment jamais réussit, mais comme c'est un procédé avéré, ça prouve bien que l'alignement physique des yeux n'est pas l'élément essentiel dans la sensation du relief. C'est le cerveau qui fait le taf, avec son experience acquise.
 


 

basketor63 a écrit :


 
Je vois pas le rapport avec ce que je disais.
L'alignement physique des yeux permet de fournir au cerveau deux images suffisament différentes pour que à force d'experience le cerveau puisse avoir des informations additionnelles sur l'éloignement d'objets. L'effet paralaxe qu'on obtient même en étant statiques. On a besoin de se déplacer pour avoir un point de vue différent, vu qu'il est fournit par l'autre oeuil.
Mais dans le cas d'image 3D virtuelles stéréoscopiques on donne à chaque oeuil ce qu'il doit voir, et le cerveau se démerde avec. Je pense que si on se branchait directement sur le nerf optique ça changerait pas grand chose. La position physique de l'oeil importe alors peu, la position physique de l'oeil c'est surtout important pour une question de confort. Problemes de mal de mer, désynchro entre la réalité perçue et celle ressentie, mal de crane etcetera.
 


 

basketor63 a écrit :


 
le probleme c'est que vous pensez qu'on les confonfs, alors que non ...


 
 
bien sure que la perception du relief est un melange de plein d'information lié au contenu de l'image et a des information sensoriel et l'angle de convergence en est une (importante) mais surtout au dela de cela la convergence tel que tu la concoit (et nac76) ca ne peux pas fonctionner du tout. vraiment tu ne t'en rend pas compte quand t'essaye de shematisé tes idées sur un bout de papier?
justement pour que les 2 images fournis par l'ecran corresponde a celle que tu percevrais dans la realité il faut que la camera virtuel est une convergence fixe (convergence sur l'ecran virtuel) et c'est la convergence de tes yeux qui va varier et faire le travaille, c'est bien dans ce cas la que la conformité est parfaite. si la convergence de tes yeux est fixé sur la surface de l'ecran et que c'est la convergence de la camera virtuel que tu modifie pour pointer l'objet que tu regarde alors ca donne du grand n'importe quoi en terme d'effet visuel et ca ne fonctionne pas, c'est tres simple a comprendre si tu pose ton idée sur un shema.
le jour ou j'aurais le temps je vous ferais des petit shemas pour expliquer les bases de la stereo car la je crois qu'il faut tout reprendre a zero. le topic a fait 10 pas en arriere et c'est vraiment dommage. je pensais pas en faite qu'il y avait cette incomprehension sur le sujet, je ne m'en etais pas rendu compte. pour ma part en l'etat je me vois mal continuer a participer au topic si personne ne comprend les bases, c'est se condamné a des dialogue de sourd insoluble  :pt1cable:

Message cité 2 fois
Message édité par upsilandre51 le 21-06-2009 à 12:15:22
n°7005433
nac76
bein quoi?
Posté le 21-06-2009 à 13:42:48  profilanswer
 

upsilandre51 a écrit :


 
 
bien sure que la perception du relief est un melange de plein d'information lié au contenu de l'image et a des information sensoriel et l'angle de convergence en est une (importante) mais surtout au dela de cela la convergence tel que tu la concoit (et nac76) ca ne peux pas fonctionner du tout. vraiment tu ne t'en rend pas compte quand t'essaye de shematisé tes idées sur un bout de papier?
justement pour que les 2 images fournis par l'ecran corresponde a celle que tu percevrais dans la realité il faut que la camera virtuel est une convergence fixe (convergence sur l'ecran virtuel) et c'est la convergence de tes yeux qui va varier et faire le travaille, c'est bien dans ce cas la que la conformité est parfaite. si la convergence de tes yeux est fixé sur la surface de l'ecran et que c'est la convergence de la camera virtuel que tu modifie pour pointer l'objet que tu regarde alors ca donne du grand n'importe quoi en terme d'effet visuel et ca ne fonctionne pas, c'est tres simple a comprendre si tu pose ton idée sur un shema.
le jour ou j'aurais le temps je vous ferais des petit shemas pour expliquer les bases de la stereo car la je crois qu'il faut tout reprendre a zero. le topic a fait 10 pas en arriere et c'est vraiment dommage. je pensais pas en faite qu'il y avait cette incomprehension sur le sujet, je ne m'en etais pas rendu compte. pour ma part en l'etat je me vois mal continuer a participer au topic si personne ne comprend les bases, c'est se condamné a des dialogue de sourd insoluble  :pt1cable:


 
ça ce serait dommage, c'est dans la divergence d'idée qu'une conversation prend tout son intérêt et on fini toujours par trouver des points d'interet dans les argumentations, qu'elles soient en faveur ou contre une idée et que cette idée soit fondée ou non.
je comprend bien les bases de la stéréo mais ce que je cherche c'est a trouver la faille dans certaines regles établies qui me pose le probleme suivant:
http://img195.imageshack.us/img195/3867/conv1.jpg
 
de gauche a droite, les 2 cams (en noir), un objet filmé en pop-up (en marron), un objet filmé en gros plan (en vert) et un objet très distant (en bleu)
j'ai tracé les angles de vision dans le cadre de prises de vues en convergence et on voit bien qu'il y a un problème:
1er cas: les cams convergent vers l'objet a filmer en pop-up (qui perd au passage son effet de pop-up mais c'est juste pour l'exemple). on voit bien que les objet distant sortent carrément du FOV.  
même si le problème peut être atténué en réglant la séparation, il est bien présent et incorrigible en cas de distance énorme entre le gros plan et l'arrière plan.
2em cas: les cams convergent vers le 1er plan: l'objet pop-up reprend son effet de jaillissement, avec une séparation qui peut s'avérer trop accentuée ou pas assez selon les distances, ceci est peut-être corrigible mais l'objet éloigné sort encore du champ de vision ou est au moins très décentré.
dans ce cas tout va bien tant que le spectateur regarde en gros plan mais si il essaie de distinguer l'objet distant, c'est la cata.
3em cas: les cams convergent vers le point le plus éloigné, quasiment en parallèle si la distance est suffisante. ça semble un bon compromis car tout est plus ou moins cadré mais le spectateur a l'impression de se trouver a 200m de son écran, tout ce qui se trouve plus proche de cette distance va apparaitre dans un effet de jaillissement exagéré avec une séparation bien trop importante qui va vite donner la nausée.
la encore on peut jouer sur la séparation pour atténuer le problème mais il reste bien présent.
4em cas: les cams convergent vers un point de compromis entre les distances, ça atténue le problème mais l'image perd de sa logique de relief, les objets proches ont un effet de jaillissement exagéré alors que les objet distants sont trop éloignés dans la restitution de la 3D.
tout ça, ça peut passer en vidéo si le vidéaste arrive a prédéfinir ce que va regarder le spectateur, il peut régler la convergence en se basant sur cette info qu'il défini lui-meme mais dans le cas des jeux, il n'y a pas de vidéastes, c'est le joueur qui défini la position de la camera et il est impossible de savoir ou il va poser son regard hors selon qu'il regarde un objet en pop-up devant son écran ou un objet éloigné a l'interieur de la scene, il y aura forcement une difference a moins que les cameras soit parfaitement paralleles, ce qui créerait une image inexploitable comme tu l'as precisé un peu plus tot.
 
après, je dis pas que j'ai raison, d'autant moins que je l'ai déja souvent répété, je suis un newbie par rapport a certain d'entre vous mais je trouve que ça vaut le coup de soulever la réflexion sur ces questions. mais on a déjà vu que ce débat existe dans certains articles postés ici-même et c'est d'après moi pour ces raisons que certains vont choisir des cameras convergente tandis que d'autres préféreront un système de cameras parallèles qu'ils ajusteront en post-prod.
 
donc si on admet l'existence de ce problème,  je crois qu'il est logique de penser a un système de convergence dynamique même si ce dernier n'est pas forcément applicable.
 
ici une vidéo ou l'on vois a un moment les 2 cams de James Cameron qui convergent/divergent dynamiquement en fonction de l'eloignement du sujet a capturer.
http://www.actualite-de-stars.com/ [...] DuBeI.html
on voit bien sur la vidéo qu'il ne s'agit pas d'un réglage de séparation mais bien de convergence puisque l'arriere des cams se sépare alors que l'avant (les 2 objectifs) se ressert.

Citation :

when I move towards the camera you can see the angle of the lenses changing


Message édité par nac76 le 21-06-2009 à 13:57:30

---------------
le site de toute la 3D
n°7005460
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 14:21:19  profilanswer
 

upsilandre51 a écrit :

bien sure que la perception du relief est un melange de plein d'information lié au contenu de l'image et a des information sensoriel et l'angle de convergence en est une (importante) mais surtout au dela de cela la convergence tel que tu la concoit (et nac76) ca ne peux pas fonctionner du tout. vraiment tu ne t'en rend pas compte quand t'essaye de shematisé tes idées sur un bout de papier?

 

l'autofocus dans iz3d correspond bien à ce dont on parle
si tu cherches autofocus dans le forum tu verras les devs en parler

 
upsilandre51 a écrit :

justement pour que les 2 images fournis par l'ecran corresponde a celle que tu percevrais dans la realité il faut que la camera virtuel est une convergence fixe (convergence sur l'ecran virtuel) et c'est la convergence de tes yeux qui va varier et faire le travaille, c'est bien dans ce cas la que la conformité est parfaite.

 

non, car avec une convergence fixe dès que tu focaliseras ton attention sur une autre distance, l'angle entre les droites partant des caméras virtuelles sera faux.

 

Même en tentant d'aligner les deux images du poteau sur la surface de l'écran, t'auras un angle faux, mais ce qu'on dit c'est que ça sera moins genant qu'une convergence perpetuellement fixe, (qu'elle soit à 90°, ou fixant un point a une distance X), ou d'une part t'auras aussi un angle faux, mais où en plus tu devras faire un effort mental très important pour aligner les deux images de l'objet que tu tentes de dinstinguer.

 

L'idéal c'est bien entendu que la projection de l'image du poteau sur la surface de l'écran aie un écart entre l'image destinée à l'oeil gauche et à l'oeil droit qui soit le même que l'écart qu'il y aurait entre les images de la projection du poteau sur la fenêtre. (théorème de Thales)
Mais même dans ce cas parfait pour une distance et bien pour un univers animé ou un point de vue mobile, le gain d'avoir une convergence dynamique est évident si par exemple tu recules le poteau ou que le point de vue change, et que ton attention reste focalisée sur le poteau.

 


upsilandre51 a écrit :

si la convergence de tes yeux est fixé sur la surface de l'ecran et que c'est la convergence de la camera virtuel que tu modifie pour pointer l'objet que tu regarde alors ca donne du grand n'importe quoi en terme d'effet visuel et ca ne fonctionne pas, c'est tres simple a comprendre si tu pose ton idée sur un shema.

 

ça donne un effet visuel qui n'est pas conforme exactement à la réalité, mais ça fonctionne quand même, tu conserves quand même une très bonne sensation de profondeur et d'immersion.
Et tu peux distinguer plus facilement des objets de l'univers virtuel à différentes distances sans devoir loucher.

 
upsilandre51 a écrit :

le jour ou j'aurais le temps je vous ferais des petit shemas pour expliquer les bases de la stereo car la je crois qu'il faut tout reprendre a zero. le topic a fait 10 pas en arriere et c'est vraiment dommage. je pensais pas en faite qu'il y avait cette incomprehension sur le sujet, je ne m'en etais pas rendu compte. pour ma part en l'etat je me vois mal continuer a participer au topic si personne ne comprend les bases, c'est se condamné a des dialogue de sourd insoluble  :pt1cable:

 

Sauf que là je te parle d'un truc que j'ai constaté sur un jeu, et qui avec les lunettes anaglyphes est d'un intérêt évident à cause de l'importance du ghosting. Et même sur un systeme à shutter ou polarisé, ou l'écran iz3d ça peut s'avérer un bon compromis. (ils n'auraient pas implémenté leur fonction autofocus sinon)
Le truc sur lequel tu sembles butter c'est l'aspect compromis au niveau du rendu.
Et que dans tous les cas, comme on n'a pas les moyens d'aligner la convergence des yeux sur la convergence des caméra on est obligé de tricher un peu par rapport à la perfection.

 

Message cité 1 fois
Message édité par basketor63 le 21-06-2009 à 14:33:29
n°7005511
nac76
bein quoi?
Posté le 21-06-2009 à 15:21:26  profilanswer
 

bon sinon, une petite news histoire d'alléger un peu l'ambiance du topic  :sweat:
bientot un peu de tv 3D en streaming ça vous dit?
http://www.go3dhd.tv/
source: http://www.mtbs3d.com/phpBB/viewto [...] f=2&t=3566
ps: remarque je dis "en streaming" mais c'est peut-être un peu prendre mes fantasmes pour des réalités  :lol:


Message édité par nac76 le 21-06-2009 à 15:22:52

---------------
le site de toute la 3D
n°7005543
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 15:39:01  profilanswer
 

je fais un récap des lunettes shutters dont on a parlé.
 

Citation :

ces lunettes filaires à obturation sont à 24,90€ pour les CRT
http://www.razor3d.de/en/3d_pc.asp
 
http://www.razor3d.de/shopimages/3d_pc_zoom.jpg
 
et à 69€ en filaire pour crt et lcd
et 99€ en wireless pour crt et lcd
http://www.razor3d.de/shopimages/vision_wireless_zoom.jpg
 
alors je comprends pas bien pourquoi le premier marcherait pas sur crt et les seconds si, vu qu'ils sont tous deux en prise vga.


 


 

Citation :

xforce3D sans fils http://www.xforce3d.com/wi3dgl.html  
http://img.photobucket.com/albums/v674/thedvdattic/xforce3d/aye2000hi.gif
 
et filaire http://www.xforce3d.com/wipcglki.html à 49€
http://img.photobucket.com/albums/v674/thedvdattic/xforce3d/xforce3d.gif
 
à 49€ pour les deux, les fillaires extremement laides [:vomit], et qui semblent hyper fragiles


 
 
 

Citation :

Et bien sur les edimentional http://www.edimensional.com/produc [...] ucts_id=29
en filaire à 69$ http://www.edimensional.com/images/wiredparts.jpg
 
et en sans fil à 99$ http://www.edimensional.com/produc [...] ucts_id=28
http://www.edimensional.com/images/wirelessparts.jpg


 

Citation :

elsa 3d revelator 35€ sur amazon, frais de port gratuits  
http://ecx.images-amazon.com/images/I/51p5fQQPC2L._SS500_.jpg
 
http://www.amazon.fr/ELSA-Lunettes [...] 005&sr=8-3


 
 
et les nvidias à 150€ au moins.
 
Je sais pas si il y a une différence de qualité énorme entre les lunettes, difficile de savoir lesquelles inspirent plus confiance. les xforce3d on l'air fragiles
je pense que je preferais tenter du filaire, je me dis que la synchro à plus de chance d'être solide, et je pense pas que le fils soit plus emmerdant qu'un casque audio. Et pour les batteries, si c'est un gouffre à piles au lithium qui coutent cher ...
 
En sachant que les nvidias seront inutilisables autrement qu'avec une carte et des drivers nvidia pour le moment.
 
Je tenterais bien les razors à 25€ pour voir, (c'est les moins cheres par contre donc ptetre de la merde ) et si c'est pourrit je pourrais bèner définitivement mon CRT :D
 

nac76 a écrit :

encore des shutters dont je n'avais jamais entendu parler,  
http://host2.clickandbuild.com/cnb/shop/3dexperience?imageID=161&op=imgLib-viewImage
 
il s'agirait des shutters les plus legeres du monde avec un poids de...4 grammes  :ouch:  
 
http://host2.clickandbuild.com/cnb [...] egoryID=19

Message cité 2 fois
Message édité par basketor63 le 23-06-2009 à 11:39:54
n°7005630
Gossip
Posté le 21-06-2009 à 16:43:39  profilanswer
 

Bonjour à tous
ce post m'a aidé à faire mon choix pour l'achat d'un zalman 22" et j'espere le recevoir dans la semaine :love: donc je remercie aux participants de ce sujet :)  
Sinon j'ai vu dans le meme genre de produit que le zalman et iz3d (un peu cher et trés peu répandu voir introuvable  en france) qu'il existe un autre écran le Hyundai W220S et personne n'en parle (ou trés peu à part les numériques qui ont fait un test) http://www.lesnumeriques.com/article-312-3689-49.html il a l'air bien mais un peu cher (509 euros chez top achat et 589 euros chez rue du commerce).
Je voudrais connaître des avis sur ce produit, par exemple si l'ecran est aussi brillant que le zalman et autres.
sinon il ya un de vous qui a acheté jaws 3d (je m'en rapelle + c'est qui) et je voudrais savoir s'il vaux le coup d'acheter.
Merci d'avance :)

Message cité 2 fois
Message édité par Gossip le 21-06-2009 à 16:53:24
n°7005729
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 17:39:44  profilanswer
 

sur cette page il y a un rececement de tous les moniteurs et TV 3D http://www.3dmovielist.com/3dhdtvs.html
 
le hunday 24" m'aurait bien interessé, mais il est cher

n°7005952
NoixPecan
Posté le 21-06-2009 à 19:59:36  profilanswer
 

fixbornes a écrit :

les vidéos de leur site [colorcode3d.com] rendent vraiment pas mal (avec des effets de jaillissement impressionnants). Mais bon, les vidéos ont été spécialement réalisées pour ces lunettes et n'ont pas beaucoup de couleur au final.

Je n'ai pas de sympathie particulière pour la société ColorCode, mais il me paraît injuste de critiquer le système ColorCode en disant qu'un rendu "vraiment pas mal" nécessite des vidéos "spécialement réalisées" pour les lunettes. La société ColorCode a toujours présenté sa solution comme un système complet, qui nécessite des lunettes spéciales (ce ne sont pas n'importe quels filtres jaunes et bleus) et un algorithme de conversion spécial (pour passer d'une paire stéréo à un anaglyphe). D'après la société ColorCode, les spécificités de ses lunettes, associées aux spécificités de ses logiciels, permettraient un net progrès par rapport aux anaglyphes classiques. A nous de juger si c'est vrai, mais on peut difficilement reprocher aux lunettes ColorCode d'être décevantes avec des logiciels (comme le driver iZ3D) qui n'utilisent pas l'algorithme de conversion élaboré par ColorCode.
 
Par contre, lorsque tu dis que les exemples de chez ColorCode manquent de couleurs, c'est une remarque tout-à-fait intéressante. Elle vient tempérer le discours marketing de ColorCode, qui prétend avoir perfectionné le principe des anaglyphes au point de reproduire des couleurs naturelles. :sarcastic:
 

basketor63 a écrit :

ce que je comprends pas en anaglyphe, c'est que l'oeil gauche donc rouge, voit beaucoup trop ce que voit l'oeil droit en cyan.

Ce n'est pas un problème inhérent aux anaglyphes. Si tu constates ce défaut, c'est que tes lunettes ne sont pas adaptées à ton écran. Lorsque le matériel est bien choisi (surtout les lunettes) il est tout-à-fait possible de voir les anaglyphes sans aucun ghosting.

basketor63 a écrit :

Donc à la limite pourquoi ne pas faire un mode vraiment bicolore ? Tout serait en dégradé de rouge ou cyan, mais je pense que ça serait plus immersif au niveau de l'effet.

Effectivement, le principe des anaglyphes convient parfaitement aux images en niveaux de gris. Du coup, on peut être tenté de désaturer totalement les images en couleurs, plutôt que de s'acharner à mal reproduire leurs teintes. C'est ce que font les modes "Gray Anaglyph" de Stereoscopic Player et le mode "Anaglyph Black & White" du driver iZ3D.

Message cité 1 fois
Message édité par NoixPecan le 21-06-2009 à 20:57:14
n°7005987
pault6
-- -- -- -- -- -- -- -- -- --
Posté le 21-06-2009 à 20:18:59  profilanswer
 

basketor63 a écrit :

je fais un récap des lunettes shutters dont on a parlé.
 

Citation :

ces lunettes filaires à obturation sont à 24,90€ pour les CRT
http://www.razor3d.de/en/3d_pc.asp
 
http://www.razor3d.de/shopimages/3d_pc_zoom.jpg
 
et à 69€ en filaire pour crt et lcd
et 99€ en wireless pour crt et lcd
http://www.razor3d.de/shopimages/v [...] s_zoom.jpg
 
alors je comprends pas bien pourquoi le premier marcherait pas sur crt et les seconds si, vu qu'ils sont tous deux en prise vga.


 


 

Citation :

xforce3D sans fils http://www.xforce3d.com/wi3dgl.html  
http://img.photobucket.com/albums/ [...] 2000hi.gif
 
et filaire http://www.xforce3d.com/wipcglki.html à 49€
http://img.photobucket.com/albums/ [...] orce3d.gif
 
à 49€ pour les deux, les fillaires extremement laides [:vomit], et qui semblent hyper fragiles


 
 
 


 
et les nvidias à 150€ au moins.
 
Je sais pas si il y a une différence de qualité énorme entre les lunettes, difficile de savoir lesquelles inspirent plus confiance. les xforce3d on l'air fragiles
je pense que je preferais tenter du filaire, je me dis que la synchro à plus de chance d'être solide, et je pense pas que le fils soit plus emmerdant qu'un casque audio. Et pour les batteries, si c'est un gouffre à piles au lithium qui coutent cher ...
 
En sachant que les nvidias seront inutilisables autrement qu'avec une carte et des drivers nvidia pour le moment.
 
Je tenterais bien les razors à 25€ pour voir, (c'est les moins cheres par contre donc ptetre de la merde ) et si c'est pourrit je pourrais bèner définitivement mon CRT :D


 
Merci pour le petit compte rendu, en tout cas ce qu'on peut en retenir c'est que les fabricants de produit 3d sont balèzes en packaging  :whistle:


---------------
[FEED-BACK]
n°7006023
upsilandre​51
Posté le 21-06-2009 à 20:48:57  profilanswer
 

basketor63 a écrit :


 
l'autofocus dans iz3d correspond bien à ce dont on parle
si tu cherches autofocus dans le forum tu verras les devs en parler
 


 

basketor63 a écrit :


 
non, car avec une convergence fixe dès que tu focaliseras ton attention sur une autre distance, l'angle entre les droites partant des caméras virtuelles sera faux.
 
Même en tentant d'aligner les deux images du poteau sur la surface de l'écran, t'auras un angle faux, mais ce qu'on dit c'est que ça sera moins genant qu'une convergence perpetuellement fixe, (qu'elle soit à 90°, ou fixant un point a une distance X), ou d'une part t'auras aussi un angle faux, mais où en plus tu devras faire un effort mental très important pour aligner les deux images de l'objet que tu tentes de dinstinguer.
 
L'idéal c'est bien entendu que la projection de l'image du poteau sur la surface de l'écran aie un écart entre l'image destinée à l'oeil gauche et à l'oeil droit qui soit le même que l'écart qu'il y aurait entre les images de la projection du poteau sur la fenêtre. (théorème de Thales)
Mais même dans ce cas parfait pour une distance et bien pour un univers animé ou un point de vue mobile, le gain d'avoir une convergence dynamique est évident si par exemple tu recules le poteau ou que le point de vue change, et que ton attention reste focalisée sur le poteau.
 
 


 

basketor63 a écrit :


 
ça donne un effet visuel qui n'est pas conforme exactement à la réalité, mais ça fonctionne quand même, tu conserves quand même une très bonne sensation de profondeur et d'immersion.
Et tu peux distinguer plus facilement des objets de l'univers virtuel à différentes distances sans devoir loucher.
 


 

basketor63 a écrit :


 
Sauf que là je te parle d'un truc que j'ai constaté sur un jeu, et qui avec les lunettes anaglyphes est d'un intérêt évident à cause de l'importance du ghosting. Et même sur un systeme à shutter ou polarisé, ou l'écran iz3d ça peut s'avérer un bon compromis. (ils n'auraient pas implémenté leur fonction autofocus sinon)
Le truc sur lequel tu sembles butter c'est l'aspect compromis au niveau du rendu.
Et que dans tous les cas, comme on n'a pas les moyens d'aligner la convergence des yeux sur la convergence des caméra on est obligé de tricher un peu par rapport à la perfection.
 


 
 
ce que tu dis n'a pas de sens et le sens personnel que tu donnes aux mots n'est pas tres claire donc a mon avis pas la peine d'insister plus que ca sans shema.
 
 
pour ma part voila un debut d'expliquation  :sleep:  
 
 
http://upsilandre.free.fr/images/Stereoscopie.jpg

n°7006194
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 23:17:55  profilanswer
 

NoixPecan a écrit :

Je n'ai pas de sympathie particulière pour la société ColorCode, mais il me paraît injuste de critiquer le système ColorCode en disant qu'un rendu "vraiment pas mal" nécessite des vidéos "spécialement réalisées" pour les lunettes. La société ColorCode a toujours présenté sa solution comme un système complet, qui nécessite des lunettes spéciales (ce ne sont pas n'importe quels filtres jaunes et bleus) et un algorithme de conversion spécial (pour passer d'une paire stéréo à un anaglyphe). D'après la société ColorCode, les spécificités de ses lunettes, associées aux spécificités de ses logiciels, permettraient un net progrès par rapport aux anaglyphes classiques. A nous de juger si c'est vrai, mais on peut difficilement reprocher aux lunettes ColorCode d'être décevantes avec des logiciels (comme le driver iZ3D) qui n'utilisent pas l'algorithme de conversion élaboré par ColorCode.
 
Par contre, lorsque tu dis que les exemples de chez ColorCode manquent de couleurs, c'est une remarque tout-à-fait intéressante. Elle vient tempérer le discours marketing de ColorCode, qui prétend avoir perfectionné le principe des anaglyphes au point de reproduire des couleurs naturelles. :sarcastic:
 


 

NoixPecan a écrit :

Ce n'est pas un problème inhérent aux anaglyphes. Si tu constates ce défaut, c'est que tes lunettes ne sont pas adaptées à ton écran. Lorsque le matériel est bien choisi (surtout les lunettes) il est tout-à-fait possible de voir les anaglyphes sans aucun ghosting.


 

NoixPecan a écrit :

Effectivement, le principe des anaglyphes convient parfaitement aux images en niveaux de gris. Du coup, on peut être tenté de désaturer totalement les images en couleurs, plutôt que de s'acharner à mal reproduire leurs teintes. C'est ce que font les modes "Gray Anaglyph" de Stereoscopic Player et le mode "Anaglyph Black & White" du driver iZ3D.


 
en fait après réflexion, je pense que c'est un compromis que l'oeuil gauche rouge voit aussi un peu de l'oeuil droit.
En fait je me dit que ça part du principe que l'oeil qui dirige est le droit, le cyan, et pour lui c'est important que l'image soit clean, et qu'il ne voit pas du tout de ghosting.
L'oeil gauche quand à lui, c'est rarement l'oeuil directeur (pour les droitiers j'imagine), et il est habitué à avoir une image moins précise, car il suit, et je pense que le cerveau ne retient finalement que la partie décalée. Pas top, mais surement un compromis.
Les lunettes que j'utilise sont quand même des lunettes IMAX en carton donc une assez bonne référence non ? :D

n°7006198
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 23:22:58  profilanswer
 

upsilandre51 a écrit :

 


ce que tu dis n'a pas de sens et le sens personnel que tu donnes aux mots n'est pas tres claire donc a mon avis pas la peine d'insister plus que ca sans shema.

 


pour ma part voila un debut d'expliquation  :sleep:

 


http://upsilandre.free.fr/images/Stereoscopie.jpg

 

Ce que tu dis qu'il ne faut pas faire, se révèle être un compromis acceptable dans le cas des anaglyphes par exemple pour le cas 2 ou les systemes avec pas mal de ghosting.

 

car oui on est d'accord que le cas idéal c'est le cas 3 au début.

 

Et concernant la convergence dynamique dont on parlait, même dans le cas parfait, on voit bien que si on recule le poteau, et bien on a tout intérêt pour le cas ou on fixe le poteau, de modifier la convergence, donc l'angle des deux rayons verts quoi.
Le systeme d'autofocus de iz3d dans le driver consiste à faire en sorte que l'objet visé au centre, de la mire, aie les rayons verts à converger dessus. Ca ne pourrait servir qu'a ça.
et c'est aussi ce que le systeme présenté dans le vidéo de cameron permet de faire.

 

si il y a un truc inexact que j'ai dit à un moment, c'est que l'angle était toujours bon si on tentait d'aligner le poteau sur les deux images sur l'écran. (mais j'ai rectifié)
Il n'est pas bon, c'est clair, cependant ce que j'ai pu constater c'est que malgré qu'il soit faux, et bien tu conserves quand même une très bonne immersion 3D, grace au fait que tous les objets autour qui sont à d'autres distances subissent le décalage stéréoscopique.

Message cité 1 fois
Message édité par basketor63 le 21-06-2009 à 23:41:52
n°7006204
itou
Posté le 21-06-2009 à 23:26:59  profilanswer
 

Oui et non sur ce qu'il faut faire.
ça dépend de ce qu'on veut faire voir finalement.
Je filme souvent en // car c'est plus simple à corriger, mais parfois je filme en convergence, ce qui me permet de focaliser le sujet et bien sur de ne pas déformer le reste si je l'aurais fait en //.
l'exemple du bourgeon, je l'ai filmé en convergence, ce qui permet de mettre les bébetes en premier plan à quelque cm du spectateur.

n°7006210
NoixPecan
Posté le 21-06-2009 à 23:33:32  profilanswer
 

@basketor63 : Pourquoi recopies-tu mon post en entier, alors que ta réponse ne concerne que les deux lignes du milieu ? :sarcastic:

basketor63 a écrit :

Les lunettes que j'utilise sont quand même des lunettes IMAX en carton donc une assez bonne référence non ?

Non, il n'existe pas de référence universelle, il faut choisir des lunettes adaptées au support. Ton écran n'est pas équivalent à un projecteur IMAX.

n°7006213
itou
Posté le 21-06-2009 à 23:38:26  profilanswer
 

Bon, je n'arrive pas à éditer avec les nvidia.
Apres quelques jours d'utilisation, finalement le rendu 3D est à peine meilleur sur les nvidia. L'avantage c'est qu'on peut montrer ses videos sans se mettre pile devant, pour les enfants c'est mieux, car on ne sait toujours pas s'ils arrivent à bien se mettre devant (3 ans).
 
Voilà donc mon ancienne config
http://zorgzorg31.free.fr/Luigi/temp/3D-1.jpg
 
Finalement, j'ai ressorti le zalman pour éditer les videos
http://zorgzorg31.free.fr/Luigi/temp/3D-2.jpg
 
Full screen nvidia en bas et interlacé fenétré zalman en bas. (les videos saccades quand le fais tourner les deux quand même 4x1080p finalement)
 
Quelques photos à travers les lunettes pour ceux qui sont intéressés (y'a pas gd chose à voir finalement)
http://zorgzorg31.free.fr/Luigi/temp/3D-3.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-4.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-5.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-6.jpg

n°7006232
basketor63
Sarkozy en prison
Posté le 21-06-2009 à 23:55:35  profilanswer
 

en fait je me disais qu'avec les photos on pourrait voir les lignes noires, mais la résolution est sans doute pas assez bonne pour les photos là.
ton triple écran ça doit être sympas pour jouer à grid :o

NoixPecan a écrit :

@basketor63 : Pourquoi recopies-tu mon post en entier, alors que ta réponse ne concerne que les deux lignes du milieu ? :sarcastic:


une maladie grave qui s'appelle la flemme :D

NoixPecan a écrit :

Non, il n'existe pas de référence universelle, il faut choisir des lunettes adaptées au support. Ton écran n'est pas équivalent à un projecteur IMAX.


non c'est fort dommage :o


Message édité par basketor63 le 21-06-2009 à 23:56:18
n°7006305
nac76
bein quoi?
Posté le 22-06-2009 à 02:14:03  profilanswer
 

basketor63 a écrit :

je fais un récap des lunettes shutters dont on a parlé.
 

Citation :

ces lunettes filaires à obturation sont à 24,90€ pour les CRT
http://www.razor3d.de/en/3d_pc.asp
 
http://www.razor3d.de/shopimages/3d_pc_zoom.jpg
 
et à 69€ en filaire pour crt et lcd
et 99€ en wireless pour crt et lcd
http://www.razor3d.de/shopimages/v [...] s_zoom.jpg
 
alors je comprends pas bien pourquoi le premier marcherait pas sur crt et les seconds si, vu qu'ils sont tous deux en prise vga.


 


 

Citation :

xforce3D sans fils http://www.xforce3d.com/wi3dgl.html  
http://img.photobucket.com/albums/ [...] 2000hi.gif
 
et filaire http://www.xforce3d.com/wipcglki.html à 49€
http://img.photobucket.com/albums/ [...] orce3d.gif
 
à 49€ pour les deux, les fillaires extremement laides [:vomit], et qui semblent hyper fragiles


 
 
 


 
et les nvidias à 150€ au moins.
 
Je sais pas si il y a une différence de qualité énorme entre les lunettes, difficile de savoir lesquelles inspirent plus confiance. les xforce3d on l'air fragiles
je pense que je preferais tenter du filaire, je me dis que la synchro à plus de chance d'être solide, et je pense pas que le fils soit plus emmerdant qu'un casque audio. Et pour les batteries, si c'est un gouffre à piles au lithium qui coutent cher ...
 
En sachant que les nvidias seront inutilisables autrement qu'avec une carte et des drivers nvidia pour le moment.
 
Je tenterais bien les razors à 25€ pour voir, (c'est les moins cheres par contre donc ptetre de la merde ) et si c'est pourrit je pourrais bèner définitivement mon CRT :D


 
celles qui sont sensée fonctionner sur lcd je pense que c'est du pipeau, d'ailleurs les lunettes sur la photo sont celles d'edimensional (d'après la photo) qui avait aussi annoncé une telle compatibilité et d'après les retours ça ne marche pas du tout... a moins qu'ils ne parlent d'un écran a 120hz comme le samsung   :heink:  
si il s'avere que c'est bien les edimensional se sont de très bonnes lunettes mais qui ont 2 défaut a l'heure actuelle.
d'abord elles assombrissent beaucoup l'image, je sais que les nvidia ont ce problème aussi mais peut-être pas dans les mêmes proportions, ensuite nvidia ne les prenant plus en charge coté drivers, il te faudra utiliser les drivers d'IZ3D et je ne sais pas si ils ont réussi a regler leur problème de désynchronisation fréquentes, il te faudra alors jouer en mode interlacée, ce qui passe très bien si tu joues en haute résolution.
un autre petit truc qui peut déranger, les "cache vue" sur le coté des lcd est transparent, ce qui fait qu'il ne cachent pas la vue (pas terrible pour des caches vue LOL) et la moindre source de lumiere a coté de l'écran peut s'avérer un peu dérangeante. un bout de scotch noir la dessus et il n'y paraitra plus  ;)  
 

Gossip a écrit :

Bonjour à tous
ce post m'a aidé à faire mon choix pour l'achat d'un zalman 22" et j'espere le recevoir dans la semaine :love: donc je remercie aux participants de ce sujet :)  
Sinon j'ai vu dans le meme genre de produit que le zalman et iz3d (un peu cher et trés peu répandu voir introuvable  en france) qu'il existe un autre écran le Hyundai W220S et personne n'en parle (ou trés peu à part les numériques qui ont fait un test) http://www.lesnumeriques.com/article-312-3689-49.html il a l'air bien mais un peu cher (509 euros chez top achat et 589 euros chez rue du commerce).
Je voudrais connaître des avis sur ce produit, par exemple si l'ecran est aussi brillant que le zalman et autres.
sinon il ya un de vous qui a acheté jaws 3d (je m'en rapelle + c'est qui) et je voudrais savoir s'il vaux le coup d'acheter.
Merci d'avance :)


 
bon choix, l'écran zalman est un très bon moniteur stéréoscopique a un prix très raisonnable et je me régale depuis que je l'ai acheté, j'espère qu'il te satisfera autant que moi  :jap:  
pour le hyundai, il y'a eu pas mal d'annonces sur des produits, certains ne sont pas encore sortis, d'autre ne sortiront pas en france et d'autres sortiront peut-être beaucoup plus tard. il me semble (de mémoire) qu'on en a parlé quelque part sur le topic mais il ne devait pas être sorti a l'époque et il était très difficile de faire le tri parmi toutes ces annonces.
il me semble même avoir lu le test de lesnum a l'époque mais le prix était encore inconnu et la faut avouer que pour un 22" c'est assez exorbitant  :ouch:  
c'est moi qui ai acheté jaws, je l'avais vu au ciné il y'a longtemps et j'en gardai un souvenir inoubliable, par contre le dvd m'a un peu déçu, il ne semble pas super bien adapté a un petit écran et beaucoup de scène sont très sombre, ce qui rendait le visionnage limite agaçant avec les lunettes edimensional qui assombrissent déja fortement l'image.
 c'était quand meme sympa de le revoir et je me suis promis de le re-revoir bientôt sur le zalman pour voire si ça passe mieux  ;)  
 

itou a écrit :

Bon, je n'arrive pas à éditer avec les nvidia.
Apres quelques jours d'utilisation, finalement le rendu 3D est à peine meilleur sur les nvidia. L'avantage c'est qu'on peut montrer ses videos sans se mettre pile devant, pour les enfants c'est mieux, car on ne sait toujours pas s'ils arrivent à bien se mettre devant (3 ans).
 
Voilà donc mon ancienne config
http://zorgzorg31.free.fr/Luigi/temp/3D-1.jpg
 
Finalement, j'ai ressorti le zalman pour éditer les videos
http://zorgzorg31.free.fr/Luigi/temp/3D-2.jpg
 
Full screen nvidia en bas et interlacé fenétré zalman en bas. (les videos saccades quand le fais tourner les deux quand même 4x1080p finalement)
 
Quelques photos à travers les lunettes pour ceux qui sont intéressés (y'a pas gd chose à voir finalement)
http://zorgzorg31.free.fr/Luigi/temp/3D-3.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-4.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-5.jpg
http://zorgzorg31.free.fr/Luigi/temp/3D-6.jpg


 
wow l'installation qui fait réver  :love:  :love:  
 
 
 
 
 


---------------
le site de toute la 3D
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  24  25  26  ..  244  245  246  247  248  249

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic unique] Carte mère ASRock Conroe 1333 DVI/H R2[Topic unique] Maximus II Formula
[Topic Unique] Asus Maximus Extreme[Topic unique] Boitier Gigabyte 3D Mars - Le successeur du 3D Aurora
[topic_unique]4core1333-FULL HD 
Plus de sujets relatifs à : [Topic Unique] stéréoscopie: tout sur la 3ème dimension


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)