Portrait-robot du casque de réalité virtuelle et augmentée d’Apple

Author:

«leur position est tellement proche des yeux qu’il est impossible de ne pas voir les pixels.»
Où plus exactement, leur position est tellement proche […] qu’il est impossible de __ __ voir les pixels (ou de voir quoique ce soit d.ailleurs}! Essayez de regarder votre téléphone à 2cm de distance. Un œil “normal” voit flou en dessous de ~25cm (un peu moins pour les très jeunes ou les myopes, beaucoup plus chez les presbytes).
Donc tous ces dispositifs de lunettes AR/VR fabriquent (par un jeu de lentilles fonctionnant en loupe et/ou des réflexions) une image “virtuelle” (au sens optique, rien à voir avec la virtualité du monde représenté) placée bien au-delà de 25cm, le mieux serait à l’infini pour ne pas provoquer de fatigue oculaire.
D’où alors vient l’apparence pixellisée?
– l’œil humain “standard” voit comme séparés 2 pts écartés de 1’ d’angle, soit e=73μm (0,07mm à 25cm. Le diamètre d’1 cheveu ~0,1mm et c’est déjà très petit)
– l’image est donc pixellisée à 25cm si sa résolution est inférieure à 1/e = 138px/cm = 350ppi.
Ce qui est la résolution standard des imprimantes, ou des 1er iPhones.
Pour améliorer le rendu des arrondis (l’œil ne voit pas individuellement les px du crénelage, mais perçoit qu’un “truc” n’est pas parfait) les imprimantes montent à 600dpi (ce qui ne sert à rien sur 1 image qui bouge).

Comme je le disais, je pense que sur ces lunettes, l’image sera observée comme si elle était au moins à 5-10 m (~l’infini pour l’œil), avec 1 résolution alors de 18ppi, mais fabriquée par agrandissement homothétique à partir d’un écran placé à ~3cm de l’œil qui devra avoir 1 résolution de …2911ppi ! (0,0087mm entre centres des pixels) Ouch !!
Ce qui pour des écrans “plein format” 24x36mm ferait une définition de 2750×4125=12Mpx (Ce qui fait 36 M sous-pixels). Re-ouch!
Bon, on sait faire cette densité de composants, quand il s’agit de capteurs. La technologie est-elle au point pour des émetteurs de lumière ?
Ce qui me paraît problématique est la puissance de calcul et le débit de données. À 25 img/s pour 2 images de 36Mspx chacun codé sur un octet, il faut… 1,8GB/s !

La solution viendra certainement du fait
• que notre œil n’a pas le même pouvoir séparateur ds l’axe et hors axe, et de très très loin. On ne sépare 2 pts écartés de 1’ que dans une zone très limitée de notre champ de vision : quelques mn d’angle, tout le reste est de plus en plus flou (de moins en moins bien résolu) qd on s’éloigne de l’axe du regard
• et que la restitution d’une image binoculaire n’est nécessaire que sur environ 50 % de notre champ visuel total.

Conclusion :
–il faudra des écrans de résolution assez monstrueuse dans la direction du regard ;
– il faudra effectivement un système de suivi du regard très performant pour que la zone du champ visuel affichée avec une très bonne précision change (mais comme il est impossible de changer la résolution matérielle de l’écran de restitution, soit l’écran se décale devant le regard pour que ce soit toujours la même zone qui soit observée, soit c’est la totalité de l’écran qui a une excellente résolution)
– il y aura ensuite un paquet de calculs pour dégrader l’affichage de la zone que nos yeux de toute façon percevront floue, et pour ne pas afficher inutilement en vision binoculaire ce qui ne serait vu que par un seul de nos yeux.

Normal que cela prenne autant de temps à concevoir, normal aussi que ça vaille un rein dans un premier temps.

Leave a Reply

Your email address will not be published. Required fields are marked *