Pour l’instant, la version laboratoire a un champ de vision anémique – seulement 11,7 degrés en laboratoire, bien plus petit qu’un Magic Leap 2 ou même un Microsoft HoloLens.
Mais le laboratoire d’imagerie informatique de Stanford a une page entière avec une aide visuelle après une aide visuelle cela suggère qu’il pourrait s’agir de quelque chose de spécial : une pile plus fine de composants holographiques qui pourraient presque s’insérer dans des montures de lunettes standard et être formés pour projeter des images 3D réalistes, en couleur et en mouvement qui apparaissent à différentes profondeurs.
Comme les autres lunettes AR, elles utilisent des guides d’ondes, qui sont un composant qui guide la lumière à travers les lunettes et dans les yeux du porteur. Mais les chercheurs affirment avoir développé un « guide d’onde métasurface nanophotonique » unique qui peut « éliminer le besoin d’optiques de collimation encombrantes » et un « modèle de guide d’onde physique appris » qui utilise des algorithmes d’IA pour améliorer considérablement la qualité de l’image. L’étude indique que les modèles « sont automatiquement calibrés à l’aide du retour de la caméra ».
Bien que la technologie de Stanford ne soit actuellement qu’un prototype, avec des modèles fonctionnels qui semblent attachés à un banc et des cadres imprimés en 3D, les chercheurs cherchent à perturber le marché actuel de l’informatique spatiale qui comprend également des casques de réalité mixte encombrants comme le Vision Pro d’Apple. , Meta’s Quest 3 et autres.
Le chercheur postdoctoral Gun-Yeal Lee, qui a contribué à l’écriture l’article publié dans Natureaffirme qu’il n’existe aucun autre système AR comparable à la fois en termes de capacité et de compacité.