Présentation des lunettes intelligentes Ray-Ban Meta améliorées, anciennement connues sous le nom de Ray-Ban Stories, qui ont reçu un coup de pouce significatif cet automne. Dotées d'un processeur plus rapide, de caméras améliorées, d'une qualité audio améliorée et de la possibilité de diffuser en direct sur Facebook et Instagram, ces spécifications intelligentes sont désormais également équipées de Meta AI. La récente mise à jour de la version 2 a poussé les choses encore plus loin avec une meilleure clarté d'image, un contrôle global du volume et des fonctionnalités de sécurité améliorées. Et le meilleur ? D’autres mises à jour sont en préparation.
Le directeur de la technologie de Meta, Andrew Bosworth, a récemment annoncé une nouvelle fonctionnalité en préparation via un article sur Threads (via Engadget). Cet outil passionnant identifiera les points de repère à différents endroits et fournira aux utilisateurs des informations supplémentaires à leur sujet. Agissant essentiellement comme un guide touristique virtuel pour les voyageurs, cette fonctionnalité promet d'améliorer votre expérience d'exploration.
Bosworth a présenté quelques exemples d'images pour illustrer les capacités de la fonctionnalité. Qu'il s'agisse d'expliquer pourquoi le Golden Gate Bridge apparaît orange dans certaines conditions météorologiques, de partager des anecdotes sur les maisons emblématiques des « dames peintes » de San Francisco et de mettre en lumière l'histoire de la Coit Tower, ces instantanés sont accompagnés de descriptions détaillées qui offrent un contexte précieux aux utilisateurs.
Pendant ce temps, Mark Zuckerberg s'est rendu sur Instagram pour présenter la nouvelle fonctionnalité des lunettes avec des vidéos tournées dans le Montana. Cette fois-ci, les lunettes ont utilisé des signaux audio pour fournir aux utilisateurs des descriptions verbales de Big Sky Mountain et de l'histoire derrière l'Arche de Roosevelt. Zuckerberg a même lancé une demande ludique à Meta AI pour expliquer comment la neige se forme d'une manière amusante à la manière d'un homme des cavernes.
Cette fonctionnalité innovante a été présentée en avant-première par Meta lors de son événement Connect l'année dernière, démontrant des capacités « multimodales » impressionnantes qui permettent aux utilisateurs de poser des questions en fonction de leur environnement. Alimentées par des informations en temps réel et prises en charge par l'intégration de Bing Search, les lunettes intelligentes de Meta offrent une expérience similaire à Google Lens, permettant aux utilisateurs d'interagir avec leur environnement grâce à l'assistance de l'IA.
Actuellement exclusive aux membres du programme d'accès anticipé de Meta, cette fonctionnalité devrait être déployée auprès d'un plus grand nombre d'utilisateurs dans un avenir proche. Restez à l'écoute pour plus de mises à jour sur la façon dont ces lunettes intelligentes vont révolutionner vos expériences de voyage !