On a enfin une vidéo des lunettes futuristes de Google (et c’est ultra-impressionnant)

Les Google Glass, c’est fini. Mais Google prépare quelque chose de mieux : un produit qui combine l’expérience immersive de la réalité augmentée à la puissance de son intelligence artificielle Gemini. Pour le moment, on ne sait pas quand ces nouvelles lunettes connectées seront disponibles. Mais, en attendant, la firme a récemment fait une démonstration, lors d’une conférence TED, afin de montrer le potentiel de la réalité augmentée. Les lunettes présentées par Google lors de cette conférence ont un format compact, et ressemblent à des lunettes ordinaires. Elles sont équipées d’une caméra et d’un microphone, qui permettent à l’IA de voir et d’entendre l’environnement de l’utilisateur. Un haut-parleur permet aussi de recevoir des appels, ou d’écouter de la musique. Et, bien entendu, il y a aussi un petit écran (haute résolution et en couleur), intégré à la lentille, qui permet de visualiser des informations. Shahram Izadi, le patron de la réalité mixte chez Google, a également indiqué que les lunettes sont liées au smartphone de l’utilisateur et a accès à toutes les applications du smartphone. Misplace your things often? These AI glasses could help. In this live demo at #TED2025, computer scientist @izadi_shahram debuts Google’s prototype smart glasses, powered by the new @Android XR system. Watch the full demo here: https://t.co/F3Rugyig4C pic.twitter.com/7SPlrzThKW — TED Talks (@TEDTalks) April 17, 2025 Google fait une démonstration impressionnante Lors de sa présentation, Shahram Izadi portait ces lunettes, ce qui lui permettait de voir ses notes sur le petit écran. Mais le prototype de Google a des fonctionnalités bien plus puissantes. Tout d’abord, l’utilisateur peut se servir de celles-ci pour discuter avec l’IA Gemini, qui peut afficher ses réponses sur l’écran. Les interactions sont multimodales, puisque l’IA peut voir ce qui est dans le champ de vision de l’utilisateur, grâce à la caméra. Mais ce n’est pas tout, puisque l’IA est en mesure de mémoriser ce que l’utilisateur a vu. Lors de la démonstration, Gemini a été capable d’indiquer l’emplacement d’un objet qui a été vu par la caméra, sur une étagère. Cette fonctionnalité de mémoire pourrait inquiéter certains, mais elle pourrait aussi être d’une aide précieuse pour ceux qui ont tendance à égarer des objets (comme les clés). Et comme vous pouvez le voir dans la vidéo, l’IA intégrée aux lunettes peut aussi résumer des livres, servir de traducteur, etc. Sinon, Google a également montré que ces lunettes peuvent aider l’utilisateur dans la navigation, en affichant les directions à l’écran, ainsi qu’une petite carte en 3D. Sortie en 2026 ? La démonstration a démontré que la firme est bien dans la course aux lunettes de réalité augmentée. Pour rappel, comme Google, Apple et le groupe Meta sont aussi en train de développer des technologies similaires. L’enjeu est important, puisque ce type de lunettes pourrait remplacer les smartphones, un jour (si elles deviennent capables de fonctionner sans smartphone). Pour le moment, on ne sait pas quand les lunettes montrées par Google lors de cette conférence TED seront disponibles pour le grand public. Mais d’après un média coréen, il s’agirait d’un appareil développé par Google et Samsung, que les deux entreprises envisageraient de sortir en 2026. Après avoir abandonné les Google Glass, Google prépare de nouvelles lunettes connectées qui combinent l’expérience immersive de la réalité augmentée à la puissance de son assistant Gemini Récemment, la firme a présenté un prototype lors d’une conférence TED et a montré de qui ces lunettes seront capables On ne sait pas quand ces lunettes seront disponibles, mais d’après un média coréen, elles pourraient arriver en 2026 📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.