Mit Gemini Live ist es ab sofort möglich, die Kamera und Bildschirmfreigabe zu nutzen, um mittels KI über die Inhalte zu sprechen. Das Projekt hatte Google bei der vergangenen I/O unter dem Namen Project Astra vorgestellt. Dort lief jemand sogar mit einer KI-Brille durch ein Büro und sprach mit Gemini über das, was er sah. Die Funktion ist nun für Android-Nutzer verfügbar. Man kann mit Gemini Live in 45 Sprachen sprechen. Anzeige Screenshot Gemini Live (Bild: afl) Konkret können alle Menschen mit einem Pixel-9 und dem Samsung Galaxy S25 auf die Gemini-Live-Funktion zugreifen. Das geht sowohl mit einem kostenlosen Zugang als auch mit einem Advanced-Konto bei Gemini. Wer einen Advanced-Zugang auf einem älteren Android-Gerät hat, kann Gemini Live ebenfalls verwenden. Google sieht in der Funktion eine "intuitive Hilfe in Echtzeit" für alltägliche Aufgaben. Das reiche von "Stylingberatung und technischem Support bis hin zum Brainstorming von Einrichtungsideen". In einem Blogbeitrag schreibt Google als Beispiel, Gemini Live könne bei einem verstopften Abfluss helfen oder bei einem Plattenspieler, der nicht so will, wie man selbst. Man hält einfach mit der Kamera drauf und fragt, was los ist. Gemini antwortet in Echtzeit. Das gilt auch für Dokumente auf dem Bildschirm, zu denen Gemini Feedback geben kann. Google nennt hier als Beispiel Social-Media-Kampagnen, bei denen der KI-Assistent helfen kann. Gemini Live entspricht etwa dem Advanced Voice Mode von OpenAI. Beide gibt es als App. Meta hat mit Meta AI bereits eine ähnliche Funktion in die Ray-Ban-Brillen gesteckt. Sowohl Google als auch OpenAI sollen daran ebenfalls arbeiten. (emw)