Google hat Project Astra vorgestellt, eine bahnbrechende Demo, die KI-Agenten zeigt, die durch ihr fortschrittliches multimodales Foundation-Modell Gemini unterstützt werden. Die Demonstration umfasst zwei kontinuierliche Aufnahmen: eine mit einem Google Pixel-Telefon und eine weitere mit einem Prototyp einer Brille. Diese KI-Agenten verarbeiten einen konstanten Strom von Audio- und Videoeingaben, wodurch sie ihre Umgebung in Echtzeit verstehen und mit ihr interagieren können. Die Agenten führen Gespräche über ihre Beobachtungen mit dem Tester und zeigen damit das Potenzial für nahtlose, kontextbewusste Interaktionen auf.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Erfahren Sie mehr über Project Astra: Google AI Blog
#GoogleIO2024
Sehen Sie die vollständige Google I/O 2024 Keynote: YouTube