Bisher generierten KI-Systeme Inhalte wie Texte, Bilder und Videos. Mit einer neuen Generation seines Gemini-Systems will Google nun noch einen Schritt weiter gehen: Künftig soll die KI als Assistent bestimmte Aufgaben selbstständig erledigen.
Dies gab Google am Mittwoch zum Jahrestag der ersten Gemini-Premiere in Mountain View bekannt. Denkbar ist, dass der „KI-Agent“ beispielsweise die Komponenten für ein Hobbyprojekt in Online-Shops findet und selbstständig in den Warenkorb legt. Der eigentliche Bestellvorgang würde jedoch weiterhin durch den Nutzer erfolgen.
„KI sollte nützlicher werden“
Sundar Pichai, CEO von Google, sagte, dass es bei der ersten Generation von Gemini 1.0 darum ging, Informationen zu organisieren und zu verstehen. „Bei Gemini 2.0 geht es darum, viel nützlicher zu sein.“
Die neuen KI-Assistenten sind Teil des „Project Mariner“, das mit der neuen KI-Generation umgesetzt wurde. Gemini 2.0 sei für das Agentenzeitalter entwickelt worden, sagte Google-Managerin Tulsee Doshi.
Das System ist in der Lage, intelligente Tools zu nutzen und kann direkt auf Google-Produkte wie die Suche zugreifen. Es kann sogar Programmcode ausführen. „Diese Fähigkeiten führen zu Agenten, die im Namen der Benutzer denken, sich erinnern, planen und sogar Maßnahmen ergreifen können.“
Klicken wie ein Mensch
„Mariner“ verhalte sich daher genauso, wie menschliche Nutzer es in einem Browser tun würden, betonte Doshi. „Es kann klicken, tippen und scrollen, genau wie Sie als Benutzer.“ Das System identifiziert jedoch auch eine Reihe von Aufgaben, die der Agent nicht im Namen eines Benutzers ausführen sollte.
„Ein gutes Beispiel dafür ist, dass Mariner einen Kauf nicht abschließt, ohne den Nutzer vorher zu fragen, ob er das wirklich möchte.“ „Mariner“ wird zunächst mit vertrauenswürdigen Probanden getestet, bevor es der breiten Öffentlichkeit zugänglich gemacht wird.
Neue KI-Brille
Mit „Project Astra“ treibt Google nun ein auf Gemini 2.0 basierendes Forschungsprojekt zur Erforschung der Umgebung voran, das im vergangenen Frühjahr erstmals auf der Entwicklerkonferenz Google I/O vorgestellt wurde.
Künftig erhalten Nutzer nützliche Informationen nicht nur auf dem Smartphone, sondern auch auf einer Datenbrille. Sie ähneln den Ray-Ban-Brillen der Facebook-Gruppe Meta, die beispielsweise Gebäude oder Kunstwerke erkennen oder beim Kochen helfen können.
Für Softwareentwickler, die eigene Lösungen auf Basis von Google AI anbieten, ist vor allem die Systemvariante Gemini Flash relevant. Es kann nicht nur auf großen Computern in Rechenzentren ausgeführt werden, sondern auch lokal auf Personalcomputern oder bestimmten Smartphone-Modellen. Google stellte am Mittwoch Gemini Flash 2.0 vor, das nach Angaben des Unternehmens eine verbesserte Leistung bei ähnlich schnellen Reaktionszeiten bietet.