Google AI kündigt Gemini 1.5 Pro und Gemma 2 für Entwickler an

Google AI kündigt Gemini 1.5 Pro und Gemma 2 für Entwickler an
Google AI kündigt Gemini 1.5 Pro und Gemma 2 für Entwickler an
-

Google AI hat damit begonnen, Entwicklern Zugriff auf erweiterte Pop-ups und kostensparende Funktionen zu gewähren, beginnend mit dem Gemini 1.5 Pro Large Language Model (LLM). Bisher auf der Warteliste verfügbar, steht das vollständige 2-Millionen-Token-Kontextfenster jetzt allen Entwicklern offen. Google führt außerdem Kontext-Caching ein, um die Kosten für Aufgaben zu senken, bei denen ähnliche Informationen über mehrere Eingabeaufforderungen hinweg wiederverwendet werden.

Mit dem neuen Update können Gemini 1.5 Pro- und Flash-Modelle jetzt Python-Code dynamisch generieren und ausführen. Modelle können auch Datenanalyse und Mathematik nutzen, um Argumentationsprobleme effektiv zu lösen. Laut Google ist die Code-Ausführungsumgebung sicher und verfügt über keinen Internetzugang; Das Unternehmen gibt außerdem an, dass Entwicklern nur das vom Modell generierte Endergebnis in Rechnung gestellt wird. Das leichte Gemma 2-Modell ist jetzt auch für die Verwendung im Google AI Studio verfügbar. Interessierte können unter „Erweiterte Einstellungen“ im Google AI Studio darauf zugreifen.

Mehrere Unternehmen nutzen bereits Google Gemini 1.5 Flash. Die Liste der Anwendungen, die diese Technologie verwenden, umfasst Envision, das sehbehinderten Benutzern hilft, Plurals Richtlinienanalyse, Zapiers Videoverarbeitung und Dots benutzerdefiniertes KI-Speichersystem. Das andere, was den Entwicklern derzeit zur Verfügung steht, ist das, was Google in seinem Beitrag als „Text-Tuning“ bezeichnet und dessen vollständiger Zugriff für Mitte Juli geplant ist.

-

PREV Sram stellt den S-1000 vor, den kleinen Bruder des GX T-Type ⋆ Vojo
NEXT Der Ozean und die Literatur im Mittelpunkt zeitgenössischer Themen: „Blue Humanities“ und Thalassopoetik