Mit Gemma 2 stellt Google Llama 3 in den Schatten

-

Auf seiner jährlichen Google I/O-Konferenz im vergangenen Mai machte der Riese unzählige Ankündigungen zur generativen KI. Das Unternehmen stellte insbesondere Gemma 2 vor, die zweite Generation seiner Familie großer Gemma-Sprachmodelle. Anschließend demonstrierte Google die Leistungsfähigkeit seines Modells, das in einer einzigen Version mit 27 Milliarden Parametern verfügbar ist.

Heute scheint es, dass eine zweite Version entwickelt wurde, da der Riese gerade erst Gemma 2 9B und Gemma 2 27B für Forscher und Entwickler verfügbar gemacht hat. Und das Mindeste, was wir sagen können, ist, dass das Unternehmen seinen Stolz nicht verbirgt: „Gemma 2 ist in der Inferenz effizienter und effektiver als die erste Generation und weist erhebliche Fortschritte bei der Sicherheit auf.“

Zwei Versionen, die mit denen von Llama 3 konkurrieren können

Die Version mit 27 Milliarden Parametern wird beschrieben als„konkurrenzfähige Alternative zu mehr als doppelt so großen Modellen“, eine Anspielung auf Metas Llama 3 70B-Version. Google führt dies auf die Möglichkeit zurück, diese Modelle mit einer einzelnen H100 Tensor Core GPU, einem A100 80 GB oder einem Google Cloud TPU-Host auszuführen, was die Bereitstellungskosten erheblich senkt. Im Vergleich zu Llama 3 70B erreicht Version 27B 75,2 % beim MMLU-Test (testet sowohl das Wissen über die Welt als auch die Fähigkeit, Probleme zu lösen), verglichen mit 79,5 % für die Meta-Version. Beim BBH-Test zum logischen Denken erreicht Gemma 2 27B 74,9 %, während Llama 3 70B 81,3 % erreicht.

Das 9B Gemma 2-Modell bietet seinerseits auch die beste Leistung in seiner Kategorie, versichert Google, und übertrifft das Llama 3 8B und andere offene Modelle in seiner Größenklasse. Die Übersichtstabelle der durchgeführten Tests zeigt, dass Version 9B beim MMLU- und GSM8K-Benchmark (Test zur Lösung mathematischer Probleme) besser ist als Llama 3 8B. Beide Modelle erzielen beim HellaSwag-Test ungefähr die gleichen Ergebnisse (Bewertung des fortgeschrittenen Verständnisses natürlicher Sprache und des gesunden Menschenverstandes in KI-Modellen).

Beeindruckende Inferenzfähigkeiten

Google verspricht mit Gemma 2 eine solche Qualität, dass das Modell auf einer Reihe von Hardware laufen kann, von Gaming-Laptops über High-End-Desktops bis hin zu cloudbasierten Setups. Als Beispiel nennt das Unternehmen Computer, die mit einer Nvidia RTX-Grafikkarte oder einer GeForce RTX über Hugging Face Transformers ausgestattet sind.

Genau wie die Gemma-Modelle der ersten Generation ist Gemma 2 unter der kommerziellen Gemma-Lizenz erhältlich, sodass Entwickler und Forscher ihre Produktionen teilen und vermarkten können. Beachten Sie, dass Google Cloud-Kunden ab nächsten Monat Gemma 2 auf Vertex AI bereitstellen und verwalten können.

Ein kompaktes Modell kommt

Das Unternehmen beabsichtigt, die Entwicklung dieser Modellfamilie fortzusetzen und weist darauf hin, dass a „Das kommende Gemma 2-Modell mit 2,6 Milliarden Parametern soll die Lücke zwischen leichtem Erschwinglichkeitsgrad und leistungsstarker Leistung schließen.“ wird bald das Licht der Welt erblicken. Diese Version wurde auf 2.000 Milliarden Token trainiert, wie das Unternehmen in einem speziellen technischen Bericht detailliert beschreibt. Im Vergleich dazu wurden die Versionen Gemma 2 27B und 9B mit 13 Billionen Token überwiegend englischer Daten bzw. 8 Billionen Token trainiert.

Wichtige Klarstellung: Diese Token stammen aus verschiedenen Datenquellen, darunter Webdokumente, Code und wissenschaftliche Artikel. Dabei handelt es sich nicht um multimodale Modelle und sie sind nicht speziell für die modernen Mehrsprachigkeitsfunktionen geschult.

Ausgewählt für dich


-

PREV Dieses Samsung-Zubehör findet sie für Sie (-50 % mit diesem Tipp)
NEXT Das Galaxy S24 profitiert von einem einzigartigen Angebot zum Verkaufsstart