Launch

Gemma 3: Google neueste AI-Modelle laufen lokal, schlagen DeepSeek und Llama

Gemma 3. © Google Deepmind
Gemma 3. © Google Deepmind
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Der Trend in Richtung kleinerer, offener KI-Modelle geht nach dem DeepSeek-Einschlag weiter: Google hat Gemma 3 vorgestellt, eine neue Generation leichtgewichtiger KI-Modelle, die auf derselben Technologie basieren, die auch hinter den Gemini 2.0 Modellen steht. Gemma 3 wird als “das leistungsstärkste KI-Modell, das auf einem einzelnen Beschleuniger laufen kann” beworben und richtet sich an Entwickler, die KI-Anwendungen für verschiedene Plattformen erstellen möchten.

„Wir stellen Gemma 3 vor, eine Kollektion leichter, hochmoderner offener Modelle, die auf der gleichen Forschung und Technologie basieren wie unsere Gemini 2.0-Modelle. Dies sind unsere bisher fortschrittlichsten und verantwortungsvoll entwickelten offenen Modelle. Sie sind so konzipiert, dass sie schnell und direkt auf Geräten – von Handys und Laptops bis hin zu Workstations – ausgeführt werden können, damit Entwickler KI-Anwendungen erstellen können, wo immer sie gebraucht werden“, heißt es seitens Google Deepmind, also der AI-Tochter des Internet-Konzerns.

Gemma 3 ist in verschiedenen Größen verfügbar: 1B, 4B, 12B und 27B Parameter, wobei die größeren Modelle einen Kontext von 128.000 Token verarbeiten können, während das 1B-Modell auf 32.000 Token beschränkt ist. Die Modelle sind multimodal ausgelegt und können Text, Bilder und kurze Videos verarbeiten. Google zufolge soll Gemma 3 besser sein als Top-Modelle von DeepSeek, OpenAI, Meta oder Mistral, wenn es auch nicht an die Leistung von Googles proprietären Top-Modellen sowie einigen anderen Branchenführern herankommt:

Zu den Hauptmerkmalen gehören:

  • Hohe Leistung auf einzelnem Beschleuniger: In vorläufigen Bewertungen übertrifft Gemma 3 Konkurrenten wie Llama-405B, DeepSeek-V3 und o3-mini auf der LMArena-Bestenliste.
  • Multilinguale Unterstützung: Unterstützung für über 35 Sprachen direkt nutzbar und vortrainierte Unterstützung für mehr als 140 Sprachen.
  • Erweitertes Kontextfenster: Mit 128.000 Token können große Datenmengen verarbeitet werden.
  • Funktionsaufrufe: Unterstützung für strukturierte Ausgaben zur Automatisierung von Prozessen.
  • Quantisierte Modelle: Offizielle quantisierte Versionen reduzieren die Modellgröße bei gleichbleibender Genauigkeit.

Kein echtes Open Source, aber vielfache Einsatzmöglichkeiten

Obwohl Google Gemma 3 als “open model” bezeichnet, ist es wichtig zu verstehen, was das genau bedeutet. Die Gemma-Lizenz ist eine von Google selbst erstellte Lizenz, die zwar viele Freiheiten bietet, aber nicht vollständig den Kriterien einer Open-Source-Lizenz im strengen Sinne entspricht.

Die Lizenz erlaubt eine breite Palette von Anwendungen, einschließlich kommerzieller Nutzung, Weiterverbreitung, Fine-Tuning und abgeleiteter Werke. Sie enthält jedoch Nutzungsbeschränkungen und auf die “Prohibited Use Policy” verweisen.

Vergleich mit anderen KI-Modellen

Im Vergleich zu anderen KI-Modellen wie Llama 3 zeigt Gemma 3 unterschiedliche Stärken und Schwächen:

  • Leistung: Gemma 3 27B erreicht einen Elo-Score von 1338 auf der Chatbot Arena-Bestenliste und benötigt dabei nur einen einzigen NVIDIA H100 GPU, während Konkurrenten bis zu 32 GPUs für vergleichbare Leistung benötigen.
  • Hardware-Anforderungen: Gemma 3 ist für den Einsatz auf Standard-GPUs oder einem einzelnen TPU optimiert, was es ideal für kleinere Setups macht. Im Gegensatz dazu benötigt Llama 3 leistungsfähigere Hardware, bietet aber bessere Skalierbarkeit und Anpassungsoptionen für größere Projekte.
  • Anwendungsbereiche: Während Gemma 2 (der Vorgänger) in allgemeinem Wissen und Reasoning-Aufgaben stark ist, zeichnen sich die größeren Modelle von Gemma 3 (70B, 405B) in der Codegenerierung und beim Lösen mathematischer Probleme aus.

Gemma 3 integriert sich in bestehende Entwickler-Workflows mit Unterstützung für beliebte KI-Bibliotheken und Tools wie Hugging Face Transformers, JAX, PyTorch und Google AI Edge. Es ist optimiert für NVIDIA GPUs, unterstützt aber auch AMD GPUs über den ROCm-Stack und CPU-Ausführung mit Gemma.cpp.  Für sofortige Experimente können Nutzer auf Gemma 3-Modelle über Plattformen wie Hugging Face und Kaggle zugreifen oder Google AI Studio für In-Browser-Deployment nutzen.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

Startup & Scale-up Investment Tracker 2025

Die größten Finanzierungsrunden des Jahres im Überblick
#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe
Die 2 Minuten 2 Millionen Investoren. © PULS 4 / Gerry Frank

2 Minuten 2 Millionen | Staffel 12

Die Startups - die Investoren - die Deals - die Hintergründe

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen