KI

Wer mit Open Source arbeitet, bekommt meist die schlechteren AI-Modelle

Eine Frage der Abwägung. © Dall-E / Trending Topics
Eine Frage der Abwägung. © Dall-E / Trending Topics
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Nicht OpenAI ist der große Gegner von Google, sondern Open Source: Das war zumindest die interne Meinung so mancher AI-Expert:innen bei Google mit Blick auf künftige Entwicklungen. Aktuell zeigt sich das aber gar nicht – denn vielmehr ist OpenAI im Gespann mit GPT-4 und Microsoft als Partner und Großinvestor jene AI-Firma, an der sich nicht nur Google, sondern die gesamte AI-Branche messen muss. Mit der Veröffentlichung von Sora im Videobereich später im Jahr wird sich das noch einmal verschärfen.

Währenddessen sieht man regelmäßige Veröffentlichungen von Open-Source-Modellen: Google hat Gemma veröffentlicht, Meta seine Llama-2-Modelle, und Elon Musks xAI hat nun am Wochenende Grok-1 unter Apache-Lizenz 2.0 auf den Markt gesetzt. Sprich: Im Prinzip kann jede:r hinüber zu Github oder Hugging Face surfen und sich diese AI-Modelle herunterladen. Das verheißt in der Theorie, dass sich jede:r (Firma) einen eigenen ChatGPT-Rivalen auf eigenen Servern mit eigenen Daten bauen könnte, um nicht in Abhängigkeit zu OpenAI, Microsoft und Co zu geraten.

Offen, mit Abstrichen

Jedoch zeigt sich aktuell Folgendes: Zwar werden immer wieder Open-Source-Modelle von Big Tech und aufstrebenden AI-Startups wie Mistral AI oder xAI veröffentlicht. Aber: Meistens (siehe Tabelle) sind die besseren, schnelleren und größeren AI-Modelle proprietär, bleiben also unter der Kontrolle eines Unternehmen. Diese AI-Modelle haben keinen öffentlich zugänglichen Quellcode und können nur unter Lizenz genutzt werden. Die Lizenz bekommt man im Alltag meistens via Kreditkarte zu spüren – die braucht es nämlich, um entweder die von den Unternehmen gebotenen Chatbots (ChatGPT, Le Chat, Copilot usw.) in der Vollversion verwenden zu können, oder um Zugang zu den AI-Modellen via API zu bekommen.

Außerdem gibt es dann auch bei den offenen KI-Modellen Einschränkungen. Beispiel xAI, das am Wochenende Grok-1 veröffentlichte. Zwar kann man sich den Code bereits bei GitHub oder Hugging Face besorgen, aber leider nicht in der Version, in der das Modell im Grok-Chatbot zum Einsatz bekommt. Stattdessen bekommt man eine Version aus einer Vor-Trainings-Phase ohne Finetuning, was auch bedeutet: Grok-1 hat noch nicht gelernt, Dialoge zu führen. Aus Benchmark-Tests und auch der Praxis weiß man außerdem, dass etwa die offenen Llama-2-Modelle von Meta nicht mehr mit den proprietären Modellen von OpenAI, Google oder auch Mistral AI mithalten können.

Weiters geht man etwa bei Google (Gemma) oder Meta (Llama) Nutzungsbedingungen ein, die zwar die kommerzielle Verwendung erlauben, aber nur unter Bedingungen. Hier ein Überblick:

Open Source Models Proprietary Models
Google Gemma 2B*
Gemma 7B*
Gemini 1.5 Pro
Gemini 1.0 Pro
Gemini 1.0 Ultra
Gemini 1.0 Nano 
xAI Grok-1 314B** – 
Meta Llama 2 7B***

Llama 2 13B***

Llama 2 70B***

OpenAI Whisper

GPT-2

GPT-4 Turbo
GPT-4
GPT-3.5 Turbo
Mistral Mistral 7B**

Mixtral 8x7B**

Mistral Small
Mistral Large
Mistral Embed
Anthropic Claude 3 Haiku
Claude 3 Sonet
Claude 3 Opus
Inflection AI Inflection-2.5
Inflection-2
Stability AI SDXL Turbo
Stable Diffusion XL
Stable Code
Stable LM
Stable Diffusion 3
Aleph Alpha Luminous

* Google-Lizenz, kommerzielle Nutzung erlaubt, aber unter Einschränkungen
** Apache License 2.0, kommerzielle Nutzung erlaubt
*** Facebook-Lizenz, kommerzielle Nutzung erlaubt, aber unter Einschränkungen

Insgesamt zeigt sich also: Open-Source-Modelle sind immer öfter verfügbar, aber wer die stärksten und aktuellsten AI-Modelle einsetzen möchte, der muss sie sich bei OpenAI, Google und Co via API lizensieren. Ab dann ist man nicht mehr User, sondern Kunde, und auch dem ausgeliefert, was die Anbieter entscheiden. Wenn etwa OpenAI durch ein Update GPT-4 spinnen lässt oder Google den Bildgenerator wegen Problemen abdreht, dann ist das eben so.

In der Praxis ist es schließlich auch oft so: Wer AI-Lösungen in seine Produkte integrieren will (z.B. AI-Chat im Kunden-Support), der tut sich leichter, via API auf AI-Modelle zuzugreifen, anstatt OS-Modelle zu laden, zu installieren, zu finetunen und zu betreiben. Es gibt auch Berichte und Berechnungen, dass die Nutzung via API günstiger ist, aus mehrerlei Gründen (u.a. Zeit- und Personalaufwand).

Open Source unter dem AI Act auch mit Regeln

In der EU gibt es auch zu bedenken, dass der Einsatz von Open-Source-KI keineswegs bedeutet, dass es dann auch keine Regeln einzuhalten gibt. Zwar gibt es im AI Act zwar Ausnahmen für Open Source, aber bestimmte Vorgaben gilt es beim Einsatz trotzdem zu erfüllen.

„Die neuen Regeln betreffen vor allem die großen KI-Modelle, wo die großen Sprachmodelle (LLMs) und die generative AI hineinfallen. Hier gibt es einen Zwei-Stufen-Approach. Stufe 1 gilt für Standard- oder normale General-Purpose-AI-Models. Hier gibt es Dokumentationspflichten, Pflichten zur Teilung von Informationen entlang der Lieferkette, eine Copyright-Policy und die Achtung von Rechtsvorbehalten und die Veröffentlichung einer Content Summary an Trainingsdaten. Dokumentation, Informationsveröffentlichung und Transparenz sind ja dem Open-Source-Gedanken inhärent. Stufe 2 sind die General-Purpose-AI-Models mit systemischen Risiken, die dann natürlich mehr Pflichten haben, wie Vorkehrungen gegen Cyber-Risiken“, sagt Jeannette Gorzala, die neue Stellvertreterin des KI-Beirats der Bundesregierung.

Und weiter: „Open Source ist grundsätzlich ausgenommen von all diesen Verpflichtungen, wenn es kein Modell mit systemischen Risiken ist. Das heißt, es gibt hier eigentlich eine großzügige Ausnahme. Das Einzige, wo Open Source-Modelle nicht ausgenommen sind, sind die Copyright-Policy und das Veröffentlichen der Trainings-Content-Summary, was ich auch hier nicht wirklich als einen Stolperstein sehe. Das heißt, der AI-Act ist für die Open Source-Industrie eigentlich gar nicht hinderlich, sondern hilft eigentlich auch, weil er genau definiert, was Open Source heißt.“

AI Advisory Board mit Jeannette Gorzala, Carina Zehetmaier und Verena Krawarik steht

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen