Mistral AI: Preiskampf mit OpenAI, Open-Source-Kampf mit Meta
Nachdem Aleph Alpha aus Deutschland im Prinzip abgehängt wurde und Silo AI aus Finnland vom US-Chip-Hersteller AMD aufgekauft wurde, ruhen die europäischen AI-Hoffnungen nun vor allem auf Mistral AI aus Paris. Das Unternehmen mit etwas mehr als 50 Mitarbeiter:innen und einer Bewertung von 5,8 Milliarden Euro muss es mit der übermächtigen Konkurrenz aus Übersee aufnehmen – insbesondere mit ChatGPT-Macher OpenAI und Llama-Anbieter Meta.
Nun haben die Franzosen rund um CEO Arthur Mensch mit Mistral Large 2 ihr neuestes AI-Modell vorgelegt. Glaubt man den veröffentlichten Benchmark-Tests, so kann es mit den führenden US-Modellen GPT-4o von OpenAI, Claude 3 Opus von Anthropic und Llama 3 405B von Meta mithalten bzw. Ergebnisse auf Augenhöhe liefern. Und das, obwohl das LLM „nur“ 123 Milliarden Parameter misst und somit deutlich kleiner als GPT-4o oder Llama 3.1 ist.
OpenAI fährt harten Preiskampf
Auch wenn Mistral AI dieses Jahr noch einmal bei Investoren punkten konnte – die US-Konkurrenz fährt dem Pariser Startup ordentlich um die Ohren. Das eine ist der Preiskampf: OpenAI hat für sein GPT-4o mini-Modell Dumping-Preise eingeführt, die deutlich unter jenen der Konkurrenz liegen – lediglich ältere oder kleinere AI-Modelle der Konkurrenz kommen zumindest in die Richtung von 15 (Input) bzw. 60 US-Cent (Output) pro einer Million Token.
Mistral AI hat bei der zweiten Version seines besten AI-Modells die Preise gegenüber dem Vorgänger senken können und liegt nun gleichauf mit Anthropics Claude Sonnet 3.5″ und unter GPT-4o von OpenAI. Damit ist man wettbewerbsfähig mit den beiden führenden AI-Startups aus den USA sowie mit Google bester Gemini-Version. Hier die Preisliste zum direkten Vergleich:
Input per Million Tokens | Output per Million Tokens | Context Window | |
OpenAI GPT-4o mini |
0,15 $ | 0,60 $ | 128K |
OpenAI GPT-4o |
5 $ | 15 $ | 128K |
OpenAI GPT-3.5 Turbo |
0,50 $ | 1,50 $ | 16K |
Anthropic Claude 3.5 Sonnet |
3 $ | 15 $ | 200K |
Anthropic Claude 3 Opus |
15 $ | 75 $ | 200K |
Anthropic Claude 3 Haiku |
0.25 $ | 1.25 $ | 200K |
Mistral AI Large 2 |
3 $ | 9 $ | 128K |
Mistral AI Large |
4 $ | 12 $ | 32K |
Mistral AI Medium |
2,7 $ | 8,1 $ | 32K |
Mistral Mixtral 8x22B |
2 $ | 6 $ | 64K |
Mistral Mixtral 8x7B |
0,70 $ | 0,70 $ | 32K |
Cohere Command R+ |
3 $ | 15 $ | 128K |
Cohere Command R |
0,50 $ | 1,50 $ | 128K |
Google Gemini 1.5 Pro |
3,50 $ 7 $ |
10,50 $
21 $ |
128K
> 128K |
Google Gemini 1.5 Flash |
0,35 $ 0,70 $ |
1,05 $ 2,10 $ |
128K > 128K |
Google Gemini 1.0 Pro |
0,50 $ | 1,50 $ | n.a. |
Aleph Alpha
Base Control |
7,50 € | n.a. | 2.048 |
Aleph Alpha
Extended Control |
11,25 € | n.a. | 2.048 |
Llama fährt offensive Open-Source-Strategie
Was Mistral AI und anderen aber zum Problem werden wird: Mit Llama 3.1 hat Meta von Mark Zuckerberg ein offenes AI-Modell auf den Markt gebracht, das sich im Prinzip jeder kostenlos laden und nutzen kann (wenn es für kommerzielle Zwecke auch Einschränkungen gibt). Erlaubt wurde sogar, dass man mit dem Output von Llama 3.1 andere AI-Modelle füttern darf. Abzuwarten bleibt, ob viele Unternehmen an Mark Zuckerbergs „Open Source“ glauben und aufspringen werden – oder ob sie bei den bestehenden Anbietern bleiben und deren AI-Modelle via API anzapfen.
Was Zuckerberg aber geschafft hat: Dachte man 2023 bei „Open Source KI“ noch am ehesten an Mistral AI, ist das 2024 anders. Da ist nun Meta am Zug und will mit kostenlosen AI-Modellen dafür sorgen, dass möglichst viele Entwickler:innen mit ihren LLMs arbeiten und nicht mit jenen von Google, OpenAI oder Anthropic. Dieses Spiel mit einem Gratis-Modell kann Zuckerberg: Facebook, Instagram und WhatsApp nutzen Milliarden Menschen kostenlos, Geld verdient sein Konzern aber trotzdem ordentlich als Plattform. Ähnliches schwebt Zuckerberg nun im AI-Bereich vor.
Währenddessen hat sich Mistral AI darauf verlegt, den Open-Source-Pfad zu verlassen. Mistral Large 2 und andere LLMs werden mittlerweile unter kommerzieller Lizenz angeboten, sprich: Wer sie nutzen will, der bezahlt an das Startup aus Paris. Das kann einfacher sein: Wer Mistral Large 2 via API an seine Anwendungen anbindet, hat weniger Entwicklungsaufwand, als würde man Llama 3.1 auf eigenen Servern zum Laufen bringen. Trotzdem sind die Gratis-Modelle natürlich eine Gefahr, weil Dienstleister sie günstiger an andere Unternehmen bringen können.