Hintergrund

Magic: 100 Millionen Token Kontextfenster kommt Revolution der AI-Modelle gleich

Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Es war die Nachricht des Donnerstag Abend. Und zwar, zumindest aus Sicht des in Wien gegründeten Startups Magic, nicht die 320 Millionen Dollar, die der ehemalige Google-CEO Eric Schmidt gemeinsam mit anderen renommierten Geldgebern investierten. Sondern eine andere, ähnlich große Zahl. Nämlich die 100 Millionen. magic, gegründet von Eric Steinberger (CEO) und Sebastian De Ro (CTO) haben ein neues, hauseigenes AI-Modell namens LTM-2 mini (kurz für Long-Term Memory) vorgestellt, dass ein Kontextfenster von unglaublichen 100 Millionen Token hat. Das schlägt alles bisher dagewesene.

Zur Veranschaulichung: Die Kontextfenster von AI-Modellen sind so etwas wie ihr Kurzzeitgedächtnis, das nur eine begrenzte Menge an Text auf einmal behalten kann. Wenn der Text länger ist als das Kontextfenster, vergisst das Modell den Anfang, ähnlich wie wenn man einen langen Text liest und sich nur an die letzten paar Sätze erinnert. Das Kontextfenster bestimmt also, wie viel Text das Modell gleichzeitig “verstehen” und verarbeiten kann. Magic behauptet, dass LTM-2 mini auf einmal 10 Millionen Codezeilen oder  ungefähr 750 Romane verarbeiten könne – also mit ganzen (Code)-Bibliotheken auf einmal gefüttert werden kann.

50x größer als Gemini, 780x größer als GPT-4o

Das ist sehr sehr viel. Bisher führte eigentlich Magic selbst das Feld der AI-Modelle in Sachen Kontextfenster an – wie berichtet war bereits LTM-1 von Magic mit einem Kontextfenster von 5 Millionen Token allen anderen am Markt deutlich überlegen. Google hat seinem aktuell stärkstem AI-Modell Gemini 1.5 Pro ein Kontextfenster von bis zu 2 Millionen Token gegeben, für die man aber extra bezahlen muss. Am Markt hat sich bisweilen ein Spektrum von Kontextfenstern von 128.000 (GPT-4o von OpenAI) bis 200.000 (Claude Sonnet 3.5 von Anthropic) etabliert.

Seitens Anthropic hieß es etwa beim Launch von Claude 2.1, das bereits mit 200.000 Token ausgestattet wurde, dass dieses Kontextfenster groß genug sei, um gleichzeitig 500 Seiten an Informationen einzufüttern – also beispielsweise ein dickes Buch auf einmal. Magics LTM-2 mini ist um das 500-fache größer, und kann damit auch glaubhaft behaupten, gleichzeitig 750 Romane aufnehmen zu können. Das wirft dann auch die Frage auf: Was wird ein etwaiges „LTM-2 Large“ oder dergleichen auf die Waage werfen?

Klar ist, dass Magic es in der Praxis noch beweisen wird müssen, solch immense Kontextfenster anzubieten. Die Beschränkung vieler anderer AI-Modelle auf viel kleinere Context Windows hat preisliche Gründe. Bei GPT-4 oder Gemini 1.5 wäre es viel zu teuer für den Anwender, Inputs mit 100 Millionen Token einzufüttern, die Kosten würden bei OpenAIs Topmodell GPT-4o derzeit bei 500 Dollar nur für den Input liegen, vom Output (der stets teurer ist) ganz zu schweigen.

Da aber auch ein Preiskampf nach unter der AI-Modellen stattfindet, kann man davon ausgehen, dass das bald leistbar wird. Laut Magic wäre man beim Token-Preis um das 1.000-Fache günstiger als etwa Llama 3.1 in seiner größten Variante mit 405 Milliarden Parametern. Llama 3.1 ist in Sachen „Open Source“ derzeit State of the Art und wurde von Meta Platforms im Sommer vorgestellt. Es ist auf Augenhöhe oder teilweise besser als die proprietären AI-Modelle von OpenAI, Anthropic oder Google.

Riesige Kontextfenster würden Pre-Training unwichtiger machen

Laut Magic konnte man mit LTM-2 mini bereits automatisiert eine Taschenrechner-App bzw. ein Anmeldesystem entwerfen lassen. Das ist auch das große Ziel des Startups mit 23 Mitarbeiter:innen. Man wolle es künftigen Nutzer:innen ermöglichen, mit 100 Dollar und 10 Minuten Zeitaufwand Probleme zu lösen, also etwa Apps entwickeln oder Features für Services zu entwerfen.

Bewahrheitet sich am Markt, das solch große Kontextfenster funktionieren, wäre das ein Paradigmenwechsel in der Welt der AI-Modelle. Heute werden Milliarden an Dollar ausgegeben, um LLMs mit Unmengen an Daten zu trainieren und damit quasi ihr Langzeitgedächtnis zu erstellen. Riesige Kontextfenster hingegen erweitern das Kurzzeitgedächtnis von LLMs und lösen damit mehrere Probleme:

  • Keine Unmengen an Kosten und Aufwand durch Pre-Training
  • Weniger Probleme mit Copyrights und Datenschutz für die verwendeten Trainingsdaten; die User laden diese selbst hoch
  • Weiter sinkende Kosten für die Verwendung

Magic hat auch eine große Partnerschaft mit Google Cloud verkündet, um in Partnerschaft mit Nvidia gleich zwei große „Supercomputer“ zu bauen – einen mit den heute standardmäßigen H100-Chips von Nividia, den zweiten dann mit den kommenden Blackwell-Chips (B200s). Damit ist auch klar wohin das Gros der frischen 320 Millionen Dollar Finanzierung fließen werden – in AI-Chips.

Hier die aktuellen Preise und Kontextfenster führender AI-Modelle im Vergleich:

Input per Million Tokens Output per Million Tokens Context Window
Magic
LTM 2 mini
tba. tba. 100 M
OpenAI

GPT-4o mini

0,15 $ 0,60 $ 128K
OpenAI

GPT-4o

5 $ 15 $ 128K
OpenAI

GPT-3.5 Turbo

0,50 $ 1,50 $ 16K
Anthropic

Claude 3.5 Sonnet

3 $ 15 $ 200K
Anthropic

Claude 3 Opus

15 $ 75 $ 200K
Anthropic

Claude 3 Haiku

0.25 $ 1.25 $ 200K
Mistral AI

Large 2

3 $ 9 $ 128K
Mistral AI

Large

4 $ 12 $ 32K
Mistral AI

Medium

2,7 $ 8,1 $ 32K
Mistral

Mixtral 8x22B

2 $ 6 $ 64K
Mistral

Mixtral 8x7B

0,70 $ 0,70 $ 32K
Cohere

Command R+

3 $ 15 $ 128K
Cohere

Command R

0,50 $ 1,50 $ 128K
Google

Gemini 1.5 Pro

3,50 $

7 $

10,50 $

21 $

128K

> 128K (max. 2M)

Google

Gemini 1.5 Flash

0,35 $

0,70 $

1,05 $

2,10 $

128K

> 128K

Google

Gemini 1.0 Pro

0,50 $ 1,50 $ n.a.

Magic holt frische 320 Mio. Dollar, bringt AI-Modell mit riesigem Kontext-Fenster

 

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Podcast: Mit den smartesten Köpfen im Gespräch

Der Podcast von Trending Topics

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen