AI-Startups sind den Cloud-Mächten ziemlich ausgeliefert
Im Frontend sind sie scheinbar simple Anwendungen, die auf Befehl ganze Texte, Bild-Collagen und Computer-Code ausspucken – doch im Backend, da muss die Hölle los sein. Damit Generative AI wie ChatGPT, Stable Diffusion und Co. so arbeiten können, wie sie es seit kurzem tun, braucht es unheimlich viel Rechenkraft. Und die kostet unheimlich viel Geld. OpenAI etwa braucht Marktberichten zufolge pro Tag (!) eine Million Dollar, um die Anfragen von zehn Millionen Endnutzer:innen abarbeiten zu können. Bei 50 Mio. Nutzer:innen wären das jährliche Kosten von etwa 1,8 Milliarden Dollar, die OpenAI entstehen.
Und so verwundet es nicht, dass nun der Reihe nach die Cloud-Riesen in das Feld der Generative AI kommen. Denn durch den Nutzer:innen-Ansturm der letzten Monate auf ChatGPT sehen sie ein stark wachsendes Geschäftsfeld entstehen, das ohne sie nicht mehr auskommt. Microsofts 10-Milliarden-Dollar-Deal mit OpenAI ist mittlerweile legendär; laut Microsoft-CEO Satya Nadella hat der Software-Riese aus Redmond sogar einen eigenen Supercomputer gebaut, um ChatGPT laufen zu lassen. Keine Frage: Große Teile des Investments werden in Form von Rechenleistung in der Azure-Cloud bezahlt.
„Azure ist ja das Geschäftsmodell. Das ist der Versuch, möglichst viel Kundschaft auf die Azure-Cloud hinüber zu heben, weil das Produkt dann so attraktiv wird durch die Integration von OpenAI-Produkte“, sagt der österreichische KI-Experte Michael Katzlberger im Interview mit Trending Topics. Umgekehrt können die AI-Startups gar nicht anders, als Investitionen der Cloud-Riesen zu nehmen – anders wäre es bei noch fehlenden Umsätzen gar nicht möglich, die AI-Systeme zu trainieren und dann für dutzende, vielleicht sogar hunderte Millionen User zu öffnen.
Deswegen sieht man seit einiger Zeit der Reihe nach große Deals zwischen den Tech-Riesen und AI-Startups, die immer auch die Nutzung von Cloud-Infrastruktur beinhaltet. Hier ein Überblick über die neuesten Deals:
- Google: Anthropic (nutzt bereits Google Cloud)
- Microsoft: OpenAI (=ChatGPT, läuft auf Microsoft Azure)
- Amazon: Stability AI (=Stable Diffusion, nutzt Amazon Web Services)
Wettrüsten: Google bläst am 8. Februar zum Gegenangriff auf ChatGPT
Schwierig für Newcomer, konkurrenzfähig zu sein
Auch in Österreich ist am Markt mittlerweile zu hören, dass AI-Startups auf besondere Art und Weise Fundraising machen. Sie holen sich umfangreiche Credits für die Cloud von Amazon, Google, Microsoft und Co., anstatt nur Geld bei VCs einzusammeln. „Wozu Investment holen, das man sowieso für Rechenleistung ausgeben würde, und nicht gleich zu den Cloud-Riesen gehen“, so das Motto.
„Diese riesigen Modelle, die auch als Foundation Models bezeichnet werden, werden immer größer und aufwendiger, dementsprechend wird es immer schwieriger, dass man als Newcomer konkurrenzfähig ist“, sagt Clemens Wasner von Enlite AI. Er geht aber nicht davon aus, dass sich nach dem Motto „Model as a Service“ ein Oligopol bildet. Diese Befürchtung äußert aktuell aber die Financial Times in einem Artikel. „Diese Partnerschaften verschaffen den Eigentümern der Cloud Einblick in die Talente und Technologien von Start-ups und ermöglichen es den kleineren Unternehmen, die enormen Kapitalinvestitionen zu umgehen, die sonst für den Aufbau einer eigenen Dateninfrastruktur erforderlich wären. KI-Startups, die Modelle trainieren müssen, haben kaum eine andere Wahl, als sich in die Arme großer Unternehmen zu stürzen, die das notwendige Cloud-Computing zu ermäßigten Preisen anbieten und Zugang zu den großen Kapitalbeträgen haben, die sie benötigen“, heißt es in einem aktuellen Bericht.
Und damit wäre man dann wieder bei einem alten Thema von Big Tech: Oligopole, also die Marktbeherrschung von einigen wenigen Großunternehmen, entscheiden darüber, welche AI-Startups gedeihen und welche nicht. Stability AI aus London hat vielleicht gar keine Wahl und würde gar keine Alternative zu einem US-Riesen finden. Und deswegen gibt es nun bereits Befürchtungen, dass die Cloud-Plattformen ihre Vormachtstellung nutzen, um potenzielle Konkurrenten auf unfaire Weise zu benachteiligen – etwa, indem diese viel höhere Rechenkosten haben. Damit gibt es die Gefahr, dass die hippen AI-Startups bald ein Fall für die Wettbewerbsbehörden werden.
Wir durchleuchten ChatGPT – mit Clemens Wasner & Michael Katzlberger