Liquid AI: MIT-Spinoff mit österreichischen Wurzeln holt 250 Mio. Dollar Investment
In einer bemerkenswerten Entwicklung im Bereich der künstlichen Intelligenz steht das MIT-Spin-iff Liquid AI kurz vor dem Abschluss einer Serie-A-Finanzierungsrunde in Höhe von 250 Millionen US-Dollar, die das Unternehmen mit 2,3 Milliarden US-Dollar bewerten würde. Besonders interessant für den deutschsprachigen Raum: Zwei der vier Gründer haben ihre wissenschaftlichen Wurzeln in Österreich. Wie berichtet, gilt Liquid AI als einer der nächsten AI-Hits.
Die von Advanced Micro Devices Inc. (AMD) angeführte Finanzierungsrunde, an der sich auch OSS Capital, Duke Capital Partners und PagsGroup beteiligen, markiert einen bedeutenden Meilenstein in der Entwicklung alternativer KI-Architekturen. Nach einer bereits erfolten Seed-Finanzierung von 46,6 Millionen US-Dollar positioniert sich das Unternehmen damit als ernstzunehmender Konkurrent im hart umkämpften KI-Markt.
Der österreichische Einfluss auf das Unternehmen ist substanziell: CEO Ramin Hasani, der von 2016 bis 2021 als renommierter Machine-Learning-Forscher an der TU Wien tätig war, und CTO Mathias Lechner, der seinen PhD am Institute of Science and Technology Austria (ISTA) absolvierte, bringen ihre in Österreich entwickelte Expertise in das Unternehmen ein.
Liquid AI: Hat der nächste große AI-Hit schon wieder Österreich-Bezug?
Nervensystems eines Fadenwurms
Das technologische Alleinstellungsmerkmal von Liquid AI liegt in seinem innovativen Ansatz: Statt sich an der Struktur des menschlichen Gehirns zu orientieren, basiert die Technologie auf der Architektur des Nervensystems eines Fadenwurms (Caenorhabditis elegans). Diese als Liquid Foundation Models (LFMs) bezeichnete Technologie verspricht erhebliche Effizienzvorteile gegenüber konventionellen Transformer-basierten Modellen.
Die präsentierten Modelle – mit Größen von 1,3B, 3,1B und 40,3B Parametern – zeigen in Benchmarks vielversprechende Ergebnisse im Vergleich zu etablierten Open-Source-Modellen von Tech-Giganten wie Google, Microsoft und Meta. Besonders hervorzuheben ist die Effizienz der LFMs bei der Verarbeitung langer Sequenzen, was sie für praktische Anwendungen besonders interessant macht.
Ein wesentlicher Vorteil der LFM-Technologie liegt in ihrem reduzierten Ressourcenbedarf. Im Gegensatz zu traditionellen Transformer-Modellen wächst der Speicherbedarf bei längeren Eingaben nicht linear an, was die Technologie besonders für Edge-Computing-Anwendungen prädestiniert. Mit einem Kontextfenster von 32.000 Token bieten die Modelle zudem eine beachtliche Verarbeitungskapazität.
Die Technologie zeigt besondere Stärken in den Bereichen Allgemeinwissen, mathematisches und logisches Denken sowie in der Verarbeitung verschiedener Sprachen. Allerdings gibt es auch Einschränkungen, etwa bei Zero-Shot-Code-Aufgaben und präzisen numerischen Berechnungen. Diese transparente Kommunikation der Limitationen unterstreicht den seriösen wissenschaftlichen Ansatz des Unternehmens.