xLSTM 7B

NXAI bringt kleines AI-Modell, will mit Energieeffizienz und Schnelligkeit punkten

Sepp Hochreiter präsentiert xlSTM von NXAI. © NXAI
Sepp Hochreiter präsentiert xlSTM von NXAI. © NXAI
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Es ist nicht einfach nur ein weiteres LLM, sondern im Kern eigentlich der Angriff auf die bei AI-Modellen vorherrschende Trasnformer-Architektur. Jedenfalls: Das Linzer AI-Startup NXAI rund um KI-Forscher Sepp Hochreiter hat am Mittwoch Abend auf der NeurIPS-Konferenz in Vancouver das bereits vorangekündigte AI-Modell „xLSTM 7B“ vorgestellt.

Es gehöre zur „Spitzenklasse der 7B-Modelle“ heißt es aus dem Unternehmen. Mit 7 Milliarden Parametern ist es vergleichsweise klein, in Benchmarks wird es deswegen vor allem mit Llama 3.1 8B von Meta, Gemma 2 9B von Google oder Mamba 2 verglichen und nicht etwa mit den Top-Modellen von OpenAi, Anthropic und Co. „Es hat sich zum besten Nicht-Transformer-Sprachmodell entwickelt, wie seine präzise Vorhersage des nächsten Wortes und die Ergebnisse bei Standard-Benchmarks wie Massive Multitask Language Understanding (MMLU) belegen“, heißt es in einer Aussendung.

„Das energieeffizienteste Modell in der Welt der LLMs“

„Es ist das energieeffizienteste Modell in der Welt der Large Language Models mit einer schnellen Inferenz“, so Hochreiter in einer Aussendung. Er lehrt an der JKU Linz und ist Chief Scientist bei NXAI. Einsatzgebiete wären vor allem im Edge- und Embedded-Bereich – also dort, wo AI-Modelle direkt auf Gerät oder Maschine installiert werden, wenig Rechenleistung und Energie brauchen und ohne die Cloud mit ihren Rechenzentren auskommen.

xLSTM wurde wie berichtet breits im Mai 2024 erstmals gezeigt, seither hätte man vor allem im Industriebereich Anwendung gefunden. Nun kann die xLSTM-Architektur via GitHub bezogen werden, ein vortrainiertes Modell steht auf Huggingface zum Finetuning bereit. Jeder Forscher weltweit kann das xLSTM 7B Modell für seine Arbeit nutzen. Es ist ein Modell aus Europa für die Welt“, so Hochreiter.

Das österreichische Startup will mit der „Long Short Term Memory“-Architektur gegen die dominierenden Transformer-Modelle, die ursprünglich aus der Google-Forschung stammen und durch OpenAI, Anthropic, Google, Meta, xAI, Amazon usw. weit verbreitet werden, einen europäischen Kontrapunkt setzen. Im Gegensatz zur Transformer-Technologie würden die xLSTM-Berechnungen nur linear mit der Textlänge und im laufenden Betrieb weniger Rechenleistung benötigen, heißt es dazu.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen