Gespräch

AI-Beirat: „Verbote haben noch nie wirklich etwas bewirkt“

Horst Bischof, Rektor der TU Graz, und AI-Rechtsanwältin Jeannette Gorzala. © Ai Advisory Board
Horst Bischof, Rektor der TU Graz, und AI-Rechtsanwältin Jeannette Gorzala. © Ai Advisory Board
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Die österreichische Bundesregierung hat einen brandneuen AI-Beirat, der Unternehmen, Organisationen und Privatpersonen in allen Fragen rund um die Künstliche Intelligenz unterstützen soll. Vorsitzender des Gremiums wurde Horst Bischof, der Rektor der Technischen Universität Graz. Seine Stellvertreterin ist Jeanette Gorzala, die unter anderem Chief Policy Officer bei AI Austria tätig ist. Im Interview mit Trending Topics erklären die beiden den neuen AI-Beirat.

Trending Topics: Im Jahr 2023 und auch in diesem Jahr war das Thema AI praktisch omnipräsent. Doch warum braucht gerade die Bundesregierung nun einen AI-Beirat, ist das letztendlich die Antwort auf die Entwicklungen rund um ChatGPT und Co?

Horst Bischof (HB): Ja, wenn man sich so die Lage ansieht, würde man das vermuten, doch wahrscheinlich hätte die Bundesregierung schon früher einen AI-Beirat gebraucht. Die Entwicklungen sind ja nicht ganz neu, sie haben sich nur in letzter Zeit unheimlich beschleunigt. Ich bin aber froh, dass die Bundesregierung sich nun Expertise von außen holt, von Expert:innen, die wirklich Bescheid wissen über dieses Thema. Also insofern betrachte ich diese Entwicklung als sehr positiv.

Dieser Beirat besteht aus elf Mitgliedern. Wie funktioniert das? Wen konkret beraten Sie?

HB: Naja, der Beirat hat sich erst konstituiert. Das heißt, unser Modus Operandi wird sich erst im Laufe der Zeit einspielen. Aber die Aufgabe des Beirates ist es, alle Mitglieder der Bundesregierung, die mit AI-Themen befassen, zu beraten, so wie die RTR, also die Medienbehörde. Für diese sind wir auch Ansprechpartner und das beinhaltet sowohl technische Fragen, aber natürlich auch ethische und gesellschaftliche Aspekte. Ich gehe davon aus, dass man uns einerseits konkrete Fragen stellt.

Zum Beispiel bekamen wir vor Kurzem die Ausgestaltung des europäischen AI Acts übermittelt und werden uns dazu eine Meinung bilden. Auch zum Update der AI-Strategie für Österreich werden wir natürlich unsere Meinung einbringen. Wir haben uns jetzt einmal vorgenommen, dass wir uns zumindest viermal im Jahr treffen. Ich gehe davon aus, dass es in der Anfangszeit wahrscheinlich sogar ein bisschen öfter sein wird, weil wir eine Arbeitsweise entwickeln und uns einspielen müssen.

Es gibt natürlich viele sehr wichtige Fragen rund um KI. Was sind Ihrer Meinung nach die ersten großen ersten Fragestellungen, denen Sie sich widmen müssen? Was ist das Ziel des Beirats für 2024?

HB: Die ersten beiden großen Fragestellungen sind der AI Act und seine Umsetzung in Österreich. Ich glaube, wir können diese beiden Punkte in diesem Jahr gut bearbeiten.

Herr Bischof, Sie sind ja schon seit Jahrzehnten in diesem Thema unterwegs. Seit 2001 sind sie Professor für Computer Vision im Institut für Maschinelles Sehen und Darstellen an der TU Graz. Wenn Sie sich 2024 anschauen, was Open AI beispielsweise mit dem neuen Video-AI-Modell Sora auf den Markt bringt, fasziniert Sie das oder verängstigt Sie das?

HB: Als Techniker fasziniert es mich, wie gut die Qualität mittlerweile ist. Hätte man mich vor fünf Jahren gefragt, ob diese Qualität möglich ist, hätte ich es verneint. Aber die Geschwindigkeit ist natürlich unbeschreiblich. Obwohl, wenn ich mir so anschaue, von den Algorithmen her, die wir vor 10 bis 15 Jahren erforscht haben, hat sich ja nicht so wahnsinnig viel geändert. Doch damals hatten wir noch nicht genügend Daten, um generative Modelle zu trainieren. Aber ja, es fasziniert mich als Techniker.

Doch als Bürger/User verängstigt es mich ein bisschen, weil natürlich damit gewisser Manipulation Tür und Tor geöffnet wird. Ich habe vor Kurzem anlässlich einer Eröffnung einer Tagung einen kleinen Avatar von mir erzeugen lassen, wo ich zwei Minuten bei uns im Studio gestanden bin. Und ich kann jetzt perfekt Schwedisch, perfekt Finnisch, ohne diese Sprachen jemals gesprochen zu haben. Mir haben sogar Teilnehmer:innen dieser Tagung gesagt, mein Portugiesisch habe einen sonderbaren brasilianischen Einschlag. Da sieht man: Selbst Personen, die mich kennen, können das nicht mehr unterscheiden.

Frau Gorzala, was ist der Status Quo bei AI und Open Source? Der AI-Act ist ja nach wie vor immer noch umstritten, vor allem seitens der Industrie in Deutschland und Frankreich. Ein Vorwurf lautet hier: Das sind zu strenge Regeln, das wird die Innovation in Europa hemmen. Man wird nicht mehr mithalten können mit den ohnehin schon sehr weit vorne liegenden US-Firmen.

Jeanette Gorzala (JG): Die neuen Regeln betreffen vor allem die großen KI-Modelle, wo die großen Sprachmodelle (LLMs) und die generative AI hineinfallen. Hier gibt es einen Zwei-Stufen-Approach. Stufe 1 gilt für Standard- oder normale General-Purpose-AI-Models. Hier gibt es Dokumentationspflichten, Pflichten zur Teilung von Informationen entlang der Lieferkette, eine Copyright-Policy und die Achtung von Rechtsvorbehalten und die Veröffentlichung einer Content Summary an Trainingsdaten. Dokumentation, Informationsveröffentlichung und Transparenz sind ja dem Open-Source-Gedanken inhärent. Stufe 2 sind die General-Purpose-AI-Models mit systemischen Risiken, die dann natürlich mehr Pflichten haben, wie Vorkehrungen gegen Cyber-Risiken.

Open Source ist grundsätzlich ausgenommen von all diesen Verpflichtungen, wenn es kein Modell mit systemischen Risiken ist. Das heißt, es gibt hier eigentlich eine großzügige Ausnahme. Das Einzige, wo Open Source-Modelle nicht ausgenommen sind, sind die Copyright-Policy und das Veröffentlichen der Trainings-Content-Summary, was ich auch hier nicht wirklich als einen Stolperstein sehe. Das heißt, der AI-Act ist für die Open Source-Industrie eigentlich gar nicht hinderlich, sondern hilft eigentlich auch, weil er genau definiert, was Open Source heißt.

AI ist ein sehr breites Gebiet. Es gibt tausende Fachbegriffe und man kann darüber extrem viel lernen. Soll es mal ein eigenes Schulfach für AI geben?

HB: Ich wäre schon sehr glücklich, würde es eine ausreichende Informatikausbildung in den Schulen geben. Im Rahmen dieser Informatikausbildung könnte man auch AI unterrichten. Österreich hinkt da wirklich hinterher und das stört mich als Informatiker sehr, weil wir vielen jungen Leuten einfach Chancen nehmen, sich rechtzeitig mit diesen Themen auseinanderzusetzen.

In Österreich gibt es mit Magic.dev ein Startup, das ein AI-Modell entwickelt, das Programmierer:innen nicht nur helfen, sondern sie komplett ersetzen soll. Deswegen stellt sich die Frage für junge Leute heute: Soll ich überhaupt noch programmieren lernen? Vielleicht ist das in zehn Jahren sowieso schon eine brotlose Kunst.

HB: Ich gebe schon Recht, dass diese Modelle das Programmieren unheimlich beschleunigen. Aber Informatik ist ja ein bisschen mehr als nur Programmieren. Es geht hier auch um algorithmisches Denken, das auch abseits der Informatik sehr nützlich ist. Magic.dev ist also kein Ersatz für Development. Ich sage meinen Student:innen immer: Informatiker:innen müssen programmieren können, wie beispielsweise ein Mathematiker:innen einen Bleistift bedient. Das ist eben unsere Sprache, mit der wir uns ausdrücken.

Ein Wunsch, den wahrscheinlich viele Schüler:innen und Studierende haben, ist der Einsatz von ChatGPT und Co bei Prüfungen. Wie sehen Sie das? Soll das in Österreich auch einmal möglich sein?

HB: Nein, ich würde es direkt bei Prüfungen nicht einsetzen wollen, aber für studentische Arbeiten auf jeden Fall. Wir haben jetzt erst hier in Graz auch Regelungen erlassen, wie unsere Studierenden mit diesen Methoden umgehen sollen. Das ist eine sehr großzügige Regelung, die im Wesentlichen besagt, dass Studierende ausweisen müssen, wenn sie AI verwenden. Ausnahme ist, wenn es explizit verboten ist, beispielsweise durch den oder die Leiter:in einer Lehrveranstaltung. Aber das sehe ich momentan nicht.

Das ist, glaube ich, die Arbeitsweise, die wir unseren Studierenden beibringen müssen. Verwende diese Tools, schau, wie du sie verbessern kannst, sei dir bewusst, dass diese Dinge sehr viele Fehler machen, finde diese und bessere sie aus. Wahrscheinlich ist es sogar die schwerere Aufgabe, die Fehler zu finden, als einfach nur eine Seminararbeit zu schreiben. Man muss sich hier wirklich mit dem Thema beschäftigen.

Bezüglich des Themas AI-Videos: Jetzt gibt es natürlich ganz viele Medienunternehmen, die den Einsatz von AI schon begonnen haben oder zumindest erwägen. Sollten TV-Sender AI-generierte Videos zum Beispiel im Nachrichtenbereich verwenden dürfen? Sollen sie es wenigstens kennzeichnen?

HB: Dürfen sollten sie es auf jeden Fall, aber sie müssen sie auf jeden Fall auch kennzeichnen, wie man auch jetzt schon kennzeichnet, wenn man Inhalte von Reuters oder von anderen Agenturen übernimmt. Ähnliche Fragen stellt man sich auch im Rechtsbereich. Sollen AI-Systeme Gesetzestexte oder Verträge schreiben dürfen? Auch in der Medizin und im Finanzwesen stellt sich diese Frage. Gerade da gibt es nämlich Lücken, weil diese Tools sehr allgemein sind. Das heißt, da wäre ich dann extrem vorsichtig, gerade im Rechtsbereich, denn wir haben unterschiedliche Rechtsordnungen überall auf der Welt. Zum Schluss ist bei all diesen Themen natürlich ganz wichtig, wer übernimmt die Letztverantwortung? Ich bin stark der Meinung, das muss der Mensch sein.

Aktuell sind AI-Systeme eher darauf ausgerichtet, Co-Piloten zu sein, die in bestimmten Jobs bei Einzelaufgaben unterstützen. Jedoch gibt es schon einige Unternehmen, zum Beispiel Klarna, ein Fintech aus Schweden, das hunderte Jobs im Kundensupport abbaut, damit AI sie übernimmt. Viele haben Angst vor dem Arbeitsplatzverlust, sollte man AI-Systeme, die komplette Jobs ersetzen können, mittelfristig verbieten?

HB: Verbote haben noch nie wirklich etwas bewirkt. Außerdem entstehen durch die AI wiederum neue Jobs, beispielsweise ist Prompt Designer heute ein gut bezahlter Job. Vor drei Jahren hätte man gefragt, was ist das? Also insofern muss man hier schon die Kirche im Dorf lassen, ich bin gegen Verbote.

Was derzeit auch viele beschäftigt, ist die Partnerschaft zwischen Microsoft und OpenAI. Das sind ja aktuell noch die ganz großen Platzhirsche auf dem GenAI-Markt und haben gefühlt mehr als 50 Prozent an Marktanteilen. Ist es wichtig, sich das aus Wettbewerbssicht anzuschauen?

JG: Ja, die Europäische Kommission hat ja schon angekündigt, die Partnerschaft mit OpenAI und Microsoft aus wettbewerbsrechtlicher Sicht zu untersuchen. Wir sehen aktuell ein Oligopol, ein paar große Player beherrschen den Markt. Ein Missbrauch dieser Lage ist auf jeden Fall zu verhindern. Auch im Bereich der Forschung macht mir dieses Oligopol zunehmend Sorgen. Nicht einmal große Universitäten wie Stanford oder das MIT haben die Ressourcen, um mit diesen Konzernen auch nur annähernd mitzuhalten.

HG: Dazu kommt, dass die besten Forschenden mit Geld zugeschüttet und damit abgeworben werden. Die Frage ist, wer bildet dann unsere Nachwuchs aus? Das sind sehr bedenkliche Entwicklungen, die man sehr genau beobachten muss, und hier brauchen wir entsprechende Regelungen.

Kurz gesagt laufen die großen AI-Systeme derzeit in den Rechenzentren von Google, Amazon, Microsoft und Co.  Aus österreichischer Sicht: Sollte hierzulande ein eigener GPU-Cluster aufgebaut werden, den österreichische Firmen nutzen können, damit sie eben nicht in die Clouds der großen US-Player müssen, wenn sie mit AI arbeiten wollen?

HG: Ja, unbedingt. Wir sind ja auch schon an vielen Stellen dabei, zumindest im akademischen Bereich. Ich glaube, wir müssen wirklich jährliche Investitionen in diese Bereiche stecken und die Systeme für lokale Unternehmen öffnen. Wichtig wird natürlich auch sein, nicht nur die Rechenpower zur Verfügung zu stellen, sondern auch die Software. Da wären wir wieder beim Thema Open Source. Mir schwebt vor, dass wir für die österreichischen Hochschulen ein gewisses Open-Source-Biotop schaffen, sodass man dort auch entsprechend schnell auf neue Entwicklungen reagieren kann.

JG: Es ist wichtig, Ressourcen zu bündeln und zu zentralisieren. Wenn man daran denkt, wie viel Infrastruktur und Rechenpower das erfordert, macht es wenig Sinn, Einzelinitiativen zu verfolgen und hier und dort ein paar GPUs zu parken. Das sehen wir auch sehr stark auf europäischer Ebene, hier braucht es mehr Kollaboration.

Um das in Kontext zu setzen: Magic.Dev hat mittlerweile 145 Millionen US-Dollar von Investoren erhalten. Der Großteil davon wird in den Ankauf von GPUs, wahrscheinlich von Nvidia, fließen. Wenn man jetzt an Österreich denkt und in Betracht zieht, dass nicht eine Firma, sondern Dutzende solche GPUs verwenden wollen, reden wir ja über wahrscheinlich über Milliarden, die man dafür ausgeben müsste, um solche nationale Rechenzentren für AI aufzubauen, oder?

HG: Ja, von nichts kommt nichts. Und man muss ja nicht alles in Österreich machen, es kann auch auf europäischer Ebene Geld in die Hand genommen werden.

So große Rechenzentren verbrauchen bekanntermaßen viel Energie, gerade wenn es um AI-Anwendungen geht. Denken Sie, braucht es mehr Transparenz bei den AI-Anbietern? Sollten die am Ende auch ihren Energieverbrauch und den damit verbundenen Klimaabdruck ausweisen?

HG: Ja, es braucht natürlich Transparenz dabei, wie viel Energie hier verwendet wird und was die Auswirkungen auf die Umwelt sind. Das fordern wir in vielen anderen Bereichen auch, also warum hier nicht?

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen