A1: Wie Künstliche Intelligenz „trustworthy“ wird
Die KI-Revolution ist im Jahr 2023 in vollem Gange. Tools wie ChatGPT haben einen gewaltigen Boom losgetreten, der viele Bereiche wohl nachhaltig verändern wird. Doch mit dieser Entwicklung gehen auch viele Sorgen einher, viele Menschen haben vor allem ethische Bedenken. KI ist nicht immer völlig verlässlich und kann auch Fehler machen. Skeptiker:innen halten die Tools deshalb oft nicht für vertrauenswürdig. Wie kann KI also „trustworthy“ werden? Mit dieser Frage setzte sich eine von Telekom-Anbieter A1 organisierte Expert:innenrunde beim ersten „A1 Monday“ am vergangenen Montag auseinander.
Anthropic holt in Mega-Deal mit Amazon 4 Milliarden Dollar für generative AI
Daten Schlüsselelement für ethische KI
Neben Romana Aumer, Head of Customer 360° bei A1, waren auch Ana Simic und Tizian Kronsbein vom finnischen KI-Unternehmens DAIN sowie Günter Stessl vom Bundesrechenzentrum an der Diskussion beteiligt. DAIN bietet neben einer Software, die Videos in Versionen mit höheren Bildraten konvertieren kann, auch mit der DAIN Academy Weiterbildungsangebote für Arbeitskräfte an. In den Coachings geht es unter anderem um die Nutzung und Verarbeitung von Daten. Und es sind Daten, die für eine vertrauenswürdige, ethische KI ein besonderes Schlüsselelement darstellen.
Tizian Kronsbein, Head of DAIN Academy, erklärte am Montag, wieso Daten so eine große Bedeutung haben. „Daten haben immer eine Relevanz für bestimmte Stakeholder, und sie sind außerdem wichtig, um eine Künstliche Intelligenz zu trainieren. Es ist deshalb von größter Wichtigkeit, die Interessen dieser Stakeholder zu respektieren. Dafür ist viel Aufklärungsarbeit bei menschlichen Mitarbeiter:innen nötig, denn bei KI geht es immer um die Kollaboration zwischen Mensch und Maschine“, so Kronsbein. Es gehe nicht darum, sich blind auf die KI zu verlassen, sondern vielmehr darum, dass Menschen ihr soweit vertrauen können, dass sie mit ihr effizient arbeiten können.
Expedition KI 2.0 – Flugplan für Künstliche Intelligenz in der Praxis
Transparenz bei Daten entscheidend
Eine ähnliche Position vertrat auch Günter Stessl, Head of Artificial Intelligence im Bundesrechenzentrum. „Es muss immer möglichst viel Transparenz in Hinblick auf Daten geben. Das ist auch wichtig, um bei der KI die Gefahr eines Bias zu vermeiden. Deswegen muss schon bei der Erstellung einer KI-Anwendung ein Fragenkatalog vorausgehen, der dabei hilft, zu bestimmen, welche schützenswerten Interessen es gibt. Nur so ist es möglich, eine KI zu schaffen, die ethischen Grundsätzen folgt. Dabei ist es auch wichtig, die gesamte Wertschöpfungskette zu berücksichtigen“, meinte Stessl.
Ana Simic, Managing Director of DAIN Studios Austria, erklärte, dass in Hinblick auf Transparenz vor allem das sogenannte „Knowledge Management“ eine Schlüsselrolle hat. Bei diesem Konzept geht es im Grunde darum, dass Unternehmen strukturiert und umfassend Wissen in Form von Ressourcen, Dokumenten und sozialen Kompetenzen erfasst, organisiert, teilt und analysiert.
Wie Social Impact Leben verändert, Sexismus in der Tech-Branche & die Arbeitswelt der Zukunft
„Knowledge Management“ schafft faire Bedingungen
„Dieser Vorgang kann uns alle – wenn er richtig gemacht wird – massiv entlasten. Nicht nur firmenintern ist Knowledge Management wichtig, beispielsweise auch auf Kundenunternehmen kann es sich erstrecken. Für KI ist das insofern relevant, weil wir deren Entwicklung alle gemeinsam angehen müssen. Nur so kann Vertrauen entstehen und Knowledge Management sorgt hierbei für die optimale Transparenz“, sagte Simic.
Neben Transparenz sei es außerdem noch wichtig, dass sich alle Stakeholder an bestimme Spielregeln halten. Simic begrüßt hier neue Regulierungen, speziell den AI Act der EU. „Solche Regelungen schaffen endlich mehr Klarheit und reduzieren dadurch Unsicherheiten. Durch den AI Act und andere Regulierungen werden Innovationen keineswegs aufgehalten. Vielmehr fördert die zusätzliche Sicherheit neue Entwicklung sogar“, so Simic.
A1 nutzt KI für bessere Kundenkommunikation
Konkrete Use Cases für den ethischen Einsatz von KI nannte Romana Aumer, Head of Customer 360 bei A1. Der Telekom-Anbieter setzt bereits in jetzt in vielen Bereichen auf KI, darunter auch für die Kommunikation mit Kund:innen. „Eine wichtige Frage für uns ist, zu welchem Zeitpunkt wir Kund:innen mit bestimmten Angeboten am besten adressieren. Früher haben wir noch einfach bestimmte Zielgruppen kontaktiert, sobald wir ein neues Produkt auf den Markt gebracht hatten. Doch dank KI ist es heute möglich, wesentlich präziser vorzugehen.“
Romana Aumer erklärte, dass ethische Standards auch für diese neue Form der Kundenkommunikation gelten müssen. So sei die Anonymisierung der Daten, die die KI nutzt, extrem wichtig. „Wir wollen hier auch niemanden ausschließen. So ist es beispielsweise auch wichtig, unzufriedene Kund:innen anzusprechen. Wir haben hier bereits KI-Modelle mit Data Scientists entwicklelt, die uns bei der Prioritätensetzung helfen“, so Aumer.