Sichere und faire KI: TU-Forscher:innen entwickeln neues Verifizierungstool
Schon in naher Zukunft könnten viele Entscheidungen von KI getroffen werden. Deshalb sind besondere in sensiblen Bereichen Genauigkeit und Fairness unerlässlich. Ein Forscher:innenteam der Technischen Universität (TU) Wien und des Austrian Institute of Technology (AIT) hat auf der 36th International Conference on Computer Aided Verification in Montreal, Kanada, eine Methode vorgestellt, mit der überprüft werden kann, ob bestimmte neuronale Netzwerke* fair und sicher sind.
Erwartungen an neuronale Netzwerke
Anagha Athavala vom Institut für Logic und Computation der TU Wien erklärt, dass neuronale Netzwerke in der Lage sein müssten, Eingabedaten präzise und gerecht bestimmten Kategorien zuzuordnen. Dies könnte beispielsweise eine Verkehrssituation sein, bei der ein neuronales Netzwerk entscheidet, ob ein selbstfahrendes Auto lenken, bremsen oder beschleunigen soll. Ebenso könnte es Datensätze über Bankkund:innen analysieren, um zu entscheiden, ob jemand einen Kredit erhält.
Von solchen Netzwerken würden zwei zentrale Eigenschaften erwartet: Robustheit und Fairness, so Athavala. Ein robustes Netzwerk sollte ähnliche Ergebnisse für Situationen liefern, die sich nur in kleinen Details unterscheiden. Fairness bedeutet in diesem Zusammenhang, dass das Netzwerk gleiche Ergebnisse für Situationen liefert, die sich nur in irrelevanten Aspekten unterscheiden.
Anthropic-Forscherteam und AI-Ethik: Many-shot jailbreaking als Schlupfloch
KI: Verifizierungstool für Sicherheitsgarantie
Bisher konzentrierten sich Techniken zur Verifizierung von Robustheit und Fairness meist auf die lokale Definition dieser Eigenschaften. Dabei wurde überprüft, ob kleine Unterschiede im Input zu abweichenden Ergebnissen führen. Das Forscher:innenteam strebt jedoch eine globale Definition an, um sicherzustellen, dass ein neuronales Netz immer diese Eigenschaften aufweist, unabhängig von der Eingabe.
„Unser Verifizierungs-Tool prüft das neuronale Netz nicht nur auf bestimmte Eigenschaften, sondern es gibt auch Auskunft über den Grad des Vertrauens“, erklärt Athavala. Diese auf Vertrauen basierende Sicherheitseigenschaft stellt eine bedeutende Neuerung dar und ermöglicht, ein neuronales Netz rigoros zu testen und dessen Eigenschaften mit mathematischer Zuverlässigkeit zu garantieren.
Anwendung im Finanzbereich
Ein Beispiel für die Anwendung solcher Verifizierungsmethoden ist die Einschätzung der Kreditwürdigkeit. Hier sollten zwei Personen mit ähnlichen finanziellen Daten, aber unterschiedlichem Geschlecht oder Ethnie, das gleiche Ergebnis erhalten. „Das sind Parameter, die auf die Kreditvergabe keinen Einfluss haben sollten. Das System sollte also in beiden Fällen dasselbe Ergebnis liefern“, so Athavala. Frühere Systeme, die mit vorurteilsbehafteten Daten trainiert wurden, haben gezeigt, dass dies nicht selbstverständlich ist.
Durch die Einführung von globalen Eigenschaften und dem Grad des Vertrauens könnte die Verlässlichkeit und Akzeptanz von KI-basierten Entscheidungen in der Gesellschaft signifikant verbessert werden.
* Neuronale Netzwerke sind computergestützte Modelle, die auf der Struktur und Funktionsweise des menschlichen Gehirns basieren. Sie bestehen aus einer Vielzahl von miteinander verbundenen Neuronen, die in Schichten organisiert sind. Diese Netzwerke werden in der Künstlichen Intelligenz (KI) und im maschinellen Lernen verwendet, um Muster in Daten zu erkennen, Entscheidungen und Vorhersagen zu treffen.