KI

Autonome Autos haben Probleme, Kinder und People of Color immer zu erkennen

Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Es sind Fehler, die für bestimmte Menschen tödlich sein können. Denn in einer neuen Studie hat sich ein Team von Wissenschaftler:innen automatisierten Fußgängererkennungssystemen im Bereich des autonomen Fahrens intensiv befasst. Die Ergebnisse zeigen signifikante Fairness-Probleme in Bezug auf Alter und Hautfarbe. Die Erkennungsgenauigkeit bei Erwachsenen ist deutlich höher als bei Kindern und es gibt eine Genauigkeitskluft zwischen Personen mit heller und dunkler Hautfarbe. Hingegen zeigt sich beim Geschlecht nur eine geringe Differenz in der Erkennungsgenauigkeit.

In einer umfangreichen Evaluierung wurden acht weit verbreitete Fußgängererkennungssysteme anhand von großen, realen Datensätzen auf ihre Fairness in Bezug auf demografische Gruppen untersucht. Insgesamt wurden 8.311 Bilder mit 16.070 Geschlechtsangaben, 20.115 Altersangaben und 3.513 Angaben zu Hautfarben versehen.

Mehr Auto, weniger Öffis: Warum autonome Fahrzeuge vielleicht doch nicht so gut sind

„Signifikante Fairness-Probleme in Bezug auf Alter und Hautfarbe“

„Die Ergebnisse zeigen signifikante Fairness-Probleme in Bezug auf Alter und Hautfarbe. Die Erkennungsgenauigkeit bei Erwachsenen ist um 19,67% höher im Vergleich zu Kindern und es besteht eine 7,52%ige Genauigkeitslücke zwischen Personen mit heller und dunkler Hautfarbe. Das Geschlecht hingegen weist nur eine Differenz von 1,1% in der Erkennungsgenauigkeit auf“, heißt es in der Studie. Und weiter: „Darüber hinaus wurden gängige Szenarien im Bereich des autonomen Fahrens untersucht und festgestellt, dass sich die Voreingenommenheit gegenüber Personen mit dunkler Hautfarbe unter Bedingungen mit geringem Kontrast und geringer Helligkeit signifikant verstärkt, heißt es in der Studie.“

Die Voreingenommenheit (Bias) von AI-Systemen werden generell als gefährlich wahrgenommen. Sie basieren oft darauf, dass sie mit Datensets trainiert wurden, die nicht alle Bevölkerungs-und Altersgruppen gleichermaßen abbilden, und können dann zu den oben geschilderten Problemen führen. Generell gibt es in der Forschung schon lange ähnliche Probleme, etwa in der Pharma- oder Autoindustrie. Dort wurden Medikamente oder Sicherheitssysteme (z.B. Gurte) oft mehrheitlich an Männern getestet, was dann zu Problemen für Frauen führte.

The Autonomous: So können selbstfahrende Autos sicherer werden

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen