KI-Systeme sollen fair und vorurteilsfrei werden

Zur News-Übersicht

KI-Systeme sollen fair und vorurteilsfrei werden

Künstliche Intelligenz (KI) ist bereits aus vielen Unternehmen nicht mehr wegzudenken. Doch wie ethisch und vetrauenswürdig ist deren Einsatz wirklich? Die Meinungen von Organisationen und Verbrauchern sind zu diesem Thema recht gespalten, wie Capgemini herausgefunden hat.

Ein Grund für das wachsende Misstrauen: Lediglich 53 Prozent der Organisationen haben eine Führungskraft im Unternehmen, die direkt dafür verantwortlich ist, dass KI-Systeme ethisch und vertrauenswürdig arbeiten. Undurchsichtig sei vor allem, wie mit persönlichen Daten umgegangen werde. Deshalb sei Handlungsbedarf geboten: 45 Prozent der befragten Organisationen haben eine KI-Charta definiert. Zwei Drittel der Führungskräfte wissen, dass KI-Systeme mitunter zu diskriminierenden Entscheidungen führen können. Nur etwa die Hälfte der Teilnehmer gab an, dass ihre Mitarbeiter über alle möglichen Auswirkungen der Nutzung von KI-Systemen informiert sind. Lediglich 40 Prozent der KI-Entwickler und 27 Prozent der KI Anwender aus dem Marketing-Sektor wissen, wie KI ihre Entscheidungen trifft. Dagegen erwarten 70 Prozent der Verbraucher, dass Unternehmen genau herleiten können, auf welcher Basis KI ihre Entscheidungen fällt. 66 Prozent fordern, dass KI-Modelle Interaktionen transparent machen und zudem fair und vorurteilsfrei arbeiten müssen.

COVID-19 wirkt sich negativ auf die Transparenz von KI-Verfahren aus

In der Erhebung untersucht Capgemini KI-Systeme anhand vier ethischer Dimensionen: Erklärbarkeit, Überprüfbarkeit, Fairness und Transparenz. Einigermaßen zufriedenstellend ist das Ergebnis lediglich für den Punkt Erklärbarkeit. Demnach können 64 Prozent der Verantwortlichen in Organisationen die Funktionsweise ihrer KI-Systeme auch in einfacher Sprache erklären. Eine Überprüfung ihrer Datensätze und KI-Systeme zum Punkt faire Gleichbehandlung wollen immerhin 65 Prozent vornehmen. Lediglich 45 Prozent möchten eine Überprüfbarkeit ethischer Aspekte durchführen. Nur etwa die Hälfte er Verantwortlichen will alle KI-Anwender transparent über mögliche Auswirkungen von KI-Entscheidungen informieren.
Als mögliche Ursachen für die Schwachstellen nennt die Studie, dass die Komplexität von KI-Anwendungen gestiegen ist. Zudem habe die Corona-Pandemie Einfluss auf den Algorithmus der KI-Systeme genommen.

Verbesserung von KI: Der Handlungsdruck wächst

Viele Institutionen aus öffentlichen und privaten Bereichen haben jüngst zusätzliche KI-Technologien eingeführt, um den Folgen der Covid-19-Pandemie zu begegnen. Deshalb ist es wichtig, dass Verbraucher entsprechendes Vertrauen in KI-Systeme entwickeln. Auch die gesetzlichen Rahmenbedingungen erhöhen den Druck auf die Unternehmen. Die Europäische Kommission etwa hat ethische Leitlinien für eine transparente KI entwickelt, ebenso die US-Handelskommission FTC. Letztere Leitlinien sehen vor, dass Verbrauchern offen gelegt wird, warum KI negative Entscheidungen fällt – etwa bei der Ablehnung von Krediten. Damit soll Konsumenten die Chance gegeben werden, irreführende oder falsche Angaben selbst zu korrigieren.
Die Studie zeigt, dass Datensätze bisweilen tatsächlich nicht frei sind von sozialen und kulturellen Vorurteile , sogenannten“Bias“. 65 Prozent der Führungskräfte gaben an, dass sie sich dieses Problems bewusst sind. Bereits 60 Prozent der Firmen wurden einer rechtlichen Prüfung unterzogen. In den vergangenen drei Jahren wurden 22 Prozent der Unternehmen von Kunden darauf angesprochen, dass sie die Entscheidungsfindung von KI-Systemen nicht transparent genug finden. 45 Prozent der Verbraucher würden negative Erfahrungen mit KI mit ihren Freunden und Verwandten teilen und sie dazu anhalten, mit entsprechenden Firmen keine Verbindung aufzunehmen.

Ein Verantwortlicher für die Ethik soll her

Ein Verantwortlicher, der sich um ethische Fragen rund um das KI-System kümmert, sitzt derzeit lediglich in 53 Prozent der Unternehmen. Einen Ombudsmann oder eine Hotline, die sich um ethische Fragen rund um KI kümmert, haben aktuell 50 Prozent der Firmen. In beiden Bereichen muss laut Studie deutlich nachgebessert werden, was sowohl Verantwortliche als auch Verbraucher fordern.

Zusammenfassend sind es folgende zentrale Maßnahmen, die für die Ausgestaltung eines ethisch robusten KI-Systems verantwortlich sind.

  • Der beabsichtige Zweck eines KI-Systems muss zum Nutzen von Gesellschaft und Umwelt eingesetzt werden.
  • Das System muss erklärbar sein.
  • Das System soll die Prinzipien von Vielfalt und Inklusion verankern.
  • Die Transparenz muss kontinuierlich optimiert werden.
  • KI-Erfahrungen sollen auf den Menschen ausgerichtet sein und unter menschlicher Aufsicht stehen.
  • Die Systeme müssen technisch robust sein.
  • Die Privatsphäre soll geschützt werden. Am besten dadurch, dass Nutzern Kontrolle über ihre jeweiligen KI-Interaktionen gewährt wird.

Für die Capgemini Studie wurden insgesamt 2.900 Konsumenten in sechs Ländern befragt, zusätzlich knapp 900 Führungskräfte in zehn Ländern.