Voreingenommenheit im Bereich der Künstlichen Intelligenz ist oft komplex. Könnte KI selbst dazu beitragen, Stereotype zu beseitigen? Wie vorurteilsbehaftete Daten entkräftet werden können, erklärt Richio Aikawa.
Ein KI-Tool soll dabei helfen, Voreingenommenheit und potenzielle Diskriminierung in KI-Systemen zu erkennen.
Wer im Technologie-Sektor unterwegs ist, beobachtet die Fortschritte der künstlichen Intelligenz (KI) in der Regel mit Spannung. Von der Aufdeckung betrügerischer Transaktionen bis zur Prognose eines Krankheitsverlaufs ist KI in der Lage, Automatisierungsprozesse zu optimieren und die Forschung zu unterstützen. Eine Umfrage des Pew Research Centers aus dem Jahr 2021 allerdings hat ergeben, dass viele Menschen die zunehmende Dominanz von KI eher mit Sorge als mit Begeisterung wahrnehmen. Weshalb ist das so?
Von der häufig zitierten Furcht, den eigenen Arbeitsplatz zu verlieren (und der Angst vor einem generellen Aufstand aller Roboter) abgesehen, geht es beim öffentlichen Misstrauen gegenüber Künstlicher Intelligenz vorrangig um die Themenfelder Datenschutz, Vertrauen und Ethik.
Professor Frank Rudzicz von der University of Toronto skizziert die aktuell größten ethischen Bedenken zu KI:
Der tatsächliche Einsatz von KI entspricht oft nicht der eigentlichen, in den Vordergrund gestellten Absicht
Nicht allen Menschen steht der Zugang zu KI und KI-beeinflussten Bereichen offen
Es kann passieren, dass unbewusste menschliche Voreingenommenheit in unserer Gesellschaft über Daten ihren Weg in die Künstliche Intelligenz findet und dort dann noch verstärkt wird
Mit Blick auf den letztgenannten Punkt fordert Professor Rudzicz Experten der Industrie zum Handeln auf: „Wir müssen Wege finden, diesen Effekt zu minimieren. Daten, die wir der KI zur Verfügung stellen, müssen so vorurteilsfrei wie möglich sein.“
Da KI eine immer wichtigere Rolle bei wesentlichen Entscheidungen spielt, die sich direkt auf jeden auswirkt – insbesondere in heiklen Bereichen wie etwa dem Finanzsektor und dem Gesundheitswesen – wird die Forderung dem Aufräumen mit Voreingenommenheit immer dringlicher.
Da sich in jeder Phase der KI-Pipeline Voreingenommenheit einschleicht und in schädlichen Ergebnissen resultieren kann, müssen weitreichende Strategien zur Eindämmung her. Ergänzend dazu können wir uns der Technologie selbst zuwenden. Wir müssen KI so entwickeln, dass sie in der Lage ist, Voreingenommenheit zu erkennen, die uns entgeht, bzw. sie sogar ganz zu verhindern.
Hier ein hypothetisches, aber leider plausibles Szenario: Ein Mann und eine Frau, beide in den späten Vierzigern, bewegen sich ähnlich viel, ernähren sich ähnlich und haben eine ähnliche Familienanamnese. Beide werden außerdem in den nächsten 72 Stunden einen Herzinfarkt erleiden.
Sie nutzen beide eine medizinische App auf ihren Smartphones, die mit ihren Smartwatches synchronisiert sind, um ihre Gesundheit zu überwachen. Sowohl der Mann als auch die Frau kreuzen Symptomkästchen für Druck in der Brust, Müdigkeit, Atembeschwerden und übermäßiges Schwitzen an. Die App zeigt der Frau folgende Nachricht an: Sie leiden möglicherweise unter Angstzuständen; sprechen Sie mit Ihrem Arzt. Dem Mann zeigt die App folgende Warnung an: Sie haben möglicherweise ein hohes Risiko für einen Herzinfarkt. Wenn Sie außerdem eines der folgenden Symptome aufweisen, rufen Sie sofort den Notarzt.
So sieht Voreingenommenheit in der KI oft aus.
Vielleicht überrascht es Sie, dass es keine falsche Daten waren, die zu der falschen Prognose für die Frau geführt haben, sondern eher historisch verzerrte Datensätze. Es existiert eine tief verwurzelte, geschlechtsspezifische Diskrepanz in den Forschungsdaten der Kardiologie, die seit langem zu grundlegenden Mängeln in der medizinischen Versorgung von Frauen mit Herzerkrankungen führt. Die App in vorangegangenem Beispiel war also von Anfang an durch die geschlechtsspezifische Verzerrung in den Datensätzen zum Trainieren ihrer Modelle eingeschränkt.
Das ist zwar eine der bekanntesten Quellen für KI-Verzerrungen, aber nicht alle sind in den Trainingsdatensätzen begründet – dann wäre die Situation einfacher zu beheben. In Wirklichkeit gibt es mehrere Ansatzpunkte, die zu berücksichtigen sind, und nicht alle sind so leicht zu erkennen. In der Studie A Survey on Bias and Fairness in Machine Learning wurden 19 verschiedene Arten definiert, die in drei verschiedenen Interaktionsschleifen auftreten: Daten zu Algorithmus, Algorithmus zu Benutzer und Benutzer zu Daten.
Die Entwicklung der KI steht noch am Anfang, aber die Wirtschaft und die Gesellschaft sind von diesem Sachverhalt gleichermaßen beunruhigt. Tatsächlich hat Gartner vorausgesagt, dass 2022 85 % aller KI-Projekte fehlerhafte Ergebnisse liefern werden, die auf implizierte Voreingenommenheit zurückzuführen sind.
Zum Glück stellen viele Experten sogenannte Game Plans bereit, mit denen Unternehmen KI-Voreingenommenheit reduzieren können. Zu den bereits vorgeschlagenen Strategien zur Eindämmung gehören die Erweiterung von Datenerfassungspools, die Einführung synthetischer Datensätze, die Investition in Audits durch Dritte sowie die Erhöhung der Diversität von KI-Teams.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Dies alles sind solide Schritte auf dem Weg zu einer ethischen KI. Aber wir können noch einen Schritt weiter gehen, indem wir genau die Technologie, die wir als Problem diagnostizieren, dazu nutzen, neue Lösungen zu finden.
2019 beschrieb Karen Hao im MIT Technology Review-Artikel This is how AI bias really happens — and why it’s so hard to fix einen der komplexeren Fälle von Voreingenommenheit als unbekannte Unbekannte: „Die Integration der Voreingenommenheit ist nicht immer offensichtlich […] die Auswirkungen der Daten und Entscheidungen werden möglicherweise erst viel später erkannt. In diesem Fall ist es schwierig, rückwirkend festzustellen, woher die Verzerrung kommt und wie man sie beheben kann.“
Wie können wir ein Problem beheben, von dem wir nicht wissen, dass es existiert? Im Fall der „unbekannten Unbekannten“ müssen wir über die oben beschriebenen Verfahren hinausgehen.
Und genau hier kann KI helfen. Hao verweist auf die Entwicklung von „Algorithmen, die dabei helfen, versteckte Verzerrungen in den Trainingsdaten zu erkennen und abzuschwächen, oder aber die vom Modell erlernten Verzerrungen unabhängig von der Datenqualität abzuschwächen“.
Forscher an der Penn State und der Columbia University, die diesen Weg verfolgen, haben ein KI-Tool zu Erkennung von Voreingenommenheit entwickelt, das sowohl bei menschlichen Entscheidungsträgern als auch bei KI-Systemen versteckte Diskriminierung in Bezug auf „geschützte Merkmale“ erkennen kann.
Self-Supervised Learning (SSL) könnte eine weitere Lösung darstellen – diesmal in Form von Prävention statt Erkennung. SSL ist ein Ansatz für das maschinelle Lernen, bei dem riesige Mengen unmarkierter Daten zum Trainieren von Modellen verwendet werden, um die oft mit Verzerrungen behafteten Markierungen zu umgehen. Es mag noch zu früh sein, um das Entschärfungspotenzial von SSL zu beurteilen, aber Yann LeCunn und Ishan Misra beschrieben die Methode auf ihrem Blog als „eine der vielversprechendsten Wege, […] sich einer Form von gesundem Menschenverstand in KI-Systemen anzunähern.“
Es ist ermutigend, dass der Weg zu einer ethischen KI mehrere Strategien zur Verringerung von Voreingenommenheit aufweisen kann. Je mehr wir über diese aufkommenden Ansätze erfahren, die den Einsatz von KI selbst zur Beseitigung von Voreingenommenheit beinhalten, desto klarer wird, dass die Technologie-Community als Ganzes die Verantwortung trägt, mit Forschern zusammenzuarbeiten und Verbesserungen bei Software- und Hardware-Lösungen zu ermöglichen.