Suchen

Technologischer Fortschritt

Kein Vertrauen in KI? Das steckt hinter der Angst vor Künstlicher Intelligenz

| Autor/ Redakteur: Marisa Tschopp / B.A. Sebastian Hofmann

Der Gedanke an autonome KI-Systeme löst bei vielen Menschen Unbehagen aus – auch in der Industrie. Eine Wissenschaftlerin erklärt, woher dieses Gefühl kommt und was man dagegen tun kann.

Firmen zum Thema

Künstliche Intelligenz als neue Gottheit? Vielen ist der Gedanke an autonom agierende KI-Systeme jedenfalls heute schon unangenehm. Allerdings lohnt sich ein Blick auf die Fakten, denn es muss sehr klar differenziert werden, wo es Grund zur Sorge gibt und wo nicht.
Künstliche Intelligenz als neue Gottheit? Vielen ist der Gedanke an autonom agierende KI-Systeme jedenfalls heute schon unangenehm. Allerdings lohnt sich ein Blick auf die Fakten, denn es muss sehr klar differenziert werden, wo es Grund zur Sorge gibt und wo nicht.
(Bild: ©sdecoret - stock.adobe.com)

Nun sagen Sie, wie haben Sie's mit der Künstlichen Intelligenz? Diese Gretchenfrage mal eben schnell zu beantworten, dürfte den meisten Leuten schwer fallen. Zu komplex ist die Technologie, zu vielseitig. Dass einige auch in der Industrie gerade beim Thema Künstliche Intelligenz nicht wissen, was sie davon halten sollen, ist kein Wunder. Wir leben in einem Zeitalter von massivem „Information Overload“, Social-Media-Konsum und Fake News gepaart mit rasanten technologischen Entwicklungen. Sich einen allumfassenden Überblick zu machen, ist da für viele quasi unmöglich. Die daraus resultierende Unwissenheit sorgt für Unbehagen.

Das Friss-oder-stirb-Problem: Um KI kommt niemand mehr herum

Ein zusätzliches Problem: Wenn Künstliche Intelligenz wirklich unsere gesamte Gesellschaft beeinflusst und uns alle betrifft, dann kommen wir in eine unangenehme Friss-oder-stirb-Situation. Die Bedrohung unserer Freiheiten und der Zwang, großen Tech-Giganten zu vertrauen, löst Widerstand aus. Die Angst vor Kontrollverlust entsteht. Der Hype bringt deshalb auch Hater mit sich – egal ob berechtigt oder nicht.

Befeuert wird die Unsicherheit zusätzlich, wenn im priavten Kontext KI negativ zutage tritt. Ein Beispiel dafür sind gefälschte Videos (sogenannte Deep Fakes) wie dieses, die Personen diffamierende Worte in den Mund legen. Kontrovers diskutiert wird auch das Zusammenspiel von KI mit Datensicherheit. Ein aktueller Fall zeigt, wie dringlich die Debatte zu diesem Thema ist: Kürzlich haben 150 Mio. User Gesichtsfotos auf die russische KI-App „Faceapp“ hochgeladen, um berechnen zu lassen, wie sie in 50 Jahren aussehen werden. Den meistern Anwendern war nicht klar, was mit Ihren Daten passiert und zu welchem Zweck die Algorithmen später dienen sollen. Es ist nicht auszuschließen, dass die Entwickler ihre Erkenntnisse später dem Militär für autonome Waffensysteme zur Verfügung stellen werden.

Ratschlag: Nicht von den negativen Eindrücken blenden lassen

Bevor man aber in Angst verfällt, sollte man KI ganz differenziert betrachten: Was kann die Technologie heute wirklich schon? Skeptisch muss derjenige werden, der darauf eine klare Antwort bekommt. Denn angewandt wird Künstliche Intelligenz in ganz unterschiedlichen Disziplinen und Ausprägungen. Von der Spracherkennung über autonome Fahrzeuge bis hin zu Empfehlungsdiensten auf Netflix, Amazon Youtube und Co.

Schnell wird man feststellen: Solche „Recommender Systems“ auf KI-Basis sind bereits fest als Alltagshelfer etabliert und unterstützen uns bei Entscheidungen – beispielsweise indem sie uns für uns passende Produkte, Serien und Videos vorschlagen. Und hier kommt auch eine zweite Eigenschaft zu Tage. Diese KI-Anwendungen sind nur teilautonom. Das heißt, dass am Ende immer noch der Mensch entscheidet, was er tun möchte.

Entscheidender Erfolgsfaktor: Vertrauen in Künstliche Intelligenz herstellen

Um Vertrauen (zurück)zugewinnen, ist es außerdem wichtig und richtig, dass Kritiker, Ethiker und Aktivisten auf die „Enthusiasmus-Bremse“ treten. Technische Probleme, mangelnde Vorhersehbarkeit und die Monopolstellung von Tech-Giganten – all diese Facetten von Künstlicher Intelligenz müssen beleuchtet und diskutiert werden.

Ein Beispiel für ein solches Engagement ist die European High-level Expert Group on AI. Sie formuliert ethische Rahmenanforderungen und kümmert sich auf regulatorischer und technischer Ebene um sieben Themenkomplexe: Kontrolle, Sicherheit, Datenschutz, Nichtdiskriminierung, Nachhaltigkeit, Verantwortlichkeit und Transparenz von KI Algorithmen. Die Angst, dass solche Ethik-Offensiven Innovationen stoppen, ist unberechtigt und destruktiv. Sie verlangsamen sie vielleicht, aber steigern gleichzeitig die Qualität im Umgang mit Künstlicher Intelligenz. Klare Richtlinien sind unverzichtbar. Wir müssen sie regelmäßig reflektieren und wirklich leben.

Wer auf Marktvorteile durch Schnelligkeit hofft und mangelhafte Produkte in Kauf nimmt, der riskiert einen Vertrauensbruch. Und das ist brandgefährlich: Vertrauen ist der Schlüssel zum Erfolg und der Erfolg selbst, wenn das gesamte Potenzial von Künstlicher Intelligenz genutzt werden soll. Es macht die Interaktion zwischen Menschen und Maschinen erst möglich. Richtlinien und technologische Sicherheitsstandards sind notwendige Bedingungen, um Ängste auszuräumen und den Einsatz von KI so gewinnbringend wie möglich zu gestalten. Eine gesunde Skepsis und den Respekt vor der Technologie sollten wir uns weiter behalten.

* Marisa Tschopp ist aktiv in der Forschung und untersucht Künstliche Intelligenz aus Humanperspektive. Dabei fokussiert sie sich auf psychologische und ethische Aspekte. Sie arbeitet bei der Scip AG, www.scip.ch.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46084287)