Kein Cyberdyne-Effekt OpenAI will etwaige Superintelligenz im Zaum halten

Quelle: dpa 2 min Lesedauer

Anbieter zum Thema

Vorzeitiges Aus für den Terminator! Die „ChatGPT“-Entwicklerfirma OpenAI macht sich Gedanken darüber, wie wir eine potenzielle digitale „Superintelligenz“ kontrollieren könnten.

Die Künstliche Intelligenz schreitet voran. Einige Experten, allen voran der „ChatGPT“-Entwickler OpenAI, befürchten, dass wir uns mit der Zeit eine weit überlegene „Superintelligenz“ schaffen. Damit es irgendwann nicht so aussieht wie auf dem Bild, sucht man nach Kontrollmöglichkeiten.(Bild:  Endgame Inc.)
Die Künstliche Intelligenz schreitet voran. Einige Experten, allen voran der „ChatGPT“-Entwickler OpenAI, befürchten, dass wir uns mit der Zeit eine weit überlegene „Superintelligenz“ schaffen. Damit es irgendwann nicht so aussieht wie auf dem Bild, sucht man nach Kontrollmöglichkeiten.
(Bild: Endgame Inc.)

Menschen, glaubt OpenAI, werden nicht in der Lage sein, verlässlich Systeme mit Künstlicher Intelligenz (KI) zu beaufsichtigen, die viel klüger sind als wir. Das konstatierte der „ChatGPT“-Spezialist aus San Francisco kürzlich in einem seiner Blogeinträge. Deshalb soll am besten ein ebenfalls automatisiertes Verfahren dafür ausgearbeitet werden.

Potenziell gefährliche Superintelligenz noch in diesem Jahrzehnt?

Das Ziel sei es, die zentralen technischen Herausforderungen für ein solches System binnen vier Jahren zu bewältigen. OpenAI will dafür ein Fünftel der zur Verfügung stehenden Rechenkapazität aufwenden. Das Entwicklerteam werde vom Chefwissenschaftler Ilya Sutskever mit angeführt. Auch wenn die mögliche „Superintelligenz“ aus dem Computer derzeit noch in weiter Ferne liegen mag, halten die Amerikaner dieses Phänomen noch in diesem Jahrzehnt für möglich. Sie werde viele Probleme zwar lösen helfen, doch gleichzeitig auch die folgenschwerste Erfindung sein, die der Mensch je aus der Taufe heben werde. Der Vorstoß von OpenAI folgt, wie man weiter erfährt, auf eine Warnung von Branchenexperten, aus deren Sicht Künstliche Intelligenz mit dem Risiko existenzieller Gefahren verbunden ist.

Kritiker befürchten Ablenkung von realen KI-Problemen

Zu den Unterzeichnern gehört auch OpenAI-Chef Sam Altman. Die angebliche Bedrohung wurde dabei aber nicht näher erläutert. Kritiker hielten den Experten vor, dass solche Warnungen mit Blick auf kommende Gefahren von bereits heute existierenden Problemen der KI ablenkt. Dazu gehört etwa Diskriminierung in Algorithmen.

OpenAI entwickelte bekanntlich unter anderem den Chatbot „ChatGPT“, der einen neuen Hype rund um Künstliche Intelligenz auslöste. Das Programm kann bereits Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind. Das KI-System wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip führt allerdings auch dazu, dass der künstliche Gesprächspartner mitunter völlig falsche Informationen ausgibt, wie Experten anmerken.

(ID:49611920)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung