Kontrolle von KI Welche Rechte haben (autonome) Maschinen?
Anbieter zum Thema
Was darf eine KI und was nicht? Die Antwort darauf entscheidet auch über mögliche Risiken bei autonomen Maschinen. Es reicht nicht, Richtlinien für die Nutzung von KI aufzustellen, die Policy muss auch technisch kontrolliert und durchgesetzt werden, beispielsweise mit IAM.
Es ist der Klassiker unter den Szenarien, wenn es in Diskussionen um autonome Maschinen geht: „das unheimlich autonome Fahrzeug“, wie es das Bundesamt für Sicherheit in der Informationstechnik (BSI) einmal genannt hat. Das autonome Fahrzeug zeigt anschaulich, wie gefährlich es sein kann, wenn die zugrundeliegende künstliche Intelligenz Fehler macht und Grenzen überschreitet.
Herausforderung autonomes Fahren
Im Straßenverkehr müssen die Entscheidungen der KI nachvollziehbar sein, und die funktionale Sicherheit (Safety) muss zu jedem Zeitpunkt gewährleistet sein, macht zum Beispiel das Fraunhofer-Institut für Kognitive Systeme IKS deutlich. Die EU-Agentur für Cybersicherheit ENISA nennt eine Vielzahl von KI-Risiken, die auch autonome Fahrzeuge und andere Maschinen zu einer Bedrohungen machen können.
KI-Systeme und autonome Maschinen müssen sich an definierte Regeln halten, um Risiken minimieren zu können, und sie müssen vor Manipulation und Missbrauch geschützt werden. Dazu gehört zum Beispiel, dass KI-Systeme als Steuerung der autonomen Maschinen nur bestimmte Daten nutzen dürfen, um Manipulationen zu verhindern. So warnt das BSI explizit vor Datenangriffen auf KI.
Melden Sie sich an oder registrieren Sie sich und lesen Sie weiter
Um diesen Artikel vollständig lesen zu können, müssen Sie registriert sein. Die kostenlose Registrierung bietet Ihnen Zugang zu exklusiven Fachinformationen.
Sie haben bereits ein Konto? Hier einloggen