Sicher mit KI: Risiken kennen, Sicherheit gestalten

Security und Sicherheitsaspekte beim Einsatz von KI

Künstliche Intelligenz bietet enormes Potenzial, um Prozesse zu optimieren, Effizienz zu steigern und Kosten zu senken. Gleichzeitig bringt sie neue Risiken mit sich, die nicht unterschätzt werden dürfen. Vor der Einführung eines KI-Systems sollten Organisationen klären, welche Bedrohungen bestehen – und wie diese wirksam eingedämmt werden können.

Typische Bedrohungsszenarien

Data Poisoning
Hierbei werden Trainingsdaten gezielt manipuliert, sodass das KI-Modell falsche Muster erlernt. Die Folge: fehlerhafte oder irreführende Ergebnisse, die Nutzer und Anwendungen negativ beeinflussen können.

Prompt Injection
Durch versteckte oder schädliche Eingaben werden KI-Systeme zu unerwünschtem Verhalten verleitet – etwa zum Umgehen von Sicherheitsmechanismen oder zur Ausgabe sensibler Inhalte.

Halluzinationen
KI-Systeme liefern mitunter ungenaue oder völlig falsche Informationen – sogenannte Halluzinationen. Bei unkritischer Weiterverwendung dieser Inhalte können Fehlentscheidungen oder Falschinformationen entstehen.

Datenschutz und Urheberrecht
Eingegebene Daten können in Trainingsprozesse einfließen – mit potenziellen Verstößen gegen Datenschutzvorgaben oder Urheberrechte.

Modelldiebstahl
Mittels geschickter Abfragen können Angreifer versuchen, Rückschlüsse auf das zugrunde liegende Modell oder die Trainingsdaten zu ziehen – ein Risiko für geistiges Eigentum und Compliance.

Wichtige Fragen zur sicheren Nutzung

  • Datenschutz: Hat das System Auswirkungen auf bestehende Datenschutzverpflichtungen?
  • Datenstandort: Wo werden die Systeme betrieben, und in welchen Regionen werden Daten gespeichert?
  • Datennutzung: Werden Eingabedaten zu Trainings- oder anderen Zwecken weiterverwendet?
  • Zugriffsrechte: Wer hat Zugang zum System – und wie wird sichergestellt, dass nur Berechtigte darauf zugreifen?
  • Kompetenz: Verfügt die Organisation über das nötige Know-how zum sicheren Betrieb? Falls nicht: Ist der Dienstleister vertrauenswürdig und die Lieferkette abgesichert?

Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet hilfreiche Informationen zu KI-Bedrohungen und Schutzmaßnahmen >> BSI-Leitfaden zu KI-Systemen

Regulatorische Anforderungen: Der AI Act

Neben technischen Risiken spielen auch gesetzliche Vorgaben eine zentrale Rolle. In Europa regelt der AI Act, wie KI sicher und verantwortungsvoll genutzt werden soll. Er gilt für alle Anbieter und Betreiber von KI-Systemen, die innerhalb der EU tätig sind oder Auswirkungen auf EU-Bürgerinnen und -Bürger haben.

Der AI Act teilt KI-Systeme in Risikoklassen ein. Je höher das Risiko, desto strenger die Anforderungen. Unternehmen müssen ihr System entsprechend einordnen und passende Maßnahmen zur Risikominimierung treffen.

Wichtig für Arbeitgeber: Wer KI-Systeme im Arbeitsalltag zulässt, muss sicherstellen, dass Mitarbeitende über ausreichende Kompetenzen im Umgang mit der Technologie verfügen – und diese gegebenenfalls vermitteln. Verstöße gegen die Vorgaben können empfindliche Strafen nach sich ziehen.

Mehr dazu >> AI Act – Future of Life Institute

Fazit

KI eröffnet viele neue Chancen – aber auch neue Herausforderungen. Technische, rechtliche und organisatorische Aspekte müssen frühzeitig berücksichtigt werden, um Risiken zu vermeiden und die Vorteile sicher zu nutzen.

Sie möchten mehr über sicheres KI-Design, technische Infrastruktur oder Compliance-Fragen erfahren? Sprechen Sie uns an – gemeinsam mit unseren Partnern entwickeln wir passende Lösungen für Ihre Anforderungen.

Ihr Ansprechpartner

Bild: Portrait von Ingo Schulte-Übermühlen

Ingo Schulte-Übermühlen

Kaufmännischer Bereichsleiter

Ingo.Schulte-Uebermuehlen@pdv-systeme.de