Data Poisoning
Hierbei werden Trainingsdaten gezielt manipuliert, sodass das KI-Modell falsche Muster erlernt. Die Folge: fehlerhafte oder irreführende Ergebnisse, die Nutzer und Anwendungen negativ beeinflussen können.
Prompt Injection
Durch versteckte oder schädliche Eingaben werden KI-Systeme zu unerwünschtem Verhalten verleitet – etwa zum Umgehen von Sicherheitsmechanismen oder zur Ausgabe sensibler Inhalte.
Halluzinationen
KI-Systeme liefern mitunter ungenaue oder völlig falsche Informationen – sogenannte Halluzinationen. Bei unkritischer Weiterverwendung dieser Inhalte können Fehlentscheidungen oder Falschinformationen entstehen.
Datenschutz und Urheberrecht
Eingegebene Daten können in Trainingsprozesse einfließen – mit potenziellen Verstößen gegen Datenschutzvorgaben oder Urheberrechte.
Modelldiebstahl
Mittels geschickter Abfragen können Angreifer versuchen, Rückschlüsse auf das zugrunde liegende Modell oder die Trainingsdaten zu ziehen – ein Risiko für geistiges Eigentum und Compliance.