KI-Systeme sind nicht unverwundbar. Mit wachsender Verbreitung wachsen auch die Angriffsvektoren – und das Bewusstsein dafür muss mithalten.
Prompt Injection
Beim Prompt Injection versuchen Angreifer, durch geschickt formulierte Eingaben die Anweisungen an ein KI-System zu überschreiben. Das kann dazu führen, dass vertrauliche Systeminformationen preisgegeben oder unerwünschte Aktionen ausgeführt werden.
Datenpoisoning
Wenn Angreifer Einfluss auf die Trainingsdaten eines Modells haben, können sie dessen Verhalten gezielt manipulieren. KOSMO setzt auf On-Premise-Betrieb und RAG – das macht Datenpoisoning deutlich schwieriger.
Model Inversion
Durch gezielte Anfragen können Angreifer versuchen, Rückschlüsse auf Trainingsdaten zu ziehen. Auch hier hilft lokaler Betrieb und keine Weitergabe von Daten.
Wie schützt KOSMO?
- Rollenbasierte Zugriffsrechte verhindern unberechtigten Datenzugriff
- Kein Internet-Zugang des Modells ohne explizite Freigabe
- Alle Anfragen und Antworten können protokolliert werden
- On-Premise-Betrieb minimiert Angriffsfläche








