Wenn KI-Assistenten Zugriff auf vertrauliche Daten haben, fremde Inhalte verarbeiten und selbst nach außen kommunizieren, entsteht ein „tödlicher Dreiklang“. Angreifer können die KI missbrauchen und Daten erbeuten.
🔒 Zum Schutz: Systeme so gestalten, dass mindestens ein Punkt ausgeschlossen ist.
Eine dunkelblaue Grafik im selben Design; in weißer Schrift steht:
Die Kombination aus diesen drei Punkten macht KI besonders angreifbar:
1️⃣ Zugriff auf vertrauliche Daten
2️⃣ Verarbeitung nicht-vertrauenswürdiger Inhalte
3️⃣ Möglichkeit zur externen Kommunikation
Cyberkriminelle nutzen Prompt Injections, um das Lethal Trifecta auszunutzen.
Das sind versteckte Anweisungen in Texten, die die KI dazu bringen, vertrauliche Infos auszulesen und heimlich zu verschicken.
Wie ihr euch schützt:
- Mindestens einen Faktor ausschalten:
z. B. KIs keine externen Kommunikationswege erlauben (keine E-Mails, Hyperlinks oder entfernten Inhalte).
- Sichere Systemarchitektur:
durchdachte Design-Muster (siehe BSI + ANSSI Paper), die KI gegen Angreifer absichern
Karikatur "Metaverse" aus dem Jahr 2026. Marc zuckerberg beugt sich über ein Terrarium und streuselt etwas hinein. In seiner linken Hand hält er eine Dose mit der Aufschrift Algo. Im Terrarium sitzt ein Individuum, das zusammengekauert auf einem weißen Hügelchen in ein Smartphone stiert.
Karikatur. Eine Frau in blauem Kleid und gelbem Sternenohrring steht staunend vor einem riesigen Fuß einer Statue. Ihrer rechten Hand entgleitet ein Smartphone aus dem eine Stimme ertönt: Und euren Fascho-Plunder könnt ihr auch wieder zurückhaben!