KI-Agenten DSGVO-konform einsetzen — Praxis-Leitfaden für den Mittelstand

Wie mittelständische Unternehmen KI-Agenten DSGVO-konform einführen — von Rechtsgrundlage über Auftragsverarbeitung bis zu Transparenz und Zugriffskontrolle. Mit Praxis-Checkliste.

mitAIbeiter Team

KI-Agenten verarbeiten in den meisten Praxis-Szenarien personenbezogene Daten. Sobald das passiert, gilt die DSGVO uneingeschränkt — und damit ein verbindliches Regelwerk, das viele Unternehmen erst dann ernst nehmen, wenn die ersten Compliance-Fragen aus dem Datenschutz-Team kommen.

Dieser Leitfaden ist für Geschäftsführerinnen, IT-Verantwortliche und Datenschutz-Beauftragte gedacht, die KI-Agenten produktiv einsetzen wollen, ohne dass das Vorhaben in der Compliance-Prüfung scheitert. Wir beschreiben, welche fünf DSGVO-Anforderungen entscheidend sind, wie eine konforme Architektur aussieht, was bei Auftragsverarbeitung und Transparenz zu beachten ist — und schließen mit einer Praxis-Checkliste für die Einführung.

Warum DSGVO-Konformität Pflicht und Chance ist

Die Datenschutz-Grundverordnung gilt seit Mai 2018 unmittelbar in allen EU-Mitgliedstaaten. Sie regelt, wie Unternehmen mit personenbezogenen Daten umgehen müssen — also mit allen Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Im KI-Kontext betrifft das nahezu jeden produktiven Einsatz: Kundenanfragen mit Namen und E-Mail-Adressen, Lead-Daten aus dem CRM, interne Tickets von Mitarbeitenden, Dokumente mit Personenbezug.

Der wirtschaftliche Druck ist erheblich. Verstöße gegen die DSGVO können mit bis zu vier Prozent des weltweiten Jahresumsatzes oder 20 Millionen Euro geahndet werden — je nachdem, welcher Betrag höher ist. Hinzu kommen Reputationsschäden, Vertragsstrafen aus B2B-Beziehungen und der Verlust von öffentlichen Aufträgen, die DSGVO-Konformität voraussetzen.

Gleichzeitig ist DSGVO-Konformität ein Differenzierungsmerkmal: Wer KI-Agenten sauber aufsetzt, kann Datenschutz als Vertriebsargument nutzen — gerade gegenüber regulierten Branchen wie Gesundheit, Finance, öffentlicher Sektor oder dem deutschen Mittelstand mit B2B-Kunden, die Datenresidenz und Audit-Trail explizit fordern.

Die fünf zentralen DSGVO-Anforderungen für KI-Agenten

1. Rechtsgrundlage festlegen

Jede Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage nach Art. 6 DSGVO. Im B2B-Kontext greifen typischerweise drei davon:

  • Vertragserfüllung (Art. 6 Abs. 1 lit. b): Der KI-Agent unterstützt einen vertraglich geschuldeten Service — etwa die Bearbeitung einer Kundenanfrage.
  • Berechtigtes Interesse (Art. 6 Abs. 1 lit. f): Effizienzsteigerung im Service, sofern keine überwiegenden Interessen der Betroffenen entgegenstehen. Setzt eine dokumentierte Interessenabwägung voraus.
  • Einwilligung (Art. 6 Abs. 1 lit. a): Erforderlich für Marketing-Use-Cases oder besonders sensible Verarbeitungen.

Für interne Use-Cases mit Mitarbeiterdaten ist § 26 BDSG bzw. das künftige Beschäftigtendatenschutzgesetz relevant — und der Betriebsrat ist zwingend einzubeziehen.

2. Zweckbindung und Datenminimierung

Daten dürfen nur für den Zweck verwendet werden, für den sie ursprünglich erhoben wurden. KI-Agenten sind hier besonders sensibel, weil sie auf umfangreiche Datenbestände zugreifen können — was nicht heißt, dass sie es dürfen.

Konkret heißt das: Wenn ein Service-Agent Tickets bearbeitet, darf er nicht gleichzeitig die Daten aus dem Sales-CRM für Marketing-Auswertungen anzapfen. Jeder Use Case bekommt eine eigene Rechtsgrundlage und Datengrundlage. Diese Trennung muss technisch und organisatorisch durchgesetzt sein.

3. Transparenz nach Art. 13/14 DSGVO

Betroffene müssen wissen, dass und wie ihre Daten verarbeitet werden — auch durch KI-Systeme. Das bedeutet:

  • Datenschutzhinweise auf der Website und in den Service-Kanälen aktualisieren
  • Information bei Erst-Kontakt im Kundenservice (etwa als Footer in automatisch beantworteten Mails)
  • Bei Nutzung automatisierter Entscheidungsfindung: Hinweis nach Art. 22 DSGVO, inklusive Recht auf menschliche Überprüfung

Was viele unterschätzen: Auch die Information, dass ein Agent die Erstantwort verfasst und ein Mensch erst bei Eskalation übernimmt, ist transparenzpflichtig.

4. Auftragsverarbeitung und Subunternehmer

Wer KI-Plattformen einsetzt, gibt in der Regel personenbezogene Daten an einen Auftragsverarbeiter — den Plattform-Anbieter — weiter. Das erfordert:

  • Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO mit dem Anbieter
  • Vollständige Liste aller eingesetzten Subunternehmer (Cloud-Provider, LLM-Anbieter, Monitoring-Tools)
  • Sicherstellung, dass alle Verarbeitungen in der EU oder in Ländern mit Angemessenheitsbeschluss stattfinden
  • Bei US-Sub-Anbietern: gesonderte Prüfung gegen das EU-US Data Privacy Framework und ggf. Standardvertragsklauseln plus Zusatzmaßnahmen

Genau hier liegt einer der häufigsten Stolpersteine: Auch wenn der Vertragspartner deutsch ist, kann die tatsächliche Verarbeitung in einem Drittland erfolgen. Das bedeutet keinen automatischen Compliance-Bruch — aber Sorgfalt bei der Anbieterprüfung.

5. Betroffenenrechte und Audit-Trail

Die DSGVO gibt Betroffenen weitreichende Rechte: Auskunft, Berichtigung, Löschung, Einschränkung der Verarbeitung, Widerspruch, Datenübertragbarkeit. Für KI-Agenten heißt das praktisch:

  • Jede Interaktion muss einer Person zuordenbar sein (Audit-Trail)
  • Daten müssen löschbar sein — auch in Caches, Logs und Trainings-Snapshots
  • Auskunft muss innerhalb eines Monats möglich sein, was eine technische Suche über alle vom Agenten erzeugten Datensätze erfordert

Architektur eines DSGVO-konformen KI-Setups

Eine konforme Architektur folgt einigen Grundprinzipien, die sich in der Praxis bewährt haben:

Datenresidenz in der EU. Alle Verarbeitungs- und Speicherorte liegen innerhalb der EU oder im EWR. Bei der Auswahl der LLM-API ist das ein zentrales Kriterium — Anthropic bietet beispielsweise EU-Routing über Google Vertex AI mit Verarbeitung in europäischen Rechenzentren. Reine US-Endpunkte sind ohne ergänzende Maßnahmen problematisch.

Rollenbasierter Zugriff. Der KI-Agent bekommt nur die Daten, die für seinen Use Case zwingend erforderlich sind. Das setzt eine saubere Identitäts- und Berechtigungsstruktur voraus, die in viele Bestandssysteme erst nachgerüstet werden muss. Lohnt sich aber unabhängig vom KI-Einsatz.

Eskalation an Menschen. Komplexe Fälle werden nicht automatisch entschieden, sondern qualifiziert übergeben. Das vermeidet automatisierte Einzelentscheidungen mit Rechtsfolgen nach Art. 22 DSGVO und schützt zugleich vor Halluzinationen.

Vollständige Protokollierung. Jede Interaktion mit personenbezogenen Daten wird mit Zeitstempel, Datenpunkten, Modell-Version und Entscheidungslogik dokumentiert. Das ist die Basis für Auskunft, Audit und Fehleranalyse.

Pseudonymisierung wo möglich. Wo der Agent ohne direkten Personenbezug arbeiten kann, sollte er es. Aggregierte oder pseudonymisierte Daten sind im Datenschutzrecht deutlich entspannter zu behandeln.

Auftragsverarbeitung und Subunternehmer in der Praxis

Der AVV ist kein Formular, das man unterschreibt und ablegt. Er ist die Grundlage für die Verteilung der Verantwortlichkeiten. In der Prüfung sollten Sie auf folgende Punkte achten:

  • Subunternehmerliste muss vollständig sein und Änderungen müssen mit ausreichender Vorlaufzeit angekündigt werden, damit Sie reagieren können.
  • Datenresidenz-Klauseln sollten konkret sein — nicht nur "EU", sondern ideal mit Region (etwa Frankfurt) und der Möglichkeit, bei Änderungen zu widersprechen.
  • Audit-Rechte müssen ausgeübt werden können, mindestens als Selbstauskunft des Anbieters. Für regulierte Branchen sind Vor-Ort-Audits oder Drittprüfungen (SOC 2, ISO 27001) sinnvoll.
  • Löschkonzept muss konkret beschreiben, wann und wie Daten nach Vertragsende gelöscht werden — inklusive Backups und Caches.

Bei US-basierten Subunternehmern (etwa OpenAI, Microsoft, Google) ist seit dem EU-US Data Privacy Framework die Lage entspannter, aber nicht trivial. Eine dokumentierte Risikobewertung nach Schrems II bleibt sinnvoll — auch wenn das Framework grundsätzlich greift.

Transparenz im Alltag

Transparenzpflichten klingen abstrakt, sind aber im Alltag mit überschaubarem Aufwand umsetzbar. Drei konkrete Bausteine:

Datenschutzhinweise erweitern. Ein eigener Abschnitt zu KI-gestützter Bearbeitung, mit Information darüber, welche Datentypen wie verarbeitet werden, welche Rechtsgrundlage greift, wie lange gespeichert wird und welche Rechte Betroffene haben.

Service-Kommunikation kennzeichnen. Wenn ein KI-Agent eine Erstantwort verfasst, sollte das nicht als persönliche Nachricht eines Mitarbeiters wirken. Eine kurze Kennzeichnung ("Diese Erstantwort wurde von unserem KI-Service-Agenten verfasst — bei Rückfragen übernimmt das Team gerne persönlich") ist transparent und schafft Vertrauen.

Mitarbeiter-Information. Wenn KI-Agenten interne Daten verarbeiten, sind die betroffenen Mitarbeitenden zu informieren und der Betriebsrat einzubeziehen. Das geht oft schneller als befürchtet, wenn man früh und konkret kommuniziert — und verhindert spätere Konflikte.

DSGVO und EU AI Act — wie sie zusammenwirken

Die DSGVO regelt den Umgang mit personenbezogenen Daten, der EU AI Act setzt zusätzliche Anforderungen an KI-Systeme selbst (Risikoklassifizierung, Transparenz, Konformitätsbewertung, Governance). Beide gelten parallel.

Wer DSGVO-konform arbeitet, hat den größten Teil der für den AI Act relevanten Datenschutzfragen bereits adressiert. Der AI Act fügt aber technische und Governance-Anforderungen hinzu, die über die DSGVO hinausgehen — etwa Anforderungen an Datenqualität für hochrisiko-KI-Systeme oder Transparenzpflichten gegenüber Nutzenden bei der Interaktion mit KI.

Für die meisten Mittelstands-Use-Cases (Service, Vertrieb, Reporting) gelten begrenzte Anforderungen aus dem AI Act, weil sie nicht in die Hochrisiko-Kategorien fallen. Trotzdem lohnt es sich, die Governance-Anforderungen mitzudenken, statt sie später nachzurüsten.

Praxis-Checkliste vor dem Roll-out

Vor dem produktiven Einsatz eines KI-Agenten lohnt sich eine kurze Selbst-Überprüfung:

  • [ ] Rechtsgrundlage je Use Case dokumentiert
  • [ ] Datenschutz-Folgenabschätzung (DSFA) erfolgt, sofern erforderlich
  • [ ] AVV mit Plattform-Anbieter geschlossen, Subunternehmerliste geprüft
  • [ ] Datenresidenz nachweislich in der EU
  • [ ] Datenschutzhinweise um KI-Bearbeitung erweitert
  • [ ] Betriebsrat eingebunden (bei Mitarbeiterdaten)
  • [ ] Rollenbasierter Zugriff technisch umgesetzt
  • [ ] Audit-Trail aktiv und durchsuchbar
  • [ ] Löschkonzept für KI-bezogene Daten dokumentiert
  • [ ] Eskalationspfade für komplexe Fälle definiert
  • [ ] Auskunfts- und Löschprozesse für Betroffene etabliert
  • [ ] Mitarbeiterschulung für den Umgang mit KI-Output durchgeführt

Diese Liste ersetzt keine Datenschutz-Beratung im Einzelfall, gibt aber einen verlässlichen Anhaltspunkt, ob die wichtigsten Bausteine sitzen.

Wie geht es weiter

Wir vertiefen einzelne Themen aus diesem Leitfaden in weiteren Artikeln — etwa den EU AI Act für den Mittelstand, die Frage nach eigener LLM-Infrastruktur versus API-Nutzung und konkrete Use-Case-Vertiefungen. Bei Fragen zum Einsatz in Ihrem Unternehmen sprechen Sie uns gerne an.

Verwandt: