Was die neue BfDI-Handreichung für KI-Projekte bedeutet
In vielen Behörden beginnt der KI-Einsatz gerade ganz unspektakulär. Ein Pilotteam probiert ein Sprachmodell aus, um Texte zu glätten, Anträge zu sortieren, Bürgerfragen schneller zu beantworten. Dann fällt ein Satz im Chatfenster: „Bitte nennen Sie mir die Kontaktdaten von …“ oder „Hier sind die Angaben aus dem Vorgang …“. Und plötzlich steht die eigentliche Frage im Raum: Haben wir Datenschutz nur „mitgemeint“ oder wirklich mitgebaut?
Genau an dieser Stelle setzt die neue Handreichung der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit an: „KI in Behörden – Datenschutz von Anfang an mitdenken“. Sie richtet sich an öffentliche Stellen des Bundes und führt durch die typischen Stolperstellen, die Large Language Models in der Verwaltung mitbringen, vom Training über die Einführung bis zum laufenden Betrieb.
Das Dokument macht eine Beobachtung, die vielen Projekten erst spät bewusst wird: Bei Sprachmodellen sind personenbezogene Daten nicht nur ein Thema der Eingaben. Sie können schon in den Trainingsdaten stecken, in Modellparametern „abgelegt“ sein und unter ungünstigen Umständen wieder auftauchen. Dieses Phänomen der Memorisierung ist mehr als eine theoretische Fußnote, weil es klassische Pflichten wie Auskunft, Berichtigung oder Löschung in eine neue technische Landschaft zwingt. Wenn Daten nicht als Datensatz vorliegen, sondern als statistisches Muster im Modell, werden Betroffenenrechte schnell zu einem Organisationsproblem und damit zu einem Governance-Thema.
Hinzu kommt der Black-Box-Charakter: Sprachmodelle liefern flüssige Antworten, aber sie erklären ihren Weg nicht zuverlässig. Sie können sich irren, sie können „halluzinieren“, und sie können Informationen neu verknüpfen. Die Handreichung leitet daraus konsequent ab, dass man den KI-Lebenszyklus getrennt betrachten muss. Training ist nicht Betrieb. Und Betrieb ist nicht nur „Nutzung“, sondern ein eigener Verarbeitungsvorgang, der Rollen, Zwecke, Rechtsgrundlagen und Schutzmaßnahmen braucht.
Praktisch wird das besonders bei der Frage der Verantwortlichkeit: Wer entscheidet über Zweck und Mittel? Die Behörde, der Cloud-Anbieter, ein externer Dienstleister? Ob ein Modell exklusiv betrieben wird, ob es „offen“ einsehbar ist oder nur über eine Schnittstelle genutzt wird, ob eine Behörde finetunen kann – all das verschiebt Verantwortlichkeiten und damit Pflichten. Gleichzeitig erinnert die Handreichung daran, dass DSGVO und KI-Verordnung parallel laufen: Die KI-VO regelt produktsicherheitsrechtliche Anforderungen, der Datenschutz bleibt „unberührt“, muss aber im Lichte der KI-spezifischen Wertungen beachtet werden.
Was folgt daraus für den Projektalltag? Vor allem: weniger Bauchgefühl, mehr Architekturentscheidungen. Datenminimierung beginnt bei der Frage, ob man überhaupt personenbezogene Daten ins Promptfeld lässt und endet bei Löschroutinen, Filtermechanismen und der Entscheidung, ob ein Anbieter Eingaben fürs Training verwenden darf. Schutz entsteht oft nicht durch eine einzelne Maßnahme, sondern durch Kombinationen: Bereinigung und Pseudonymisierung von Trainingsdaten, technische Schranken gegen die Ausgabe personenbezogener Inhalte, klare Rollen- und Zugriffskonzepte, menschliche Aufsicht und – dort, wo Risiken absehbar hoch sind – eine Datenschutz-Folgenabschätzung, die nicht nur Papier produziert, sondern Entscheidungen ermöglicht.
Für viele Behörden wird 2026 zum Jahr, in dem KI nicht mehr nur getestet, sondern in Prozesse eingebettet wird. Bitkom Consult unterstützt dabei, KI-Projekte so aufzusetzen, dass Datenschutz, KI-VO und organisatorische Realität zusammenpassen: von Vertragsgestaltung bis zur Umsetzungs-Governance im Betrieb.
Sprechen Sie mit uns über Ihre Compliance-Strategie unter datenschutz@bitkom-consult.de .