05. März 2024 von Julian Halbhuber
Anlässlich der großen aktuellen Relevanz von Anwendungen, welche auf Künstliche Intelligenz zurückgreifen, veröffentlichte das Bayerische Landesamt für Datenschutzaufsicht (BayLDA) jüngst eine Checkliste „Datenschutzkonforme Künstliche Intelligenz“ (Konsultationsstand v0.9). Diese soll laut BayLDA nicht als abschließend oder letztgültig verstanden werden, sondern kann in der vorliegenden Form lediglich als gegenwärtige Orientierungshilfe dienen. Nichtsdestotrotz zeigen sich darin wesentliche Bewertungskriterien der Aufsichtsbehörde, welche gerade vor dem Hintergrund der technischen und juristischen Unwägbarkeiten im Zusammenhang mit KI-Technologie wenigstens einen gewissen Rahmen erkennbar werden lassen.
Vor diesem Hintergrund begreift das BayLDA KI-Anwendungen als Applikationen, welche auf Modelle zurückgreifen, die durch maschinelles Lernen mit Daten trainiert werden, oder aber explizit modelliert sind. Im öffentlichen Diskurs besonders präsent sind dabei sog. Large Language Models (LLM), wie z.B. ChatGPT. Dennoch können auch eine Vielzahl anders gelagerter Anwendungen der so verstandenen Kategorie der Künstlichen Intelligenz unterfallen.
Das Dokument umfasst die Szenarien des eigenen Trainings von KI-Modellen, sowie den Einsatz von trainierten KI-Modellen in KI-Anwendungen. Im Folgenden sollen einige der wichtigsten Punkte aus dem Anwendungsszenario zusammengefasst werden. Ein roter Faden der dortigen Ausführungen findet sich im Erfordernis mit besonderer Sorgfalt die betroffenen Aspekte und angestellten Erwägungen zu dokumentieren. Gerade aufgrund der technisch wie rechtlich beachtlichen Entwicklungsgeschwindigkeit im KI-Bereich ist es von herausgehobener Bedeutung darstellen zu können, dass der unternehmerische Einsatz der Anwendung auch in puncto Datenschutz wohlerwogen und gut geplant ist.
In diesem Sinn sind im Vorfeld etwa die Art der Anwendung, der Einsatzkontext, sowie die Spezifikationen der angedachten Anwendung festzuhalten. Dies beinhaltet gegebenenfalls die Frage, welche Kategorien von personenbezogenen Daten aus der Anwendungsumgebung eingespeist werden sollen oder auch ob das Modell, welches in der Anwendung zum Einsatz kommt, selbst personenbeziehbar ist. Technisch fragt sich beispielsweise, ob die Anwendung auf eigenen Servern betrieben werden soll, respektive gegebenenfalls bezüglich der Hardware auf einen Dienstleister zurückgegriffen wird.
Falls das Modell selbst personenbeziehbar ist, wird nicht erst bei der Eingabe von personenbezogenen Daten, sondern etwaig bereits für die Nutzung des Modells eine Rechtsgrundlage benötigt. Sollen personenbezogene Eingabedaten verarbeitet werden, welche nicht gesondert für diesen Zweck erhoben wurden, ist die Zulässigkeit einer Zweckänderung zu prüfen.
Weiterhin weist das BayLDA darauf hin, dass eine wesentliche Weichenstellung in der Feststellung der Verantwortlichkeit liegt. So muss, wenn Entwickler und Nutzer der Anwendung auseinanderfallen, schon im Vorfeld darüber nachgedacht werden, wer von beiden datenschutzrechtlich verantwortlich ist. Nur so kann gewährleistet werden, dass die Betroffenenrechte tatsächlich gewährt werden können. Zu deren Erfüllung sind hinreichende Vorkehrungen im Rahmen des Datenschutzmanagements zu ergreifen.
Im Anwendungsfall der KI-Anwendung eines Dienstleisters (KI-as-a-Service) ist es regelmäßig wichtig darauf zu achten, dass es hinsichtlich der personenbezogenen Daten, welche bei der Verwendung zugeführt oder anhand der Eingaben erzeugt werden, nicht zu einer Nutzung zu eigenen Zwecken des Anbieters kommt. Im Einzelfall ist es zwar denkbar, dass die Weitergabe der Daten zur eigenen Nutzung, etwa zu Nachtrainingszwecken, doch zulässig ist. Hierbei ist jedoch besondere datenschutzrechtliche Vorsicht geboten.
Eine Besonderheit liegt ferner darin, dass nach der Vorstellung des BayLDA beim Einsatz von KI-Anwendungen ein sogenanntes „Datenschutz-Risikomodell“ erstellt werden soll. Dieses ist Ausfluss der Rechenschaftspflicht des Art. 5 Abs. 2 DSGVO und dient u.a. der Vergegenwärtigung der spezifischen Risiken, welche mit dem Einsatz von künstlicher Intelligenz verbunden sind.
Dabei ist anhand der Schutzziele „Fairness“, „Autonomie und Kontrolle“, „Transparenz“, „Verlässlichkeit“, „Sicherheit“ und „Datenschutz“ festzuhalten, inwieweit deren Idealpostulat im geplanten Anwendungsfall eingehalten wird. Jede Abweichung konstituiert ein Risiko. Sofern einzelne Ziele als nicht relevant angesehen werden, ist auch dies zu begründen und zu dokumentieren.
Die sich aus dem Risikomodell ergebende Frage, wie die ermittelten Risiken angemessen adressiert werden können, ist zu beantworten und gleichfalls festzuhalten. Gegebenenfalls ist zusätzlich noch eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO durchzuführen. Für diesen Fall kann jedoch wesentlich auf das erstellte Risikomodell zurückgegriffen werden.
Zum Abschluss der Vorfelderwägungen ist ein Freigabetest durchzuführen und zu dokumentieren. Im laufenden Betrieb der Anwendung kann eine Protokollierung der Ein- und Ausgabedaten erforderlich sein. Allerdings ist hierbei darauf zu achten, dass ein etwaiger Mitarbeiterbezug in diesen Protokollen pseudonymisiert wird.
Abschließend ist darauf hinzuweisen, dass die Vorstellungen der bayerischen Aufsichtsbehörde nach eigenem Bekunden als „Good-Practice-Ansatz“ verstanden werden sollen. Insofern ist mit der Checkliste des BayLDA selbstverständlich noch nicht das letzte Wort gesprochen. Auch der anstehende Articial Intelligence Act der EU wird für einige Konstellationen weitere rechtliche Anforderungen einbringen, welche für einen ganzheitlichen Umgang mit KI-Produkten bedeutsam sein werden. Was sich jedoch schon jetzt sagen lässt ist, dass aus der Perspektive des Datenschutzes ein allzu leichtfertiger Einsatz entsprechender Anwendungen nicht ratsam ist. Insbesondere eine gründliche Dokumentation der angestellten Erwägungen kann hier hilfreich sein, um Unstimmigkeiten mit der zuständigen Aufsichtsbehörde abzuwenden.