Versteckte Fallen. Die datenschutzrechtliche Herausforderungen beim Einsatz von generativen KI-Systemen wie ChatGPT beleuchtet Binder Grösswang-Anwalt Ivo Rungg am Facultas-Blog.
Der Einsatz von Künstlicher Intelligenz (KI), insbesondere von Large Language Models (LLMs) wie ChatGPT, bietet Unternehmen großes Effizienzpotenzial. Gleichzeitig wirft er jedoch wesentliche datenschutzrechtliche Fragen auf, schreibt Ivo Rungg, Rechtsanwalt und Partner bei Binder Grösswang, in seinem Blogbeitrag.
Der Einsatz der Technologie sei derzeit durch fehlende konkrete Rechtsprechung und unklare regulatorische Vorgaben mit entsprechenden rechtlichen Risiken behaftet, die entsprechend beachtet werden sollten.
Wenn der Chatbot persönliche Daten rekonstruiert
Dabei geht es insbesondere um die Anforderungen der Datenschutz-Grundverordnung (DSGVO), die immer dann greift, wenn personenbezogene oder pseudonymisierte Daten verarbeitet werden. Zwar könne durch Anonymisierung versucht werden, den Personenbezug auszuschließen, doch bei besonders leistungsstarken KI-Modellen wie ChatGPT ist Vorsicht geboten, warnt Rungg: Diese Systeme können auch aus vermeintlich neutralen Daten durch die Kombination einer Vielzahl öffentlicher Quellen neue Rückschlüsse ziehen und so möglicherweise einen Personenbezug wiederherstellen.
Zu klären ist u.a. auch, wer der datenschutzrechtlich Verantwortliche ist: So sei OpenAI in der frei zugänglichen Version von ChatGPT eigenständiger Verantwortlicher. Doch gibt die:der Nutzer:in seine:ihre Zustimmung zur Trainingsnutzung der eingegebenen Daten, könne eine gemeinsame Verantwortlichkeit drohen. Diese und weitere Konstellationen werden am Facultas-Blog beschrieben.