Zwischenzeitiges Verbot von ChatGPT in Italien – was wurde bemängelt und wie geht es mit dem KI-Chatbot weiter?
Seit der Veröffentlichung im November 2022 schlägt das Text-Generierungstool ChatGPT enorme Wellen, sorgt aber gleichzeitig auch für Bedenken. Durch die vielseitigen Einsatzmöglichkeiten ist ChatGPT für viele Nutzerinnen und Nutzer der erste echte Berührungspunkt mit künstlicher Intelligenz. Allgemeine Bedenken gesellschaftlicher Folgen durch den Einsatz von künstlicher Intelligenz werden von KI-Fachexpertinnen und -experten bereits seit längerer Zeit geäußert, was auch Thema der neuen europäischen Regulatorik ist. (siehe AI Act, aktuell im Entwurfsstadium).
Ergänzend dazu kommen nun auch datenschutzrechtliche Bedenken auf, da die Verarbeitung von Daten die Grundlage von Künstlicher Intelligenz bildet. Hierbei sollten aktuell alle Unternehmen vor dem Einsatz von KI-Lösungen mögliche Konsequenzen in der Verarbeitung personenbezogener Daten bewerten. Hierzu haben wir bereits in unserer letzten Ausgabe eine Zusammenfassung datenschutzrechtlicher Aspekte beim Einsatz künstlicher Intelligenz zusammengestellt.
Den Aufschlag in Europa zur datenschutzrechtlichen Bewertung machte Ende März 2023 die italiensche Datenschutzbehörde, die aufgrund datenschutzrechtlicher Risiken zwischenzeitig ein Verbot zum Einsatz von ChatGPT aussprach. Auslöser der Untersuchung durch die Behörde scheint ein Datenschutzvorfall vom 20.03.2023 zu sein, bei dem Gespräche und Zahlungsdaten von Abonnenten betroffen waren.
Kritikpunkte der italienischen Behörde an ChatGPT
Kritisiert wurde durch die italienische Behörde die mangelnde Transparenz gegenüber Verbraucherinnen und Verbraucher. Betroffene Personen hätten keine ausreichende Informationslage gehabt, um die Verarbeitung ihrer Daten und damit einhergehende Konsequenzen nachvollziehen zu können. Nach Angaben der Behörde wiesen erste Tests auf, dass die getroffenen Aussagen des US-Anbieters OpenAI zur Lösung nicht mit den tatsächlichen Umständen der Datenverarbeitung übereinstimmten.
Darüber hinaus konnte die Behörde auch keine valide Rechtsgrundlage für die umfangreiche Datenerhebung und -verarbeitung zum „Anlernen“ des Algorithmus der KI-Lösung identifizieren. Zuletzt wurde bemängelt, dass Maßnahmen zur Verifizierung des Alters eines Nutzenden nicht ausreichend seien und damit ein besonderes Risiko für Minderjährige bestünde.
Reaktion durch OpenAI und Aufhebung des Verbots
Im Ergebnis forderte die Behörde den Anbieter OpenAI, unter Androhung eines Bußgeldes, auf, innerhalb von 20 Tagen Maßnahmen zur Beseitigung der bemängelten Punkte umzusetzten. OpenAI reagierte schnell auf die Entscheidung der Behörde und traf Maßnahmen, um das angedrohte Bußgeld abzuwenden.
1. OpenAI erweiterte Informationen auf der Unternehmenswebseite zur Verarbeitung von Nutzerdaten durch den Chatbot.
2. OpenAI richtete die Möglichkeit für Nutzerinnen und Nutzer ein, eigene Konversationen von der Verwendung zum „Anlernen“ des ChatGPT-Algorithmus auszuschließen.
3. OpenAI richtete einen Verifizierungsmechanismus für das Alter der Nutzerinnen und Nutzer ein, um Kinder unter 13 Jahren von der Nutzung auszuschließen.
Ergänzend wurde ein Hinweis platziert, das ChatGPT Falschinformationen produzieren kann. Auf Grundlage der getroffenen Maßnahmen hob die italienische Behörde das Verbot am 28.04.2023 auf. Hierzu sagt die Behörde in ihrer Pressemitteilung:
„Die italienische ORKB erkennt die von OpenAI unternommenen Schritte an, um den technologischen Fortschritt mit der Achtung der Rechte des Einzelnen in Einklang zu bringen und hofft, dass das Unternehmen seine Bemühungen um die Einhaltung der europäischen Datenschutzvorschriften fortsetzen wird.“ (übersetzt ins Deutsche)
Wie geht es mit ChatGPT auf Seiten des Datenschutzes weiter?
Während die Nutzung von ChatGPT in Italien nun wieder erlaubt ist, sollte daraus nicht automatisch abgeleitet werden, dass der Chatbot vollumfänglich datenschutzkonform ist. Die Entscheidung eines vorläufigen Verbots wurde durch die Behörde getroffen, um Nutzerinnen und Nutzer kurzfristig vor einer potentiell unrechtmäßigen Verarbeitung ihrer Daten zu schützen. Eine vollumfängliche Prüfung des Chatbots wurde von der italienischen Behörde nicht durchgeführt.
Auch andere europäische Datenschutzbehörden, u.a. Vertreter der französischen und spanischen Behörden, haben im Europäischen Datenschutzausschuss (EDSA) Interesse an ChapGPT geäußert. Inzwischen wurde im EDSA eine Arbeitsgruppe zur Bewertung von ChatGPT eingerichtet. Dies soll zu einer einheitlichen Einschätzung entsprechender KI-Lösungen beitragen. Somit können Datenschützerinnen und Datenschützer auf eine einheitliche Bewertung des EDSA hoffen.