Am 31. März 2023 gab die Datenschutzbehörde in Italien bekannt, dass der populäre Dienst ChatGPT vorläufig im Land gesperrt wird. Als Begründung wurden Verstöße gegen den Datenschutz und das Fehlen ausreichender Informationen über die Verwendung von Daten durch den Betreiber OpenAI genannt.
„Der Punkt ist, dass ich, wenn ich nicht weiß, wer was mit meinen persönlichen Daten macht, nicht in der Lage bin, die Verwendung meiner persönlichen Daten zu kontrollieren, um meine Rechte auszuüben“, erklärte der italienische Datenschutzbeauftragte Guido Scorza in einem Gespräch mit legal data.
Ermittlungen wegen fehlendem Jugendschutz bei ChatGPT
Die Datenschutzbehörde bemängelte auch das Fehlen von Filtern, die verhindern sollen, dass Kinder unter 13 Jahren „absolut unangebrachte“ Informationen angezeigt bekommen. Ermittlungen wurden daraufhin eingeleitet. Die Behörde verbot vorsorglich die Verarbeitung von Daten von Nutzern aus Italien, wodurch ChatGPT in dem Land nicht mehr anwendbar ist.
Beliebtheit des Dienstes als Grund für Sperrung
Die Beliebtheit des Dienstes war einer der Gründe, warum Italien nicht nur eine Untersuchung eingeleitet, sondern den Dienst „zu stoppen, bevor es zu spät ist“, beschlossen hatte, so Scorza. OpenAI bekam eine Frist von 20 Tagen, um Maßnahmen gegen die Vorwürfe zu präsentieren. Andernfalls droht eine Strafe von bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes.
Die Datenschutzbehörde verwies auch auf eine kürzlich bekanntgewordene Datenpanne, bei der Nutzer von ChatGPT Informationen aus fremden Profilen zu sehen bekamen. Das Problem wurde von OpenAI auf einen Fehler in einer für ChatGPT verwendeten Software zurückgeführt.
ChatGPT basiert auf der Erfassung von enormen Mengen von Texten, um Sätze zu formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dieses Grundprinzip birgt das Risiko, dass die Software „Fakten halluziniert“, wie OpenAI es nennt – falsche Informationen als korrekt wiedergibt. Die italienischen Datenschützer sehen auch ein grundsätzliches Problem darin, wie ChatGPT trainiert wurde. Es gebe keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zum Trainieren der Algorithmen.
Reaktion von ChatGPT-Nutzern und Experten
Die Sperrung von ChatGPT in Italien löste Reaktionen von Nutzern und Experten aus. Einige begrüßten die Entscheidung als notwendige Maßnahme zum Schutz der Privatsphäre, während andere die Entscheidung als überzogen und unnötig kritisierten.
Italiens Datenschutzbehörde betont, dass sie die Privatsphäre und die Rechte der Nutzer schützen möchte. „Wir haben den Betreiber von ChatGPT, OpenAI, aufgefordert, uns detaillierte Informationen darüber zu geben, wie sie personenbezogene Daten verarbeiten und wie sie sicherstellen, dass die Nutzerdaten geschützt werden“, sagt Guido Scorza, der italienische Datenschutzbeauftragte.
„Wir haben uns auch besorgt darüber geäußert, dass die Algorithmen, die für ChatGPT verwendet werden, auf massenhaft gesammelten personenbezogenen Daten basieren, für die keine ausreichende rechtliche Grundlage besteht“, fügt Scorza hinzu.
ChatGPT hat in den letzten Monaten weltweit an Popularität gewonnen. Die Software hat das Potenzial, den Umgang mit Sprache und Text zu revolutionieren. Aber es gibt auch Bedenken hinsichtlich des Datenschutzes und der möglichen Auswirkungen auf die Gesellschaft, wenn KI-basierte Technologien falsch eingesetzt werden.
Scorza betont, dass die Datenschutzbehörde in Italien nicht gegen den Fortschritt oder die Innovation ist. „Wir wollen sicherstellen, dass die Technologie im Einklang mit den Datenschutzvorschriften und den Rechten der Nutzer eingesetzt wird“, sagt Scorza.
DS-GVO Probleme
Es bleibt abzuwarten, wie die Angelegenheit ausgeht und ob OpenAI die erforderlichen Maßnahmen ergreifen kann, um die Sperre von ChatGPT in Italien aufzuheben. Die Entscheidung der italienischen Datenschutzbehörde könnte jedoch Auswirkungen auf die Entwicklung und den Einsatz von KI-basierten Technologien weltweit haben. Denn: Neben den oben dargestellten Problemen der Datensicherheit und Vertraulichkeit lernt ChatGPT auch bei jeder Anfrage selbst mit – ob dies mit den Grundsätzen der Zweckbindung und den strengen Regelungen der DS-GVO in Einklang steht werden die europäischen Datenschutzbehörden bald zu überprüfen haben.