Künstliche Intelligenz (KI) hat in den letzten Jahren große Fortschritte gemacht und findet zunehmend Verwendung in verschiedenen Bereichen. Einer der bekanntesten Chatbots ist ChatGPT, entwickelt von OpenAI. Millionen von Menschen nutzen diese KI-Anwendung täglich, um Informationen zu erhalten oder Unterhaltungen zu führen. Allerdings steht OpenAI derzeit unter dem Druck einer Untersuchung durch die US-Handelsaufsichtsbehörde FTC aufgrund möglicher Verletzungen von Verbraucherschutzgesetzen.

Gefährdung des Datenschutzes und der Reputation

Die FTC hat Bedenken hinsichtlich des Schutzes personenbezogener Daten und der Reputation von Menschen durch den populären Chatbot ChatGPT geäußert. Laut einem Bericht der „Washington Post“ (https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/)  hat die Behörde in einem 20-seitigen Schreiben Informationen von OpenAI angefordert, um die Risiken im Zusammenhang mit künstlicher Intelligenz besser zu verstehen. Weder die FTC noch OpenAI haben bisher offiziell zu den Vorwürfen Stellung genommen.

Generative KI und die Verwendung persönlicher Daten

Die Grundlage von ChatGPT und ähnlichen KI-Modellen ist die sogenannte generative KI, bei der große Mengen an Daten, einschließlich persönlicher Einträge in sozialen Medien, zur Schulung des Modells verwendet werden. Zusätzlich fließen die Eingaben der Nutzer, auch „Prompts“ genannt, in das weitere Training der KI ein. Diese Praxis hat zu Bedenken hinsichtlich des Datenschutzes geführt. Auch Google sieht sich mit einer ähnlichen Klage konfrontiert, in der dem Unternehmen vorgeworfen wird, unerlaubt personenbezogene und urheberrechtlich geschützte Informationen für das Training ihrer KI-Anwendungen genutzt zu haben.

Bedenken der europäischen Aufsichtsbehörden

Auch die europäischen Aufsichtsbehörden haben Bedenken geäußert, insbesondere in Bezug auf die Verwendung persönlicher Daten in Chatbots und anderen KI-basierten Diensten. In Italien wurde ChatGPT vorübergehend gesperrt (https://www.spiegel.de/netzwelt/netzpolitik/openai-bessert-beim-datenschutz-nach-chatgpt-wieder-in-italien-verfuegbar-a-d8d9d24f-8f34-4882-a8e4-dc5bc1c7fd84) , aber später wieder freigegeben. Die endgültige Entscheidung über die Zulässigkeit des Angebots steht jedoch noch aus. Ein Hauptanliegen der Datenschützer ist die Verbreitung von falschen Informationen und rufschädigenden Äußerungen durch Dienste wie ChatGPT.

Die Forderungen der FTC und die Herausforderungen für OpenAI

Die FTC verlangt von OpenAI detaillierte Informationen darüber, wie ChatGPT trainiert wurde und welche Sicherheitsmaßnahmen das Unternehmen ergriffen hat, um potenziell schädliche Falschbehauptungen zu verhindern. Die Anbieter von KI-Diensten betonen zwar, dass ihre Modelle nicht zwangsläufig die Wahrheit wiedergeben, dennoch gewinnen sie an Bedeutung und werden in verschiedene Anwendungen integriert. Die scheinbare Eloquenz der Chatbots führt jedoch oft dazu, dass menschliche Anwender in die Irre geführt werden. Selbst Experten können nicht immer zwischen Fakten und Fiktion unterscheiden, wie der Fall zweier Anwälte in New York zeigt, die eine Geldstrafe erhielten, weil sie ungeprüfte Behauptungen von ChatGPT in ihre Schriftsätze aufgenommen hatten.

Ausblick auf eine verstärkte Regulierung von KI-Anwendungen

Die Untersuchungen der FTC gegen OpenAI markieren einen weiteren Schritt in Richtung einer verstärkten Regulierung von KI-Anwendungen. Datenschutz und der Schutz persönlicher Daten sind wichtige Anliegen, die bei der Entwicklung und Nutzung von KI-Technologien berücksichtigt werden müssen. Es bleibt zu hoffen, dass diese Untersuchungen zu klaren Richtlinien führen, um den Schutz der Privatsphäre und den verantwortungsvollen Einsatz von KI-Systemen zu gewährleisten.

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.