Ein bahnbrechender Fortschritt in der EU – mit erheblichen neuen Risiken für US-Anbieter und Marktführer

Nach intensiven dreitägigen Verhandlungen hat die EU einen historischen Schritt gemacht: Die Einigung auf den „AI Act“, ein umfassendes Regelwerk für künstliche Intelligenz (KI). Dieses Gesetz soll sicherstellen, dass KI-Systeme, die auf dem europäischen Markt platziert und in der EU verwendet werden, sicher sind und grundlegende Rechte sowie EU-Werte respektieren. Es stellt nicht nur einen Meilenstein für die Zukunft unserer Gesellschaften und Wirtschaften dar, sondern zielt auch darauf ab, Investitionen und Innovationen im Bereich der KI in Europa zu stimulieren. Sieht man sich die Regelungen aber im Detail an, stellt sich – vor allem mit Blick auf die Transparenzregelungen – die Frage, ob das wirklich mit diesem neuen Gesetz so passieren wird:

Transparenz kann zum großen Problem für generative Grundsysteme werden

Die Regulierung von General-Purpose KI (GPAI) Systemen (wie ChatGPT oder Bard) wurde in einem wesentlichen Teil des „AI Act“ nun – nach intensiver Diskussion – neu aufgenommen.  Angesichts der vielfältigen Aufgaben, die KI-Systeme erfüllen können, und der schnellen Erweiterung ihrer Fähigkeiten, wurde vereinbart, dass diese GPAI-Systeme und die darauf basierenden Modelle bestimmten Transparenzanforderungen genügen müssen. Diese Anforderungen wurden ursprünglich vom Europäischen Parlament vorgeschlagen und beinhalten nun mehrere wichtige Aspekte:

  • Technische Dokumentation: GPAI-Systeme müssen eine umfassende technische Dokumentation erstellen. Diese Dokumentation soll detaillierte Informationen über die Funktionsweise, Entwicklung und Anwendung der KI-Systeme bereitstellen.
  • Einhalten des EU-Urheberrechts: Die Systeme müssen die Einhaltung des EU-Urheberrechts bei der Verwendung von Trainingsdaten nachweisen. Dies stellt sicher, dass die Entwicklung von KI-Technologien unter Berücksichtigung bestehender Urheberrechte erfolgt.
  • Detaillierte Zusammenfassungen des Trainingsinhalts: GPAI-Systeme müssen detaillierte Zusammenfassungen über die zur Schulung verwendeten Inhalte bereitstellen. Dies erhöht die Transparenz und ermöglicht ein besseres Verständnis der Grundlagen, auf denen die KI-Systeme ihre Entscheidungen treffen.
  • Adversarial Testing: Dies beinhaltet das Testen der Modelle unter schwierigen Bedingungen, um deren Robustheit und Zuverlässigkeit zu gewährleisten.
  • Berichterstattung über ernsthafte Vorfälle: Die Betreiber müssen der Kommission über ernsthafte Vorfälle, die im Zusammenhang mit dem Einsatz der KI-Modelle stehen, Bericht erstatten.
  • Cybersicherheit: Ein hoher Standard an Cybersicherheit ist für diese Modelle obligatorisch.
  • Berichterstattung zur Energieeffizienz: Die Modelle müssen auch über ihre Energieeffizienz berichten, was im Kontext der Nachhaltigkeit und Umweltfreundlichkeit der KI-Technologie von Bedeutung ist.

Die Einführung der Transparenzanforderungen im „AI Act“ stellt für führende KI-Systeme wie ChatGPT und Bard ein enormes Risiko dar. Diese Systeme, insbesondere ChatGPT 4 mit seinen 1,76 Billionen Trainingsparametern, wurden mit einer riesigen, kaum überschaubaren Datenmenge trainiert. Das ganze völlig ohne die Beteiligung der Urheber oder auch nur eine einzige Erlaubnis oder Lizenz, diese Daten zum Training zu verwenden.

Die neue Gesetzgebung kehrt die bisherige Praxis um: Statt dass Urheber mühsam Urheberrechtsverletzungen nachweisen müssen, liegt nun die Verantwortung bei Unternehmen wie OpenAI, ihre Trainingsdaten offenzulegen. Dies wird eine unfassbare Menge, bisher unbekannter Urheberrechtsverletzungen ans Licht bringen.

Mit der festgelegten Transparenzpflicht wird OpenAI nun direkt mit einer möglichen Flut von Klagen konfrontiert. Diese Herausforderung hat das Potenzial, das Unternehmen sowohl rechtlich als auch wirtschaftlich in eine bedrohliche Lage zu bringen. Die Zukunft wird zeigen, wie OpenAI diese beispiellose Situation bewältigt.

Die weiteren Hauptelemente des vorläufigen Abkommens im Übrigen:

  • Klassifizierung von KI-Systemen: Eine horizontale Schutzschicht, einschließlich einer Hochrisikoklassifizierung, soll sicherstellen, dass KI-Systeme, die keine ernsthaften Grundrechtsverletzungen oder andere signifikante Risiken darstellen, nicht erfasst werden.
  • Verbotene KI-Praktiken: Einige KI-Anwendungen werden als unannehmbar riskant eingestuft und daher in der EU verboten, darunter kognitive Verhaltensmanipulation und Emotionserkennung am Arbeitsplatz.
  • Ausnahmen für Strafverfolgungsbehörden: Unter bestimmten Bedingungen dürfen Strafverfolgungsbehörden Echtzeit-Biometrieerkennungssysteme in öffentlich zugänglichen Räumen verwenden.
  • Allgemeine Zweck-KI-Systeme und Grundmodelle: Neue Bestimmungen wurden hinzugefügt, um Situationen zu berücksichtigen, in denen KI-Systeme für viele verschiedene Zwecke verwendet werden können. Diese sind nun vom AI-Act umfasst, was einer der umstrittensten Punkte im Gesetzgebungsverfahren war,
  • Eine neue Governance-Architektur: Ein KI-Büro innerhalb der Kommission wird eingerichtet, um die fortschrittlichsten KI-Modelle zu überwachen und die gemeinsamen Regeln in allen Mitgliedstaaten durchzusetzen.
  • Transparenz und Schutz der Grundrechte: Vor der Markteinführung eines Hochrisiko-KI-Systems müssen die Bereitsteller eine Bewertung der Auswirkungen auf die Grundrechte durchführen. Die Systematik ist hier an die Datenschutzfolgenabschätzung nach Art. 35 der DS-GVO ausgelegt.
  • Maßnahmen zur Förderung von Innovationen: Der vorläufige Kompromiss sieht eine Reihe von Maßnahmen vor, um ein innovationsfreundliches rechtliches Umfeld zu schaffen und die regulatorische Evidenzbasierung zu fördern.

Nächste Schritte

Nach dem vorläufigen Abkommen wird die Verordnung in den kommenden Wochen im Detail ausformuliert und finalisiert. Dieser Gesamttext wird dann nach einer finalen Abstimmung verabschiedet, so dass mit einer Umsetzung im Laufe diesen Jahre zu rechnen ist.

Fazit

Der „AI Act“ der EU ist ein wegweisender Schritt in Richtung einer sicheren, verantwortungsbewussten und grundrechtskonformen Nutzung von KI. Mit diesem Gesetz positioniert sich die EU als Vorreiter in der globalen Diskussion um die Regulierung künstlicher Intelligenz, wobei ein ausgewogener Ansatz zwischen der Förderung von Innovation und dem Schutz der Bürgerrechte verfolgt wird. Dieses Gesetz könnte als Modell für andere Länder dienen und so den europäischen Ansatz zur Technologieregulierung auf der Weltbühne fördern.

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.