In der EU sorgt die neue KI-Verordnung (AI Act) für Aufsehen – und nicht immer aus den richtigen Gründen. Während die Politik und Unternehmen eifrig daran arbeiten, die komplexe Verordnung umzusetzen, drohen sich bestehende Gesetze in die Quere zu kommen. Der AI Act soll KI-Systeme regulieren und sicherstellen, dass gefährliche Anwendungen in der EU sicher und verantwortungsvoll eingesetzt werden. Doch viele Experten warnen davor, dass die Verordnung mit bestehenden Regelungen kollidiert und somit Unsicherheiten aufwirft. Die EU muss nun schnell handeln, um diese Konflikte zu lösen, bevor die Umsetzung zu einer Hürde für Unternehmen wird.

Die Hürden bei der Umsetzung der KI-Verordnung

Der AI Act verfolgt einen innovativen Ansatz: Er klassifiziert KI-Systeme nach ihrem Risikopotenzial und setzt je nach Gefährdungslage strengere Auflagen. Doch dieser risikobasierte Ansatz ist nicht perfekt. Viele KI-Anwendungen, die unter den AI Act fallen, sind bereits durch andere, bestehende Gesetze geregelt – wie die Datenschutz-Grundverordnung (DSGVO) oder der Digital Services Act (DSA). Das Problem: Diese Gesetze sind oft nicht aufeinander abgestimmt, was zu Überschneidungen und sogar Widersprüchen führen kann.

Besonders problematisch wird es in Bereichen wie der Finanzbranche, dem Gesundheitswesen oder der Automobilindustrie. Ein Beispiel: KI-basierte Kreditbewertungs-Tools oder Systeme zur Krebserkennung könnten durch unterschiedliche rechtliche Anforderungen in ihrer Entwicklung behindert werden. Der AI Act könnte hier in Konflikt mit bestehenden Vorschriften geraten, was die Verbreitung und den Einsatz innovativer KI-Technologien verlangsamen könnte.

Die Gefahr der Unsicherheit: Rechtsvorschriften ohne klare Linie

Was bedeutet das für Unternehmen, die KI-basierte Produkte und Dienstleistungen anbieten? Es entsteht ein rechtliches Minenfeld, in dem unklar ist, welche Gesetze letztlich greifen. Insbesondere die Datenschutzrechte könnten auf der Strecke bleiben. So kritisiert die Bürgerrechtsorganisation Privacy International, dass KI-Modelle wie ChatGPT oder Gemini ohne ausreichende rechtliche Grundlage mit persönlichen Daten trainiert wurden – eine klare Verletzung der DSGVO.

Ein weiteres Beispiel: In der Automobilindustrie, wo KI zunehmend für Fahrassistenzsysteme genutzt wird, könnte der AI Act mit bestehenden Produktsicherheits- und Haftungsregelungen in Konflikt geraten. Unternehmen könnten sich fragen, welche Vorschriften sie befolgen müssen, um nicht in rechtliche Schwierigkeiten zu geraten.

Was muss jetzt passieren?

Die Lösung könnte darin bestehen, bestehende rechtliche Rahmenwerke besser miteinander zu verzahnen. Der AI Act sollte nicht isoliert betrachtet werden, sondern im Einklang mit anderen digitalen Regelungen wie dem DSA und der DSGVO. Eine bessere Abstimmung könnte helfen, die rechtlichen Grauzonen zu klären und Doppelarbeit zu vermeiden.

Kurzfristig sollten nationale Aufsichtsbehörden klare Leitlinien zur praktischen Anwendung der KI-Verordnung herausgeben – vor allem in speziellen Branchen wie der Finanz- oder Gesundheitswirtschaft. Langfristig braucht es eine umfassende Überarbeitung und Anpassung der bestehenden Vorschriften, um eine nachhaltige Harmonisierung zwischen dem AI Act und anderen Gesetzen zu gewährleisten. Eine regelmäßige Überprüfung und Anpassung der Regelwerke an neue technologische Entwicklungen ist ebenfalls dringend erforderlich.

Die EU hat mit dem AI Act einen mutigen Schritt in Richtung Zukunft gemacht. Doch ohne eine präzise, aufeinander abgestimmte Gesetzgebung könnte die Verordnung genau das Gegenteil bewirken und Unternehmen in einem Dickicht aus widersprüchlichen Vorschriften ertrinken. Hier muss dringend nachgebessert werden, bevor wir die Kontrolle über den KI-Markt verlieren und wertvolle Innovationen im Keim ersticken. Klar ist: Die EU steht vor einer gewaltigen Aufgabe – und die Zeit drängt!

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.