„Yippie-Ya-Yeah“ nur mit Erlaubnis
Ein skurriler, aber wegweisender Fall: Ein YouTuber hat mithilfe von Künstlicher Intelligenz (KI) die unverkennbare Stimme von Manfred Lehmann, dem deutschen Synchronsprecher von Bruce Willis, nachgeahmt. Eine Zustimmung hat er vorab nicht eingeholt. Die künstlich erzeugte Stimme tauchte in zwei Videos des YouTubers auf – und klang so überzeugend, dass viele Zuschauer dachten, Lehmann habe sie selbst eingesprochen. Hat er aber nicht.
Jetzt hat das Landgericht Berlin II (Az. 2 O 202/24) entschieden: Das geht so nicht. Die Nutzung der KI-Stimme verletzt das Recht an der eigenen Stimme, ein Teil des allgemeinen Persönlichkeitsrechts. Der YouTuber muss zahlen – und zwar 4.000 Euro an fiktivem Honorar.
Stimme ist nicht gleich Stimme – oder doch?
Das Gericht stellte klar: Zwar handle es sich technisch nicht um die echte Stimme von Lehmann, sondern um eine KI-imitierte Version, aber das sein nicht ausschlaggebend. Denn die Stimme wurde gezielt so gestaltet, dass sie möglichst ähnlich klingt – und das führt zur Verwechslungsgefahr. In den Kommentaren zu den Videos schrieben viele Zuschauer, sie seien sicher, die Stimme stamme von Lehmann.
Das Gericht argumentierte, dieser „Stimmenklau“ sei nicht anders zu bewerten als die Nachahmung durch einen professionellen Stimmenimitator. Ob Mensch oder Maschine – entscheidend sei, wie die Stimme beim Publikum ankommt. Und wenn dort der Eindruck entsteht, Lehmann habe mitgewirkt, ist die Sache klar: Persönlichkeitsrecht verletzt.
Satire hin oder her – Reputation bleibt geschützt
Der YouTuber rechtfertigte sich damit, dass die Videos satirisch seien und Kritik an der Politik der Bundesregierung übten – also künstlerische Meinungsäußerung. Doch das Gericht ließ das nicht gelten. Denn die Stimme von Lehmann wurde nicht zur satirischen Überspitzung, sondern zur authentischen Aufwertung der Inhalte genutzt – inklusive Verlinkung zu einem Online-Shop.
Noch pikanter: Der YouTuber sei laut Gericht „offenbar eher rechts einzuordnen“. Dass seine Videos durch die markante Stimme eine falsche Nähe zu Lehmann suggerierten, könne diesem massiv schaden. Die Verwendung der KI-Stimme ohne Kennzeichnung sei ein zusätzlicher Reputationsschaden.
Die Stimme gehört dem Menschen – nicht der KI
Wir glauben: Was hier passiert ist, dürfte nur der Anfang sein. Denn der Fall zeigt sehr deutlich: Nur weil eine KI etwas kann, heißt das noch lange nicht, dass sie es darf. Die Stimme eines bekannten Menschen ist genauso geschützt wie sein Gesicht – und darf nicht einfach kopiert werden, egal ob per Deepfake oder Audio-KI.
Es braucht klare Grenzen, und dieses Urteil zieht eine wichtige Linie: Wer eine bekannte Stimme nutzt, braucht deren Zustimmung – ob analog oder digital.