In den USA steht das KI-Startup Perplexity im Mittelpunkt einer neuen rechtlichen Auseinandersetzung. Dow Jones und die New York Post werfen dem Unternehmen vor, Urheberrechte und Markenrechte zu verletzen, indem es erfundene Nachrichtenabschnitte generiert und diese fälschlicherweise echten Medien zuschreibt. Doch was steckt hinter diesen Vorwürfen und was könnte dies für die Zukunft von KI-basierten Modellen bedeuten?
Der Vorwurf: Urheberrechts- und Markenrechtsverletzung
Die Verlage Dow Jones (Herausgeber des Wall Street Journal) und die New York Post, beide im Besitz von Rupert Murdochs News Corp, reichten kürzlich Klage gegen das KI-Startup Perplexity im US Southern District of New York ein. Der Hauptvorwurf: Perplexity generiere Textabschnitte, die wie echte Nachrichten klingen, und weise sie irrtümlich den Originalquellen zu. Dies stelle nicht nur eine Verletzung des Urheberrechts, sondern auch des Markenrechts dar.
Perplexity ist bereits zuvor negativ aufgefallen. Anfang des Monats erhielt das Unternehmen eine Unterlassungsaufforderung von der New York Times wegen der unerlaubten Nutzung ihrer Inhalte. Auch Forbes und WIRED berichteten, dass ihre Artikel kopiert und ohne Zustimmung genutzt wurden, woraufhin beide Verlage ebenfalls rechtliche Schritte einleiteten.
Was steckt hinter dem Begriff „Halluzination“?
In der KI-Welt bedeutet „Halluzination“, dass ein Sprachmodell Inhalte erzeugt, die in der Realität nicht existieren. Solche Fehler können besonders problematisch sein, wenn sie Nachrichteninhalte betreffen, da sie falsche Informationen verbreiten und die Glaubwürdigkeit der betroffenen Medien gefährden. Im Fall von Perplexity soll die KI-Software etwa echte Absätze eines Artikels der New York Post übernommen und anschließend fiktive Inhalte über Redefreiheit und Online-Regulierung hinzugefügt haben, die in der Originalquelle nicht zu finden waren.
Laut der Klageschrift schädigen diese Halluzinationen den Ruf der Verlage, da sie Unsicherheit in den Nachrichtenkonsum und den Verlagsprozess bringen. „Perplexitys Halluzinationen, die als authentische Inhalte ausgegeben werden, verwässern den Wert unserer Marken und beeinträchtigen das Vertrauen der Öffentlichkeit“, heißt es in der Beschwerde.
Reaktionen und Parallelen zu anderen Fällen
Robert Thomson, CEO von News Corp, lobte in einem Statement OpenAI als positives Beispiel für den verantwortungsvollen Umgang mit KI-Technologie. Im Gegensatz dazu beschuldigte er Perplexity und andere KI-Unternehmen, Inhalte systematisch zu missbrauchen. Auch die New York Times hat kürzlich eine Klage gegen OpenAI eingereicht und argumentiert, dass das Sprachmodell ChatGPT fälschlicherweise Zitate aus Artikeln des Blattes zugeschrieben hat.
Experten sind sich uneinig, ob der Vorwurf der Markenrechtsverletzung in diesem Fall standhalten wird. Vincent Allen, ein auf geistiges Eigentum spezialisierter Anwalt, hält die Urheberrechtsvorwürfe für stärker, während er bei der Markenrechtsklage skeptisch ist. Er verweist auf den wegweisenden Fall Dastar v. Twentieth Century Fox, in dem der Oberste Gerichtshof entschied, dass „Ursprung“ im Sinne des Markenrechts nicht auf geistige Werke angewendet werden kann.
James Grimmelmann, Professor für Digital- und Internetrecht an der Cornell University, äußerte ebenfalls Zweifel an der Stichhaltigkeit der Markenrechtsklage. Seiner Ansicht nach handelt es sich bei der „Verwässerung“ eines Markenzeichens um die Nutzung eines Zeichens auf eigenen Produkten, was hier nicht der Fall sei.
Was bedeutet das für die Zukunft der KI?
Sollten Verlage vor Gericht beweisen, dass KI-generierte Halluzinationen gegen das Markenrecht verstoßen, könnten KI-Unternehmen vor enormen Herausforderungen stehen. „Es ist praktisch unmöglich zu garantieren, dass ein Sprachmodell niemals etwas Falsches oder Rechtlich Bedenkliches generiert“, erklärt Elizabeth Renieris, eine auf Technologie spezialisierte Rechtsanwältin. Diese juristischen Herausforderungen werfen wichtige Fragen auf: Wie weit können und sollen KI-Systeme reguliert werden? Und wie können Technologieanbieter sicherstellen, dass ihre Modelle die rechtlichen Rahmenbedingungen einhalten?
Die aktuelle Klage gegen Perplexity könnte ein Präzedenzfall werden, der die Art und Weise, wie KI-Unternehmen ihre Algorithmen entwickeln und einsetzen, grundlegend verändert. Sie unterstreicht die Notwendigkeit einer klaren Richtlinie und strengen Aufsicht, um das Gleichgewicht zwischen Innovation und rechtlicher Verantwortung zu wahren. Dies könnte zu einer strengeren Regulierung der KI-Branche führen, die sowohl die Kreativität als auch die Glaubwürdigkeit der durch KI generierten Inhalte sicherstellt.
Letztlich steht nicht nur die technologische, sondern auch die ethische und juristische Verantwortung der KI-Entwickler auf dem Prüfstand. Es bleibt abzuwarten, wie sich die Gesetzgebung entwickeln wird, um mit der rasanten Entwicklung der KI-Technologien Schritt zu halten und gleichzeitig die Integrität und Sicherheit der öffentlichen Kommunikation zu schützen.