Photo_J / shutterstock.com

Wenn der Report halluziniert: Wie Künstliche Intelligenz zur peinlichen Nummer wurde

Ein Beratungsunternehmen wie Deloitte soll eigentlich Qualität liefern – vor allem, wenn der australische Staat dafür fast eine halbe Million Dollar auf den Tisch legt. Doch stattdessen gab’s offenbar KI-Fantasien, falsche Zitate und fehlerhafte Fußnoten. Jetzt gibt’s ein Teil des Geldes zurück.

Was war passiert? Die Regierung unter Premier Albanese hatte Deloitte beauftragt, das Kontrollsystem des Arbeitsministeriums unter die Lupe zu nehmen – genauer gesagt: ein IT-System, das Sozialhilfeempfänger automatisch bestraft, wenn sie Pflichten verletzen. Der Report, veröffentlicht im Juli 2025, sollte Missstände aufdecken. Und die fand Deloitte auch – etwa fehlende Nachvollziehbarkeit zwischen Gesetz und Anwendung sowie „systemische Defekte“.

Aber es dauerte nicht lange, bis unabhängige Experten bemerkten: Hier stimmt was nicht.

KI statt Klartext: Der Report war ein Mix aus Fakten und Fantasie

Der Skandal flog auf, als Dr. Christopher Rudge von der Universität Sydney genauer hinsah. Er entdeckte erfundene Quellen, falsche Zitate und „Halluzinationen“ – also typische Fehler generativer KI, bei denen sie Dinge erfindet, weil sie keine echte Antwort kennt.

Laut Rudge wurden sogar nicht existierende Gerichtsurteile und akademische Arbeiten zitiert. In der überarbeiteten Version des Berichts wurde das zwar korrigiert – allerdings nicht alles. Manche Fehler wurden durch neue ersetzt: „Anstelle eines erfundenen Zitats stehen jetzt fünf bis acht andere“, so Rudge trocken.

In der aktualisierten Version räumt Deloitte immerhin ein, dass ein KI-Tool genutzt wurde – konkret ein Modell namens GPT-4o von Azure OpenAI. Aber einen Zusammenhang zwischen den Fehlern und der KI wollen sie nicht offiziell bestätigen.

Rückzahlung ja – Verantwortung? Fehlanzeige!

Deloitte gibt das Geld allerdings nicht freiwillig zurück: Nur die letzte Tranche des 440.000-Dollar-Vertrags wird erstattet. Wie viel genau, wird noch bekannt gegeben. Die inhaltlichen Empfehlungen des Berichts sollen laut Regierung dennoch gültig bleiben – trotz aller Pannen.

Die Kritik ließ trotzdem nicht lange auf sich warten. Die australische Senatorin Deborah O’Neill sprach von einem „menschlichen Intelligenzproblem“ bei Deloitte. Ihr bissiger Kommentar: „Vielleicht wäre ein ChatGPT-Abo günstiger gewesen.“

Wenn die Prüfungsinstanz fehlt

Wenn man KI als Ghostwriter für sensible Regierungsanalysen einsetzt, darf man sich über Fantasiequellen und Fehlzitate nicht wundern. Der eigentliche Skandal ist nicht der Einsatz von GPT-4o – sondern, dass niemand geprüft hat, ob die Inhalte stimmen.

Eine halbe Million Dollar für einen Bericht, den man so nicht einmal als Uni-Hausarbeit durchgehen lassen würde? Da ist eine Teilrückzahlung fast schon gnädig. Vielleicht ist das die Zukunft der Beratung: Statt Expertise gibt’s generiertes Halbwissen – und am Ende haftet keiner. KI ist kein Ersatz für echten Sachverstand. Wer blind auf Maschinen setzt, spart nicht – er verliert Glaubwürdigkeit.

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.