Bild: Iryna Imago / shutterstock.com
Verhör durch den Chatbot? So kam die Polizei einem Kinderschänder auf die Spur
Ein Fall aus den USA sorgt aktuell für Aufsehen: Ermittler konnten einen mutmaßlichen Betreiber mehrerer Darknet-Foren enttarnen – nicht etwa durch klassische Polizeiarbeit, sondern mithilfe von ChatGPT. Genauer: Durch die von ihm auf der Plattform gestellten Fragen. In einem bislang einmaligen Vorgang forderte das amerikanische Heimatschutzministerium (DHS) Nutzerdaten direkt von OpenAI an – inklusive aller Konversationen des Verdächtigen mit ChatGPT.
Mit ChatGPT-Protokoll zur Anklage
Wie heise online berichtet, kam der Durchbruch, als ein verdeckter Ermittler sich in einem der Foren mit dem Verdächtigen unterhielt. Der kam dabei auch auf ChatGPT zu sprechen, berichtete von persönlichen Chats und nannte sogar einige seiner Prompts. Was harmlos klang, war letztlich der Schlüssel: Die Ermittler nutzten die Inhalte, um über einen Gerichtsbeschluss an die dazugehörigen Daten bei OpenAI zu kommen.
Dort lagen nicht nur die gesuchten Prompt-Eingaben vor, diese konnten auch mit persönlichen Daten wie Name, Adresse und Zahlungsinformationen verknüpft werden. Damit konnten die Behörden den Mann eindeutig identifizieren – es handelte sich um einen 36-jährigen früheren Mitarbeiter einer US-Militärbasis in Deutschland.
ChatGPT wird zur digitalen DNA
Was diesen Fall besonders brisant macht: Es ist das erste Mal, dass Ermittler sogenannte „Reverse Prompt Requests“ verwendet haben. Dabei geht es nicht mehr darum, was jemand sucht – wie bei Google – sondern was jemand in einen KI-Chatbot eintippt. Die Eingaben wirken wie ein digitaler Fingerabdruck. Jeder hat seine eigene Art zu fragen, zu schreiben, zu denken. Und genau das wird jetzt ausgewertet.
OpenAI musste die Daten laut Gerichtsbeschluss liefern – und tat das auch, offenbar in Form einer Excel-Tabelle. Brisant: Auch wenn diese Daten nicht entscheidend für die Festnahme waren, zeigt der Fall, dass Chatbot-Konversationen inzwischen Teil der digitalen Beweismittel sein können.
Was bedeutet das für dich?
Der Fall sorgt zurecht für Unruhe: Denn wer regelmäßig ChatGPT nutzt, könnte unbewusst eine digitale Spur legen, die sich im Fall der Fälle gegen ihn verwenden lässt. Auch wenn die meisten nichts zu verbergen haben – der Gedanke, dass eigene Fragen an einen KI-Bot analysiert, gespeichert und im Zweifelsfall Behörden übergeben werden, ist unangenehm.
Heise online zitiert den Strafrechtler Jens Ferner und der bringt es auf den Punkt: „Das gesamte Verhalten kann ausgewertet und mittels KI ein Abbild der Persönlichkeit erstellt werden.“ Das sei ein Überwachungspotenzial, das an DNA-Spuren oder sogar an digitales Profiling herankomme.
Kritische Einordnung
Es ist wie so oft: Im Fall der Aufklärung von schwersten Verbrechen hat die digitale Spur im Netz gute Dienste geleistet und kaum jemand wird das Vorgehen in dem genannten Fall kritisieren. Trotzdem schleicht sich ein ungutes Gefühl ein, wenn man sich der Vorgehensweise und der Tragweiter des technisch Möglichen bewusst wird. Denn dieser Fall zeigt: Interaktionen mit Künstlicher Intelligenz sind längst nicht mehr so privat, wie viele denken.
Prompt-Eingaben als digitale Fingerabdrücke? Persönlichkeitsprofile auf Knopfdruck? Wenn selbst kreative Fragen an einen KI-Chatbot letztendlich in der Beweiskette landen können, wird klar: Wir steuern geradewegs in eine Ära der algorithmischen Durchleuchtung.
Und genau hier fängt die echte Diskussion erst an. Es geht nicht darum, Täter zu schützen – sondern die Regeln zu klären, bevor niemand mehr weiß, wo privat aufhört und Überwachung beginnt.




