Die Fähigkeiten von Künstlicher Intelligenz (KI) sind beeindruckend – doch sie bergen auch Gefahren. Wie nun offiziell bestätigt wurde, haben Cyberkriminelle ChatGPT von OpenAI in mehreren Fällen für die Entwicklung von Schadsoftware eingesetzt. Dies hat das KI-Unternehmen in einem Bericht veröffentlicht, der über 20 Fälle dokumentiert, bei denen ChatGPT in Cyberangriffen und bei der Erstellung von Malware involviert war. Aber wie kam es dazu und was bedeutet das für die Zukunft der Cybersicherheit?
Wie Cyberkriminelle ChatGPT nutzen
Laut dem Bericht „Influence and Cyber Operations: An Update“ haben staatlich geförderte Hackergruppen aus Ländern wie China und dem Iran die Fähigkeiten von ChatGPT ausgenutzt. Dabei ging es nicht nur um die Erstellung von Schadsoftware, sondern auch um die Verbesserung bereits existierender Malware. Vor allem das Debuggen von Malware-Code und das Generieren von Inhalten für Phishing-Kampagnen standen im Fokus. Phishing-Angriffe, bei denen täuschend echte E-Mails oder Webseiten genutzt werden, um an persönliche Daten von Nutzern zu gelangen, konnten durch die Nutzung von ChatGPT noch perfider gestaltet werden.
Die Gruppe „CyberAv3ngers“ aus dem Iran, die in Verbindung mit den Islamischen Revolutionsgarden stehen soll, nutzte ChatGPT für eine noch gefährlichere Aufgabe: Sie erforschten mithilfe der KI Schwachstellen in industriellen Steuerungssystemen. Dies könnte potenziell zu Angriffen auf kritische Infrastrukturen führen, die verheerende Auswirkungen auf ganze Länder haben könnten.
Keine großen Durchbrüche – aber wachsendes Risiko
Obwohl der Bericht von OpenAI bestätigt, dass Cyberkriminelle ChatGPT für ihre Zwecke einsetzen, beruhigt das Unternehmen: Es habe bislang keine signifikanten Durchbrüche bei der Entwicklung von Malware gegeben, die auf den Einsatz von ChatGPT zurückzuführen sind. Auch wurde kein Anstieg von erfolgreichen Malware-Angriffen festgestellt. Dennoch bleibt die Gefahr bestehen, dass die KI-Technologie weiter missbraucht wird und sich die Bedrohungslage in Zukunft verschärfen könnte.
Besonders alarmierend ist, dass ChatGPT auch zur Erstellung von Phishing-Malware genutzt wurde, um Benutzerdaten wie Kontakte, Anrufprotokolle und Standortinformationen zu stehlen. Diese Art von Angriffen stellt eine ernsthafte Gefahr für Privatpersonen, Unternehmen und sogar Regierungen dar.
Haftungsfragen: Wer trägt die Verantwortung?
Ein wichtiger Aspekt in der Diskussion um den Missbrauch von KI-Technologien ist die Frage der Haftung. Wenn ein Chatbot wie ChatGPT für kriminelle Zwecke genutzt wird, wer trägt dann die Verantwortung? Der ehemalige US-Bundesstaatsanwalt Edward McAndrew weist darauf hin, dass Unternehmen wie OpenAI möglicherweise zur Rechenschaft gezogen werden könnten, wenn ihre Technologien zur Begehung von Cyberverbrechen genutzt werden.
Hier wird oft auf den „Communications Decency Act“ (Abschnitt 230) verwiesen. Dieses Gesetz schützt Betreiber von Plattformen, indem es festlegt, dass sie nicht für illegale Inhalte ihrer Nutzer verantwortlich gemacht werden können, solange sie diese nicht selbst erstellt haben. Allerdings könnte dieses Gesetz im Falle von KI-generierten Inhalten – wie zum Beispiel Malware-Code – nicht ausreichen. Da ChatGPT den Schadcode direkt erstellt, könnte OpenAI rechtlich in die Verantwortung genommen werden.
Wie geht es weiter?
Die Veröffentlichung des Berichts zeigt deutlich, dass KI-Technologie sowohl Chancen als auch Risiken mit sich bringt. OpenAI betont, dass sie Maßnahmen ergreifen, um den Missbrauch ihrer Modelle zu verhindern. Dazu gehören unter anderem die Implementierung von Sicherheitsvorkehrungen, die verhindern sollen, dass ChatGPT für illegale Zwecke verwendet wird. Dennoch wird es in Zukunft entscheidend sein, dass Regierungen, Unternehmen und Technologieentwickler zusammenarbeiten, um den Missbrauch von KI zu verhindern und die Cybersicherheit zu stärken.
Fazit: Künstliche Intelligenz wie ChatGPT hat das Potenzial, viele Lebensbereiche zu revolutionieren – aber sie birgt auch Gefahren. Der Bericht von OpenAI zeigt, dass Cyberkriminelle bereits versuchen, diese Technologie für schädliche Zwecke zu nutzen. Obwohl bisher keine großen Durchbrüche in der Malware-Entwicklung durch KI erzielt wurden, muss der Missbrauch von KI-Technologie ernst genommen werden. Es liegt an der Tech-Industrie und der Politik, Wege zu finden, um sowohl Innovation zu fördern als auch Sicherheit zu gewährleisten.