Mitarbeiter bei Samsung Semiconductor haben sensible Daten an den KI-Chatbot ChatGPT gesendet, um sich den Alltag zu erleichtern. Dass das ein Sicherheitsrisiko für das Unternehmen darstellt, haben sie anscheinend nicht bemerkt.

Samsung-Mitarbeiter schicken vertrauliche Daten an ChatGPT

Nur kurz nachdem Samsung Semiconductor es seinen Mitarbeitern erlaubt hat, ChatGPT für die Arbeit zu verwenden, schicken diese vertrauliche Daten an den KI-Chatbot. Innerhalb von nur 20 Tagen gab es bereits drei solcher Vorfälle, wie die koreanische Ausgabe des Economist berichtet.

Wie kam es zu dem Datenleck?

Die Mitarbeiter haben Software-Code und andere unternehmensinterne Daten an den Chatbot gesendet, um Fehler zu finden und diese zu beheben. Das ist deshalb problematisch, weil sie so an die Server von OpenAI geschickt werden. Sie befinden sich also außerhalb von Samsungs Netzwerk.

Die Gefahren für Samsungs Halbleiter-Business

Der Chatbot wiederum lernt durch Konversationen mit Nutzern, weshalb es sogar vorkommen könnte, dass der Code oder andere Daten von Samsung unbeabsichtigt bei anderen ChatGPT-Nutzern auftauchen. Beim ersten Vorfall hat ein Samsung-Ingenieur den Code eines proprietären Programms von Samsung an ChatGPT geschickt, um Fehler zu beheben. Dabei handelte es sich um ein streng geheimes Programm, das nicht an die Öffentlichkeit gelangen sollte.

Im zweiten Fall hat ein Mitarbeiter Testmuster in das Chat-Feld von ChatGPT eingetippt und den Bot um Optimierung gebeten. Diese Testsequenzen werden in der Halbleiterbranche genutzt, um Chips zu testen und zu beschleunigen – und sind eine Menge Geld wert.

Im dritten Fall nutzte ein Mitarbeiter den Clove-Assistenten des koreanischen Software-Riesen Naver, um ein Meeting in ein Dokument umzuwandeln. Danach schickte er den Text an ChatGPT, um daraus eine Präsentation zu erstellen.

Chatbots als hilfreiche Arbeitswerkzeuge – aber mit Einschränkungen

Alle Beispiele zeigen, dass ein KI-Chatbot den Mitarbeitern durchaus im Alltag helfen kann. Allerdings sollte dieser nicht mit sensiblen Daten gefüttert werden. Zumindest nicht, wenn der Bot nicht vom eigenen Unternehmen stammt.

Samsungs Reaktion auf das Datenleck und Ausblick für die Zukunft

Dem Economist zufolge denkt Samsung darüber nach, einen eigenen KI-Chatbot zu entwickeln, der den eigenen Mitarbeitern helfen soll. Bis dahin beschränkt das Unternehmen die Länge der Fragen, sie an ChatGPT senden können, auf 1.024 Bytes. Sollten sich weitere Vorfälle ereignen, könnte Samsung den Zugang zum Chatbot auch wieder komplett sperren.

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.