Ein kleines Missverständnis – große Auswirkungen

Jeder Entwickler kennt es: Ein Github-Repository, das eigentlich privat bleiben soll, wird versehentlich öffentlich zugänglich gemacht – sei es durch einen falschen Klick oder eine fehlerhafte Einstellung. Doch was, wenn diese Daten auch nach der Rückstellung auf privat weiterhin für die ganze Welt sichtbar sind? Microsofts KI-Tool Copilot zeigt uns jetzt auf schmerzhafte Weise, wie leicht vertrauliche Informationen kompromittiert werden können, auch wenn die Daten längst nicht mehr öffentlich zugänglich sind.

Die Entdeckung der Sicherheitslücke

Forscher von Lasso stießen auf ein ernstzunehmendes Problem, das nicht nur Entwickler, sondern auch Unternehmen in Gefahr bringen könnte. Sie entdeckten, dass Copilot, ein KI-Tool von Microsoft, Daten aus tausenden von privaten Repositories lesen konnte – selbst, wenn diese eigentlich wieder privat gestellt worden waren. Denn sobald ein Repository einmal öffentlich war, wurde es von Crawlern wie den Bing-Caching-Systemen erfasst. Auch nach der Rückstellung auf privat blieben die Daten über Copilot abrufbar.

Verborgene Gefahren für Unternehmen

Das, was zunächst wie ein kleiner Fehler wirkt, kann für Unternehmen und Entwickler zu einem großen Problem werden. In privaten Repositories befinden sich nicht nur Codes und Dokumentationen, sondern oft auch sensible Unternehmensdaten wie Zugangsschlüssel, Tokens und geistiges Eigentum. Wenn diese Informationen versehentlich offengelegt werden, kann das gravierende Folgen haben – vor allem, wenn sie über Copilot weiterhin zugänglich sind. Und es sind nicht nur kleine Entwicklerteams betroffen: Große Unternehmen wie Google, IBM, Paypal und sogar Microsoft selbst sind in die Liste der Betroffenen aufgenommen worden.

Microsofts Reaktion: Ein verschlafenes Problem?

Microsoft, das Mutterunternehmen hinter Copilot, wurde bereits im November 2024 von den Forschern auf das Problem hingewiesen. Doch anstatt sofortige Maßnahmen zu ergreifen, reagierte das Unternehmen zunächst mit der Einschätzung, dass es sich um ein „geringfügiges“ Problem handele. Zwar entfernte Microsoft einen Monat später die Cache-Links aus Bing, doch die Daten bleiben über Copilot weiterhin zugänglich. Die Frage bleibt: Hat Microsoft die Tragweite dieses Problems wirklich erkannt?

„Geringfügig“ ist in der Welt der Daten ein gefährlicher Begriff

Es ist erschreckend, wie wenig Gewicht Microsoft diesem Vorfall beigemessen hat, obwohl er in einer Zeit, in der Datenschutz immer mehr an Bedeutung gewinnt, von enormer Relevanz ist. Gerade Unternehmen, die auf vertrauliche Informationen angewiesen sind, müssen wachsam bleiben. Ein kleiner Fehler kann hier schnell zu einer großen Katastrophe führen. Die Technologie mag fortschrittlich sein, aber sie kann nur dann Vertrauen schaffen, wenn sie auch ernsthafte Sicherheitsvorkehrungen trifft. Entwickler sollten daher nicht nur die Zugriffsrechte ihrer Repositorien im Blick haben, sondern auch die langfristigen Folgen von ungewollt offengelegten Daten.

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.