
Microsoft preist Copilot seit Monaten als „sicheren KI‑Assistenten für Unternehmen“ an, aber ein aktueller Vorfall zeigt, wie sensibel und in Wahrheit verschwommen die Grenze zwischen Einhaltung und Nichteinhaltung der Datenschutz-Einstellungen sein kann. Es ist ein Fehler, der in vielen Unternehmen das das Fundament von Vertrauen und Datenschutz ins Wanken bringt.
Copilot Chat hat ohne Erlaubnis vertrauliche E‑Mails analysiert
Was eigentlich unmöglich sein sollte, ist seit Januar beim Copilot-Chat für Unternehmenskunden passiert: Der Microsoft 365 Copilot hatte vertrauliche, geschützte E‑Mails gelesen, sprich automatisch analysiert und zusammengefasst. Die Nachrichten waren dabei von den Unternehmen bewusst mit dem Label „Confidential“ markiert worden, also als vertraulich, sodass sie das KI-System vollständig hätte ignorieren sollen.
Microsoft spricht von einem Bug, der Ende Januar aufgetreten sei und erst Wochen später bemerkt wurde. Ein sehr kritischer Fehler allerdings, der zur Folge hatte, dass IT-Administratoren und Unternehmen unbewusst ohne eigenes Versagen offenbar vertrauliche Informationen an Microsofts Server weitergereicht haben. Sofern diese Unternehmen zu gesetzlichen Compliance-Standards verpflichtet sind, hat dieser Fehler auf Microsofts Seite diese im Prinzip gebrochen. Microsoft hat nicht klar kommuniziert, wie viele Kunden betroffen waren, wie lange der Fehler aktiv war oder wie tief die Analyse der Emails tatsächlich ging. Unternehmen wissen somit auch nicht, ob und insbesondere wie ihre vertraulichen Informationen, Verträge, Personalakten, interne Strategien, von der KI verarbeitet wurden.
Microsoft hatte den Copilot als „Enterprise‑ready“ verkauft und als KI-Werkzeug dargestellt, das Datenschutz ernst nimmt. Dafür gibt es schließlich auch entsprechende Sicherheitsmechanismen, die Unternehmen implementieren können, um Zugriffe durch die KI auf gewisse Daten zu verhindern. Wenn es allerdings bei diesen Mechanismen scheitert, geht Vertrauen in die Technologie verloren.

