Microsoft hat einen neuen Servicevertrag. Tatsächlich ist dieser schon seit 30. September 2023 inkraft und, wer Microsoft-Produkte seitdem nutzt, hat diesen bereits akzeptiert.
Aus allen Richtungen hagelt es Kritik und zu einem Teil ist diese absolut berechtigt. In den Kommentar-Spalten und Foren werden allerdings selten diese Artikel zitiert, welche die wahren Probleme des neuen Servicevertrags objektiv aufzeigen, sondern zumeist falsche Artikel mit reißerischen Headlines und wenig Substanz. In unserem neuen Video haben wir uns einige dieser Behauptungen rund um den neuen Servicevertrag angesehen und einige Mythen rund um den Servicevertrag widerlegt.
Totalüberwachung, GESTAPO-Methoden und Verhaltenskodex
Zu den öfter zitierten Vorwürfen konkret gehört zum Beispiel, dass Microsoft die totale Überwachung aller Nutzer plant und sich mit dem neuen Servicevertrag dieses Recht einräumt. Während sich dies im Servicevertrag in dieser Form nicht belegen lässt, stimmt es tatsächlich, dass Microsoft automatische Systeme und Personen zur Moderation von Inhalten und zur Überprüfung von Verstößen gegen die Richtlinien einsetzen kann. Dies gilt allerdings nur für Microsofts Dienste, also beispielsweise Xbox, OneDrive, Outlook oder Skype, aber nicht für lokale Dateien auf dem Windows-PC.
Aufruf zur Denunziation?
Zudem hat Microsoft nun eine zentrale Stelle eingerichtet, wo Nutzer andere Konten wegen Verstößen gegen diese Richtlinien melden können. Im Servicevertrag heißt es dazu:
ii. Melden eines Anliegens. Sie können bedenkliche Inhalte oder Verhaltensweisen, die gegen unseren Verhaltenskodex verstoßen, hier (https://aka.ms/reportconcerns) melden.“
Es handelt sich hierbei um eine neue Meldestelle, wie es sie bereits seit Jahren bei Google, in Xbox Live, Facebook und den meisten anderen Online-Diensten gibt. Einige Blogs bezeichnen dies als Aufruf zur Denunzierung, womit rachsüchtige Nutzer von Microsofts Diensten ihren „Feinden“ eins auswischen können. Denn, ein Verstoß gegen diesen Verhaltenskodex kann zur Sperre des Microsoft-Accounts führen. Ob man dies allerdings mit GESTAPO-Methoden vergleichen kann? Die Meldemöglichkeit auf Facebook empfand ich nie als Aufruf zur Denunziation, sondern als beinahe einigermaßen hilfreiches Tool gegen die Verbreitung von Fake News oder volksverhetzender Hassrede.
Warum ein Verhaltenskodex?
Was viele Nutzer in Wahrheit am neuen Servicevertrag stört, dürfte konkret der „Verhaltenskodex“ sein. Dabei scheinen sich die meisten Anwender nicht so sehr an den darin formulierten Vorgaben stören, sondern wohl eher an der Wortwahl: Niemand will von seinem Email-Anbieter einen „Verhaltenskodex“ vorgeschrieben bekommen.
Was darin tatsächlich vorgeschrieben ist, dürften die meisten Nutzer allerdings ohnehin erwartet haben. Grob zusammengefasst: „Nehmen Sie keine unrechtmäßigen Handlungen vor“, „unterlassen Sie Handlungen, durch die Kinder ausgenutzt werden“ sowie Betrugsversuche und „versenden Sie keinen Spam“. Unrechtmäßig zu handeln, also per Definition „nicht dem Recht entsprechend“, damit dürfte jeder Nutzer einverstanden sein. Es gibt allerdings in diesem Verhaltenskodex eine fragwürdige und vage Vorschrift:
3.a.iv. Unterlassen Sie es, unangemessene Inhalte oder andere Materialien (das z. B. Nacktdarstellungen, Brutalität, Pornografie, anstößige Sprache, Gewaltdarstellungen, Selbstverletzung oder kriminelle Handlungen zum Inhalt hat) zu veröffentlichen, zu generieren oder über die Dienste zu teilen.
Darf ich in einer privaten Email niemanden mehr ****** nennen?
Dabei der größte Kritikpunkt betrifft die in Klammer erwähnte „anstößige Sprache“, welche im Verhaltenscodex von Microsofts Diensten untersagt ist. Dieser Absatz ist allerdings nicht neu. Er war auch im alten Servicevertrag enthalten und regelte hauptsächlich das Verhalten von Nutzern auf Xbox Live, aber gilt neuerdings auch für Microsofts KI-Dienste, welche bislang nicht in diesem Umfang vom Servicevertrag umfasst waren.
Im Anschluss wird nämlich etwas konkretisiert, wie Nutzer nicht mit den KI-Diensten von Microsoft umgehen sollen. Dies ist in Paragraf 3 in den Absätzen 6 und 7 des Servicevertrags definiert. Microsoft verbietet das „Jailbreaken“ seiner KI-Dienste und das Umgehen von Beschränkungen. Dazu gehört beispielsweise, die KI vom Generieren von Malware zu überzeugen oder das System zu benutzen, um Captchas auf Webseiten zu lösen. Nutzer sollen sich zudem nicht an der Verbreitung von Viren beteiligen, die „für Sie, die Dienste oder andere schädlich sind.“
Die „Tay“-Klausel
Insbesondere in diesem Absatz scheint sich Microsoft vor allem absichern zu wollen gegen den Missbrauch seiner AI-Dienste. Konkreter: Der Konzern will sicherstellen, dass man Nutzer (temporär) oder permanent bannen kann, die Microsofts KI nicht so benutzen, wie Microsoft das von uns haben will. Speziell der Fokus darauf, den Diensten nicht zu schaden, wird beim Lesen des Verhaltenskodex sehr evident.
Während natürlich einigermaßen vage formuliert, erinnern die vielen Klauseln zum Missbrauch an Microsofts Twitter-Chatbot Tay. Dieser wurde mit den Antworten von Nutzern auf Twitter trainiert und dies endete in einem absoluten Debakel für Microsoft. Zahlreiche Nutzer im Internet haben in Bezug auf KI-Dienste keine ehrlichen Absichten, geht es mittlerweile ganzen Communitys auf Facebook und nicht mehr nur 4chan darum, die KI-Chatbots auf Rassismus, Xenophobie und Hass zu trainieren oder mit den Bildergeneratoren fragwürdiges Material zu produzieren. Im Vergleich zu Microsoft Tay, wo dies eine relativ kleine Gruppe an Internet-Trollen auf 4chan begonnen hatte, gibt es mittlerweile Facebook-Gruppen mit zehntausenden Mitgliedern, wo es einzig und allein darum geht, fragwürdige Inhalte von Microsofts KI-Diensten generieren zu lassen.
Microsoft hat seine neuen Dienste zwar wesentlich strenger gegen diese Art von Missbrauch abgeriegelt, will sich aber offenbar mit dem Servicevertrag auch das Recht sichern, Nutzer von seinen Diensten auszuschließen, welche diese Sicherheitsmaßnahmen zu umgehen versuchen. Obwohl somit der Absatz mit der anstößigen Sprache nicht neu ist, könnte sich dieser zukünftig auch auf KI-Dienste beziehen und zum Ausschluss sorgen, wenn man fragwürdige oder anstößige Inhalte einmal zu viel in den Bildgenerator tippt.
Wie trainiert Microsoft seine KI?
Rund um den Bildgenerator stellen sich allerdings auch andere Fragen: Künstliche Intelligenz wird von den meisten Unternehmen wie eine proprietäre Technologie behandeln, sodass weder die Modelle selbst, noch die Daten, welche zum Training der AI benutzt werden, dem Nutzer oder der Öffentlichkeit bekannt sind. Künstliche Intelligenz ist noch in ihren Kinderschuhen und rechtlich ist zumindest in den USA bislang nicht einmal geklärt, ob die Nutzung von urheberrechtlich geschütztem Material zum Training von Künstlicher Intelligenz nicht unter die „Fair Use“-Richtlinien des Urheberrechts fällt. Während alle anderen Bedingungen für die faire Nutzung rechtlich dagegen sprechen, argumentieren einige Entwickler damit, dass man bei KI-generierten Bildern durchaus von „transformativen“ Werken sprechen könnte. Es ist rein rechtlich bereits eine spannende Diskussion.
Die Frage, die sich insbesondere aus Nutzersicht stellt, lautet allerdings, ob Microsoft unsere Nutzerdaten aus den Diensten zum Training von KI-Modellen verwendet. Die Mozilla Foundation hat hierzu laut eigenen Angaben „4 Jurist*innen, 3 Datenschutzexpert*innen und 2 Aktivist*innen“ befragt, welche darauf keine Antwort liefern konnten. „Keinem der Profis gelang es, dem Dokument zu entnehmen, ob Microsoft plant, Ihre persönlichen Daten – darunter Audio- und Videodaten, Chatprotokolle und Dateianhänge aus 130 Produkten wie Office, Skype, Teams und Xbox – zum Training seiner KI-Modelle zu nutzen.“, schreiben die Macher des Firefox-Browsers auf ihrer offiziellen Kampagnenseite.
Im Servicevertrag ist davon tatsächlich nicht die Rede. Einen konkreten Satz, dass sich Microsoft das Recht vorbehält, Nutzerdaten für das Training von KI-Diensten zu benutzen, findet sich im Servicevertrag nicht. Wenn dies laut Mozilla vier Juristen nicht einschätzen können, ob dies dennoch geschieht, dann kann ich das dementsprechend noch weniger.
Die einzige Erwähnung in diesem Zusammenhang findet sich in Absatz 13.Q.4. des Servicevertrags, der die „Nutzung Ihrer Inhalte“ regelt. Darin heißt es im Wortlaut:
4. Nutzung Ihrer Inhalte. Im Rahmen der Bereitstellung der KI-Dienste verarbeitet und speichert Microsoft Ihre Eingaben in den Dienst sowie Ihre Ausgaben aus dem Dienst, um missbräuchliche oder schädliche Nutzungen oder Ausgaben des Dienstes zu überwachen und zu verhindern.
Hier sichert sich Microsoft also das Recht, Eingaben und Ausgaben von Nutzern zu speichern, welche diese in die KI-Dienste eingeben und das, um missbräuchliche oder schädliche Nutzungen des Dienstes zu überwachen und zu verhindern. Vom Training ist da zumindest keine Rede.
Urheberrechtsverletzung durch Microsofts KI ausgeschlossen
Ebenfalls ein interessanter Abschnitt des Servicevertrags ist der Paragraf 3 Absatz 8, worin Ansprüche Dritter geklärt werden gegen Nutzer, die Microsofts Dienste benutzen. Kurzgesagt: Nutzer sind selbst für jegliche Inhalte verantwortlich, welche Microsofts künstliche Intelligenz generiert. Wer Inhalte benutzt, die gegen das Urheberrecht verstoßen, ist selbst dafür verantwortlich. Dass die Nutzer weder darüber entscheiden, noch wissen können, mit welchen Daten die Modelle trainiert wurden, scheint da keine Rolle für den Servicevertrag zu spielen.
5. Ansprüche Dritter. Sie sind allein dafür verantwortlich, auf etwaige Ansprüche Dritter bezüglich Ihrer Nutzung der KI-Dienste in Übereinstimmung mit den geltenden Gesetzen zu reagieren (einschließlich, aber nicht beschränkt auf Urheberrechtsverletzungen oder andere Ansprüche im Zusammenhang mit der Inhaltsausgabe während Ihrer Nutzung der KI-Dienste).