Xbox hat kürzlich den dritten Transparency Report veröffentlicht. Dieser bietet Einblicke und Daten über die Bemühungen von Xbox, eine sichere und inklusive Umgebung für Gamer zu schaffen. Dazu gehört unter anderem die Kombination von menschlichen und KI-basierten Einflüssen, die auf unserer bisherigen Arbeit aufbaut.

Xbox verfolgt weiterhin das Ziel, allen eine sichere und inklusive Plattform zu bieten. Dafür setzt Xbox präventive Massnahmen ein, um unerwünschte Inhalte oder Verhaltensweisen auf der Plattform zu begrenzen. Rund 87 Prozent (17.09 Mio.) der gesamten Durchsetzungsmassnahmen in diesem Zeitraum resultieren aus unseren proaktiven Moderationsbemühungen.
Die Highlights aus dem Report (Januar bis Juni 2023)
Der verantwortungsvolle Einsatz von KI zur Vermeidung von unangemessenem Verhalten: Wir nutzen KI-Modelle wie Community Sift und Turing Bletchley v3 zur Erkennung schädlicher Inhalte. Community Sift basiert auf menschlichen Erkenntnissen und analysiert Milliarden menschlicher Interaktionen zur Verbesserung der Sicherheit auf Xbox. Turing Bletchley v3 ist ein mehrsprachiges Modell, das nutzergenerierte Bilder scannt, um die Anzeige angemessener Inhalte sicherzustellen.
Neue Erkenntnisse zur Anzahl der blockierten Inhalte: Um unseren Erfolg bei der Verhinderung schädlicher Inhalte zu messen, haben wir einen neuen Datensatz namens "Toxicity Prevented" eingeführt. In einem kürzlich gemessenen Zeitraum wurden über 4.7 Millionen Inhalte blockiert, bevor sie die Spieler erreichen konnten, was einem Anstieg von 135'000 (+39% im Vergleich zum vorherigen Zeitraum) bei visuellen Inhalten entspricht. Dieser Erfolg wurde durch die Verwendung des neuen Turing Bletchley v3 Foundation-Modells ermöglicht.
Gesteigertes Engagement im Umgang mit Belästigungen: Xbox arbeitet aktiv daran, jegliches missbräuchliche Verhalten, einschliesslich Hatespeech, Mobbing und Belästigung, zu erkennen und zu bekämpfen. Zu diesem Zweck wurden die internen Prozesse verbessert, um die proaktiven Durchsetzungsmassnahmen zu fördern. So wurden 84'000 proaktive Durchsetzungsmassnahmen gegen Belästigung/Mobbing erlassen (+95 % gegenüber dem letzten Zeitraum).
Verständnis des Verhaltens der Spieler: Unsere Bemühungen zur transparenteren Kommunikation unserer Community-Standards umfassen verschiedene Massnahmen: Eine davon besteht darin, das Verhalten nach Erteilung von Ermahnungen zu analysieren. Erste Erkenntnisse deuten darauf hin, dass die Mehrheit die Community-Standards nach einer Ermahnung nicht verletzen und sich positiv in der Community engagieren.