Xbox

Xbox veröffentlicht zweiten Transparenzbericht, der die entscheidende Rolle der proaktiven Inhaltsmoderation zeigt

Angesichts einer wachsenden Community von über 3 Milliarden Spielern weltweit ist es für die Förderung einer sicheren und integrativen Online-Umgebung von entscheidender Bedeutung, weiterhin in Vertrauen und Sicherheit zu investieren. Der Schutz von Spielern vor Schaden ist ein wesentlicher Bestandteil des Xbox Safety-Teams und unserer Arbeit. Spieler sehen oft nicht alle im Hintergrund laufenden Content-Moderationsmaßnahmen, die dazu beitragen, ihr Erlebnis sicherer und einladender zu machen, oder wissen nichts davon. Heute veröffentlichen wir unser zweites Xbox-TransparenzberichtDarin werden die laufenden Bemühungen zum besseren Schutz unserer Spieler detailliert beschrieben und unsere Sicherheitsmaßnahmen in Aktion veranschaulicht.

Unsere vielfältige Sicherheitssuite umfasst unsere proaktiven und reaktiven Moderationsbemühungen, Community-Standards, Kindersicherungs- und Familienkontrollen wie die Xbox-App „Familieneinstellungen“ und unsere laufende Zusammenarbeit mit Industriepartnern und Aufsichtsbehörden. Unsere entscheidenden Investitionen in die Inhaltsmoderation kombinieren KI und von Menschen betriebene Technologien, um Inhalte abzufangen und zu filtern, bevor sie Spieler erreichen und beeinträchtigen. Wir verwenden eine Reihe von Metriken, die uns den Umfang, die Geschwindigkeit und den Umfang geben, um die wachsenden Interaktionen und Aktivitäten unserer Spieler zu verfolgen. Wie im Transparenzbericht erwähnt, wurden 80 % (8,08 Millionen) der Gesamtzahl der Anträge in diesem Zeitraum durch unsere proaktiven Moderationsbemühungen gestellt. Die Daten veranschaulichen die Auswirkungen dieses Ansatzes.

Da sich die Bedürfnisse der Gamer ständig weiterentwickeln, entwickeln sich auch unsere Tools weiter. Die Sicherheit unserer Spieler hat oberste Priorität – und um sichere Online-Erlebnisse zu fördern, werden wir weiterhin in Innovationen investieren, eng mit Industriepartnern und Regulierungsbehörden zusammenarbeiten und Feedback einholen. Community-Feedback. Wir freuen uns darauf, mehr zu teilen.

Infografik zum Transparenzbericht

Zu den wichtigsten Erkenntnissen aus dem Bericht:

  • Proaktive Maßnahmen sind ein Schlüsselfaktor für sicherere Spielerlebnisse. In dieser Zeitspanne, 80% aller unserer gesamten Durchsetzungsmaßnahmen sind das Ergebnis unserer proaktiven Moderationsbemühungen. Unser proaktiver Moderationsansatz umfasst sowohl automatisierte als auch menschliche Maßnahmen, die Inhalte filtern, bevor sie die Spieler erreichen. Automatisierte Tools wie Community Sift verarbeiten Text, Videos und Bilder und erfassen anstößige Inhalte in Millisekunden. Allein im vergangenen Jahr hat Community Sift 20 Milliarden menschliche Interaktionen auf der Xbox ausgewertet. Es wurden auch proaktive Maßnahmen erkannt und dagegen angewendet 100% Kontomanipulation, Hacking, Phishing und Betrug/nicht authentische Konten.
  • Verstärkter Fokus auf unangemessene Inhalte. Wir verstehen, dass sich die Bedürfnisse unserer Spieler ständig ändern, und wir hören weiterhin auf das Feedback der Spieler dazu, was auf der Plattform gemäß unseren Community-Standards akzeptabel ist und was nicht. In dieser letzten Zeit haben wir unsere Definition von vulgären Inhalten um beleidigende Gesten, sexualisierte Inhalte und groben Humor erweitert. Diese Art von Inhalten wird im Allgemeinen als geschmacklos und unangemessen angesehen und beeinträchtigt für viele unserer Spieler das grundlegende Spielerlebnis. Diese Richtlinienänderung, gepaart mit Verbesserungen unserer Bildklassifikatoren, hat zu einem geführt 450 % Steigerung bei der Anwendung vulgärer Inhalte, mit 90,2% proaktiv moderiert werden. Diese Durchsetzungsmaßnahmen führen häufig zur einfachen Entfernung unangemessener Inhalte, was sich in der widerspiegelt 390 % Steigerung in „nur Inhalt“-Anwendungen während dieses Zeitraums.
  • Kontinuierlicher Fokus auf nicht authentische Konten. Unsere proaktive Moderation, auf dem Vormarsch 16,5x aus der gleichen Zeit des letzten Jahres ermöglicht es uns, negative Inhalte und Verhaltensweisen zu erkennen, bevor sie die Spieler erreichen. Das Xbox Safety Team hat veröffentlicht 7.51M proaktive Durchsetzung gegen unechte Konten, vertretend 74% die Gesamtzahl der Hinrichtungen während des Bezugszeitraums (statt 57% letzte Berichtsperiode). Bei nicht authentischen Konten handelt es sich in der Regel um automatisierte oder von Bots erstellte Konten, die ungleiche Wettbewerbsbedingungen schaffen und sich negativ auf das positive Spielerlebnis auswirken können. Wir investieren weiterhin in unsere Technologie und verbessern sie, damit Spieler sichere, positive und einladende Erfahrungen machen können.

Auf der ganzen Welt arbeitet unser Team weiterhin eng mit wichtigen Industriepartnern zusammen, um an unserem Sicherheitsansatz zu arbeiten, einschließlich verstärkter Schulungen und der Verbesserung unserer Sicherheitsmaßnahmen, um die Standards zu übertreffen:

Gemeinsam schaffen wir eine Community, in der jeder Spaß haben kann. Jeder Mensch, egal ob neuer Spieler oder erfahrener Profi, trägt dazu bei, eine positivere und einladendere Community für alle aufzubauen. Spieler-Feedback und Berichte helfen uns, unsere Sicherheitsfunktionen zu verbessern. Wenn Ihnen etwas Unangemessenes auffällt, melden Sie es bitte – ohne Sie könnten wir es nicht schaffen!

Einige zusätzliche Ressourcen: