Nachrichten / Spiele

ToxMod verwendet KI, um beleidigende Sprache im Live-Voice-Chat abzuspielen

Die Bekämpfung der Toxizität in Multiplayer-Spielen bereitet Entwicklern weiterhin Kopfzerbrechen: Ubisoft versucht seit Jahren, die Spielertoxizität in Rainbow Six Siege zu reduzieren, Valve versuchte, giftige Dota 2-Spieler einzuschränken und zu verbieten, und EA hat Tausende von Assets aus seinen Spielen entfernt hofft, ein positiveres Umfeld zu schaffen. Jetzt hat ein in Boston ansässiger Softwareentwickler ein Tool auf den Markt gebracht, das zu erheblichen Fortschritten beitragen könnte.

Das Tool heißt ToxMod und ist eine Software, die maschinell lernende künstliche Intelligenz verwendet, um toxische Kommunikation während Online-Spielsitzungen zu identifizieren. ToxMod erkennt Sprachmuster und betrachtet Wellenformen, um nicht nur zu sagen, was Spieler sagen, sondern auch, wie sie es sagen – und es kann beleidigende Sprache live „ausloten“.

Das Konzept von ToxMod entstand aus der Arbeit von Mike Pappas und Carter Huffman und ihrer Firma Modulate, die sie gründeten, nachdem sie sich während ihres Physikstudiums am MIT kennengelernt hatten. Pappas sagt, sie hätten sich an einem Whiteboard getroffen, um ein physikalisches Problem zu lösen, und schnell beschlossen, gemeinsam ein Unternehmen zu gründen, nachdem sie festgestellt hatten, dass sie Probleme auf komplementäre Weise angingen.

„Als großartige Spieler hatte das Spiel von Anfang an Priorität für uns“, erzählt uns Pappas. „Als wir anfingen, dort über Anwendungen nachzudenken, dachten wir an den Erfolg von Fortnite und anpassbare Skins und all diese Tools für mehr Immersion und mehr Ausdruckskraft in Spielen.

Ihre erste große Idee bestand darin, Skins für Spielerstimmen zu erstellen: „kosmetische“ Verbesserungen, mit denen Spieler ihren Klang im Voice-Chat ändern konnten. Aber Pappas sagt, dass sie bei der Beratung mit Spieleentwicklern über die Verwendung von Sprach-Skins immer wieder gehört haben, wie Studios darum kämpften, Möglichkeiten zu finden, Spieler mithilfe von Voice-Chat sicherer zu machen – die Toxizität hinderte sie daran, einen Helm mitzunehmen. .

Eine Gruppe Möchtegern-Diebe mit brandneuen GTA Cayo Perico Heist-Waffen.

Dies veranlasste Modulate dazu, nach Möglichkeiten zu suchen, die von ihm entwickelte maschinelle Lerntechnologie zu nutzen, um mehr Spielern ein sichereres Online-Gefühl zu geben. Durch die Verwendung von Stimm-Skins könnte jemand sein Alter, sein Geschlecht, seine ethnische Zugehörigkeit oder alles andere verbergen, was ihn zum Ziel von Online-Belästigung machen könnte. Pappas sagte, Modulate wolle jedoch größer denken – sie wollten eine „komplette Lösung für dieses Voice-Chat-Problem“ schaffen.

„Eine große Sache, die in unseren Studiogesprächen aufkam, waren Fragen wie: Könntest du live fluchen?“ er sagt. „Oder könnten Sie erkennen, ob jemand jemanden belästigt, und unser Team darauf aufmerksam machen?“

Lesen Sie mehr: Wie Sea of ​​​​Thieves von Natur aus antitoxisch ist

Mithilfe bereits entwickelter Technologie hat Modulate ToxMod entwickelt, das mithilfe von KI Sprachwellenformen scannt und nicht nur erkennen kann, was Spieler sagen, sondern auch, wie sie es sagen. Der Algorithmus ist ausgereift genug, um Nuancen in der menschlichen Sprache zu erkennen, Aggressionsspitzen zu erkennen und im Handumdrehen entsprechend zu reagieren.

Das ToxMod SDK ermöglicht es Entwicklern, die Technologie direkt in ihre Spiele zu integrieren, wobei ein Großteil der Filterung auf der Client-Seite stattfindet, erklärt Pappas. Eine weitere Filterebene findet auf der Serverseite statt, hier kann „Graubereich“-Sprache markiert und bei Bedarf von einem menschlichen Moderator behandelt werden, aber im Laufe der Zeit lernt die KI von ToxMod, immer mehr Fälle ohne menschliches Eingreifen zu bewältigen. Entwickler können ToxMod an die spezifischen Bedürfnisse ihrer Spiele und Communitys anpassen und geeignete Schwellenwerte für diese Einstellung und Zielgruppe auswählen.

Bestes Warzone-ISO-Loadout

„Inwieweit wollen Sie gewalttätige Äußerungen als potenzielle Bedrohung einstufen? Wenn Sie Call of Duty spielen, ist das vielleicht weniger wichtig, es sei denn, es ist extrem schlecht“, sagt Pappas. „Wenn Sie dagegen Roblox spielen, ist es vielleicht ein Problem, egal was passiert.“

ToxMod fungiert auch als Vorhersagetool und kann auch die Reputation von Spielern verwalten. Es untersucht, was im Spiel passiert, sowie die Sprache, die es analysiert, und ermöglicht so relativ schnell festzustellen, ob ein Spieler unter bestimmten Umständen, etwa einer Niederlagenserie oder einem Teamangriff, anfälliger für toxisches Verhalten wird. Dies bedeutet, dass es den Matchmaking-Servern eines Spiels Empfehlungen geben kann, die dazu beitragen können, dass diese Umstände überhaupt nicht auftreten.

In ihrer Frustration fangen sie an, sexistische Dinge zu sagen. Ist es schlimm? Absolut. Darüber möchten wir zum jetzigen Zeitpunkt noch berichten.

Mike Pappas

Mitbegründer und CEO von Modulate

„Was wir wirklich herausfinden wollen, ist, ob jemand die letzten fünf Spiele verloren hat und super, super frustriert ist und sich mit ein paar Frauen zusammenschließt, die neu im Spiel sind, und in ihrer Frustration dass sie kurz davor sind, das Spiel zu verlieren, fangen sie an, sexistische Dinge zu sagen“, sagt Pappas. "Ist es schlimm? Absolut. Wir wollen dies vorerst noch melden, weil diese Frauen gerade eine schlechte Zeit durchmachen, und wir müssen dies vorerst unbedingt stoppen. Aber in Bezug auf die Auswirkungen auf diesen Schauspieler werden Sie möglicherweise nicht für 30 Tage gesperrt.

„Stattdessen könnte es sein, dass wir erfahren haben, dass es Ihnen sehr schnell schlechter ging, und als Sie die letzten paar Runden verloren haben, sollten wir dem Matchmaking-System vielleicht raten: ‚Hey, werfen Sie diesem Kerl einen Knochen, geben Sie ihm etwas mehr Erfahrung.‘“ Teamkollegen zu gewinnen, um ihn in einem emotionalen Zustand zu halten, in dem er wahrscheinlich nicht vor Leuten explodiert.

YouTube-Miniaturansicht

Jedes Spiel und seine Spielergemeinschaft sind ein Einzelfall mit spezifischen Anforderungen, und laut Pappas kann ToxMod mit Entwicklern zusammenarbeiten, um die Software so zu verfeinern, dass sie diese Anforderungen erfüllt. Modulate ist noch nicht bereit, offizielle Partnerschaften bekannt zu geben, befindet sich jedoch in Gesprächen mit Mitgliedern der Fair Play Alliance, einer Koalition von Spieleherausgebern und -entwicklern, die sich für die Förderung gesunder Gemeinschaften einsetzen. Zu dieser Gruppe gehören Epic Games, EA, Riot, Roblox, Blizzard und Ubisoft.

„Wir wollen den Voice-Chat reparieren“, sagte Pappas. „Wir können vorbeikommen und ihnen nicht nur ein Tool zur Verfügung stellen, sondern auch mit ihnen zusammenarbeiten und sagen, dass wir über diese Tool-Suite verfügen, die es uns ermöglicht, Ihr Voice-Chat-Erlebnis wirklich so zu gestalten, wie Sie es brauchen, und es Ihnen ermöglicht, es wirklich zu gestalten.“ Ich bin mir sicher, dass es insgesamt die reichhaltige Erfahrung sein wird, die es sein sollte. »

Weitere Informationen zu ToxMod finden Sie auf der offiziellen Modulate-Website. Laut Pappas ist es heute einsatzbereit. Modulate hat das Tool am 14. Dezember offiziell eingeführt.

„ToxMod kann morgen von jedem Spieleentwickler angeschlossen werden und er kann damit beginnen, sich alle Audiodaten anzuschauen, die es verarbeitet“, sagt er. „Die Technologie ist bereit. Wir arbeiten hart daran, einige dieser ersten Integrationen umzusetzen – es wird also mit Sicherheit ein aufregendes Jahr.