オンラインソーシャルゲームでの“暴言ボイスチャット”がある施策で激減したとの報告。悪質度検知AIと“お口チャックの刑”のあわせ技


オンラインマルチプレイ型のゲームにおいて、たびたびプレイヤーや開発者を悩ませる、ボイスチャットにおける暴言(toxic)。ソーシャルゲームプラットフォームである『Rec Room』においては、とある方法でゲーム内における暴言を約70%も削減させることに成功したという。そんな『Rec Room』がおこなった施策について、海外メディアGamesBeatが報じている。

『Rec Room』は、Rec Room社によって提供されているソーシャルゲームプラットフォームだ。PC、コンソール、スマートフォンやVR機器など幅広いプラットフォーム向けに展開されており、クロスプレイにも対応している。同作ではカスタマイズ可能なアバターを作成し、他のプレイヤーと同じ空間でプレイヤーどうしのコミュニケーションや、ゲームなどを楽しむことができる。

そんな『Rec Room』においても、主にボイスチャットを利用したコミュニケーションにおける「暴言」の横行に悩まされてきたという。しかし粘り強い反復と改善により、そうした暴言は、約18か月の間に大いに減少したという。モデレーションチームがいかに暴言と戦い、どのような方法で削減したのか。その内容をRec Roomにおける信頼と安全(Trust and Safety)部門の責任者であるYasmin Hussain氏と、「ToxMod」を提供するModulate社のアカウント管理ディレクターであるMark Frumkin氏がGamesBeatに語っている。

いちばん効く“罰則”

Hussain氏によると、本作におけるモデレーションチームがおこなった最初のステップは、まず本作のボイスチャットにおけるルールを明確にし、その適用範囲をすべてのパブリックルームに広げることであった。これはゲーム側からプレイヤーに望む行動について、判断の一貫性を保つのに役立ったという。

そして次に取り組んだのは、プレイヤーがそのルールを逸脱した場合の、最も効果的な“罰則”が何なのかを明らかにすることであったという。チームは“適切な罰則”を調べるため、『Rec Room』にて、暴言プレイヤーに対しミュートやBANの長さを変えたり、警告のバリエーションを2つ用意したりと、幅広いテストをおこなったようだ。

そういった試行錯誤を踏まえた上で、暴言を減らすために一番効果があったのは「1時間のミュート措置」であったという。Hussain氏によれば、 1時間のミュートはプレイヤーに対し、悪質行為は許されないということを“すぐにわからせる”一番の方法であったと述べている。そして、単に悪質プレイヤーの行動を改めさせるだけでなく、当該プレイヤーをゲームに留まらせる効果もあったと述べている。1時間という長さが、プレイヤーに反省を促し、かつプレイそのものをやめさせない程度の罰則として十分な時間であったのだろう。

一方でHussain氏は違反行為の罰則をおこない、プレイヤーの行動を改めるよう促すだけでは不十分であるとも語っている。 他の善良なプレイヤーが、「自分はコミュニティの基準を守っている」という安心感と肯定感を得るために、実際に悪質プレイヤーが罰を受けているところを見てもらう必要があったそうだ。

そして同氏いわく、『Rec Room』においては多くの違反行為があるものの、実際にそうした行為に手を染めるのはごく一部のプレイヤーに限られているとしている。モデレーションチームは悪質な行為を繰り返す一部プレイヤーの集団とその傾向を追うため、発言内容や頻度、プロフィールの“悪質さ“などを分析。その集団の行動を常に学習し、モデレーションルールを微調整しつづけているという。

AIによる自動分析

そして有害プレイヤーの検知にあたっては、機械学習を利用した音声モデレーションツールである「ToxMod」を導入したという。「ToxMod」はModulate社より提供されているAIサービス。機械学習により、プレイヤー間でおこなわれるボイスチャットから、言葉遣いや、プレイヤーとのやり取りに関するデータをリアルタイムで継続的に分析。最終的に暴言やポリシー違反の発言を自動的に検出することができるようになったという。

「1時間のミュート措置」と「AIによるリアルタイムの検出」のふたつの施策は大いに効果を上げ、『Rec Room』では過去18か月の間に暴言を約70%も減らすことに成功したという。またこれらの施策の結果か、約90%ものプレイヤーが、『Rec Room』のコミュニティは安全であり、楽しいと感じているようだ。暴言の削減により、ユーザーの体験の質も大きく向上したとみられる。

そしてFrumkin氏が語るところでは、機械学習を活用して目指すところは検出・罰則のみにとどまらないようだ。機械学習を利用した施策としては、コミュニティの雰囲気を良くしたり、他のプレイヤーの経験を向上させたりする行動も奨励したいとのこと。たとえばコミュニティ内で、あるメンバーが同じ空間にいる他のメンバーをサポートしていたり、緊迫した状況を和ませるのが上手だったりした場合、そうしたプレイヤーの影響力も高められるようにしたいという。今後の施策として“優良プレイヤー”へのポジティブなフィードバックをおこなうことも示唆したかたちだ。

Hussain氏はそうした可能性も踏まえた上で、「昨日は不可能だと思っていたことが、やってみたら突然可能になる」と、機械学習を使ったモデレーションの利用しやすさ、効率性を大いに評価した。


『Rec Room』の例は、AIによるリアルタイムの暴言の検出が効果を上げたひとつのモデルケースとも言える。なお本作以外にも“有害ボイスチャット”を検出する試みとしては、Unity Technologiesによる「Safe Voice」にて取り組まれてきた(関連記事)。さらに『Call of Duty: Modern Warfare III』では、『Rec Room』同様「ToxMod」を導入したところ、有害なボイスチャットの報告件数が減少したこともアピールされていた(関連記事)。ボイスチャットを採用する他のゲームにおいても、AIの自動検出というアプローチによる暴言の取り締まりが一定の成果を見せており、この動きは広まっていくものとおもわれる。

また「1時間のミュート措置」が、プレイヤーを離脱させずもっとも効果をあげた罰則であったという分析も興味深い。悪質プレイヤーの行動を改めさせつつ、ゲームを離脱させないという絶妙なバランスの罰は、プレイヤーの“更生”すら促すのかもしれない。