『CoD: MW III』公式、「有害ボイスチャット」遭遇率が減少したと報告。AIによる検出機能導入後の減少傾向をアピール

 

Activisionは日本時間1月24日、『Call of Duty: Modern Warfare III』(以下、CoD: MW III)において、有害なボイスチャットなどに代表される妨害行為に対する取り組みの成果を公表した。AIを用いた妨害行為の検出機能が導入された本作では、発売以降再犯率の減少や妨害を受けたプレイヤー数の減少が見られるといい、新機能が一定の成果を上げている可能性もうかがえる。


『CoD: MW III』は、2022年発売のFPS『Call of Duty: Modern Warfare II』(以下、CoD: MW II)に続く作品となる。開発はInfinity Ward との協力のもと、Sledgehammer Gamesが主導で手がけている。『CoD: MW III』のキャンペーンモードでは、『CoD: MW II』の直後の物語が用意されている。ジョン・プライス大尉とタスクフォース141が“超国家主義者”と謳われるウラジミール・マカロフとの戦いに挑むことになる。

一方マルチプレイモードではチームデスマッチ(TDM)をはじめとするさまざまなゲームモードで対戦可能だ。ほか、基本プレイ無料のバトルロイヤル作品『Call of Duty: Warzone』(以下、CoD: Warzone)も『CoD: MW III』発売に合わせてアップデートされている。


そんな本シリーズについて、Activisionが日本時間1月24日、有害行為に対する新たな取り組みの結果を公式ブログにて報告した。というのもActivisionは2023年8月に、新作となる『CoD: MW III』内に、ボイスチャットにおける有害行為をAIで判定し検出/記録する機能を導入すると明らかにしていた。これはModulate社の提供する技術「ToxMod」を用いて、ヘイトスピーチや差別、ハラスメントなどの悪質な言動をリアルタイムでおこない、有害ボイスチャットへの対策の一助とする取り組みであった(関連記事)。

今回の報告では、こうした新たな取り組みの結果が伝えられているかたちだ。Activisionによれば、『CoD: MW III』発売以降、ボイスチャットで妨害行為に遭遇するプレイヤーが最大で50%減少したそうだ。また何度も同社が定める行動規範を侵す常習犯については、前月比で8%の減少となったという。有害ボイスチャットの検出システムの導入は、一定の成果を見せた可能性はありそうだ。


一方で通報をおこなうプレイヤーの少なさは現状の課題となっている模様。行動規範に基づき、200万以上のアカウントがゲーム内で取り締まりを受けたものの、AIなどによって検出された有害行為のうち、プレイヤーによって報告された事例は5分の1に留まっているという。

そのためActivisionは、プレイヤーが有害行為に遭遇した場合に積極的に報告してもらうための施策もあるそうだ。将来的には通報したプレイヤーに対して感謝のメッセージを送るほか、通報に対応した際に追加のフィードバックを提供することも検討しているとのこと。

有害なボイスチャットへの対策は『フォートナイト』や『オーバーウォッチ2』などさまざまなタイトルで実施されている。なかでもAI技術を用いた対策の例としては、Riot GamesとUbisoftによる共同プロジェクト「Zero Harm in Comms」(関連記事)や、Unity Technologiesが手がける「Safe Voice」などが挙げられる(関連記事)。一方で本格的に導入されている例はまだ珍しく、一定の成果をあげた可能性が示された今回のActivisionの報告は注目されるところだろう。

Call of Duty: Modern Warfare III』はPC(Steam/Battle.net)およびPS4/PS5/Xbox One/Xbox Series X|S向けに発売中だ。