Discordの未成年保護機能が“デフォルト化”へ、制限解除には「年齢確認」が必須に。顔動画自撮りor身分証での成人チェック
Discord社は2月9日、Discordにて10代向け安全保護機能を標準設定化することを発表した。

Discord社は2月9日、Discordにて10代向け安全保護機能を標準設定化することを発表した。全世界で、3月上旬から段階的に開始されていく見込み。
Discordは、テキストチャット・音声通話・画面共有などが可能なアプリだ。ユーザーが好みのテーマのサーバーを立て、そこにほかのユーザーが集う仕組みが特徴。PC/スマートフォンのほか、PS/Xbox向けにも連携機能が用意されている。
今回導入される年齢認証プロセスは、10代のユーザー向けの保護機能強化を目的としているという。具体的な機能は以下のとおり。解除には年齢認証で成人として認められる必要がある。
・コンテンツフィルター:センシティブなコンテンツのぼかし解除、または設定のオフには成人としての年齢認証が必要になる
・年齢制限スペース:成人として年齢認証されたユーザーのみが、年齢制限のあるチャンネル・サーバー・アプリコマンドにアクセスできる
・メッセージリクエスト受信箱:知らない可能性のあるユーザーからのダイレクトメッセージは、デフォルトで別の受信箱に振り分けられ、この設定を変更する権限は成人として年齢保証されているユーザーに限定される
・フレンドリクエスト警告:知らない可能性のあるユーザーからのフレンド申請については警告表示される
・ステージの制限:サーバー内のステージで発言できるのは、成人として年齢保証されているユーザーのみ
そして年齢確認プロセスにおいては、ユーザーのプライバシーと選択を尊重するように設計されていると謳われている。実装時点ではユーザーが自分の顔を動画撮影することによる年齢推定、もしくは身分証明書類を提出することを選択可能であり、将来的にはさらなる選択肢も提供される見込みだという。
多くの場合はユーザーは手続きをいちど完了するだけで、認証済みの年齢グループに割り当てられるとのこと。とはいえ追加情報が必要な場合は、複数の手順を踏むよう求められるときもあるそうだ。割り当てられた年齢グループに関して異議申し立ても可能。なお顔による年齢推定では撮影された動画はユーザーの端末外に出ることはなく、提出された身分証明書も迅速に削除されるといったプライバシー保護におけるアプローチも説明されている。
またDiscordにはage inference model(年齢推定モデル)という、バックグラウンドで動作する新システムも導入されると告知。常にユーザーに年齢確認を求めることなく、アカウントが成人のものかどうかを判断する際の助けとなる仕組みだという。

このほかDiscord Teen Councilなる仕組みも導入されるという。これは、Discordが10代の体験を形作るにあたって“本物の10代の視点”を取り入れるために、10~12名の10代のユーザーで構成された諮問組織になるとのこと。10代のユーザーの視点を意思決定に直接組み込むことで、プライバシーと自律性のバランスを取りながら安全機能を形作っていくと説明されている。
なお今回導入される新たな年齢確認プロセスについては、2025年に英国およびオーストラリアで試験導入されており、このたびは全世界に向けて実装されるかたち(関連記事)。ちなみに英国では2023年にオンライン安全法(Online Safety Act)が制定され、子どもにとって有害なコンテンツ、たとえばアダルトコンテンツなどに容易にアクセスできないような効果的な年齢確認やアクセス制限措置を講じることがオンラインサービス事業者に対して義務付けられた。同法も一因となって、たとえば大手Modプラットフォーム「Nexus Mods」でもアダルトコンテンツ等のタグ付けが厳格化されることになっていた(関連記事)。
またそうした法律は別にしても、未成年者の安全保護を重視する取り組みは各社のオンラインサービス全般において進められている。今回のDiscordでのプロセスも、長年の取り組みの一環として導入されることが説明されている。ただ年齢確認プロセスにおいて個人情報が必要になる点は、試験導入時点から懸念も寄せられてきた。また昨年10月には、政府発行の身分証明書の写真などおよそ7万人のデータが流出する事態も発生していた(関連記事)。Discord側は個人情報を慎重に取り扱うことをアピールしているものの、10代向けの機能制限の解除に年齢確認が必須となる仕組みが世界的に導入される点には反発も生じているようだ。3月上旬に予定されている導入に向けた、今後の動向も注目される。
この記事にはアフィリエイトリンクが含まれる場合があります。
