YouTubeは12月3日(現地時間)、ネット上でのいじめに繋がる、悪意のある表現や不快に感じるコメントを排除するための新機能を導入すると発表しました。これらのコメントを投稿しようとした際、その内容を見直すようユーザーに通知するというもので、現在、Androidで展開されているとのことです。
同様のコメントの見直しを求める機能は、Instagramでも提供されています。勢いに任せたコメントを抑止し、コメントの見直しを求めるものですが、見直さずにそのまま投稿も可能です。
なお、通知を出すかどうかの判定は機械学習により行われていますが、通知が出たコメントをそのまま投稿しても必ずしも削除されるわけではありません。逆に、通知が出なかったとしてもガイドラインに反していれば削除されることがあるとしています。
また、YouTubeにはすでに、不快なコメントをクリエイター側が公開するか削除するかを選択出来る機能がありますが、そもそもその手のコメント目にしなくても済むよう、自動的に検出しフィルターされるようになります。フィルターされたコメントは、何もしなければ60日後に削除されるとのことです。
このほか、新しい取り組みとして2021年以降、クリエイター側に性別や性的指向、人種、民族などの情報を提供するよう依頼するとのこと。これは、一部のクリエイターから、YouTubeのシステムがクリエイターによって挙動が変わっているとの懸念が示されていることに対応するための処置です。
YouTubeのシステムでは、動画の内容を評価することはできますが、それがどのクリエイター、あるいはどのような思考をもつクリエイターによって作られたかは評価されていないとのこと。このため、システムが特定のコミュニティに偏った判断を下していたとしても、それを特定できないとしています。
これを見つけるため、クリエイターに情報を提供してもらい、潜在的な問題がないかを評価するとのことです。なお、この調査は米国で最初に開始されますが、他の国や地域への展開については触れられていません。
source: YouTube
2020年12月5日Engadget 日本版「YouTube、不快なコメントを投稿する前に内容を見直すよう通知を表示」より転載
関連記事