YouTube(ユーチューブ)の最高製品責任者Neal Mahon(ニール・マホン)氏によると、YouTubeは2020年2月以降に新型コロナウイルス感染症に関する危険な誤情報のために100万点の動画を削除した。
マホン氏は、誤情報に対して同社がどのような措置を取っているのかを示すブログ投稿の中で統計を共有した。「誤情報は端の方からメインストリームへと動きました」と同氏は書いた。「ホロコースト否定者や9-11の真実を求める人たちの封印された世界にとどまらず、社会のあらゆる側面に入り込み、時として猛スピードでコミュニティを駆け抜けます」。
と同時にマホン氏はYouTubeのコンテンツ全体における「悪いコンテンツ」の割合はわずかだと主張しれいる。「悪いコンテンツはYouTube上の何十億という動画のうち、パーセンテージとしてはわずかです(全動画の約0.16〜0.18%がYouTubeの規則に違反)」と同氏は書いた。そしてYouTubeが各四半期に約1000万点の動画を削除していて「削除される動画の大半は視聴回数が10回にも満たない」と付け加えた。
Facebook(フェイスブック)も最近、自社プラットフォーム上のコンテンツについて同様の主張をした。同社は先週、人気の投稿のほとんどはミーム、あるいは非政治的なコンテンツだと主張するレポートを発表した。そして新型コロナウイルス感染症とワクチンの誤情報の扱いに対する批判について、同社はワクチン誤情報は大半のユーザーが目にしているものを代表してはいない、と主張した。
パンデミックの間、Facebook、YouTubeいずれも健康に関する誤情報をめぐる規則について特に厳しい目が向けられた。両プラットフォームとも10億人超のユーザーを抱えていて、これはたとえほんのわずかな数のコンテンツでも広範に影響を及ぼす力を持っていることを意味する。そしてどちらのプラットフォームもこれまでのところ、ワクチンと健康に関する誤情報がどの程度広まったのか、あるいはどれだけのユーザーが誤情報に遭遇したのか、開示を却下してきた。マホン氏は、誤情報の削除は同社のアプローチの1つの側面にすぎない、とも語った。YouTubeは「信頼できるソースからの情報の増加と害のある誤情報をともなう動画の拡散の抑制」にも取り組んでいる。
編集部注:本記事の初出はEngadget。著者Karissa Bell(カリッサ・ベル)氏はEngadgetのシニアエディター。
【関連記事】