Facebookは新しい写真マッチング・テクノロジーを用いて不適切な写真の拡散を防止する対策を実装した。これは過去にリベンジポルノ(困惑させることを目的として本人の承諾なしに拡散される写真)と報告された画像を新たに共有することを禁じるものだ。以前にFacebookが削除した写真を再度投稿すると「この写真の投稿はFacebookの利用約款に違反する」というポップアップが表示される。そのような写真はFacebook本体はもちろん、MessengerやInstagramでも共有することはできない。
Facebookのグローバルでの安全対策の責任者、Antigone Davisは私の取材に対して、「こうした画像の拡散は被害者に独特のひどい苦痛を与えることを考慮して、われわれは〔リベンジポルノ〕の防止に力を注いだ」と述べた。
ここでDavisが述べているのは 本人の承諾なしに共有された「親密な状況の写真」が被害者の93%に「著しい精神的ダメージ」を与えているという調査があるからだ。同時に82%の被害者に「生活の他の面にも重大な支障をもたらしている」という(US Victims of Non-Consensual Intimate Images)。
Facebookは以前から「不適切な画像」を報告できるシステムを取り入れているが、Daviによれば「リベンジポルノに関してはさらに厳しい態度が取られることになり、定義も明確化された」という。多くの場合にFacebookはリベンジポルノを投稿したユーザーのアカウントを停止する。
Facebookはリベンジポルノの防止を目指す団体、Cyber Civil Rights InitiativeやRevenge Porn Helplineと協力して被害にあった人々に対する支援を行う。
リベンジポルノは重大な問題となっている。2016年のData & Society Research InstituteおよびCenter for Innovative Public Health Researchのレポートによればアメリカでは25人に1人が承諾なしに画像を拡散される被害にあっている。 FacebookとInstagram上で海兵隊員の秘密グループが女性の同僚の不適切な写真を共有していたスキャンダルが最近発覚している。
昨年、Facebookの機械学習応用エンジニアリングの責任者、Joaquin CandelaがTechCrunchに語ったところによると、FacebookのシステムはAIを利用して不適切な写真を検知することができという。しかしリベンジポルノと断定するためにはやはり人力が必要なようだ。
Davisは「現在、われわれは〔リベンジポルノの発見に〕AIを用いていない。親密な写真が本人の同意がないまま共有されようとしているのかどうかを判断するには文脈の理解がきわめて重要だ」と述べた。
[原文へ]
(翻訳:滑川海彦@FacebookGoogle+)
【関連記事】
(2017年4月6日 TechCrunch日本版「Facebookがリベンジポルノ防止策―マークされた画像の拡散を禁止」より転載)