これがプログラムの限界?――。Googleの写真管理サービス/アプリ「Googleフォト」が、黒人の写真を「ゴリラ」として分類し、物議を醸している。
騒動のきっかけは、ニューヨークに住むハイチ系のアメリカ人、ジャッキー・アルシネさんがTwitterに投稿したスクリーンショット。そこにはアルシネさんの友人が写った写真を、Googleフォトが「ゴリラ」と認識、分類していた。
「Googleフォト、最低だよ。私の友達はゴリラじゃない」。
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— diri noir avec banan (@jackyalcine) June 29, 2015
Googleの広報担当者はすぐに謝罪した。
グーグルの広報担当者は「われわれは愕然とした。こうしたことが起きて本当に申し訳なく思う」と述べた。そして、「自動的なイメージラベル表示について依然として多くの作業が必要であるのは明白で、こうした種類のミスが将来発生するのを防止するにはどうするか検討中だ」と語った。
(グーグル、黒人を誤って「ゴリラ」とタグ アルゴリズムの限界か - WSJ 2015/07/02 10:03)
この事態を受けてGoogleのチーフ・アーキテクト、ヨナサン・ズンガーさんはアルシネさんに「機械学習では起こりうるアクシデント」「機械に偏見はありませんが、注意しておかないと、人種差別を生んでしまいます」などとツイート。プログラムを修正するため協力を求め、アルシネさんも快諾。現在は「ゴリラ」のタグが出ないようになっている。
プログラムが多くのデータを自動で分類していく技術は「機械学習」と呼ばれ、IT業界で最も注目されている分野。今回のような技術が人間を「差別」する事例は、今後も起こりそうだ。
【関連記事】
ハフィントンポスト日本版はTwitterでも情報発信しています。@HuffPostJapan をフォロー