AIなど最先端のテクノロジーの活用が様々な場所で急速に普及している。一方で、そのあまりの影響力の大きさに、大手IT企業の間には自主規制の動きが広がっている。軍事や市民の監視などのために使われることになれば、大きな倫理的な課題が生まれるからだ。
AIの倫理について積極的に指針を公表し、政府の規制も必要だと訴える企業の一つがマイクロソフトだ。7月22日には、AIの倫理的な利用について検討するOpen AIに10億ドル(約1087億円)を出資すると発表した。
同社はAI倫理についてどう考えているのか、米国本社訪問の機会にAIプログラム担当ゼネラルマネージャー、ティム・オブライエン氏に話を聞いた。
同社は2018年1月に、The Future Computedと名付けられたAIと倫理についての基本方針を発表している。「マーケットでパワーを持っている企業として、社会的責任を果たすため」だという。
この指針は、社内のデザインや開発などあらゆる部署でフレームワークとして使用されているものだという。その中の5つの指針に対応する形で、オブライエン氏はそれぞれに興味深い事例を挙げて解説していった。
1:フェアネス(公平性)
Amazonは2015年、ネット通販で会員向けの配送料無料セールを実施する際に、27の主要都市をそのセールの対象にしたが、一部の地域は除外していた。ブルームバーグの調査報道で、それが黒人の多く住む地域であることが明らかになった。同社は、プライム会員数を増やすことを目的に、顧客データを元にしたAIを使用して除外地域を決めていた。
人種差別の意図はなかったが、黒人を排除することにつながってしまった。また、黒人の多く住む地域には元々商店へのアクセスが悪いという問題があり、それが人種間での不平等を強化する結果になってしまい、Amazonはミスを認めることになった。
Amazonはすでに米国中の住民にとって大切な生活インフラと化していることから、大きな問題として取り上げられたという。
「すべてのAIには、その背後に利用しているデータがあります。ウェブサイトや端末、聞いている音楽、会話。マシンラーニングはそうしたデータを利用していますが、そのデザインが適切でなければ、意図せず不平等な結果を招くことになります」(オブライエン氏)
2:リライアビリティ・セーフティ
金づちを使って人を傷つける犯罪があった場合に「悪いのは金槌ではない」と言われることがよくある。しかし、AIに関してはそれとは全く違う考え方でなければいけないとオブライエン氏は語る。その理由が、「人間には元々、機械が行うことは受け入れがちという性質があるから」なのだという。
サンフランシスコで2018年11月、テスラの自動車のオーナーが、飲酒後に自動運転モードを作動させ居眠りをしながら公道を走行し、警察官に停止させられた事件があった。その他にも、自動運転で居眠りをするドライバーがたびたび目撃され、SNS上などで晒され物議を醸している。
もちろんテスラ社は、販売時に「自動運転の技術はベータ版であって、完全な自動運転でなく、事故があればドライバーの責任なので運転は放棄しないように」と警告している。
「確かにテスラのせいではないが、それが人間の問題というものなのです」と同氏。「テクノロジーは、メーカー側が意図しない、最も『愚かな』使い方をされた場合であっても安全かどうか、責任を持たなければいけない」。
3:プライバシー
プライバシーに関しては有名な事件がある。
2002年、小売大手のターゲットは、子どもが生まれたばかりの母親を顧客として取り込むために、顧客が妊娠しているかどうかを判断する材料を購買パターンから集めて分析した。その結果、顧客が「無香料のローションに切り替えた時」が高い精度で妊娠のサインになることを突き止めた。同社はこれをマーケティングに活用し、ダイレクトメールを郵便で送った。ある16歳の女性に送った手紙を見た父親が店に苦情を入れたが、その後、父親さえ知らなかったその女性の妊娠が判明した…
「これは全くの合法です。本人もマーケティング目的で情報を利用していいという同意書にサインをしていた。しかし、高度なプライバシーに関わる情報をマーケティング目的で使用することが倫理的に正しいのか。売上だけを考え倫理を置き去りにするとこうしたことが起きる可能性があります」(オブライエン氏)
4:インクルーシブネス
障害者や、特に女性が受けている差別を強化してしまう恐れがあるとオブライエン氏は語る。
(マイクロソフトが買収した)ビジネス向けのSNS、LinkedIn上でユーザーがどのように自分を売り込んでいるか、その内容について男女で比較する調査を行った。その結果、学歴やスキルなどには、男女の差はほとんどなかった。一方で、自分を売り込む文言を書き込むサマリーフィールドでは、男性のほうがより自分を「素晴らしい」と高く評価し宣伝する傾向が強いことがわかった。そのため、このデータに含まれるキーワードを利用したマシンラーニングのシステムで採用者を探すと、女性を採用から排除することになってしまうことになる。これは現実の差別をより強化することにつながってしまう。
そうした差別の強化を防ぐために、LinkedInでは人事・採用担当者向けのサービスの中に、現在のユーザーの職場の男女比率や業界内の比率、接触中の比率などを可視化できるシステムを組み込んでいる。
「いかなる形ならば平等に仕事を探せるのか、それは立場によって異なるとは思います。しかし、マシンによるブラックボックスでバイアスが強化されることはあってはならない。透明性・説明責任をブラックボックスに組み込むことの重要性を理解すべきです」(オブライエン氏)
5:説明責任
香港の投資家が、AIによる自動取引を利用して自身の資産を投資した。K1と名付けられたそのシステムでは、人間は一切意思決定をせず、リアルタイムのニュースなどの情報源によって完全自動化されたAIのシステムを使用。投資家は2017年に25億ドルの資産を運用させることを決めたが、結果は2000万ドルの損を出すことになった。
投資家はK1の能力を誇張したとして投資会社を訴えた。AIの責任をめぐって裁判沙汰になったことが明らかになったのは初のケースだとブルームバーグは報じており、判例が様々な業界への影響を与えると注目されている。
「AIが間違いを犯した時に、誰が責任を持つのか。この問題はあらゆる世界にあります。哲学的な問題もある。それは軍事用のロボットが戦争を起こした場合に誰の責任になるのかということ。マシンには何が犯罪なのかは理解できないし、因果関係も理解できていない。あくまでもどうやって使用するかを考えるのは人間だということ」(オブライエン氏)
公正・平等、いったい誰が決めるのか
オブライエン氏は「人間は元々公正さに欠けているもの。そのデータを使用してマシンをトレーニングすると、偏見や先入観はさらに増強され、社会がひどくなることは明らかになっている」として、AIの適切な運用が大切だと繰り返し強調した。
一方で、難しいのは、公正さや平等に関する定義は、人や国によって違うことだ。その評価や予測はどのように行うのか、誰がするべきなのか。
「カレンダーの予定表やドキュメント作成ソフトなどでは、これまで宗教や価値観の対立は起こってこなかった」とオブライエン氏。
「中国のような一党独裁の国やサウジアラビアなど人権が制限されている国もある。最終的には、それぞれの国が、テクノロジーをどう利用するかについては色々なことを決断していかないといけない」とする。
一方で、同社の技術を販売するにあたっては、「顔認証が公共の監視に使われたり、女性の差別を増幅したりすることにテクノロジーが使用されるような局面では、会社としてそのビジネスをするかどうか。その国の政府がこれまで取ってきた人権政策などをよく考えて検討し、一つひとつ判断をしていかないといけない」として、原則や価値観に合わない場合は販売しない判断になるとした。
(取材協力:マイクロソフト)