人の介在なく、敵を攻撃し殺傷する――。人工知能(AI)の発展により、兵器に自律性向上を持たせることで、こうした強力な殺傷能力を持つ兵器「自律型致死兵器システム(LAWS)」の開発の是非が問われている。昨年から国連で開発・使用の規制に向けた議論が始まり、一方、国内では日本からの反対の意向を強めていこうと、4月17日、超党派の議員が発起人となって会合が開かれ、発起人の遠山清彦衆院議員(公明党)は「人間の判断が介入しない形でのAI兵器は個人としては反対。こうしたAI兵器に対して日本としてどうしていくのか、というのが最大のテーマだ」と語った。
「キラーロボットのない世界に向けた日本の役割を考える勉強会」は、遠山氏のほか、平井卓也衆院議員(自民党)、小林史明衆院議員(自民党)、山内康一衆院議員(立憲民主党)、小熊慎司衆院議員(希望の党)、遠藤敬衆院議員(日本維新の会)、認定NPO法人難民を助ける会(AAA Japan)、国際NGOヒューマン・ライツ・ウォッチなどの主催で開催された。難民を助ける会理事長の長有紀枝氏が「キラーロボット(LAWS)」と、その開発に反対をする「キラーロボット反対キャンペーン」について説明をしたほか、ヒューマン・ライツ・ウォッチ日本代表の土井香苗氏が国際法の側面からLAWSの問題点を指摘、国連での議論に参加をしている拓殖大学教授の佐藤丙午氏が国連での議論の概要とLAWS規制への具体的な課題について示した。
人を介さず殺傷するAI兵器の規制に向け、国連で議論が始まる
AIにより自動化された軍事兵器は1990年代ごろから実戦配備が進み、自律型兵器システム(AWS)として各国が開発を進めている。一方、人が介在することなく完全自律で敵を攻撃するとされるLAWSは現在のところ存在していないものの、今後開発が進み実用化すれば、核兵器のような強いインパクトを持つと懸念されている。
そこで、2013年ごろから難民を助ける会、ヒューマン・ライツ・ウォッチなどNGOがLAWS反対キャンペーンを展開してきた。こうした流れを受けて、対人地雷やクラスター爆弾などの規制を進めてきた国連の「特定通常兵器使用禁止制限条約(CCW)」の枠組みで2017年11月から公式の政府専門家会合が開催され、LAWSの開発・使用の規制に向けた議論を進めている。今年4月に開催された第2回政府専門家会合では、オーストラリア、中国、ブラジル、イラク、パキスタンなど26カ国がLAWSの禁止を表明した(中国は使用禁止のみ)。日本をはじめとして多くの国がAI兵器の使用に人間の介在や操作の必要性を認めているものの、フランス、イスラエル、ロシア、イギリス、アメリカは、LAWS規制に向けた条約交渉開始についての反対を表明している。(外務省による第2回政府専門家会合の報告はこちら)
LAWS使用による国際法違反は誰が責任を負うのか?
国際人道法は戦争の手段や方法を規定するもので、非戦闘員である市民の保護の観点から、市民を標的としてはならないといった規定を持つ。そこで戦闘員と市民の区別が重要となるが、「完全自律型の兵器に、その判別ができるのか?という疑問がある」と土井氏は問題的をした。また、人間の兵士と異なり、AIやロボットは感情がないため、仮に独裁者が手にしたときに、自国民の弾圧の手段になるという懸念も示した。
国際人道法では規定に反すると、国際刑事法の問題となるが、この時にLAWSを使用するケースでは、だれが責任を負うのかという問題も土井氏は指摘をした。「責任を負うのは指揮官なのか、プログラマーなのか、製造者なのか、それともロボットなのか。こうした責任が明確でないと、違反を取り締まることができなくなる」(土井氏)。
こうした国際法上の課題から、土井氏は「日本に必要なのは(LAWS開発・使用の)禁止を支持すると表明することだ」と訴えた。
「国際社会ではLAWS禁止はコンセンサス」
国連CCWでのLAWS規制に向けた政府専門家会合に前回(昨年11月開催)に続き今回(4月開催)も参加をした佐藤氏は、今回の会合を振り返り「興味深かったのが、中国の動向だ。会合の最終日になって、LAWS使用の禁止に賛同を示した。ただし。中国はLAWS開発への規制は反対をしている」と話した。そのうえで、「LAWS規制に参加を表面している26カ国の中にも様々なグラデーションがある」とした。
そもそもLAWSは現在存在する兵器ではないということがCCWでの議論では前提となっている。今現在ないものについて、予防措置的に対処をしようとする議論のため、「人間の管理とは何か、人間の意思と何かといった哲学的な議論がなされている。そのうえで、『何を規制するか』という意識合わせをしているのが現状だ」と説明をした。
「国際社会では、どのセクターの人に話を聞いても、LAWSを禁止するというのはほとんどコンセンサスになっている」と佐藤氏。ところが、具体的な規制をどのようにするのかが問題になる。
実効力のあるLAWS規制とは?
LAWSは、人間の判断を介さずに攻撃が可能なAI兵器だとされている。ただ、兵器が攻撃に至るまでのサイクル「キルチェーン」には「探索」「識別」「補足」「追跡」「選択」「攻撃」「評価」というポイントがあり、それぞれのポイントで人間による判断が入ってくるが、今既にある兵器でもこれらのポイントのどこか一部が自動化・自律化されていることは一般的だ。ところが、「LAWSでは(攻撃をする)ロボットではなく、ロボットが攻撃に至るまでの一連のシステムが問題になる。そうすると、何をどこまで規制するのか。規制するとなったときにどのように規制をするのか、という課題が出てくる」と佐藤氏は説明する。
では実効力のある規制とはどのようになされるべきか。佐藤氏は、CCWでの会合の議長が示した図として、LAWSの開発から使用までを(1)研究開発、(2)試験と評価、(3)配備、命令、制御、(4)使用、中止の4段階に分けた上で、(1)(2)は産業界での管理、(3)(4)は国際的な管理、(1)~(4)の全てにおいて各国での管理がそれぞれ可能だと説明をした。一方で佐藤氏は、「問題は、各国や国際的な規制ができた時に、それが守られているかをどのように担保するかどうかだ」と指摘をした。
なお、次回のCCWの政府専門家会合は今年8月に開催される予定。