NHK 解説委員室

解説アーカイブス これまでの解説記事

「"AI兵器"規制で初の指針 問われる実効性」(時論公論)

津屋 尚  解説委員

AI・人工知能を搭載した兵器が、自らの判断で攻撃し人命を奪う。そうした新兵器の出現を食い止めることはできるのか。ジュネーブを舞台に5年前から続いてきた議論の結果、ようやく先月(8月)、AI兵器を規制する指針が初めて合意されました。しかし、それは努力目標の域を出ず、将来への懸念は払しょくされたとは言えません。きょうはAI兵器規制の課題について考えます。
j190904_1.jpg

■解説のポイントは3つ。
・「完全自律型AI兵器」がもたらす様々な懸念。
・初めての規制の指針とその限界。
・人間の制御を超える新兵器の出現をどう食い止めるのか。
j190904_2.jpg

■LAWS・完全自律型致死製兵器とは■
問題となっているのは、AIを搭載し、自らの判断で人命を奪う「完全自律型の致死性兵器」。英語の頭文字をとってLAWS(ろーず)と呼ばれています。すでに実戦で投入している「無人攻撃機」は、人間が遠隔操作をしていますが、LAWSは、人間の介在なしに自ら攻撃目標を「選別」し、「攻撃を実行」します。
j190904_3.jpg

■殺人ロボット■
LAWSの危険性を訴えるため国際NGOが制作したイメージ映像。そこで描かれているのは、群れとなって飛んでいるのは殺人用の小型ドローンです。AIが人の顔を自動で識別してターゲットに自爆攻撃し、次々と殺害していきます。
LAWSは個別の兵器だけでなく、攻撃全体を指揮統制するシステムにもなりえます。作戦上必要な大量のデータを短時間で分析し、敵を打ち負かすのに最も有効な攻撃手段をAIが判断し実行するというものです。

■LAWSがもたらす様々な懸念■
こうしたLAWSの登場は、戦時下での市民の保護などを定める「国際人道法」上も見過ごすことはできない問題として、国際的な議論を巻き起こしてきました。LAWSに対しては様々な懸念があります。そもそもロボットに人命を奪う判断をさせていいのか、という疑問に加え、▽自軍の兵士の損失が減ることで「戦争へのハードル」が下がるのでは。▽テロリストや独裁者の手に渡るのでは。▽機械である以上、故障による誤作動も起こりえます。サイバー攻撃でハッキングされる可能性も否定できません。▽さらに、AIが人間に「反乱」を起こす事態を警告する科学者もいます。
AIが自ら人命を奪う判断をする「LAWS」はまだ研究開発の途上で、配備や使用がされているわけではありません。しかし、急速な技術の進歩により、その出現が現実味を増しています。議論の焦点は、“LAWSの存在が現実のものになる前に規制の網をかけられるのか”という点です。生物・化学兵器も核兵器も、実際に使用されて悲惨な結果を招いた後で禁止や規制の条約がつくられてきましたが、AI兵器の場合、その技術的進歩の速さと兵器開発の実態の不透明さもあいまって、「完全自律型」が登場してしまってからでは止めることができないのではという危機感があるのです。
j190904_4.jpg

■初の規制の指針とその限界■
では、AI兵器をどのように規制するのか。その手段は、120余りの国が加盟し、これまで対人地雷などを禁止してきた「CCW=特定通常兵器使用禁止制限条約」です。ジュネーブにある国連ヨーロッパ本部を舞台にこの条約の枠組みで規制の議論が5年前から続けられてきました。そして8月21日、LAWSの規制の指針を盛り込んだ「報告書」がようやく採択されました。
報告書は、▽すべての兵器システムには国際人道法が適用されること。▽兵器の使用には人間が責任を負うこと、▽ハッキングのリスクやテロ集団の手にわたるリスクを考慮することなど11項目が盛り込まれました。この指針は、11月に開かれる条約の締約国会議で正式承認された後、2年後には見直しのための会合を開くことも決まりました。
j190904_6.jpg

今回、規制に関する初めての指針がまとまったことは、重要な成果です。しかし、LAWSの問題を告発し、禁止についての国際的な議論のきっかけをつくった国際人権団体などからは、失望の声があがっています。それは、合意された指針は、法的拘束力がない、いわば「努力目標」の域を出ず、ルールを自国の都合のよいように解釈する国が現れるのではとの懸念があるからです。この条約での決定事項は全会一致が原則なため、合意をとりつけるために玉虫色の決着をした感は否めません。
j190904_7.jpg

報告書がまとまるまでの5年間を振り返りますと、議論の随所に、規制の効力を弱めようとする兵器開発国の意図が見え隠れしていました。
中国は、規制の対象となる「完全自律型」の範囲について、「自ら進化する
兵器を規制すべき」と主張。これは事実上、「自ら進化するものでなければ規制の対象ではない」との主張だったと受け止められています。
さらに、報告書をまとめる最終局面では、アメリカとロシアが、当初の文案にあった「ヒューマンコントロール=兵器の使用を人間が制御する」という表現に反対し、結局この文言は最終の文書から削除されました。
AI兵器の高い技術を持つ国々は、指針の表現を曖昧にすることで規制の対象を狭め、開発や使用の余地を広げる思惑があったとみられています。
j190904_8.jpg

このように、アメリカや中国などがAI兵器の開発を止めないのは、最先端の軍事技術で後れを取れば、ライバルに軍事的優位を奪われかねないという危機感を抱えているからです。詳細は明らかではありませんが、これらのライバル国は、いざその技術が必要になる事態に備えて、少なくとも技術研究は続けていくものとみられます。
j190904_9.jpgのサムネイル画像
AI兵器の規制を目指す議論の中には、既存の条約にこだわらず、新たな禁止条約を目指すべきとの意見もあります。しかし、そのような条約ができたとしても、兵器開発国が加わる可能性は極めて低く、実効性に疑問符がついてしまいます。一方、CCWは、アメリカ・中国・ロシアなどのAI兵器開発国も加盟していますが、加盟国間の合意をとりつけるため、規制が弱まってしまうというジレンマも同時に抱えています。
j190904_10.jpg

■人間の制御超える“新兵器”出現どう止めるか■
こうした中、ようやく合意された規制のルールに実効性を持たせるにはどうしたらいいのか。
実は、規制に反対してきたアメリカ自身も、完全自律型兵器をめぐって、ある種の葛藤を抱えているように思います。といいますのも、アメリカ国防総省は「武力の使用を人間が判断できるよう兵器システムを設計する」というルールを設け、今のところ、完全自律型は配備しない方針なのです。さらに、ジュネーブでの議論が続いていた今年2月には、初めての「AI戦略」を発表。AI兵器は人間のコントロール下に置き、国際法や倫理に反しないようにする方針を明らかにしました。アメリカは、予測不能な兵器システムの導入は作戦遂行の妨げになり、誤作動などによって意図せぬ交戦につながりかねないと本音では考えているのです。
j190904_11.jpg
ジュネーブでまとまった指針に法的な拘束力がないという限界。これを乗り越えるためには、人間の制御を超え、「国際人道法」を逸脱する兵器の存在を決して許さない国際世論の形成が不可欠だと考えます。法的拘束力がないからと言って、抜け駆けのようにLAWSを開発し、使用する国が現れたなら、その国は強く糾弾され、国際的な評価を大きく下げ、かえって不利益を被ることになる。そうした構図を作り上げることも、LAWSの抑止につながるのではないでしょうか。
j190904_12.jpg
核兵器をはじめ人道上、許されない数々の兵器を生み出してきた人類は、またもう一つ、予測不能な悪しき新兵器を生み出してしまうのか、いままさに重要な分岐点に立たされています。

(津屋 尚 解説委員)

キーワード

関連記事