急速に進歩を遂げるAI・人工知能を、軍事の分野でも活用する動きが進んでいます。そして近い将来、AIを搭載した兵器が、人間の介在なしに自らの判断で街を破壊し、人を殺傷する世界が出現することが懸念されています。
きょうは、いわゆるAI兵器の規制をめぐる課題について考えます。
■解説のポイントです。
・人間が介在しない「完全自律型AI兵器」とは何か
・科学者たちの警告。
・難航する規制の議論。
■完全自律型AI兵器とは■
兵器自らの判断で人を殺傷する「完全自律型のAI兵器」は、AIの軍事利用の中で最大の問題です。すでに実戦に投入されている無人攻撃機などは人間が遠隔操作をして攻撃の判断をしていますが、問題のAI兵器は、人間は介在しません。急速な技術の進歩により、こうした兵器の出現が現実味を帯びてきています。
AIを搭載する兵器は、アメリカ、ロシア、中国、イスラエルなど少なくとも10の国で開発中といわれています。特にアメリカや中国、ロシアは、AIが将来の軍事力の優劣を左右するとみて開発にしのぎを削っており、新たな軍拡競争も懸念されています。
「自律型のAI兵器」とはどういうものなのか。銃やミサイルのように完成形があるわけではないので、つかみどころがない面もありますが、非人道的なAI兵器の一例として、兵器の禁止を訴えるNGOが動画を作成しています。
(NGO制作VTR)
手のひらに乗る超小型のドローンは、AIで人の顔を自動認識して、頭に突撃、殺害する殺人ロボットです。車から放たれた超小型ドローンの群れは、丘を越えて標的の建物まで飛行すると、壁を打ち破って教室の内部に侵入。逃げ惑う若者たちを次々に殺害する衝撃的なシーンが描かれています。
同じような超小型ドローン兵器は軍用機からも大量に放出される映像も流れます。この映像を作成したNGOは、AI兵器が、国家間の戦争だけでなく、テロの道具にもなりうると警告しているのです。
NGO作成の動画は架空の話ですが、小型ドローンの群れを、将来実際の軍の活動に投入しようという動きが存在します。
(VTR国防総省HPより)
アメリカ国防総省が3年前実際に行った実験です。戦闘機からAIを搭載した103機の小型ドローンが放出され、編隊飛行を行いました。事前にプログラムされて飛んでいるのではなく、一つ一つに搭載されたAIによって周囲の状況を判断し、互いにぶつかることなく飛行しました。真上から見たレーダー画像を見ると、緑色の点の集まりとして描かれたドローンの群れが円を描くなどして複雑な飛行もこなしたことがわかります。
(カラシニコフ社PR映像)
ロシアの兵器メーカーは地上で使用する小型軍用車両のようなAI兵器を開発しPR映像を公開しました。AI兵器は標的の人間の模型を発見して射撃するまでの一連の行程をすべて自動で行うというものです。
AIの使用が想定されるは、単体の兵器だけではありません。「作戦の指揮統制システム」に活用する構想もあります。どのような部隊の配置や攻撃の仕方が作戦上、最も有効なのかをAIに判断させようというのです。
アメリカなど開発国は、自律型のAI兵器を投入すれば、自国の兵士の損失を回避でき、ヒューマンエラー、つまり「誤爆」も減らせると、主張しています。
■科学者たちの警告■
しかし、世界の多くの科学者たちは、自律型AI兵器の禁止を強く訴えています。去年亡くなったスティーブン・ホーキング博士もその一人です。ホーキング博士は亡くなる間際、次のような言葉を残しました。
「気がかりなのは、AIが自ら進化を始めてしまうことだ。将来、AIは
自分の意志を持ち、私たち人間と対立するようになるかもしれない。」
では、科学者たちが警鐘を鳴らすAI兵器には、どんな問題があるのでしょうか。
▽一つは「倫理上の問題」です。無論、人が人を殺すのも許されることでは
ありませんが、ロボットに人の生死を決めさせていいのかという議論があります。
▽また、戦争のコストや自軍の兵士の損失が減ることで、国の指導者が
「戦争へのハードルを下げてしまうのでは」との懸念もあります。
▽テロリストなどへの「拡散」も懸念されます。AIの技術は、核兵器などに
比べれば、はるかに安く、簡単に入手でき、兵器が独裁者の手に渡れば、
民衆の虐殺の手段にもなりえます。
▽最も恐ろしいのは、AIの「暴走」です。機械である以上、故障や誤作動も
ありえますし、サイバー攻撃でハッキングされる可能性もあります。ホーキング博士も警告したように、AIが「人間に反乱」を起こすようになるかもしれません。AIは深層学習・ディープラーニングによって大量のデータをもとに短時間で学習し、人間の想定を超える判断や行動を導き出す可能性が指摘されています。チェスや囲碁でAIが奇想天外な戦法で世界チャンピオンを負かして話題になりましたが、なぜその手を打ったのかはわかっていません。軍事に置き換えれば、勝利という目標達成のためにAIが有効な手段と判断すれば、人間なら回避するような残酷な手段も選択し、それが無この市民への無差別攻撃につながるかもしれないという不気味さがあります。
■難航する規制の議論■
そもそも戦争そのものをなくすことが最も大切なことは言うまでもありませんが、最低限の国際ルールとして、国際社会はいま、AI兵器をどのように規制しようとしているのでしょうか。
それは、対人地雷などを禁止してきた「特定通常兵器使用禁止制限条約」という条約の枠組みで規制することです。ジュネーブを舞台に、120の条約加盟国による議論が続いています。先月も加盟国の当局者や専門家が集まって会合が開かれました。
この議論の最も重要な視点は、「兵器が出現する前に規制の網をかける」ことです。これまでは、対人地雷にせよ生物化学兵器にせよ、実際に使用されて悲惨な結果を招いた後で禁止条約がつくられましたが、AI兵器の場合、「完全自律型」が登場してしまってからでは手遅れなのです。ところが、条約の議論は5年以上続いているのに、開発国と反対国の主張が噛み合わず、「自律型兵器」の定義すら合意できていません。条約による規制はもはやむずかしいのではないか、その間に技術はどんどん進歩し、兵器が完成してしまうのではないか、と言った悲観論も聞こえてきます。
条約が難しいなら、ほかに方法はあるのでしょうか。関係者によりますと、ジュネーブでの議論は、条約より緩やかな規制の方向に変わりつつあると言います。各国が国際人道法などの順守を再確認した上で、それぞれの国が独自のルールを設け、その情報を公開する仕組みをつくることで一定の歯止めにしようというものです。実際、今年2月、アメリカ国防総省が初めての「AI戦略」を発表。AI兵器はあくまで人間のコントロール下に置き、国際法や倫理に反しない形でAIを活用する方針を発表しました。
しかし中には、国際法を自国の都合のよいように解釈してルールをつくる国が現れるのではないか。人間の介在をどのように検証できるのかといった点など、課題は山積しています。
核兵器をはじめ、無差別殺戮を可能にする道具を生み出してきた人類はいま、人間のコントロールを超えるAI兵器の出現という未知の危険領域に踏み出そうとしています。強い危機感を持ってその現実を受け止め、歯止めをかけることができるのか、いままさに人間の知恵と倫理が試されようとしています。
(津屋 尚 解説委員)
この委員の記事一覧はこちら