AI兵器に殺される!?
人工知能が戦場を変える

先月、AI兵器の規制について考える国会議員の勉強会が、日本で初めて発足しました。みずから学習したAIが、何を、誰を標的にすべきかも自分で判断して戦うーー今やその脅威は現実のものとなりつつあります。軍事利用はどこまで進んでいるのか、そして日本と世界はどう向き合おうとしているのか、取材しました。
(政治部防衛省担当 西井建介)※無人兵器の写真はいずれもイメージです。

専門家のもとに防衛幹部が

「これからは『サイバー・ウォー』や『ロボット・ウォー』を制するものが勝者となるのです」
そう語るのは、東京理科大学の平塚三好教授です。いま、教授のもとには防衛省・自衛隊の幹部が非公式に訪れているといいます。

平塚教授は、AIの防衛装備品への応用を長年研究してきました。開発競争は着実に加速しているといいます。
「すでにアメリカ軍では、AIを搭載したドローンなどの無人機や、地上歩行型ロボットどうしが前線で戦う『ゲーム感覚』の装備の開発が中心になっているとみられています。これに対抗意識を燃やしているのが中国です」

教授は「未来の戦場」の姿をこう語ります。
「まず最初に展開されるのは、サイバー攻撃。コンピューターウイルスによる攻撃などで、相手国のレーダーやミサイルの迎撃システムの無力化を図るでしょう。

続いて、無人機どうしが空域で戦闘を開始。この時、両国の司令官は、安全な司令室で指揮しています。

A国が、人工衛星からのレーザー攻撃で敵の無人機を撃ち落とし、優位に。
続けて、無人の揚陸艦に無人の水陸両用車を積んで、B国に侵攻。無人兵器の形状は、例えば、四つ足で砂漠などを俊敏に動くタイプのものも出てくるでしょう。

そして、A国は兵士を1人も失わずB国を占領することになります」
その世界では、もはや兵士どうしの激突は時代後れだといいます。

“第3の革命”10か国以上が

AI兵器は、火薬、核兵器に次ぐ、「第3の革命」とも呼ばれ、各国が開発にしのぎを削っています。アメリカは、ドローンなどの無人機や無人潜水艦にAIを組み込む自動兵器の開発方針を打ち出し、中国も急速に進むAIの軍事転用を進めていると指摘されています。このほか、ロシア、イスラエル、韓国など、10か国以上が開発に取り組んでいるとみられています。

「自衛隊にもAI兵器を」

こうした状況のなか、日本もAI兵器の開発を急ぐべきだと指摘するのが、森本敏・元防衛大臣です。背景には、日本の抱える人口減少問題もあるといいます。

「人口が減っていき、自衛隊は現在の24万人の半分くらいの隊員で、倍くらいのシステムを動かさざるを得なくなります。そうなると無人機や無人艦艇などAIを用いた省力化は欠かせません」

森本氏によると、アメリカの軍需企業では、すでに無人機と有人機を組み合わせた次世代の戦闘機のシステムを研究しているといいます。パイロットの乗った有人機ははるか後方に控え、AIを搭載した無数の無人機が敵地近くの前線に飛び、敵の能力を判断して攻撃します。無人機は命を失う心配がないので、思い切った作戦が可能になり、有人機はそこから情報を収集し、次の展開に利用します。

森本氏は、将来的には日本もこうしたAI兵器を導入する可能性があると考えています。
「アメリカでもまだ生産は始まっていません。日本でも今年末に見直しが行われる防衛計画の大綱では、コンセプトが示されるところまででしょう。さらにその次の大綱で、AIを使った装備の導入が盛り込まれるのではないでしょうか」

「自律型」殺人ロボットの恐怖

一方でAI兵器の進化を危ぶむ声も高まっています。キーワードは、「自律型」です。人間の判断を介さず、AI自身が敵を峻別し、攻撃手段を選んで破壊する。国際的な人権団体は、こうしたAI兵器を「キラーロボット」と呼び、開発に反対しています。

懸念の声はAI技術の開発者からも上がっています。AIを用いた自動運転の開発に取り組んでいる「テスラ」のイーロン・マスクCEOは、2017年8月、「自律兵器に転用される可能性があるAIやロボット工学のテクノロジーを構築する企業として、警告を発する責任を特に感じる」とする公開書簡を出し、注目を集めました。

国連では平行線

さらに、その3か月後には、国連でAI兵器をめぐる初めての公式な会合が開かれ、日本を含むおよそ90か国が代表団を派遣しました。
ただ、話し合いは平行線をたどりました。途上国などが、開発の段階から厳しく禁じるべきだと訴えた一方、アメリカやロシアは、技術の進歩を予測できない中で、予防的な規制は拙速だと主張しました。

暴走阻止 日本でも議論が

こうしたなか発足したのが、冒頭に紹介した国会議員の勉強会です。題して「キラーロボットのない世界に向けた日本の役割を考える勉強会」。日本の国会では初めての、超党派でAI兵器について考える取り組みです。

発起人の1人、公明党の遠山清彦衆議院議員は、「核兵器の場合と同じで、開発で優位に立つ大国と途上国との間で溝が深まっていて、AI兵器の規制をどう具体化するかは難しい課題です」と指摘します。

その上で、AI兵器が将来的に暴走するような事態も想定して、規制を冷静に議論すべきだと話しています。

「AIというのは感情がない、生存本能がない、直感もない、知能だけで学習していくというものですから、万が一、暴走して止められなくなった場合には、無差別に大量の人間を殺りくしながら進んでいくということもあり得ます。完全自律型のAI兵器が完成すると無限にいろいろな危険が広がっていくことになりかねず、行き過ぎた開発を止める動きを今からやっていくことは必要だと思っています」

「キラー」開発 政府は否定

小野寺防衛大臣は、ことし2月の衆議院予算委員会で、「キラーロボット」の開発を否定。
「人間が介在しない致死性の兵器に関する研究開発を行う具体的な計画はない」

一方で、AIの活用は検討していく考えを示しました。
「隊員の安全確保や負担軽減を目的として、AIや無人装備について研究開発を含め、積極的に技術基盤の向上に努めていく必要がある」
防衛省は、民間の優れたAI技術の中で、防衛装備品に取り込めるものがないか、研究を始めています。

AIが殺す前に

「軍事は機密性が高く、結局各国の良識に頼らざるを得ない。AIに兵士が殺されたら、家族は誰を恨めばいいのか。人類の良心が問われている」
今回の取材で印象に残った言葉です。
私たちの生活を一変させるAI。その「影」の部分ともなりかねないAI兵器の開発。各国の行き過ぎた競争を止められるのは「人間の理性」だけなのかもしれません。

政治部記者
西井 建介
平成14年入局。甲府局を経て、政治部防衛省担当。甲府局時代にバーベキューインストラクター初級取得。