BS1 ワールドウオッチング - WORLD WATCHING -

特集

2018年11月1日(木)

“推進”か“規制”か「AI兵器」議論の行方は

 
放送した内容をご覧いただけます

酒井
「続いて特集はAI=人工知能の軍事利用を巡る問題。
人類にとっての味方か、それとも敵か、意見は大きく割れています。」

最新AI兵器の衝撃 国際社会懸念も

AI兵器
「両手を上げて出てきなさい。」

今、世界では、AIを利用した新たな兵器の開発競争が加速しています。
ロシアでは最近、敵と味方をAIが識別し、自律的に攻撃の判断を下す兵器も登場。
実戦への投入も検討されているといいます。

ロシア兵器メーカー幹部
「兵士を危険にさらさずに任務を遂行できる。」

一方、国際社会では懸念も高まっています。

オーストリア軍縮大使
「AIに『人間の命を奪う権限』を与えるのか。」

火薬、核兵器に次ぐ第3の革命とも呼ばれるAI兵器。
開発か規制か、各国の議論の行方を探ります。


開発か規制か AI兵器 議論の行方は

花澤
「AI兵器は、人間より正確で一般市民の犠牲を減らすことができるという主張がある一方で、人命を奪う判断を機械任せにすることは許されないとして、規制を求める声も高まっています。
このAI兵器の規制を検討する国際会議が、スイスのジュネーブで今月(11月)中旬にも開かれます。」

酒井
「こちらは、AI兵器を開発、あるいは開発しているとみられる主な国々です。
アメリカでは、AIを搭載したドローンなどの開発が進んでいるとみられます。
これに対抗意識を燃やしているのが中国。
さらにロシアやイスラエル、イギリス、韓国など、合わせて10か国以上が開発に取り組んでいるとみられています。
こうした中、開発国の1つ、ロシアは、攻撃の『判断』を自ら行うこともできるAI兵器を発表。
世界に衝撃が走っています。」

  

開発か規制か AI兵器 議論の行方は

リポート:北村雄介記者(モスクワ支局)

ロシア国防省がこの夏(2018年8月)開いた、世界最大級の「武器の見本市」。
地元ロシアや中国など18か国、およそ1,200の企業が参加し、世界各国の軍の関係者らが集まりました。
各社がこぞって展示したのが、無人兵器。
こちらのドローンには、AIが搭載され、人間の操縦なしに偵察が行えると言います。

開発担当者
「(AI技術で)はるか上空から、1センチ程の物体をも識別する精度があります。」


今回の見本市で、ひときわ注目を浴びたのが、この「無人戦闘車両」です。
ロシアを代表する兵器メーカー、カラシニコフ社が発表した新型のAI兵器です。
ロシア語で「戦友」を意味する「サラートニク」と名付けられています。

  

(サラートニクの解説)
「今、自動戦闘モジュールが皆さんを監視しています。
AIが目標物を捉え、識別する技術が使われています。」

人や機械などの画像をAIに大量に学習させることで、脅威となる対象物の識別ができるようになるといいます。
さらにAIが敵と認識すれば、人間の判断を待たずに、攻撃することも可能だということです。
『AI兵器の分野で世界をリードしたい』というロシア政府の意向を受け、開発が進められてきました。
開発の責任者は、この兵器が戦場で使われる際には人間がコントロールするとした上で、内戦が続くシリアへの配備を示唆しました。

カラシニコフ社 ドミトリエフ社長代行
「(ロシアでは)この兵器をシリアなどで使用することが既に認められています。
兵士を危険にさらすことなく任務を遂行できるよう、この兵器を造りました。」


軍事専門家は、ロシアがAI兵器開発に力を入れる理由を、次のように指摘します。

軍事ジャーナリスト リトフキン氏
「パイロット1人を養成するのに5年以上の歳月が必要です。
人間は軍隊の中で最も“高価”なものであり機械に戦わせた方が“安上がり”なのです。」


リポート:小原健右支局長(ウィーン支局)

加速するAI兵器の開発競争。
その一方で懸念も高まっています。
アメリカのIT企業グーグルでは、社員およそ4,000人がAI兵器の開発に反対する署名を会社側に提出。
これを受けて、ピチャイCEOは今年6月、自社のAI技術の軍事利用を原則禁止すると発表しました。
さらに7月には、AIの研究開発を行っている企業や研究者が、「自律型」のAI兵器を開発しないとした誓約書に署名するなど、規制を求める声が高まっています。

こうした中、各国政府も動き出しました。
今年8月、70か国以上の代表や専門家がAI兵器の規制を検討した国際会議。
開発を行ってない国々からは、国際的な条約など法的な枠組みで開発や運用を制限すべきだとの声が相次ぎました。

オーストリア大使
「人間の生死を、機械の意思決定に委ねることはできない。」

ブラジル代表団
「標的の選定や攻撃などの判断は必ず人間が行うよう義務づけるべきだ。」

条約の制定を求めるオーストリアの大使は、自律型のAI兵器の開発を全面的に禁止すべきだと主張します。

オーストリア ハイノッチ大使
「ひとたび兵器として完成し、戦場に投入されてしまえば、排除するのは極めて難しくなるでしょう。
私たちに残されている時間はあまりないのです。」


これに反対したのが、開発を進める国々です。
AI兵器は誤射や民間人の巻き添えを減らすといったメリットもあり、今の段階での規制は時期尚早だと強調しました。

アメリカ代表団
「これから良い結果をもたらすかもしれないAI開発を、早い段階で抑え込んではならない。」

ロシア代表団
「拙速な制限や禁止はもってのほかだ。
高レベルな自動化のおかげで、AI兵器は厳しい環境の中でも活動できるのだ。」

日本はどう考えているのか。
今回、日本代表団のトップを務めた高見澤軍縮大使は、AIのメリットとデメリットについて、各国が共通認識を持てるようにならない限り、規制の導入は難しいと指摘します。

日本 高見澤將林軍縮大使
「人間社会の生活の利便性向上に使われるAIのポテンシャルを考えるべきだし、共通の認識を得るためには相当な努力が必要だろう。」


5日間に及んだ会議で各国は、攻撃の最終判断をAI任せにしないことについては合意。
しかし、条約などで開発そのものを規制することについては、意見が対立したままで、今月中旬に開かれる次の会合に臨むことになります。

開発か規制か AI兵器 議論の行方は

酒井
「スタジオには、AI兵器の規制を巡る国連の政府専門家会議に日本代表団として参加されている、拓殖大学の佐藤丙午教授にお越し頂きました。
よろしくお願いします。
VTRにもありましたロシアのAI兵器ですが、具体的にどんなところが衝撃を与えたのでしょうか?」

拓殖大学 佐藤丙午教授
「AIの判断で自分で動き回り、なおかつ攻撃の判断まで行う兵器が実用化の1歩前まできているというのは、非常に大きなニュースになったと思います。
情報収集から判断、そして攻撃に至るまでを機械が自律的に行うことを『機械のインテリジェンス』と言いますが、それが実現すると、世界の戦争の様相が大きく変わることになると予想されますので、今回のロシアの実験というのはその可能性を示したという意味においてすごく大きな衝撃ではありました。」

酒井
「率直に、怖さを感じました。
AIに人間の生死を決めさせてしまっていいのか、この点ではどんな議論がありますか?」

佐藤教授
「これは先ほどのVTRの中にもありましたとおり、国際会議で『攻撃をどこまでをAIに任せるか』ということについて議論のポイントになりましたが、人間の生き死にに関わるところをAIに任せることの反対については国際社会にコンセンサスがあると思いました。
兵器の動作は大きく、目標を細捕捉する『認知』であるとか、敵か味方かを判断する『分析』、そして、最終的に攻撃を行う『反応』という3つのプロセスに分けられますが、この国際会議では、最後の『反応』の部分については、人間が行うべきだということで市民社会も、政府代表団も参加していた軍人の間にも、大きなコンセンサスがありました。」


花澤
「VTRの中でも、正確な判断によって、民間人の犠牲も含む、良い結果をもたらすかもしれないという声もありましたが、とは言え、兵士ではなくてAI兵器となると、自国の兵士の命がかからないという意味では、ハードルが下がるというか、戦争が起きやすくなるという心配はないのでしょうか。」

佐藤教授
「戦争が起きやすくなるということについては、市民社会の側からも政府代表団の側からも、実際に指摘がありました。
確かに機械に任せることで、戦争の責任の所在が不明確になるという面はあると思います。
ただ、それについては、特に軍人の側から大きな拒絶反応がありまして、やはり戦争というのは高度な政治的な行為ですので、それを機械に委ねることへの抵抗感は、特に軍の側から強かったというのは非常に心強かったところではあります。」

花澤
「それともうひとつ気になりますのは、例えば前線にAI兵器を置くとしたら、離れて人間がいるとすると、ワイヤレスで、無線か何かで制御するということになるわけですよね?
そこでハッキングをされて、兵器が暴走するといいますか、勝手に攻撃をし出すという心配はないのでしょうか?」

佐藤教授
「そのリスクも指摘されています。
いわゆるサイバーセキュリティーに関わるリスクというのは、今おっしゃったとおりのものでありまして、AIに委ねることのリスクの1つとして挙げられています。
また同時に、AIが中央によってコントロールさせることに加えて、機械自体にデータベースとAIのアルゴリズムが組み込まれていて、そこで彼らが自律的に判断することも実は逆に怖いので、暴走したり、誤判断を起こしたりもしますので、それも同じように指摘されていたポイントでもあります。」

花澤
「そのリスクを本当にゼロにできるのかどうかというところは非常に気になるところですが、一方で規制もなかなか難しそうですが、その規制が難しい理由というのはなんなんでしょう?」

佐藤教授
「規制が難しい理由は、AIを搭載した兵器システムというのがまだ存在していないというところに一番のポイントがあります。
つまり、核兵器、もしくは生物化学兵器であれば、兵器としてもう存在しているわけですから、それの開発・保有をやめたり、数の削減をしたり、さまざまな手法が取れるんですけれども、AIを活用した兵器システムについては、まだ存在していないので、今後現れるであろう技術、今民間分野で使われている技術の軍事転用をどう抑えるのか、また、転用したとして、その転用の使用のあり方をどうコントロールするのかというのが問題になりますので、そこについてのコンセンサスが国際社会では取れていないのだと思います。」

花澤
「それから日本の立場なんですが、日本は端的に言うとどういう立場なんでしょう?」

佐藤教授
「日本については、全ての可能性を排除せず、議論を続けるべきだというのが日本政府の公式な立場ですし、会議場でもその立場というのは非常に高く評価されていました。
と言いますのは、アメリカやロシア、中国、韓国などは規制について、かなり消極的な意見を出します。
それに対して日本は禁止条約も含めて可能性を検討すべきだという立場ですので、その点については市民社会からもほかの国からも高い評価を得ていたという感想を持ちます。
ただその反面、日本の対応というのは時間稼ぎをしようとしているだけなのではないかという指摘も同時に存在していて、日本がこれからAIを活用した兵器システムを開発する時間稼ぎのために、今の議論を停滞させようとしているのではないかという批判もありました。
その分だけ日本が積極的に意見を出してほしいという意見も多くから聞かれましたので、日本がこの議論の結論をコントロールすることはできないにせよ、何らかの形で貢献することはできるだろうと思いました。」

花澤
「より規制が進む方向に日本としては議論を持っていく、後押しするということはできるということですか?」

佐藤教授
「できると思います。
ただこの規制は使い方の規制ですので、使い方の規制する場合は、機械そのものに使い方の制限をつけるやり方と、機会を使うときの判断を重視するやり方、その2つがあると思います。
どちらの方法が良いのかということについては軍備管理軍縮ですので、多くの国が受け入れる方策でないと意味がありませんので、多くの国が受け入れることができるコンセンサスがどこにあるかということを模索している段階なんだと思います。」

花澤
「まさに今、最初の時期に規制するならするという、非常に重要な時期にいるということですよね。」

佐藤教授
「おっしゃるとおりです。」

花澤
「ありがとうございました。」

酒井
「ここまで、拓殖大学の佐藤丙午教授にお話を伺いました。」

ページの先頭へ