ロシア軍の侵攻に対し、ウクライナ軍は大量のドローンを駆使して集めた敵の情報をネットワークで共有し作戦立案・遂行に生かしている(写真はドネツク州バフムト近郊の地下司令部)
AIと兵器の融合はまさに日進月歩で進んでいる――それが目に見える形で明らかになったのが、ロシアのウクライナ侵攻だった。守るウクライナ軍は各部隊の情報をネットワークで統合し、AI搭載のドローンを駆使してロシア軍と対峙(たいじ)している。
またイスラエル・ハマス戦争においても、イスラエル軍は作戦の各部に最新テクノロジーを組み込んでいるはずだ。
そんな中、今年6月に日本語訳が刊行されたのが、テクノロジーと核抑止の関係を研究する英アバディーン大学助教ジェームズ・ジョンソン氏の著書『ヒトは軍用AIを使いこなせるか』(並木書房)。
同書を翻訳した陸上自衛隊教育訓練研究本部の川村幸城(こうき)1佐は、「軍用AIの使用によって『偶発的な核戦争』を引き起こす可能性など、多面的な影響を分析しているのが同書の白眉だ」と語る。
防衛大学校で安全保障学の博士号を取得し、最先端の軍事技術を研究している川村氏は、同書が予言する「軍用AIの未来」をどう解釈しているのか?
■公開された兵器の画像もAIの"オイル"になる
――この本のメインタイトルは「使いこなせるか」という問いかけになっています。著者の結論をどう解釈されましたか?
川村 使いこなせるか、使いこなせないかの評価を明確に述べているわけではありません。しかし著者は、「先端兵器システムへのAIの急速な拡散と普及によって生じる不確実性をこのまま野放しにしておけば、将来の不安定と大国間(特に米中)の戦略的競争の重大要因となる」と、条件付きでそのリスクに警鐘を鳴らしています。
なお、本書で議論されている「軍用AI」とは汎用(はんよう)型AIではなく、いわゆる特化型AIを指します。
――特化型AIとはどんなものでしょうか。
川村 汎用型AIというのは、同時に複数の役割を果たし、さまざまな分野の課題を処理できるAIです。
この汎用型AIが人間の知能を超越したものが、SF小説や映画でしばしば「AIの暴走」として描かれる、シンギュラリティ(技術的特異点)を通過してできるスーパーインテリジェンスAIですね。 米映画『2001年宇宙の旅』(1968年公開)に登場する「HAL(ハル) 9000」もそうです。
一方、特化型AIとは、特定のタスク(任務)だけに秀でたAIです。例えば「アルファ碁」は囲碁の能力では人間を上回っていますが、将棋やポーカーはできません。
川村幸城氏
――つまり同書で議論されている「軍用AI」も、ひとつのタスク、細分化された機能だけに特化しているものということですね。
川村 はい。特化型AIは、データさえ与えればどんどん能力をアップさせていきます。近代産業を支えた石油(オイル)になぞらえた「IT社会のオイルはデータである」という格言は、軍用AIにも当てはまります。
例えば、インターネットで「〇〇型戦車 画像」と検索すると、画像がたくさん出てくる。あれもすべてAIのエネルギーになってしまうんです。
ただ、民間ビジネスの世界におけるAIよりも軍用AIの構築が難しいとされる理由のひとつは、能力を向上させるためのオイルであるデータが簡単には得難く、ものすごく不足していることです。
――しかしアメリカをはじめ、民主主義国の軍は最新装備の写真をいくつも公開していますよね。あれもオイルになってしまうんですか?
川村 はい。ですから、これから公開するデータに関しては扱いを変える傾向があります。例えば、装備の迷彩色のピクセルを変えるだけでも、AIは正しい学習ができない。このようにデータに加工を施すことを「敵対的サンプリング」といいます。
(撮影を担当した)柿谷カメラマン 最近、NATO(北大西洋条約機構)などでは取材時に「この角度でしか撮ってはいけない」とか、規制がものすごく厳しいです。それに、高解像度の写真もあまりアップされなくなっています。
川村 それは初めて聞きましたが、すごく納得できる話です。また、AIの入力と出力の関係に関してはまだよくわかっていない点も多く、よくたとえ話に出るのが、幼稚園まで子供たちを送るスクールバスの画像をAIに認識させると、「ガチョウ」と出力するケースがあるんです。
――えっ、なぜですか?
川村 なぜその結論に至ったのか、プログラムを組んだ人もAIのオペレーターもわからない。これがブラックボックス問題と呼ばれるもので、やはりそういった不安要素がある限り、「ヒトは軍用AIを完全には使いこなせない」というのが本書の主張になっていると私は解釈しています。
しかし、そうはいっても国際政治においてパワーを行使する大国が、最新テクノロジーを諦めるはずがないというのが著者の議論の前提です。その前提に立って考えると、AIの存在は核エスカレーションを引き起こす要因になりえる。そのように指摘しているわけです。
■AIに恐怖を抱いた人間が核のボタンを押す
――スーパーインテリジェンスAIが核の発射ボタンを勝手に押す、というようなフィクション作品はいくつもあります。しかし、特化型AIが核エスカレーションを起こすというのは、どういうことでしょうか?
川村 ポイントは政治指導者、つまり人間の「政治心理」です。従来の核抑止理論は、深海に潜む核ミサイル搭載原子力潜水艦や、移動式核ミサイル発射装置の場所を相手が見つけられないということを前提に成り立ってきました。
それがあるから先制核攻撃をしても相手の報復攻撃で甚大な損害が出る、だから先制核攻撃はできない、という構図です。
ところが、もし軍用AIの能力によってそれらが容易に発見され、ピンポイントで壊滅させられる可能性があるとしたらどうでしょうか。本当にそうなるかどうかではなく、問題は政治指導者がそのような恐れを抱くことです。
――「相手のAIはこういうことができるかもしれない」という疑心暗鬼ですね。確かに、今は海中で相手の原潜の稼働音を聞き分けることは事実上不可能だ、だから隠れられるということになっていますが、水中音のデータを山ほど学習したAIがそれを可能にしてしまったら......。
川村 そういった心理があるときに、例えば自分たちの秘蔵の潜水艦部隊がいつも出入りしているポイントの周りで相手国の無人潜水艇が多数発見されたり、あるいは相手国から「原潜の情報を得ている」とにおわす発言があったり、そうなってくると政治指導者は恐怖を感じるはずです。
戦場でどこに相手が潜んでいるかを見つける監視・観測の能力というのは、一見すると目の前の戦闘を有利にしようとする戦術レベルの話です。
ところが、その戦術レベルでのAIの能力増強が、核戦争という戦略レベルのエスカレーションにまで影響してしまう。しかも、従来の核抑止論にはなかったそのエスカレーションの「経路」が、AIによっていくつもできてしまう。それを指摘しているのが本書に驚かされるところです。
東西冷戦期、アメリカとソ連の間では、互いに核ミサイル搭載戦略原潜を保有することで、先制核攻撃を敵にさせないという「MAD(相互確証破壊)」と呼ばれる核抑止が機能していた。現在は米中の間でもそれが成立しつつあるといわれているが......
――株取引の世界では、AIのほうが「分析→予測」のスピードが速いことから、すでにAIに売買の判断自体を任せるケースが出ています。軍用AIもそうなる可能性はあるでしょうか?
川村 軍用AIの場合はやはり殺傷に関わる部分など、最後の判断は人間がずっと持っておくべきだという議論があります。核に関しても現時点では、核の指揮統制に関わる意思決定をAIに委ねるべきではないというコンセンサスが核保有国の間に存在します。
しかし今後、国防関係者の間でAIの決定内容を人間のものと同レベルか、またはより優れたものと見なす傾向が強まれば、最終的にAIに戦略的意思決定を判断させるようになるというシナリオも現実味を帯びてきます。
著者は、この点について民主主義体制と権威主義体制の違いについても指摘しています。あくまで仮定の話としてですが、中国の警戒レーダーが相手国からの核攻撃を探知したものの、北京の上層部につながる通信が遮断してしまっていたときにどうするか。
マシンの自動化された決定に伴う倫理的問題を重要視する民主主義国と比べて、権威主義国の場合は、上層部が人間の部下に委ねるよりもAIに自動対応・判断をさせるような体制を構築する傾向があるのではないかということです。
■戦場の未来は「知能化戦」「非接触戦」
――こうした懸念について、対策はないのでしょうか?
川村 ですから本書は、実はさまざまなリスクを指摘し、チェックリストのように網羅した「べからず集」になっていると私は読みました。
――AIにこれをさせてはいけない、こういう使い方は危険だ、という。
川村 はい。データ→判断→予測→行動(アウトプット)という流れの中の、「データ」と「判断」の部分で、人間の役割がますます重要になるといわれています。
――「データ」とは、正しいデータをたくさん食べさせるというような意味ですね。
川村 はい。"汚染データ"ではない、正しいデータかどうかを確認してAIに学習させなければいけない。逆に言えば、相手に利用されないためにデータをプロテクトすることも重要です。先ほど申し上げたように、写真であれば公開するときには処置を施さないといけない。
――今ウクライナの戦場では、両軍の無人兵器が膨大な量の映像・画像を日々、撮影しています。これもAIの進化につながるでしょうか?
川村 まさにそのとおりです。学習データが不足していると、CGなども含めた「模擬データ」を使わなければいけないんですが、それに対して実戦での「実像データ」は、はるかに学習による能力向上にダイレクトに影響すると考えられます。
ウクライナの戦場では日々、大量のドローンが集めた「実像データ」が積み上げられ、AIの能力向上に役立てられていると思われる
――例えばの話ですが、ウクライナ軍の学習データがNATO経由で日本にも入ってくるとします。それは中国の戦車を見分けるのにも役立ちますか?
川村 いろんな車両の中から戦車を選ぶ「種別」「類別」の能力向上には使えるでしょう。ただ、戦車といってもロシア製の戦車と中国の戦車は違いますから、その実像データがないとなかなか正答率が上がらないかもしれません。
また、無人機のカメラに搭載するAIの能力を上げたければ、同じように無人機から撮影した角度の写真データでないと、正答率は上がらないという話もあります。それくらいAIに入力するデータの質というのは、学習の良しあしを大きく左右します。
――話を戻しますと、人間のもうひとつの役割である「判断」とは? AIにどんなネガティブリスト、「べからず集」をインプットするかということでしょうか。
川村 はい。どれを禁止し、どれを良しとするか。例えば、自動走行車に「一件も事故を起こすな」とプログラムすると、動かなくなります。
――それが入力された条件下においては"正しい行動"になると。
川村 でも、動かなければ自動走行車を造った意味がないですよね。こうした点が難しい問題であり、現在の特化型AIの限界ともいえます。
川村幸城氏
――いずれにしても、軍用AIの担当範囲が今後広がっていくことは間違いないと思います。戦場はどのように変わっていくのでしょうか?
川村 一般的に軍用AIは戦いのテンポを速め、戦場全体を透明化し、指揮官に対応すべき脅威をいち早く伝達することを可能にするといわれます。しかし、相手も同等のAI兵器を有している場合は、「相手からの攻撃に対処するための意思決定の時間が短縮される」ことにもなります。
その結果、これまでのように数日、あるいは数時間といった時間的尺度で、それこそ人間が会議を開いて物事を判断するような形では追いつかず、決断を迫られるまでもなく戦闘が進展していく。このようなイメージの下で構築されたのが、中国が持っている「知能化戦」という概念です。
あるいは、ロシアのゲラシモフ参謀総長などがよく使う「非接触戦」という言葉があります。最初は光学(画像など)、次に電波、音響、 熱源で相手を認識する。そこでミサイルを撃ち、本当に標的だったのか、あるいはデコイ(囮[おとり])だったのかを評価する。
人間の五感を頼りに戦うのではなく、すべてにおいてマシンを経由したものをわれわれは見て、聞いて、頭で考える世界になります。
その世界においては、軍用AIをしっかりと手当てしないとエスカレーションは容易に起こりうる。そのリスクを本書は指摘しているのです。
*川村氏の発言は個人的見解を述べたものであり、所属組織の見解を反映したものではありません
●川村幸城(かわむら・こうき)
陸上自衛隊教育訓練研究本部勤務(1等陸佐)。慶應義塾大学卒業後、1995年陸上自衛隊に入隊。2005年第49期指揮幕僚課程修了後、北部方面総監部防衛部、陸上幕僚監部防衛部を経て、防衛大学校総合安全保障研究科後期課程にて安全保障学の博士号を取得。訳書に『戦争の新しい10のルール――慢性的無秩序の時代に勝利をつかむ方法』(ショーン・マクフェイト著、中央公論新社)、『ロシア・サイバー侵略――その傾向と対策』(スコット・ジャスパー著、作品社)、『AI・兵器・戦争の未来』(ルイス・デルモンテ著、東洋経済新報社)などがある
■『ヒトは軍用AIを使いこなせるか―新たな米中覇権戦争―』
ジェームズ・ジョンソン[著]川村幸城[訳] 並木書房 2420円(税込)
AIで強化された軍事システムはいずれ人間の認知的・身体的能力を上回り、核抑止を支えてきた移動式ミサイル発射機や核搭載型原子力潜水艦を瞬時に破壊する......。AI兵器の軍備競争が本格化する中、従来の核抑止論が根底から覆されるメカニズムを、未来戦のシナリオを交えながら解き明かす
『ヒトは軍用AIを使いこなせるか―新たな米中覇権戦争―』