AIが人類に反乱? 兵器規制はどこまで?

AIが人類に反乱? 兵器規制はどこまで?
ロボット兵器が町を破壊し、人を殺傷する。
誰を殺すか決めるのは人ではなく、ディープラーニングで自己進化を遂げたAI・人工知能だ。

そんなSFのような世界が現実のものになるのではないか。

そうした危機感からAI兵器を規制するための真剣な議論が、スイスのジュネーブで続いている。国際社会は“悪しき新兵器”の出現を食い止めることができるのか。(解説委員 津屋 尚)

AI殺人ロボット

人の手のひらにのるほどの超小型のドローン。
不気味な音を立てながら空中に舞い上がったかと思うと、人の頭部めがけて急降下、拳銃でこめかみを撃ち抜くように頭蓋骨を砕いてしまう。
この「殺人ドローン」が幾百もの群れとなって、郊外の小高い丘にある大学のキャンパスに向かって飛んでいる。
群れは頑丈な校舎の壁を打ち破って教室内部に侵入。不気味な侵入者に学生たちは驚き逃げ惑う。

ドローンが搭載するAIは、インターネットのSNS上にあふれる写真や交友関係、宗教、思想などの個人情報から収集分析されたターゲットの学生たちを瞬時に識別。「殺すべき相手」を見つけると次々に突進し、「正確に」殺害していく…。
これは「LAWS」の禁止を訴える国際NGOが作成したPR動画の1シーンだ。LAWSとは「Lethal Autonomous Weapons System=完全自律型致死性兵器」の略で、人間を介さずAIみずからの判断で人命を奪うAI兵器のことを言う。

研究開発の途上のため「銃」や「ミサイル」のように、これこそがLAWSだという完成形はまだない。しかし、急速な技術の進歩により、その出現が現実味を帯びてきている。

PR動画は、実際に使用される可能性の一例を具体的に描いて見せ、LAWSの非人道性を伝えようとするものだ。問題は、この兵器が出現してしまう前に規制の網をかけることができるかどうかだ。

対人地雷も生物・化学兵器も、そして核兵器も、実際に使用されて悲惨な結果を招いた後で禁止や規制の条約がつくられてきた。

AI兵器の場合、その技術的進歩の速さと兵器開発の実態の不透明さゆえ、「完全自律型」が登場してしまってからでは、ストップはかけられないのではないか。

AIが「指揮」する軍事作戦

AIを「作戦の指揮統制システム」に活用する動きもある。

GPSでつかんだ敵と味方のリアルタイムの位置情報、戦力の特徴、弾薬の種類や量、そして過去の作戦から得られた教訓など、戦場でのあらゆる情報を分析し、どのような部隊配置や攻撃方法が最も有効かをAIに判断させようというものだ。

AIは人間よりはるかに短時間で選択肢を導き出し、ハイスピードで攻撃を仕掛けることができるだろう。

AI兵器が人間に反乱?

AI兵器を開発する側は、AI搭載のロボット兵器を投入すれば、自国の兵士の人命を危険にさらさずに済むうえ、人間のように感情に左右されないからヒューマンエラーも減らせる、と主張する。
しかし、完全自律型のAI兵器は、実にさまざまな懸念を生じさせている。
▽そもそもロボットに人命を奪う判断をさせていいのか。
▽自国の兵士の損失が減ることで戦争へのハードルが下がるのではないか。
▽さらに、テロリストや独裁者の手に渡り、テロや弾圧の手段にもなるのではないか。
▽機械である以上、故障による誤作動やプログラムのバグは起こりえる。また、サイバー攻撃でハッキングされる可能性も否定できない。

さらに、AIが人間に「反乱」を起こす事態を警告する科学者もいる。
去年亡くなったスティーブン・ホーキング博士もその一人だった。
博士は生前、次のように述べていたという。
「気がかりなのはAIの性能が急速に上がって、みずから進化を始めてしまうことだ。遠い将来、AIは自分自身の意志を持ち、私たちと対立するようになるかもしれない」
AIは深層学習・ディープラーニングによって、みずから進化を遂げる。

その結果、AIはいずれ人類の知能を超える「シンギュラリティー=技術的特異点」に達するだろうとの指摘も最近よく耳にする。

人間なら何年かかっても追いつかないほど大量で複雑なデータを短時間で学習し、人間の想定を超える判断や行動をAIなら導き出せる。
しかし、なぜそのような結論に至ったのかはブラックボックス化されてわからない。
もしも、AIが人間の理解を超える判断により、「反乱」を起こしたらどうなるのか。

人間が気付けば直ちに電源スイッチを切ればいいではないかという人もいる。

しかし、その判断の一切の過程が見えないのだから、突然その「反乱」が実行されたら、そして「反乱」なのか見分けがつかない形態で始まったなら対応は困難かもしれない。

難航する規制の議論

国際社会は、このAI兵器をどうやって規制しようとしているのか。

それは、120か国余りが加盟し、対人地雷などを禁止してきた「CCW=特定通常兵器使用禁止制限条約」による規制だ。ジュネーブでは条約による規制の議論が5年前から続けられ、8月21日、LAWSを規制するルールの初めての指針ともいえる報告書がようやくまとめられた。

全会一致で採択された報告書は、すべての兵器システムは国際人道法が適用されること。AI兵器の使用には人間が責任を負うことなどが盛り込まれた。

今まで何もなかったルールの形が示されたことを評価する声がある一方で、条約による「禁止」を強く訴えてきた国際NGOなどの間には失望が広がっている。それは、この指針には法的拘束力がなく、玉虫色の決着をした感は否めないからだ。
「ルールを自国の都合のよいように解釈する国が現れるのではないか」「攻撃判断への人間の介在をどのように検証するのか」など疑問は残る。

今後もCCWの枠組みでこの指針についての検討が続くというが、将来へのさまざまな懸念をどう払しょくするか大きな課題だ。既存の条約にこだわらず、もっと厳しい新たな禁止条約を目指すべきとの意見もある。
しかし、問題は複雑だ。仮にそのような条約ができたとしても、米ロなど開発国が加わる可能性は極めて低く、実効性に疑問符が付きかねないのだ。

覇権を握るための軍事技術

科学者からの批判にさらされ、多くの市民に不安の種をまき散らしながらも、米ロ中をはじめ一部の国がAI兵器の開発を止めないのは、この軍事技術で優位に立つことが次の時代の覇権の獲得につながるとみているからだ。

20世紀、核兵器という無差別殺りくの巨人を生み出した人類はいま、人間のコントロールを超えるAI兵器の出現という未知の危険領域に踏み出そうとしているのかもしれない。

私たちはホーキング博士に「あなたのご懸念は杞憂(きゆう)でした」と報告することができるだろうか。
津屋尚解説委員