【動画解説】イスラエル軍によるAI使用への懸念

ガザ地区では人道支援物資の搬入量が増加傾向にあるものの、今後、暑さに伴い衛生環境が悪化するおそれが指摘されています。
イスラエル軍が攻勢を強める構えを見せる中、人道危機への懸念が強まっています。


※4月24日に国際報道2024で放送した内容です。
※動画は7分12秒、データ放送ではご覧になれません。

戦闘が続くガザ地区では、およそ170万人が住む家を追われています。

UNRWA=国連パレスチナ難民救済事業機関のラザリーニ事務局長は23日、支援物資を運ぶためにガザ地区に入ったトラックの台数が、22日には一日で316台と増える傾向にあり、状況に改善がみられるという認識を示しました。

ただ、UNRWAは、必要な支援を届けるには一日に500台以上が地区に入る必要があるとしています。

また、ラザリーニ事務局長は、多くの住民が避難している地域ではゴミの処理が大きな課題となっていて、これからの暑さに伴って衛生環境が悪化し、病気がまん延するおそれがあると指摘しました。

一方で、イスラエル軍は連日、ガザ地区の広い範囲で空爆などを続けています。

こちらはイスラエル軍が23日に公開した、ガザ地区北部ベイトラヒヤへの攻撃とする映像です。

この地域からイスラエル側に向けてロケット弾4発が発射されたとして、イスラエル軍は一部の住民に指定する場所まで退避するよう通告を出したあと、ロケット弾が発射された場所付近のトンネルの坑道や軍事施設などを空爆したとしています。

ガザ地区の保健当局はこれまでに3万4183人が死亡したとしています。

一方、イスラエル軍が今月初めに部隊を撤収させた南部ハンユニスにあるナセル病院では23日、これまでに少なくとも310人の遺体が見つかったと中東の衛星テレビ局アルジャジーラなどが伝えています。

これに対しロイター通信は、イスラエル軍が「根拠がない」と述べたうえで、「以前パレスチナ人が埋葬した遺体をイスラエル軍が人質捜索のために調査し、元の場所に戻した」と主張したと伝えています。

ガザ地区では地区最大のシファ病院でも多数の遺体が見つかったと伝えられていて、国連人権高等弁務官事務所の報道官は23日、人権高等弁務官の談話として、死亡した原因などについて調査の必要性を訴えました。

国連人権高等弁務官事務所 報道官「ナセル病院やシファ病院で多くの遺体が埋葬されていたことにぞっとしている。遺体について効果的で透明性のある独立した調査を求める」

イスラエル軍によるAI使用への懸念

ガザ地区での死者は3万4000人を超えました。

多大な犠牲の要因として、イスラエル軍によるAI=人工知能の使用ではないかという懸念が国際社会の中で強まっています。

こちらは国連の人権理事会に先月、提出されたパレスチナの人権状況に関する報告書。

報告書は、「イスラエル軍が最初の数か月の軍事作戦で、AI=人工知能を利用しておびただしい数の建物を標的として特定し、2万5000トンを超える爆発物を使用した」と指摘。

これを受けて、人権理事会では今月始め、イスラエルのガザ地区での軍事作戦を非難する決議を可決。

決議には「国際法違反の可能性がある軍事的意思決定を支援するAIの使用を非難する」という文言が盛り込まれたのです。

さらに今月、イスラエルのメディアが、イスラエル軍が空爆の標的を選ぶ上で「ラベンダー」という名前のAIシステムに依存していると報道。

過激派の疑いがある人物としてパレスチナ人3万7000人とその自宅がAIシステムに登録され、夜間、寝ている間にAIが自宅を探して空爆。
人間が空爆の判断に介在する時間も短く、家族や周辺の一般市民が巻き込まれたなどと伝えたのです。

これに対してイスラエル政府は「攻撃の最終的な判断は人間だ」と強調したものの、国連のグテーレス事務総長は強い懸念を表明しました。

グテーレス事務総長「イスラエル軍が空爆の標的の特定にAIを利用という報道に非常に困惑している。特に住宅密集地で大勢の市民の犠牲を招いたという点だ。生と死の決定をアルゴリズムの冷徹な計算に委ねるべきではない」


イスラエル軍のAI使用で、民間人の犠牲が増えているのではないかという懸念を表明したのは、グテーレス事務総長だけではありません。

先週には国連の特別報告者5人が共同声明を発表し、強い懸念を表明しました。

特別報告者5人は、AIによって民間の住宅が空爆の標的とされ、AIがDOMICIDE(ドミサイド)を招いたと非難しています。

DOMICIDEは、意図的かつ組織的に住宅を破壊する行為で、ラテン語の「住宅」と「殺害」の造語です。

ガザ地区ではすべての住宅の60%から70%が破壊されているとしていて、特別報告者たちはAIによるドミサイド=無差別的な住宅破壊と非難しています。

標的を特定するためのAI利用はアメリカ軍などでも行われてきましたが、その主な理由は、兵士によるミス、ヒューマンエラーをなくすことで、正確に標的を選び民間人が巻き込まれる危険性を最小限に抑えるという説明でした。

しかし、AI利用でかえって標的が増え、犠牲者そして破壊行為が増えているのであれば本末転倒で、極めて危険なAI利用と言わざるをえない状況です。