SDGsGoal16(平和と公正を全ての人に)キラーロボット:アルゴリズム戦争の恐るべき台頭

キラーロボット:アルゴリズム戦争の恐るべき台頭

【ウルグアイ・モンテビデオIPS=イネス・M・ポウサデラ】

良心を持たない機械が、人間の生死を分ける判断を一瞬で下している。これはディストピア小説ではない。現実である。ガザでは、アルゴリズムによって最大3万7000人に及ぶ「殺害対象リスト」が生成されてきた。

自律型兵器はウクライナでも使用されており、最近では中国の軍事パレードでも披露された。各国は、なお制御可能であると信じ、こうした兵器を自国の軍備に組み込む競争を加速させている。しかし、その前提が誤りであれば、結果は破滅的になりかねない。

人間が引き金を引く遠隔操作ドローンとは異なり、自律型兵器は自ら致死的判断を下す。一度起動されると、顔認識、熱探知、行動パターンなどのセンサーデータを処理し、事前に設定された標的プロファイルと一致すると自動的に発砲する。そこにためらいはなく、道徳的省察もなく、人命の価値を理解することもない存在である。

高速性と躊躇の欠如は、紛争を急速にエスカレートさせる危険性をはらんでいる。さらに、これらのシステムはパターン認識と統計的確率に基づいて作動するため、致命的な誤認を引き起こす可能性が極めて高い。

イスラエルによるガザ攻撃は、AIが大量殺戮に組み込まれた最初の兆候を示す事例となった。イスラエル軍は複数のアルゴリズム標的選定システムを投入している。ラベンダーや「ゴスペル」と呼ばれるシステムは、ハマス構成員と疑われる人物を特定し、人間の標的リストや爆撃対象のインフラを生成する。また「ウェアズ・ダディ(Where’s Daddy)」は、標的が家族と共に自宅にいる時間帯を追跡し、その瞬間を狙って殺害を実行するためのシステムである。

イスラエルの情報当局者は、約10%の誤認率が存在することを認めながらも、それを「織り込み済み」とし、アルゴリズムが特定した下級戦闘員1人につき民間人15〜20人、司令官の場合は100人以上の民間人死者を容認している。

暴力の非人格化は、責任の空白も生み出す。アルゴリズムが誤って人を殺した場合、誰が責任を負うのか。プログラマーか、指揮官か、使用を承認した政治家か。法的な曖昧さは、加害者を責任追及から守る構造として組み込まれている。生死の判断が機械に委ねられるとき、「責任」という概念そのものが、制度の中で溶解していく。

こうした懸念は、AIが市民空間や人権に与える影響をめぐる、より広範な警戒の流れの中に位置づけられる。技術が安価になるにつれ、AIは戦場にとどまらず、国境管理や警察活動にも用いられるようになっている。AI搭載の顔認識技術は監視能力を飛躍的に強化し、プライバシー権を侵食する。アルゴリズムに埋め込まれた偏見は、性別や人種などに基づく排除を再生産する。

技術が急速に発展する一方で、国際社会は10年以上にわたり自律型兵器を議論してきたにもかかわらず、拘束力ある規制を生み出せていない。2013年、特定通常兵器使用禁止制限条約(CCW)を採択する国々が議論開始に合意して以来、進展は極めて遅い。2017年以降、致死的自律型兵器システムに関する政府専門家会合(GGE)が定期的に開催されているが、インド、イスラエル、ロシア、米国といった主要軍事大国が、全会一致を要する仕組みを利用して規制案を体系的に阻止してきた。

2025年9月には、42カ国が規制前進への用意を示す共同声明を発出し、長年の膠着状態を破る一歩となった。しかし、主要な反対国は依然として立場を崩していない。

United Nations Headquarters Photo:Katsuhiro Asagiri
United Nations Headquarters Photo:Katsuhiro Asagiri

この行き詰まりを打破すべく、国連総会が主導権を握った。2023年12月、総会は自律型兵器に関する初の決議である決議78/241を採択し、152カ国が賛成した。続く2024年12月には、決議79/62により加盟国間協議が義務付けられ、2025年5月にニューヨークで開催された。協議では、倫理的ジレンマ、人権への影響、安全保障上の脅威、技術的リスクが検討された。国連事務総長、赤十字国際委員会、そして多数の市民社会組織は、軍事AIの急速な進展を踏まえ、2026年までに交渉を妥結させるよう求めている。

2012年以来、70カ国以上、270以上の市民社会団体からなる「キラーロボット反対キャンペーン(Campaign to Stop Killer Robots)」が、自律型兵器規制を求めるこの取り組みを主導してきた。継続的な提言と調査を通じて、同キャンペーンは現在120カ国以上が支持する「二層アプローチ」を打ち出している。これは、人間を直接標的とするシステム、有意義な人間の制御を欠くシステム、影響を十分に予測できないシステムといった最も危険な兵器を禁止すると同時に、それ以外の兵器に対しても厳格な規制を課すものである。

禁止されないシステムについても、人間の監督、予測可能性、明確な責任の所在を条件とし、標的の種類、使用時間や場所の制限、義務的な試験、人間が介入可能な監視体制など、厳しい制約の下でのみ使用が認められる。

期限を守るために残された時間は1年しかない。10年に及ぶ議論が生み出せなかった条約を、国際社会は今後1年で取りまとめなければならない。月日が過ぎるごとに、自律型兵器はより高度化し、より広く配備され、軍事ドクトリンに深く組み込まれていく。

ひとたび、機械が人の生死を決めるという発想が常態化すれば、規制を導入することははるかに困難になる。各国は、人間を直接標的とする、あるいは有意義な人間の制御を欠く自律型兵器システムを禁止し、違反に対する明確な責任追及の仕組みを定める条約を、早急に交渉を開始すべきである。技術を「発明しなかったこと」にすることはできない。しかし、制御することは、まだ可能である。(原文へ

イネス・M・ポウサデラは、CIVICUSの調査・分析部門責任者であり、「CIVICUS・レンズ」の共同ディレクター兼執筆者、「市民社会の現状報告書」の共著者である。また、ウルグアイのORT大学における比較政治学教授も務める。

INPS Japan/IPS

関連記事:

著名な仏教指導者が核兵器とキラーロボットの禁止を呼び掛ける(池田大作創価学会インタナショナル会長インタビュー)

カリブ諸国、「殺人ロボット」禁止へ

生死の決定を機械に委ねることは、道徳的に正当化できない(「ストップ・キラーロボット」エグゼクティブ・ディレクター、ニコール・ファン・ローヤン氏インタビュー)

最新情報

中央アジア地域会議(カザフスタン)

アジア太平洋女性連盟(FAWA)日本大会

2026年NPT運用検討会議第1回準備委員会 

パートナー

client-image
client-image
client-image
client-image
Toda Peace Institute
IPS Logo
The Nepali Times
London Post News
ATN

書籍紹介

client-image
client-image
seijikanojoken