【ウィーン INPS Japan=オーロラ・ワイス 】
144カ国の政府代表、国際組織、産業、学界、科学者、市民社会などから1000人以上のゲストがウィーンに集まり、自律型兵器システム(AWS) の規制に関する会議が開催された。「岐路に立つ人類―自律型兵器システムと規制の課題」と題された今回の初の国際会議は、オーストリア外務省が主催し、4月29・30日に開催された。
人工知能の導入によってますます自律化する兵器は、武力紛争のあり方を根本的に変えた。多くの努力と議論がなされているにもかかわらず、国際レベルにおいては急速な技術進歩に対する規制が実行されていない。AWSは、イスラエルのガザ地区における戦争やロシアによるウクライナ侵攻など、現在の紛争ですでに使用されている。紛争におけるAIの利用が国際法や道徳、人道主義、安全保障に関する根本的な疑問を呈する中、規制が緊急に必要とされている。
2024 Vienna Conference on Autonomous Weapons Systems Credit: Federal Ministry Republic of Austria
「自律型兵器システムはまもなく世界中の戦場を埋め尽くすでしょう。人工知能(AI)対応ドローンやAIベースの標的選択に既に見られるように、技術は急速に進歩している一方で、政治は遅れを取っています。私たちは深刻な法的、倫理的、安全保障上の問題に直面しています。つまり、命と死の決定を機械に委ねることをどう防ぐか?誤作動とバイアスを起こしやすいアルゴリズムをどう扱うか?AIによって駆り立てられた軍拡競争をいかにして防ぎ、これがテロリストの手に渡らないようにするにはどうすればよいか?これらの課題の緊急性は、いくら強調しても足りないほどです。これは私たちの世代の『オッペンハイマーの瞬間』 *です。今こそ、人間の手による規制を実現するために国際ルールと規範に合意すべき時です。」と、オーストリアのアレクサンダー・シャレンベルク外務大臣 は開会の挨拶で語った。彼は、あまりに多くの人命が失われており、生と死をめぐる決定が機械によってなされてはならないと訴えた。
オーストリアはAWSの国際規制に長らく取り組んでおり、この分野で先駆的な役割を果たしてきた。2023年、オーストリアはAWSに関する初の国連決議採択を主導し、規制の必要性を強調した。国際法や規範の策定には時間がかかるが、条約の採択までには通常、数十年に及ぶ作業や緊密なパートナーシップ、集団的な動員が必要とされる。また、ひとたび合意がなされた後でも、効果的な支援が必要とされる。
自律型兵器システムは特定の「ターゲットプロファイル」を殺害するように事前にプログラムされており、顔認証などのセンサーデータを用いた「ターゲットプロファイル」をAIが行うような環境で配備される。AWSは、デジタル化のもたらす非人間化の極致だと言えよう。機械に対して生殺与奪の権利を与えることで人間の尊厳は損なわれ、私たちの権利は否定される。個人は、人間としてではなく、単なる客体として処理される。自律型兵器が作動すると、誰が、何が、どこで、いつ攻撃されるかを正確に知ることはできなくなる。
PHOTO Credit: Michael Gruber (BMEIA)
またオーストリアには、核兵器禁止条約(TPNW) など、国際的に法的拘束力のある条約の策定に取り組んできた長い伝統がある。核兵器禁止条約を最終的に生み出すことになった「人道イニシアチブ」の立案者の一人が、同国外務省で軍縮・軍備管理・不拡散局長を務めるアレクサンダー・クメント氏 だ。
会議中、多くの講演者が再び歴史的な「オッペンハイマーの瞬間」 に立ち会っていると指摘した。そこでクメント氏に核兵器と自律型兵器の比較について尋ねてみた。
「『オッペンハイマーの瞬間』 との比較は、広島・長崎以降、ロバート・オッペンハイマー博士やアルベルト・アインシュタイン博士を含む多くの人々が核兵器の持つ意味合いについて警告し、その規制を推進した状況を指しています。今日、AIやAWSの持ちうるリスクについて主要なAI専門家らが警告を発しており、その規制を求めています。しかし、現在の地政学的な状況では、国際ルールに合意することは極めて困難です。防止措置がまだ可能な瞬間を逃さないようにしなければなりません。」とクメント氏は説明した。
クメント氏のような軍備管理の専門家から見て、AWSにはいくつかの重大な課題がある。(AIの使用を通じた)兵器システムにおける自律性の増大は武力紛争の性格を根本から変えるだろう。そうした変化はすでにいくつか現れている。主要な懸念の一つは、機械が事前にプログラムされたアルゴリズムに基づいて生死の決定を下すことだ。
「機械が互いに学習し意思疎通を行うようになれば、兵器がそうした決定を下す際の人間の役割はどのようなものであり、どのようなものであるべきだろうか? すでにAI軍拡競争の兆候は表れている。早晩、これらの兵器が世界各国の戦力の中に現れるようになり、テロリストなどの非国家主体の手に渡ることになるだろう。」とクメント氏は警告した。
The Treaty on the Prohibition of Nuclear Weapons, signed 20 September 2017 by 50 United Nations member states. Credit: UN Photo / Paulo Filgueiras
現在、AWSのような兵器システムがもたらす法的、倫理的、安全保障面での問題に対応する特定のルールは存在しない。クメント氏は、「オーストリア政府はこの問題への政治的意識を高め、AWSの国際規制に進展をもたらす推進力を生み出したいと考えている。」と語った。昨年オーストリアは国連総会に決議案を提出し、今回はこの会議を主催している。これはこの問題に関する最大の国際会議であり、国際規則に向けた政治的勢いを高める一歩となることを期待している。TPNWの創設に大きく貢献したクメント氏に、この会議がAWSに関する条約が近々準備されている兆候かどうか尋ねた。
「現在の問題は、もう長年続けられている議論の段階から条約交渉へと実際に踏み出すことにあります。国連事務総長は国際社会に対して、2026年までに条約を作るようにと課題を出しています。交渉を行うならば、国際法に従って使用されることのない、あるいは基本的な倫理的原則に反するシステムを明確に禁止し、人間による意味のあるレベルの制御がなされていないその他のシステムを規制することを目指すべきでしょう。」「科学技術におけるイノベーションは急速なペースで進んでいます。中には、指向性エネルギー兵器 からナノ兵器、神経兵器、さまざまな自律型ロボット基盤に到る兵器開発への応用が可能なものもあります。こうした開発は、国際の平和と安全の維持、人権の擁護、持続可能な開発目標の達成といった、確立された規範に反しかねないものです。」とクメント氏は語った。
Alexander Kmentt, Director for Disarmament, Arms Control, and Non-Proliferation at the Austrian Ministry of Foreign Affairs. PHOTO Credit: Michael Gruber (BMEIA)
「36条の会」の代表のリチャード・モイエス氏は、今回のウィーン会議は、新たな条約作りを見据えて、諸政府や国際機関、市民社会の間にパートナーシップを創り出すうえで重要なものであったと評価する。「ストップ・キラーロボット」は、人権や紛争、技術、民間人の保護に関心を寄せる世界各地の市民団体の連合体である。新たな国際条約の策定に向けて諸国に圧力をかける市民団体のパートナーシップだ。
紛争が民間人に与える影響と兵器技術の国際規制を専門とするモイエス氏は、「まだ条約文の草案を作成する段階にはありませんが、さまざまなパートナーの間で『条約は可能だ』という機運を創り出しています。究極的には新たな条約に合意できるのは国家だけですが、国家が行動できるように私たちは協力して事を進めることができます。」と語った。
Serbian Land Rover Defender towing trailer with “Miloš” tracked combat robot/ By Srđan Popović – Own work, CC BY-SA 4.0
モイエス氏は、兵器と戦争に関する国際的な法的・政治的枠組みの創設に多く関わってきた。AWSに関しては、戦力の使用から人間による制御と責任を奪うことが特に危険だと感じている。「人間は過ちを犯すし、時にはひどいこともします。しかし、戦力の使用をめぐる法的枠組みのすべては、人間が意思決定を行い人間が責任主体となることを前提として作られているのです。私たちは、武力紛争における法律という概念を守ろうとするならば、人間による意味のある制御という観念を維持しなくてはなりません。生死の問題を機械に委ねることは非人間化をもたらし、人間、とりわけすでに社会の中で周縁化されている人々の生命の価値をさらに下げることにつながります。」とモイエス氏は述べ、問題が広範なものになってしまう前に新たな技術を規制することがいかに困難なことであるかを指摘した。自律型兵器の問題が広範に問題化してしまってからではもう遅いのだ。モイエス氏は、法的条約には、人間による意味のある制御を通じて使用することが不可能なシステムを禁止する条項や、そうした制御を実際に可能にするルールが盛り込まれるべきであると語った。また、人間を直接標的とする自律型システムも禁止されるべきであるとした。彼の観点からは、これらは、技術の将来的な発展の道筋に影響を与える重要なルールである。
「主要な問題は、高度に軍事化された国家が、自らの軍事オプションに対する制約を受け入れたがらないという大きな課題があります。社会を安全な方向に導くことのできる線を引くよう、より多くの国家の賛同を得る必要があります。」と英国の非政府組織である「36条の会」のモイエス代表は語った。
法的枠組み、とりわけ国際条約を策定することの重要性は、「ストップ・キラーロボット」キャンペーンの一員でもある創価学会インタナショナル(SGI) も強調している。
日本から参加したSGIの山下勇人軍縮担当プログラムコーディネーターは声明の中で、「私たちは、急速に進む技術革新の中で人間の権利と尊厳を守るため、兵器システムにおける自律性を禁止・規制する国際条約の制定を求める多くの関係者の声に賛同します。」と訴えた。(原文へ )|ドイツ語 |中国語 |
『オッペンハイマーの瞬間』 という言葉の由来は、2018年に行われたアラン・クーパー 氏(Visual Basicというプログラム言語を開発した著名なエンジニア)による基調講演タイトルで、同氏はこの言葉を「自分の最善の意図が裏切られたと悟る瞬間 」と定義した。
INPS Japan
This article is brought to you by INPS Japan , in collaboration with Soka Gakkai International in consultative status with UN ECOSOC.
関連記事:
カリブ諸国、「殺人ロボット」禁止へ
殺人ロボット規制を妨害する米国とロシア
2026年核不拡散条約(NPT)再検討会議に向けた第1回準備委員会 における寺崎広嗣SGI平和運動総局長インタビュー(オーロラ・ワイス)