人工知能は社会への脅威

この記事は、戸田記念国際平和研究所が配信したもので、同研究所の許可を得て転載しています。

【Global Outlook=ドン・バード】

筆者は数十年にわたり、人工知能の周辺で、また、時にはその領域内で仕事をしてきた。現在は、社会の有害な分極化を解消するための取り組みにおいて米国で最も効果を挙げている組織の一つ、ブレイバー・エンジェルズ(Braver Angels)でタスクフォースの共同議長を務めている。

現在AIを利用している、あるいは近いうちに利用しそうな多くの用途が、筆者の頭を悩ませている。実のところ、その一部に筆者は恐怖を覚えているし、読者も恐怖を覚えることを願うばかりだ! 考えて欲しい三つの事実がある。(

(1)「ディープフェイク」は、AIで生成した音声や動画である。ディープフェイクは、詐欺や政治的不正工作、あるいはポルノ制作のために使われ得る。実際にそのような例がソーシャルメディアに登場しており、「実はデサンティスが大好きだ」とヒラリー・クリントンが動画の中で語っている。「彼は、まさにこの国が必要としているタイプの人物であり、私は本気でそう言っている」。また、ある人の顔を別人の体に貼り付けるポルノビデオは、ますます広がりつつある。

(2)米国と中国はいずれも、何らかのAI制御兵器を実戦配備しようと躍起になっているようだ。これには、自律型致死兵器システム(LAWs)、すなわち、単に敵の「資産」(ドローン、線路など)を破壊するのではなく、人を殺す判断を自力で下すことができる兵器が含まれる。

(3)ChatGPTのような「大規模言語モデル(LLM)」の開発者は一般的に、それらのモデルが偏見や危険な情報を含んでいるなどの有害な文章を生成しないようにする機能を搭載している。しかし、再三再四にわたり「ガードレール」機能の抜け穴が発見されており、LLMが公開されてから数分で発見される場合もしばしばである。テロリストがそのような抜け穴を利用して、症状が1週間現れないため感染を広げる時間がたっぷりある新しい致死的病原体を開発する方法を学習することを想像して欲しい。

市民の間の信頼は民主主義社会の不可欠な要素であるが、AIはすでにそれを損ないつつある。2023年初め、有名なAI研究者であり批評家のゲイリー・マーカスは、「われわれは、もはや何を信じたら良いか全く分からない世界に極めて急速に行き着こうとしている。それは社会にとって、例えばこの10年間で、すでに問題となっている。この先はますます悪化する一方だと思う」と述べた。音声や動画のディープフェイクは、信頼が損なわれる一つの方法である。無害に見えるが、現実と人工の境界を曖昧にするものも、しかりである。

しかし、昔ながらの言い回しを使った偽情報キャンペーン、ますます極端化し分極化する見解に基づくコンテンツをしばしば提案するソーシャルメディア、いわゆる「ハルシネーション」など、他にもいくつかの脅威がある。ハルシネーションとは、完全に間違っていることをLLMが自信たっぷりに主張してくる、驚くほどよく見られる現象である。ミシェル・ウィリアムズによる「われわれはAIをどこまで野放しにするのか?(How far will we let AI go?)」という記事では、「ChatGPTが、銃は子どもたちにとって有害ではないと主張する研究をでっち上げ」、高く評価された学術雑誌に掲載された論文を引用したが、そんな雑誌は存在していないという事例を報告している。その一方で、コンピュータービジョンの進化は著しく、人間になりすますコンピューターを識別するReCAPTCHAやその他の手法を役に立たなくする恐れがある。また、自己の決定を説明することができる「説明可能なAI(Explainable AI)」は長年活発に研究が行われてきた分野であるが、今後1年や3年で説明可能性が普及すると思わないほうがいい。

AIがどのようにわれわれの脅威になるのかと聞かれた場合、専門家も一般人も、おおむね二通りのうちいずれかの反応をする。未来のAGIすなわち「汎用人工知能」は、近い将来ではないにしても、文明の存続にとって、さらには人類の存続にとってさえ深刻な脅威となるだろうというもの、あるいは、それはすでにわれわれの民主主義および/または社会にとって深刻な脅威となっているというもののいずれかである。筆者は、2番目の「AIは今日の民主主義と社会にとって脅威となっている」というグループである。われわれに何ができるだろうか?

さまざまな理由から、明白な解決策(開発の停止または凍結、認可制、ウォーターマーキングなど)のほとんどは、あまり多くの成果を挙げられそうにない。しかし、社会への脅威の一部は、ソーシャルメディアによって大幅に増幅されている。ソーシャルメディア企業はすでに、投稿が拡散する前にチェックを行っているが、別の方法でコンテンツをチェックするよう各社に要請することがかなり有益かもしれない。「AI生成された本物ではないコンテンツの害に対処する(Addressing the harms of AI-generated inauthentic content)」と題する短いながらも示唆に富んだ論文では、有名な偽情報研究者らが次のように論じている。

「言論の自由を守るという明白な課題があるだけでなく、AIに対する規制は、法令を遵守する事業者によって開発されたツールにしか効果がないだろう。しかし、AIのアルゴリズムやデータはオープンソース化されており、コンピューティング能力はますます低廉化しているため、悪意の行為者は、提案されているウォーターマーク基準のような規制枠組みに従う気は一切なく、独自の生成AIツールを開発するようになるだろう。AIによるコンテンツ生成ではなく、ソーシャルメディアプラットフォームを通した拡散を対象にした、別の規制枠組みを検討する必要がある。コンテンツに対する規制を、そのリーチに基づいて課すことも考えられる。例えば、ある主張が大勢の人の目に触れる前に、制作者に対してその事実性や来歴を証明するよう求めるといったことだ」

しかし、これらの問題を本当に解決できる技術はないだろう。ロバート・ライトは、「AIは危険になった。だから、外交政策の中心とするべきだ(AI has become dangerous. So, it should be central to foreign policy)」という記事の中で、戸田記念国際平和研究所の使命と特に関連性がある見解を表明しており、筆者もこの見解に同意する。

「ワシントンではAIの規制に関する真剣な議論がなされている。(…)AIの問題は、革新的な国内政策だけでなく、外交政策の基本的方向転換も必要である。このような変化は、ジョージ・ケナンが1947年に「フォーリン・アフェアーズ」誌に発表した、ソ連『封じ込め』政策を主張する『X論文』がもたらした変化の規模に匹敵する。しかし、今回の敵対国は中国であり、対立ではなく関与に向けた方向転換が必要である。AI革命という観点から見ると、第2次冷戦へと向かっている現在の流れを逆転させ、責任をもって技術進化を導くための国際努力に中国を引き入れることが、米国にとって極めて重要な利益となる」

AIによって増幅された偽情報は、特に危険である。なぜなら、近頃ではあまりにも多くの人が、突拍子もない極端な情報に飛びつくからだ。市民を教育し、AIが生成したコンテンツを識別できる可能性を高めることが重要であり、多少なりとも有用であるはずだ。しかし、筆者が真の解決と考えるのはただ一つである。到底受け入れ難い普通ではあり得ない極端な考え方に、激怒ではなく懐疑的な姿勢で反応するよう、十分な数の人々を説得することである。

ブレイバー・エンジェルズのような団体が何をできるかは、今後の課題である。

ドン・バード 1984年にインディアナ大学コンピュータサイエンスの博士号を取得。音楽情報検索分野の創設および音楽情報システムへの貢献で知られている。またテキスト情報検索、情報の視覚化、ユーザーエクスペリエンス・デザイン、数学教育などに学術界内外で取り組んでいる。バードは、オープンソースの楽譜作成システム「ナイチンゲール(Nightingale)」の作者である。現在は引退し音楽活動に時間を費やしているが、有害な社会の分極化を解消する取り組みを行う草の根団体「ブレイバー・エンジェルズ (https://braverangels.org)」 の活動に力を注ぎ、AIによる分極化と闘う「タスクフォース」の共同議長を務めている。

INPS Japan

関連記事:

殺人ロボット規制を妨害する米国とロシア

|視点|AIという魔人が瓶から解き放たれた―国連は人類のためにAIを活用する試練に挑むべき(アンワルル・チョウドリ元国連事務次長・高等代表)

AIチャットボットが好戦的雰囲気の中で核使用のリスクを警告

最新情報

中央アジア地域会議(カザフスタン)

アジア太平洋女性連盟(FAWA)日本大会

2026年NPT運用検討会議第1回準備委員会 

「G7広島サミットにおける安全保障と持続可能性の推進」国際会議

パートナー

client-image
client-image
IDN Logo
client-image
client-image
client-image
Toda Peace Institute
IPS Logo
Kazinform

書籍紹介

client-image
client-image
seijikanojoken