【国連IPS=オリトロ・カリム】
国連児童基金(ユニセフ)の新たな調査で、生成型人工知能(AI)を用いて、何百万人もの子どもの画像が性的に加工・改変される被害が広がっている実態が明らかになった。ユニセフは、強固な規制枠組みと、各国政府とテック・プラットフォームの実効的な協力がなければ、この拡大する脅威は次世代に壊滅的な影響を及ぼしかねないと警告している。
独立機関で、児童の性的搾取・虐待を追跡する「チャイルドライト(Childlight)・グローバル子ども安全研究所」の2025年報告書は、近年、テクノロジーを介した児童虐待が急増していることを示した。米国では、2023年に4700件だった関連事案が、2024年には6万7000件超へと跳ね上がった。これらの相当部分に、ディープフェイク(現実に見えるよう精巧に生成されたAI画像・動画・音声)が関与していたという。なかでも「ヌーディフィケーション(nudification)」と呼ばれる、AIツールで写真の衣服を剥いだように見せたり改変したりして、捏造の裸体画像を作り出す行為が広く拡散している。

ユニセフ、国際刑事警察機構(インターポール)、そしてECPATインターナショナル(End Child Prostitution in Asian Tourism=子どもの性的搾取に反対する国際組織)による共同研究は、11か国におけるオンライン上の児童性的虐待コンテンツ(CSAM)の流通状況を調査し、過去1年だけで少なくとも120万人の子どもが、性的に露骨なディープフェイクに画像を加工される被害に遭ったと推計した。これは、およそ「子ども25人に1人」―「教室に1人」―が、すでにこの新たなデジタル虐待の犠牲になっていることを意味する。
「子どもの画像や身元が使われた場合、その子どもは直接、被害者である」とユニセフの担当者は述べた。「たとえ特定可能な被害者がいない場合でも、AI生成の児童性的虐待コンテンツは、子どもの性的搾取を『当たり前』のものとして正当化し、虐待コンテンツへの需要をあおり、支援が必要な子どもを特定し保護するという点で、法執行機関に重大な困難を突き付ける。ディープフェイクによる虐待は虐待であり、そこにもたらされる害は、決して『偽物』ではない」
英国の全国警察本部長協議会(NPCC)による2025年の世論調査は、2019年から2024年の間にディープフェイク虐待が1780%増加したと報告した。クレスト・アドバイザリーが実施した英国全土の代表性を備えた調査では、回答者の約59%(3人に2人近く)が、自分がディープフェイク虐待の被害者になることを懸念していると答えた。
さらに34%は、知人の性的または親密なディープフェイクを作成した経験があると認め、14%は、面識のない相手のディープフェイクを作成したと答えた。調査はまた、女性と少女が不均衡に標的にされていること、そして拡散の場として最も多いのがソーシャルメディアであることも示した。
研究では、ある人物が恋人の「親密な」ディープフェイクを作成し、本人にそれを明かしたうえで、口論の後に第三者へ拡散する、という想定事例も提示した。驚くべきことに、回答者の13%がこの行為を「道徳的にも法的にも容認できる」とし、さらに9%が「どちらでもない」と答えた。NPCCは、この行為を容認する傾向が、ポルノを積極的に消費し、「一般に女性蔑視とみなされ得る」信条に同意する若年男性ほど強い、とも報告した。
受賞歴のある活動家でインターネット著名人のキャリー=ジェーン・ビーチ氏はNPCCに対し、次のように語った。「私たちは極めて憂慮すべき時代に生きている。デジタル空間で早急に決定的な行動を取らなければ、娘たち(そして息子たち)の未来が危機にさらされる。安全策も、法律も、ルールもないまま育った子どもたちの世代があり、その『自由』が生んだ暗い波及効果を、いま目の当たりにしている」
ディープフェイク虐待は、子どもに深刻で長期的な心理的・社会的影響をもたらし得る。強い羞恥、不安、抑うつ、恐怖を引き起こすことが多く、ユニセフは新たな報告書で、ディープフェイク虐待によって子どもの「身体、アイデンティティ、評判」が、遠隔から、見えない形で、しかも恒久的に侵害され得ると指摘した。加害者による脅迫、恐喝、金銭要求につながるリスクもある。侵害の感覚に、デジタル内容の恒久性と拡散性が重なることで、被害者は長期的トラウマや不信感、社会的発達の阻害に直面しかねない。
「自分の画像が性的に加工されたコンテンツに改変されたと知ったとき、多くの子どもが急性の苦痛と恐怖を経験する」と、ユニセフの子ども保護専門官アフルーズ・カヴィアニ・ジョンソン氏はIPSに語った。「子どもたちは羞恥心や烙印(スティグマ)を訴え、それは自分のアイデンティティをコントロールできないという喪失感によっていっそう深まる。被害は現実で、長く続く。性的に加工されたディープフェイクとして描かれることは、子どものウェルビーイングに深刻な打撃を与え、デジタル空間への信頼を損ない、日常の『オフライン』の生活においてすら安全でないと感じさせる」
国際電気通信連合(ITU)電気通信開発局のコスマス・ザヴァザヴァ局長は、オンライン虐待が身体的被害へと転化し得る点も付け加えた。
「人工知能と子どもの権利」に関する共同声明で、ユニセフ、ITU、国連人権高等弁務官事務所(OHCHR)、国連子どもの権利委員会(CRC)など主要な国連機関は、子ども、親、養育者、教師の間で、AIリテラシーが広く不足していると警告した。AIリテラシーとは、AIシステムの仕組みを理解し、批判的かつ効果的に関わるための基礎的能力を指す。この知識ギャップは若年層をとりわけ脆弱にし、被害者や周囲の支援者が、標的化の兆候を見抜き、通報し、十分な保護や支援サービスにつながることを難しくする。
国連はまた、責任の相当部分がテック・プラットフォーム側にあると強調し、多くの生成AIツールが、デジタル上の児童搾取を防ぐ実効的な安全策を欠いていると指摘した。
「ユニセフの見立てでは、ディープフェイク虐待が広がる一因は、法・規制の枠組みが技術の進展に追いついていないことにある。多くの国では、AI生成の性的に加工された子どもの画像が、児童性的虐待コンテンツ(CSAM)として明確に認識されていない」とジョンソン氏は述べた。
ユニセフは各国政府に対し、CSAMの定義をAI生成コンテンツまで更新し、「その作成と流通の双方を明確に犯罪化」するよう求めている。ジョンソン氏によれば、テクノロジー企業には、同氏が「セーフティ・バイ・デザイン(安全性の組み込み)」と呼ぶ措置や、「子どもの権利への影響評価」を導入することを義務付ける必要がある。
ただし同氏は、法律や規制は不可欠である一方、それだけでは十分ではないとも強調した。「性的虐待や搾取を容認したり軽視したりする社会規範も変わらなければならない。子どもを効果的に守るには、より良い法律だけでなく、意識、執行、そして被害を受けた人への支援をめぐる実質的な変化が必要だ」
問題は、商業的インセンティブによってさらに複雑化している。AI画像ツールが生む利用者の関与、購読、話題性からプラットフォームが利益を得ることで、より厳格な保護策を導入する動機が弱まるためだ。

その結果、テック企業がガードレール(安全策)を導入するのは、重大な社会的批判が噴出した後―子どもがすでに被害を受けた後―になりがちだ。例として挙げられるのが、X(旧ツイッター)のAIチャットボット「Grok」である。ユーザーのプロンプトに応じて、同意のない性的ディープフェイク画像を大量に生成していたことが判明した。国際的な反発が広がるなか、Xは1月、Grokの画像生成ツールをXの有料購読者に限定すると発表した。
ただしGrokをめぐる捜査は継続している。英国と欧州連合(EU)は1月以降、調査を開始し、フランスでは2月3日、検察が、CSAMとディープフェイクの流通にプラットフォームが関与した疑いに関する捜査の一環として、Xのオフィスを捜索した。Xのオーナーであるイーロン・マスク氏も事情聴取のため召喚された。
国連関係者は、AIシステムの成長や収益創出を認めつつも、子どもをオンラインで守る規制枠組みが不可欠だと強調する。「当初、彼らはイノベーションを阻害することを懸念しているように感じられた。しかし私たちのメッセージは極めて明確だ。AIを責任ある形で展開すれば、利益も出せるし、事業もできるし、市場シェアも取れる」と、国連の高官は語った。「民間セクターはパートナーである。だが望ましくない結果につながる動きが見えたときには、危険信号を出さなければならない」(原文へ)
INPS Japan/IPS UN Bureau Report
関連記事:













