クラス写真が性的ディープフェイク被害に──加害者の半数は同級生、警察庁が啓発資料
AI画像加工で実在の子どもを性的な画像に作り変える「児童の性的ディープフェイク」。警察庁が2025年12月に公表した啓発資料が、2026年4月の新学期に向けて全国の学校で活用が広がっている。被害相談の半数は同じ学校の生徒が関与、卒業アルバムやクラス写真の悪用も。被害から子どもを守るために、また子ども自身が加害者にならないために、家庭で話し合うべきことを整理する。
卒業アルバムの写真。
クラス集合写真。
何気ないSNSの自撮り。
これらが、AIで「裸」に加工される事件が全国の学校で起きている。
警察庁が公表した数字によれば、加害者の約半数は同じ学校の同級生。新学期を迎える今、保護者・教員・中高生それぞれが知っておくべき問題がある。
🟨 この記事のポイント(1分で理解)
- 2025年1〜9月、18歳未満の性的ディープフェイク被害相談は79件(警察庁初公表)
- 加害者の約半数が同じ学校の同級生。中学生が同級生の画像を加工した事案も
- AI生成画像でも、実在の子どもを性的に加工した場合は児童ポルノ禁止法等の対象となる可能性
- 警察庁は学校や家庭で使える啓発資料を公開。新学期を迎える今、確認しておきたい
警察庁が公表したこと
警察庁は2025年12月17日、生成AIなどで実在の子どもの画像を性的な画像に加工する「児童の性的ディープフェイク」について、初の被害状況を公表した。
2025年1〜9月の9か月間で、18歳未満からの被害相談は79件。このうち4人が名誉毀損やわいせつ電磁的記録媒体陳列などの疑いで逮捕・書類送検され、6人が補導された。
注目すべきは加害者の構成だ。被害が確認されたケースの約半数で、加害者が被害者と同じ学校の児童・生徒だった。具体的な事例としては次のようなものが報告されている。
- 男子中学生が同級生の女子生徒の画像をAIで加工し、他の生徒に販売したとして警察が捜査中
- 別の男子中学生が学校行事のアルバムに写る女子生徒の写真をわいせつ画像に加工し、同級生らと共有して補導された
こうした事案を受けて、警察庁は「児童による性的ディープフェイク被害・加害防止のための啓発資料」を作成・公開している。チラシは学校や家庭で使える形で配布されており、新学期を迎えるこの時期、子どもとの対話のきっかけとして活用したい。
なぜ重要なのか
これはニュースの話ではない。教室の話だ。
「悪意のある大人」が子どもを狙う事件は以前からあった。しかし今回の警察庁の公表で明らかになったのは、子ども自身が加害者になっているという事実だ。同じクラスの友達の写真が、誰かのスマートフォンの中で加工され、別の友達に共有されている。それが今、学校で起きている。
世界的にも問題は急拡大している。ユニセフが2026年2月に発表した調査によれば、過去1年間で世界の少なくとも120万人の子どもが、自身の画像を性的なディープフェイクに加工された経験があると報告した。国によっては18歳未満人口の25人に1人、つまり一般的なクラスに1人の割合だ。
法的な位置づけ
ユニセフは2026年2月の声明で「AIツールで生成・加工された子どもの性的画像は、子どもの性的虐待コンテンツ(CSAM)です」と国際的な認識を明確にしている。「画像はフェイクでも、被害はフェイクではない」というのがユニセフの立場だ。
日本では、AI生成画像であっても、実在する子どもを性的に加工した場合、児童ポルノ禁止法、名誉毀損罪、わいせつ電磁的記録媒体陳列罪など、既存の法令の対象となる可能性がある。実際の処罰は事案ごとに判断される。
なぜ「軽い気持ち」で起きてしまうのか
加害者となる中学生・高校生の多くは、組織的な犯罪意図を持っているわけではない。「友達に見せたら面白そう」「アプリで簡単にできるから」「みんなやっている」といった軽い動機が、犯罪に直結している。
ここに3つの構造的な問題がある。
1. AI画像加工アプリの低年齢化と簡便化
かつては高度な専門技術が必要だった画像加工が、スマートフォンのアプリで数タップでできる時代になった。中学生でも操作できるツールが、無料または安価で入手可能になっている。
2. 「実在しない画像だから問題ない」という誤解
「AIが作った絵だから本物じゃない」「リアルじゃないからセーフ」という誤認識が広がっている。しかし法的にも倫理的にも、実在する人物を性的な画像に加工する行為は、相手の人格を侵害する重大な行為であり、犯罪に該当する場合がある。
3. 共有することへの心理的ハードルの低下
SNSやメッセージアプリでの画像共有が日常化しているため、「友達と共有する」という行為そのものへの抵抗感が薄れている。「自分が作って自分のスマホに保管しただけ」と思っていても、共有した瞬間に拡散の連鎖が始まる。
家庭・学校でできること
保護者・教員が今すぐできる対策がある。
- 「これは犯罪」と明確に伝える──「いたずら」「冗談」「悪ノリ」ではなく、逮捕・書類送検・補導の対象になる行為だと、年齢に応じた言葉で伝える。
- 被害を受けた時の相談先を共有しておく──子どもが被害を受けた時、性的内容のため誰にも言えずに抱え込むケースが多い。「もし困ったら、こことここに相談できる」と事前に伝えておく(記事末の参考リンク参照)。
- SNSにアップする画像を一緒に確認する──「この写真は誰でも保存できる」「加工される可能性がある」という意識を持つ。特に学校行事・卒業アルバムの集合写真は要注意。
- 友達の画像を「軽く」扱わない文化をつくる──「人の写真を勝手に加工しない」「誰かの写真をネタにしない」という当たり前のことを、家庭で言葉にして確認する。
- 警察庁の啓発資料を活用する──公開されているチラシは、家庭でも教室でも使える。子どもと一緒に読むことで対話のきっかけになる。
👋
中高生のみんなへ
このニュースは、本当に大事な話だ。少しだけ集中して読んでほしい。
今、AIで人の写真を別の画像に加工することが、中学生のスマホでも簡単にできる。だから、こんなことが起きている。
警察庁の発表では、18歳未満の被害のうち、約半数の加害者が「同じ学校の同級生」だった。
「軽い気持ち」が一生を変える
「面白いから」「アプリでできるから」「友達に見せるだけ」
そう思って人の写真を性的な画像に加工した中学生・高校生が、実際に逮捕されたり補導されたりしている。
これは「いたずら」じゃない。名誉毀損罪、児童ポルノ禁止法違反などの犯罪になる。
「実在しない画像だからセーフ」というのは、完全な誤解。AIが作っても、実在する人の人格を傷つける行為だから、処罰の対象になりうる。
もし被害を受けたら、一人で抱え込まないで
性的な内容だから、誰にも相談できない――そう感じる人が多い。でも、それは加害者の思うつぼだ。
あなたは何も悪くない。写真を撮られたこと、SNSに投稿したこと、笑顔だったこと、どれも加害される理由にはならない。
警察、学校の先生、家族、信頼できる大人、相談窓口(記事末を参照)――どこでもいいから、声を上げてほしい。あなたを守ってくれる人がいる。
友達がやっているのを見たら、止めるのが本当の友情
「同級生の写真をAIで加工してみた」と見せられたら、笑って済ませないでほしい。
「それ犯罪だよ、やめなよ」と言うこと。それが本当の友情だ。
受け取った画像を削除すること、共有しないこと、それが自分を守ることでもある。
覚えておいてほしいこと
人の写真を勝手に加工しない。それだけで、自分を犯罪から守れる。
被害を受けたら、一人で抱え込まない。相談できる場所がある。
友達を止めることが、本当の優しさだ。
💬 友達や家族と話してみよう
新しいクラスや部活で撮った写真を共有するとき、「この写真、勝手に加工されたら嫌だな」と思う気持ちを大事にしよう。家族と「もし被害に遭ったらどうするか」を、起きる前に話しておくと安心だ。
✔
被害者にも加害者にもならないチェックリスト
スクショして保存しておくのがおすすめ。新学期・新クラスで写真を扱う前に、自分と家族で確認してみよう。
-
① SNSに上げる写真は誰でも保存できると考える
公開アカウントはもちろん、鍵付きでもスクショで流出する。「この写真は世界中に拡散しても困らないか」を考える。 -
② 集合写真・行事写真の扱いを確認する
クラス写真や卒業アルバムは加工素材として狙われやすい。学校でどう管理されているか、家でどう保存しているかを確認する。 -
③ AIで人の画像を「加工しない」ルールを家族で共有
面白半分でも、友達ネタでも、人の画像をAIで加工しない。これだけで自分を犯罪から守れる。 -
④ 被害に遭った時の相談先を事前に確認
いざという時に困らないよう、警察相談電話「#9110」、警察庁のサイバー犯罪相談窓口など、相談先を家族で共有しておく。 -
⑤ 友達に「やめなよ」と言える関係を築く
「同級生の画像を加工した」「面白い画像作った」と見せられた時に止められる関係を、普段から作っておく。
人の写真を勝手にAI加工しない。
これだけで、被害者も加害者も生まれない。
関連情報・参考リンク
このニュースについて、さらに詳しく知るための情報と、被害に遭った時の相談先です。
🚨 相談窓口(被害に遭った場合)
-
📞警察相談専用電話「#9110」/ 警察庁サイバー犯罪相談窓口
緊急性のない警察相談は#9110、サイバー犯罪は各都道府県警察のサイバー犯罪相談窓口へ -
📞インターネット・ホットラインセンター
違法・有害情報の通報窓口(児童ポルノを含む) -
📞チャイルドライン(18歳までの子ども専用)
電話 0120-99-7777(毎日午後4時〜9時、無料・匿名OK)
📰 元記事・関連ニュース
-
🔗警察庁
児童の性的ディープフェイク被害・加害防止のための広報啓発資料(2025年12月18日公表) -
🔗日本経済新聞
18歳未満の性的ディープフェイク、加害者の半数は同じ学校 警察庁(2025年12月17日) -
🔗時事通信
性的偽画像の被害相談、18歳未満79件 5割超が学校内 生成AI普及で低年齢化(2025年12月18日) -
🔗ユニセフ(日本ユニセフ協会)
「ディープフェイクであろうと、虐待は虐待だ」AI生成される子どもの性的画像問題に関する声明(2026年2月) -
🔗WIRED.jp
学校で拡大するディープフェイク被害、想像以上に深刻な実態が浮き彫りに(2026年4月)
🔗 netliteracy.jp 関連記事
-
📚中学生向け:自撮りの危険性
投稿した写真がどう悪用されうるかを学ぶ -
📚中学生向け:写真から個人情報が漏れる仕組み
画像が含む情報の危険性を理解する -
📚高校生向け:音声クローン詐欺
AI生成技術が悪用される他のパターンを知る
ℹ️ 外部リンクは新しいタブで開きます。本記事の情報は2026年4月29日時点のものです。被害に遭った場合は、一人で抱え込まず、必ず警察や相談窓口に連絡してください。