本稿は公開時点で確認できた報道・資料をもとに編集しています。内容の正確性には十分配慮しておりますが、その後の続報や公式発表により情報が更新される可能性があります。ご参照の際は、必ず最新の公式情報も合わせてご確認ください。
AI偽画像の深刻な問題
子どもたちを守るために知っておくべきこと
この記事は、NHKニュース(2024年12月18日)を基に、初心者でも理解できるよう解説しています
いま起きている深刻な問題
AIという技術を悪用して、本物そっくりな偽の性的画像を作る「ディープフェイク」という問題が急速に広がっています。この問題は大人だけでなく、中学生や高校生にも被害が及んでおり、被害者の心に深い傷を残しています。

出典:NHKニュース「卒業アルバムの同級生を裸に 子どもも加害者?画像加工の実態」(2024年12月18日)
実際に起きた被害事例
高校1年生みほさん(仮名)の体験
「何これっ。気持ち悪い。軽いパニックみたいな」
みほさんのもとに突然送られてきたのは、彼女が投稿した日常動画を勝手に加工した裸の画像でした。顔は確かに本人でしたが、体は服を着ていない状態に変えられていました。

出典:NHKニュース
被害者の心境
-
すぐにパニック状態になり、ショックで言葉が出なかった -
あまりにも精巧で、偽物だと証明するのが困難 -
誰にも相談できず、一人で抱え込んでしまった -
「もし拡散されたら町を歩けなくなる」という不安
ディープフェイクって何?
AIを使った偽画像・動画技術
技術の仕組み
-
1
大量の画像データでAIを学習させる -
2
顔の特徴やパターンを覚えさせる -
3
別の画像に学習した顔を合成する
問題となる理由
-
本物そっくりで見分けが困難 -
短時間で簡単に作成可能 -
無料のツールが多数存在
本来のAI技術の正しい使い方
医療診断の補助
教育サポート
自動運転技術
AI技術自体は素晴らしいものですが、悪用されることで深刻な問題を引き起こしています。
子どもたちの間で広がる現実

出典:NHKニュース
学生たちの証言
「先輩や後輩が、最初はいじりとか、ふざけて加工したのが、これやばくね?って拡散しちゃう」
– 10代女性
「いかがわしい動画に顔だけそいつにするとか。中学校でたまにありました。本人は知らない。知らない間に裏でやられている」
– 男子高校生
被害の拡大状況
-
ここ数年で急激に増加 -
被害者の大半は女性 -
中高生も被害者・加害者に -
SNSコミュニティで拡散
卒業アルバムの写真が悪用される事例

出典:NHKニュース
実際に確認された会話
取材班:「卒業アルバムってどうやって手に入れるんですか?」
投稿者A:「同級生ですよ。好きな子だったので。」
→ この投稿者は中学1年生とみられる
取材班:「加工を始めてどれくらいですか?」
投稿者B:「小6から作っているので、4年くらいです」
取材班:「罪悪感はありませんでしたか?」
投稿者B:「別に何もなかったですね(笑)」
なぜこんなに簡単に作れるのか?
簡単・無料をうたうサイトが急増

出典:NHKニュース
多言語対応サイト
-
日本語対応サイトも多数 -
韓国語、中国語にも対応 -
世界中からアクセス可能
運営実態の不透明さ
-
運営者の正体が不明 -
偽の住所を記載 -
連絡が取れない
専門家の警告

出典:NHKニュース – 国立情報学研究所 越前功教授
「特定の人物の顔画像が数十枚程度あればその人物に特化したモデルの作成が可能で、特定の人のポルノ的な画像を作ることもできてしまいます。こういう画像を作ってほしいという要望に基づいたものを簡単に作ることが可能になっているだけでなく、気軽に頼めてしまう状況になっているのです」
– 国立情報学研究所 越前功教授
海外で起きている深刻な被害
「オリビア」のケース(イギリス)

出典:NHKニュース – イギリスの団体による報告書
永続する被害の恐怖
過去に性的虐待を受けた少女「オリビア」(仮名)
2013年に警察によって救出された
しかし、彼女の顔をAIで学習したモデルデータが拡散
新たな性的虐待動画を無限に生成可能な状態に
同様のケースが少なくとも128人分確認
専門機関の警告
「虐待の被害者の苦しみは終わりなく続いていくおそれがあります。加害者が、望むだけの画像を生成することができてしまうからです。ネット上で自分のこうした画像が繰り返し見られ続けることは精神的な虐待です。」
– インターネット監視財団
法規制の現状と課題

出典:NHKニュース
日本の現状
-
AIディープフェイクを直接規制する法律がない -
名誉毀損や著作権侵害で対処する場合がある -
AIで作られた画像は「児童ポルノ」に該当しない可能性 -
これまで取り締まられた事例はない
海外の対策
アメリカ
「Take It Down」法案で犯罪化、48時間以内の削除義務
イギリス
同意なしの性的ディープフェイク作成・共有を犯罪化
韓国
学校単位での被害確認を受けて法規制強化
専門家が求める対策

出典:NHKニュース – 明治大学ガバナンス研究科 湯浅墾道教授
「AIの利用者の低年齢化が進むなか、プログラミングなどだけではなく、『コンピューターやネットをこういう使い方をすると犯罪だ』ということを、もっと学校の情報関係の科目の中に早い時期から組み込むべきです。」
– 明治大学ガバナンス研究科 湯浅墾道教授
被害を防ぐためにできること
自分を守る方法
-
SNSの投稿内容を見直す(顔がはっきり写った写真は注意) -
プライバシー設定を適切に行う -
信頼できる人以外とは個人情報を共有しない -
卒業アルバムなどの扱いに注意する
被害に遭った場合
-
証拠を保存する(スクリーンショットなど) -
すぐに相手をブロックする -
信頼できる大人に相談する -
専門の相談窓口に連絡する
周りの人ができること
友達として
- 被害を見つけたら教えてあげる
- 相談に乗る
- 拡散に加担しない
保護者として
- 定期的に話し合う
- デジタルリテラシーを教える
- 相談しやすい環境を作る
学校として
- 情報倫理教育の充実
- 被害相談の体制整備
- 予防教育の実施
相談窓口・サポート情報
一人で悩まず、必ず信頼できる人や専門機関に相談してください
主要な相談窓口
-
#8891
性犯罪・性暴力被害者のためのワンストップ支援センター -
NPO法人ぱっぷす
ディープフェイク被害専門相談 -
違法・有害情報相談センター
ネット上の問題全般
その他のサポート
-
誹謗中傷ホットライン
セーファーインターネット協会 -
一般社団法人ゾエ・ジャパン
性暴力被害者支援 -
学校のスクールカウンセラー
身近な相談先
あなたは一人ではありません。助けを求めることは勇気ある行動です。
デジタルリテラシーの重要性
なぜデジタルリテラシーが必要なのか?
判断力の向上
偽の情報や画像を見分ける力を身につける
自己防衛
被害に遭わないための知識と対策を学ぶ
倫理観の形成
他人を傷つけない正しい技術の使い方を理解する
学校で学ぶべき内容
-
AI技術の基本的な仕組み -
偽情報の見分け方 -
プライバシー保護の方法
-
サイバー犯罪の種類と罰則 -
被害者支援の仕組み -
技術の倫理的な使用法
私たちが今できること
個人レベル
- • 正しい知識を身につける
- • 周りの人と情報を共有する
- • 怪しいサイトやツールを使わない
- • 被害を見つけたら報告する
社会レベル
- • 法整備の推進
- • 教育カリキュラムの充実
- • 相談体制の強化
- • 国際協力の促進
まとめ:みんなで守る安全なデジタル社会
一人ひとりができることから始めよう
知る
問題の深刻さと対策方法を正しく理解する
守る
自分と周りの人を被害から守る行動を取る
伝える
正しい知識を家族や友人と共有する
この記事で学んだ重要なポイント
-
AIディープフェイクは身近な脅威になっている -
子どもたちも被害者・加害者になり得る -
技術的な対策だけでは不十分
-
教育と法整備の両方が必要 -
相談できる環境づくりが重要 -
国際的な協力が不可欠
覚えておいてほしいこと
被害に遭ったら、自分を責めないで。悪いのは加害者です。
一人で悩まず、必ず誰かに相談して。助けてくれる人は必ずいます。
技術は使い方次第。正しく使えば、素晴らしい未来を作れます。
さらに詳しく知りたい方へ
支援団体・機関
-
NPO法人ぱっぷす(ディープフェイク被害専門) -
セーファーインターネット協会 -
一般社団法人ゾエ・ジャパン
継続的な情報収集と学習が、安全なデジタル社会の実現につながります
出典・引用
-
主要出典:
NHKニュース「卒業アルバムの同級生を裸に 子どもも加害者?画像加工の実態」(2024年12月18日)
- 画像出典:NHKニュース(上記記事内の各画像)
- 専門家コメント:国立情報学研究所 越前功教授、明治大学ガバナンス研究科 湯浅墾道教授
- 海外事例:イギリス・インターネット監視財団報告書(2024年7月)
生成AI事件ファイル 
