本稿は公開時点で確認できた報道・資料をもとに編集しています。内容の正確性には十分配慮しておりますが、その後の続報や公式発表により情報が更新される可能性があります。ご参照の際は、必ず最新の公式情報も合わせてご確認ください。
性的ディープフェイク被害が急拡大
子どもも狙われる深刻な実態を分かりやすく解説
|
読了時間: 約15分
事件の概要
深刻化する問題
2025年5月、毎日新聞の調査により、生成AI(人工知能)を悪用して実在する子どもや成人女性などを性的に加工した画像や動画「性的ディープフェイク」が国内で急拡大していることが明らかになりました。この問題は従来の偽画像とは異なる深刻な特徴を持ち、新たな社会問題となっています。
偽の性的画像自体は以前から存在していましたが、生成AIの技術進歩により事態はより深刻な局面に入りました。特に注目すべきは、被害者が著名人だけでなく、SNSに写真を投稿した一般人、さらには学校の卒業アルバムや行事写真に写る子どもたちまで含まれるようになったことです。
性的ディープフェイクとは何か
性的ディープフェイクの制作プロセス(出典:毎日新聞)
従来の偽画像との違い
技術的な進歩による変化
従来の偽画像
- 既存のポルノ画像に顔をはめ込む手法
- 継ぎ目が不自然で見分けやすい
- 専門的な技術と時間が必要
- 主に静止画のみ
現在のディープフェイク
- 顔や背景はそのままで体部分のみ生成
- 継ぎ目が分からないほど精巧
- 数十秒で簡単に制作可能
- 画像・動画・音声まで対応
技術の急速な発展
特に注目すべきは、技術の発展スピードです。ボランティア団体「ひいらぎネット」の永守すみれ代表によると、昨年頃まで1枚の画像が1枚のヌード画像に加工されるパターンが多かったものの、「たった数カ月で、偽画像だけでなく、動画、音声まで見かけるようになった」といいます。
技術悪用の深刻化
被写体の顔画像データをAIに集中的に学習させることで、意図した動画を簡単に作り出せるようになりました。これにより、一人の人物について大量の偽動画が製造され、インターネット上に拡散される事態が発生しています。
被害の実態
「爆発的」な広がり
インターネット上をパトロールするボランティア団体の活動から、性的ディープフェイクの被害が「爆発的に広がっている」ことが確認されています。永守代表は「この集合写真、女の子だけが全員裸に加工されてしまっている」という深刻な事例を報告しており、被害の悪質性が浮き彫りになっています。
被害者の範囲
著名人
従来から狙われやすい対象。多数の公開写真が利用可能で、商業的価値も高いため標的になりやすい。
一般成人女性
SNSに投稿した写真が無断で使用される。プライベートな写真が悪用されるケースが増加している。
子ども・学生
卒業アルバムや学校行事の写真が標的に。同級生による流出や印刷会社からの情報漏洩も問題となっている。
教職員
学校関係者も被害対象となるケースが報告されており、教育現場全体への影響が懸念される。
被害の深刻な特徴
-
集団での被害:集合写真の女性だけが全員裸に加工されるなど、複数人が同時に被害を受ける -
継続的な被害:一度作成された画像・動画が半永久的にインターネット上に残存する -
精神的ダメージ:被害者の人格権や名誉が深刻に侵害される -
社会復帰への影響:就職や人間関係に長期的な悪影響を与える可能性
制作手法の詳細
素材の入手方法
性的ディープフェイクの制作は、まず対象となる人物の画像を入手することから始まります。その入手先は多岐にわたり、日常生活の様々な場面から無断で収集されています。
SNS投稿写真
- Instagram、Twitter等の公開投稿
- プロフィール写真
- 友人との記念写真
- 旅行やイベントの写真
卒業アルバム
- 同級生による流出
- 印刷会社へのサイバー攻撃
- 個人情報の大量流出事件
- 中古販売での流通
学校行事写真
- 撮影業者の販売サイト
- ログイン情報の不正取得
- ID・パスワードの交換
- セキュリティの脆弱性
加工プロセスの簡易化
生成AIによる革命的変化
従来は専門的な画像編集技術と長時間の作業が必要だった偽画像制作が、生成AIの登場により劇的に簡易化されました。現在では以下のような簡単なプロセスで高品質な偽画像・動画が制作できます:
画像収集
対象人物の写真を収集
AI学習
顔の特徴をAIに学習させる
自動生成
AIが数十秒で加工画像を生成
拡散
インターネット上に投稿・販売
技術的な特徴
現在の性的ディープフェイク技術は、従来の画像合成技術と比較して以下のような特徴を持っています:
高い精度
- 顔と体の境界が自然
- 光源や影の整合性
- 肌の質感の一致
- 表情の自然さ
制作時間の短縮
- 静止画:数十秒〜数分
- 短時間動画:数分〜数十分
- 音声合成:数分
- 専門知識不要
学校関係者への警告
特に深刻なのは、学校行事写真の撮影業者が運営する販売サイトのセキュリティの甘さです。記事によると、ネット上では「学校ごとの販売サイトのログインIDとパスワードを交換しよう」というやり取りまで行われており、本来保護されるべき子どもたちの写真が大量に流出する危険性があります。
法的問題と課題
現在の法的枠組み
性的ディープフェイクに対する日本の法的対応は、現在も発展途上の段階にあります。既存の法律での対応には限界があり、新たな法整備の必要性が議論されています。
適用可能な法律
- わいせつ物頒布罪(刑法175条)
- 児童ポルノ禁止法
- 名誉毀損罪(刑法230条)
- 肖像権侵害(民事)
- プライバシー権侵害(民事)
法的課題
- 実在しない画像の法的位置づけ
- 国境を越えた犯罪への対応
- 証拠保全の困難さ
- 被害者の泣き寝入り
- 技術進歩への法整備の遅れ
先進的な取り組み – 鳥取県の条例
全国初の包括的規制
2025年3月、鳥取県は全国で初めて性的ディープフェイクを包括的に規制する条例改正を行いました。この取り組みは他の自治体からも注目を集めており、今後の法整備のモデルケースとなる可能性があります。
条例の主な内容:
-
生成AIで作成された性的画像・動画も「児童ポルノ」に含めると明記 -
県内の18歳未満を対象とした性的ディープフェイクの制作・配布を禁止 -
違反者には2年以下の拘禁刑または100万円以下の罰金
国レベルでの動き
2025年5月28日、参議院本会議で「人工知能関連技術の研究開発及び活用の推進に関する法律」(AI新法)が可決・成立しました。この法律の附帯決議では、ディープフェイクによる児童画像悪用への「厳正対処」が盛り込まれました。
被害者支援の課題
現在の日本では、性的ディープフェイクの被害者が適切な救済を受けることが困難な状況にあります。主な課題は以下の通りです:
-
直接的規制法の不在:性的ディープフェイクに特化した法律がない -
立証の困難さ:AI生成画像であることの証明が技術的に困難 -
削除の困難さ:一度拡散された画像の完全削除は実質的に不可能 -
心理的負担:被害者が声を上げることによる二次被害への恐れ
対策と防止方法
個人レベルでの対策
性的ディープフェイクの被害を防ぐためには、まず個人レベルでの対策が重要です。特に、写真の公開方法や個人情報の管理について意識を高める必要があります。
SNS利用時の注意点
- プライバシー設定を最大限活用
- 顔がはっきり写った写真の公開を控える
- 位置情報の自動投稿をオフに
- 定期的なアカウント設定の見直し
- フォロワーの定期的な確認
写真管理の基本
- 卒業アルバムの適切な保管
- 学校行事写真の共有範囲を限定
- 家族・友人との写真共有ルール設定
- クラウドサービスのセキュリティ確認
- 不要な写真の定期的な削除
教育機関の取り組み
学校や教育機関も、生徒を守るための様々な対策を講じています。特に、写真管理とデジタルリテラシー教育の両面での取り組みが重要です。
学校での対策例
写真管理強化
- 撮影業者との契約見直し
- セキュリティ要件の明確化
- アクセス権限の厳格管理
教育プログラム
- デジタルリテラシー授業
- プライバシー保護指導
- 被害相談窓口の設置
連携体制
- 保護者との情報共有
- 警察との連携強化
- 専門機関との協力
ボランティア団体の活動
「ひいらぎネット」などのボランティア団体は、約5年前から児童ポルノや盗撮画像の監視活動を続けており、性的ディープフェイクの早期発見と削除要請において重要な役割を果たしています。
監視活動
インターネット上の違法画像を発見
通報
プラットフォームや警察に通報
削除要請
サイト運営者に削除を要請
被害者支援
相談対応と情報提供
技術的対策
AI による AI対策
技術的な解決策として、以下のような AI を活用した対策技術の開発が進められています:
-
ディープフェイク検出AI:偽画像・動画を自動識別する技術 -
透かし技術:元画像に見えない識別マークを埋め込む技術 -
ブロックチェーン認証:画像の真正性を証明する技術 -
自動削除システム:違法画像を発見次第自動削除する技術
教育現場での取り組み
デジタルリテラシー教育の重要性
性的ディープフェイク問題への根本的な対策として、教育現場でのデジタルリテラシー教育が極めて重要です。単に技術の使い方を教えるだけでなく、その影響や責任についても理解を深める必要があります。
情報モラル教育
- プライバシーの概念理解
- 肖像権・著作権の基礎知識
- デジタル足跡の永続性
- 被害者の立場に立った思考
- 法的責任の理解
批判的思考力
- 情報の真偽判定能力
- ディープフェイクの見分け方
- 信頼できる情報源の選択
- 複数視点からの情報分析
- 科学的思考の習得
共感力育成
- 被害者の心境理解
- デジタル世界の人権意識
- 多様性の尊重
- 責任ある発信の重要性
- 建設的なコミュニケーション
年齢別教育アプローチ
性的ディープフェイク問題は幅広い年齢層に影響するため、発達段階に応じた教育アプローチが必要です。
小学生(6-12歳)
教育内容
- 写真の大切さと管理方法
- 個人情報保護の基本
- インターネットの公共性
- 相談することの重要性
指導方法
- 具体的な例を使った説明
- ロールプレイング学習
- 保護者との連携
- 定期的な確認とフォロー
中学生(13-15歳)
教育内容
- AI技術の基本理解
- ディープフェイクの仕組み
- 法的責任と社会的影響
- 被害者支援制度
指導方法
- 事例を基にした討論
- 技術デモンストレーション
- グループワークでの課題解決
- 専門家による講演
高校生(16-18歳)
教育内容
- • 高度なAI技術の理解
- • 国際的な法制度比較
- • メディアリテラシーの応用
- • 将来の職業選択への影響
指導方法
- • 研究プロジェクト
- • 模擬裁判・討論会
- • インターンシップ体験
- • 政策提案活動
保護者・家庭との連携
家庭教育の重要性
学校教育だけでなく、家庭での対話と理解も極めて重要です。保護者も性的ディープフェイク問題について理解を深め、子どもたちと建設的な対話を行う必要があります。
保護者向け啓発内容
- 最新技術動向の理解
- 子どもの SNS 利用状況把握
- 写真共有時の注意点
- 被害発見時の対応方法
家庭でできる対策
- 定期的な技術に関する対話
- プライバシー設定の確認
- 相談しやすい環境作り
- 専門機関との連携
今後の展望
技術発展と社会対応のバランス
性的ディープフェイク問題は、AI技術の発展とともに今後もより複雑化していくことが予想されます。一方で、技術そのものは多くの分野で革新的な価値を生み出す可能性を持っているため、悪用を防ぎながら建設的な利用を促進するバランスの取れたアプローチが求められます。
技術の正しい活用
- 教育分野での視覚的学習支援
- 医療分野でのシミュレーション
- エンターテイメント産業の革新
- アート・デザイン分野の新表現
- 歴史研究での復元技術
悪用防止対策
- 法的規制の整備・強化
- 技術的な検出・防止システム
- 国際連携による対策強化
- 教育・啓発活動の充実
- 被害者支援制度の拡充
法整備の方向性
鳥取県の条例改正や国レベルでのAI新法成立など、法整備は着実に進んでいますが、技術の急速な発展に対応するためには、より包括的で柔軟な法制度が必要です。
今後の法整備の課題
-
国際協調:国境を越えたサイバー犯罪への対応のため、各国間の法制度調和が必要 -
迅速性:技術進歩のスピードに対応できる法改正プロセスの確立 -
バランス:表現の自由と人権保護の適切なバランス -
実効性:実際の被害防止と救済に効果的な制度設計
社会全体での取り組み
性的ディープフェイク問題の解決には、政府、企業、教育機関、市民社会が連携した包括的な取り組みが不可欠です。
政府・自治体
- 法制度整備
- 予算確保
- 国際協力
- 被害者支援
技術企業
- 自主規制
- 技術改良
- 監視体制
- 倫理規定
教育機関
- リテラシー教育
- 研究推進
- 人材育成
- 社会啓発
市民社会
- 意識向上
- 監視活動
- 被害者支援
- 政策提言
若い世代への期待
デジタルネイティブ世代の役割
現在の中学生・高校生は、AI技術と共に成長する最初の世代として、特別な責任と可能性を持っています:
-
技術理解:AIの仕組みと影響を深く理解し、適切に活用する能力 -
倫理意識:技術の持つ力の重大性を理解し、責任ある使用を心がける姿勢 -
社会貢献:学んだ知識を活かして、より良い社会の実現に貢献する意識 -
国際視野:グローバルな課題として問題に取り組む視点
まとめ
性的ディープフェイク問題は、AI技術の急速な発展がもたらした新たな社会課題です。この問題は単なる技術的な問題ではなく、人権、教育、法制度、国際協力など多岐にわたる分野での対応が求められる複合的な課題です。
重要なポイント
-
早期対策の重要性:技術の悪用が拡大する前に、包括的な対策を講じることが重要 -
教育の役割:デジタルリテラシー教育により、将来の被害を予防できる -
技術と倫理のバランス:技術の発展を阻害せずに悪用を防ぐ仕組みが必要 -
国際協力:国境を越えた問題には、各国が連携して対処することが不可欠
私たち一人ひとりができることは、まず問題について正しく理解し、自分自身や周りの人々を守るための行動を取ることです。技術は道具であり、それを使う人間の意識と行動が、技術が社会に与える影響を決定します。
今回の毎日新聞の報道により明らかになった性的ディープフェイクの深刻な実態を踏まえ、社会全体でこの問題に取り組み、安全で健全なデジタル社会の実現を目指していくことが重要です。
参考文献・出典
-
毎日新聞「生成AI悪用『性的ディープフェイク』国内で急拡大」(2025年5月28日) – https://mainichi.jp/articles/20250528/k00/00m/020/013000c -
NHK「鳥取県『性的ディープフェイク』禁止など条例改正案が可決」(2025年3月24日) -
参議院「人工知能関連技術の研究開発及び活用の推進に関する法律」(2025年5月28日成立) -
ひいらぎネット – 児童ポルノ・盗撮画像監視ボランティア団体
生成AI事件ファイル 
