もし、自分の子どもが生成人工知能(AI)で同級生の「性的ディープフェイク(偽画像)」を作っていたら――。
警察庁が今年2月に公表した統計によると、18歳未満の画像を使った性的ディープフェイクの被害相談・申告のうち、同級生や同じ学校の生徒が加害者であるケースが約6割に上った。
なぜ子どもたちが性的ディープフェイクに巻き込まれるのか。我が子を加害者にしないために、親にできることはあるのか。
男子中学生が作成、販売の事案も
警察庁の統計によると、昨年全国の警察に寄せられた被害相談や申告は合計114件あった。
加害者は同級生や同じ学校の生徒だったケースが最も多く65件だった。
次いでSNSなどで知り合った相手(10件)、親や教員など面識のある大人(7件)が続いた。
具体的には、男子中学生が女子生徒の画像を生成AIで裸に加工し、他の男子生徒に販売▽有料で性的画像作成を請け負う成人男性が、男子高校生の依頼を受けて女子生徒の性的画像を作成しSNSで拡散――などの事案があった。
下がる「加害」のハードル
なぜ加害者が低年齢化しているのか。
デジタル性被害のパトロール活動や相談事業に取り組む任意団体「ひいらぎネット」の永守すみれ代表は、画像生成サービスの利用のハードルが下がったためだと指摘する。
性的コンテンツの作成がガイドラインなどで規制されているChatGPTやGeminiなど一般的な生成AIサービスよりも、海外サイトの作成用サービスが利用されるケースが多いという。
「当初は有料がほとんどでしたが、最近は無料サービスが増え、小中学生でも触れるようになっています」
海外サービスの使用方法を解説する情報も出回っており、英語が分からなくても作成できる状況だ。
性暴力の認識乏しい?
日本では、性的ディープフェイクを包括的に取り締まる法律は未整備で、政府は2027年3月までに対策を取りまとめるとしている。
性犯罪に詳しく、被害者支援にも取り組む上谷さくら弁護士は「同意のない画像生成や拡散は性暴力だ」と指摘する。
「特に若年層は、性暴力だという認識や悪意のないまま、安易に生成・拡散する人も多いのではないか」と懸念する。
性的画像は一度拡散すると被害回復が難しい。事案によっては、名誉毀損(きそん)罪やわいせつ物頒布罪などで摘発される可能性もある。
「加害者に強固な悪意がなくても、一度拡散した性的画像は転々と流通し続ける可能性があり、結果は重大です。被害者が防御することも困難ですし、被害も深刻です」
親にできることは
我が子が加害行為に及ばないよう、親にできることはあるのか。
上谷さんは「スマートフォン利用を始めるタイミングで子どもと約束事を明確に定めること」を勧める。
「性的ディープフェイクに限らず、盗撮やリベンジポルノ、闇バイトなどの入り口はスマホがメインです。スマホを渡すタイミングで、禁止事項や定期的な中身の確認など、本人に納得してもらった上で利用に親が関与することが有効だと思います」
親自身が多様化する性犯罪の実態を知っておくことも重要だ。
「デジタル性犯罪の証拠などを見ていると、ぞっとするような加害行為を目にすることもあります。どんな事案が起きているのか、何が加害にあたるのか、親が理解を深めることがまず重要です」
また、家庭で幼少期から性教育を積み重ねることも必要だと指摘する。
「自分がされたら嫌なことは相手にしない、と教えることはもちろんですが、より重要なのは、自分やみんながされてよいと思う行為でも、それを嫌がる人がいる、ということを分かってもらうことです」
性的な行為の大前提は、相手の同意を取ることだ。
「たとえば友達とふざけて抱き合うときに、お互いがそうしたいと思っていることが大事。相手が嫌だと思っていないか、意思を確認する習慣をつけましょうと教えることが、性教育の第一歩だと思います」【待鳥航志】