close

メニュー

「性的ディープフェイク」被害気づきにくく…AI弊害の対策強化を 明治大・湯浅墾道教授

投稿日: 2025-10-17 00:53

AIを使ってわいせつな偽画像を作成する「性的ディープフェイク」はインターネット上に氾濫し、芸能人や卒業アルバムの写真が悪用されるなどの問題を生み出している。

警視庁がわいせつ電磁的記録陳列容疑で摘発した男は50人のサブスクリプション契約者を抱え、高額プランの契約者向けに〝オーダーメード〟の画像も作成しており、捜査幹部は「画像を使われた本人を傷つける悪質な行為」と話す。

「誰でもスマートフォンひとつで生成AI画像を作れるようになり、生成AIの利用は想像以上のスピードで普及している」。明治大の湯浅墾道(はるみち)教授(情報法)は現状をこう分析した上で、性的ディープフェイクについて、「被害者は名誉を傷つけられる一方で、自身をモデルにした画像が作られていることに気付きにくい」と指摘する。

作成者を名誉毀損(きそん)罪に問うには告訴が必要となるが、被害者が性的ディープフェイクに気付かず告訴に至らない可能性が高い。このため、知らないところで画像が生み出され続ける側面があるという。

性的ディープフェイクの作成や同意のない公開を規制する対応は各国で進められ、日本では鳥取県が条例を改正し、実在する子供の画像を利用したフェイクの作成を規制。5月にはAIに特化した新法が成立したが、罰則は設けられていない。湯浅教授は、「危険な使われ方をしないようAIそのものに規制をかける方法も考えられる。政府はAIの弊害を調査し、対策を進める必要がある」としている。(橋本愛)

コメント一覧

コメントはまだありません。

ページ表示時間: 0.005 秒

コメントを投稿する

コメントを投稿するには、ログインしてください。