コンテンツにスキップ

フェイクポルノ

出典: フリー百科事典『ウィキペディア(Wikipedia)』

フェイクポルノとは、人工知能 (AI) にもとづく人物画像合成の技術であるディープフェイクを使った偽ポルノ動画のこと[1]

概要

[編集]

2017年11月2日に、アメリカ合衆国のRedditで「ディープフェイクス (Deepfakes)」というアカウント名を使う匿名利用者が3人の有名女優の偽ポルノ動画を投稿したのが最初である[2]

制作においてはグーグルの画像検索やストック写真及びYouTubeを使って、性的対象となる有名人のデータを集め、それらを使って一コマごとに既存のポルノ動画の顔を性的対象となる有名人女性に入れ替えるように、人工知能 (AI) のアルゴリズムに学習させる手法が取られている[3]

Redditでは「同意のないポルノが含まれている」という理由でディープフェイクス (Deepfakes) が投稿した偽ポルノ動画が閲覧できなくなり、最初に偽ポルノ動画を投稿したディープフェイクス (Deepfakes) 本人も姿を消した[3]

しかし、この際にディープフェイクを用いて偽ポルノ動画を制作するのに必要なプログラムは既に公開され多くの人に共有されていたことがきっかけとなり、自分でディープフェイクを作成できる新しいツールや無料のソフトウェアがインターネット上に出現するようになり、様々な偽ポルノ動画が作成・投稿されるようになった[4]。新しいツールが公開されたことで、プログラミングの知識がそこそこあれば、専門的な深い知識がなくても作成できるようになっている[5]。AIに読み込まれる画像が多ければ多いほど、また学習させる時間が長ければ長いほど動画の質は上り、根気次第で精巧な合成動画ができるようになっている[6][7]

2018年2月にディープフェイクポルノのサイトが初めて出現した[8]2021年時点で主だったディープフェイクポルノのサイトの総視聴回数が1億3400万回に上る[8]

ディープフェイクポルノの性的対象は女性ばかりであり、性的対象が男性のものは見つからない[9]。一方で、ディープフェイクポルノの対象女性については出身地は数十カ国に上り、民族や髪の色も多様である[10]。制作者が有名人の女性のフェイクポルノを制作・投稿して閲覧数を上げる例や、対象女性のポルノ動画を見たい人が制作者に依頼して制作・投稿される例もあり、その場合はフェイクポルノの制作・投稿をした人間に金が入る仕組みになっていることがある[11][12]。また、ネット上で公開されているフェイクポルノは、多くが宣伝用でダイジェスト版の数分間しかなく、本編を視聴したい場合には数千円単位で購入するか有料会員サイトへ登録する必要があることで、フェイクポルノを視聴したい者がフェイクポルノの制作・投稿をした人間やフェイクポルノサイトを運営・管理する者に対価を払う仕組みになっていることがある[13]

フェイクポルノは初期の頃は注意深く見ていないと本物だと錯覚してしまうものの対象者の口の動きが台詞と合っていないなど目を凝らして動画を数秒以上見ていれば違和感に気づくレベルであったが、技術が進化するにつれて段々と精巧になっている[14][15]


法的処罰・厳罰化要求

[編集]

フェイクポルノが肖像権侵害であることは明白であり名誉や尊厳にも関わってくることだが、フェイクポルノの作成・投稿をされて被害に遭った女性が訴えを起こす例は少ない[16][17]。背景には、製作や投稿が国境を超えているために法的手段に訴えても効果について疑問視されていることや、訴えを起こせばかえって注目を集めて視聴者数増加という形でますます被害にあってしまう(ストライサンド効果)ことも、訴えを起こしにくい一因となっている[16][17]

日本でも現行法だと、フェイクポルノは他人が閲覧できる状態にしない限り違法とすることは難しい。顔を悪用された被害者への名誉毀損罪・顔以外のAVを悪用されたAVメーカーへの著作権侵害でフェイクポルノ投稿者らに対応するしかない[7]リベンジポルノ防止法は、実在人物の性的記録物(動画や画像)を対象としたもので、「顔は被害者、体はAV女優」というフェイクポルノだと、架空人物のと見なされるため適用が難しいとされる[7]

日本でフェイクポルノが初めて刑事事件化した例として、2020年10月2日に日本でフェイクポルノを作成して投稿した熊本県の大学生(当時21歳)と兵庫県のシステムエンジニア(当時47歳)の2人が名誉毀損罪著作権法違反で逮捕された例がある[18][19]

2024年にはロイターにて、詐欺、政治的な偽情報、性的なディープフェイク規制・違反者への厳格化が要求が報道されている[20]

出典

[編集]
  1. ^ NHKスペシャル取材班 (2020), p. 44.
  2. ^ ニーナ・シック (2021), p. 37.
  3. ^ a b ニーナ・シック (2021), p. 40.
  4. ^ ニーナ・シック (2021), pp. 40, 43.
  5. ^ NHKスペシャル取材班 (2020), p. 45.
  6. ^ ニーナ・シック (2021), p. 41.
  7. ^ a b c 集英社 (2020), p. 35.
  8. ^ a b ニーナ・シック (2021), p. 44.
  9. ^ ニーナ・シック (2021), p. 45.
  10. ^ ニーナ・シック (2021), p. 46.
  11. ^ NHKスペシャル取材班 (2020), pp. 46–47.
  12. ^ 扶桑社 (2019), pp. 22–23.
  13. ^ 日本ジャーナル出版 (2020), p. 181.
  14. ^ ニーナ・シック (2021), pp. 40, 46.
  15. ^ NHKスペシャル取材班 (2020), p. 56.
  16. ^ a b NHKスペシャル取材班 (2020), p. 47.
  17. ^ a b 扶桑社 (2019), p. 23.
  18. ^ 「AIで偽アダルト動画作成「ディープフェイク職人」を初摘発」『産経新聞産業経済新聞社、2020年10月2日。
  19. ^ 「人気女優の偽アダルト動画を作成 大学生ら2容疑者逮捕」『中日新聞中日新聞社、2020年10月2日。
  20. ^ Tong, Anna、Tong, Anna「AI著名専門家ら、公開書簡でディープフェイク規制強化を要請」『Reuters』2024年2月21日。2024年6月2日閲覧。

参考文献

[編集]

書籍

[編集]
  • ニーナ・シック 著、片山美佳子 訳、ナショナルジオグラフィック 編『ディープフェイク ニセ情報の拡散者たち』日経ナショナルジオグラフィック、2021年9月17日。ASIN 4863135130ISBN 978-4-86313-513-0NCID BC10024003OCLC 1305143347国立国会図書館書誌ID:031658974 
  • NHKスペシャル取材班『やばいデジタル “現実”が飲み込まれる日』講談社講談社現代新書〉、2020年11月18日。ASIN 406521954XISBN 978-4-06-521954-6NCID BC03963367OCLC 1224295938国立国会図書館書誌ID:030729531 

雑誌

[編集]

関連項目

[編集]
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy