石川カオリ的日本時事まとめ翻譯
昨日(2),日本警視廳逮捕熊本市大二學生林田拓海、兵庫縣工程師大槻隆信、大分縣野間口功也。3人的共通點是利用AI人工智慧的「深偽( deepfake )」技術製作「假A片」,將女藝人的臉部合成AV影像,營造出當事人參與A片演出的假象。這是日本警方首次逮捕利用deepfake製作「假A片」的嫌犯,後續發展備受矚目。

目前已知,受害女藝人人數約200人,已有3,500部以上的「假A片」在網路上流竄。警視廳目前認定,「假A片」適用名譽毀損罪,最高可處3年以下懲役,或50萬日圓以下罰金。此外,「假A片」也有侵犯著作權法的疑慮。

製作deepfake「深偽假A片」遭逮捕,日本警方動起來

(下收更多內容)
石川カオリ的日本時事まとめ翻譯
目前3人皆表示,製作「假A片」是為了賺錢。以野間口功也為例,他光是在今年1月到 6月,靠著上傳「假A片」賺廣告費就賺了約 56萬日圓。

延伸閱讀:【 wrold_Yam 】把他人臉孔轉移到色情片上 deepfake「假A片」惹議
把他人臉孔轉移到色情片上 deepfake「假A片」惹議 | DQ 地球圖輯隊
石川カオリ的日本時事まとめ翻譯
▌這只是冰山一角

林田拓海從去年 12月到今年 7月,在自己經營的付費網站上上傳自製的 2名女藝人「假A片」,遭製作公司提告侵害著作權。大槻隆信則是在今年 4月到 7月,在日本境外網站上公開另外 2名女藝人的「假A片」。林田拓海和大槻隆信兩人,總計上傳了約 400部「假A片」,獲利 80萬日圓以上。

這次遭逮捕的 3人總計製作 500部以上「假A片」,約有 150名以上女藝人受害。但警視廳目前已確認日本國內至少有 3,500部以上的「假A片」流竄,亦即還有更多加害人逍遙法外,這次警方大動作逮捕到
石川カオリ的日本時事まとめ翻譯
▌為什麼受害人都是女藝人?

如果要利用「深偽」技術合成假影片,必須要先提供當事人的大量影像,讓AI人工智慧機器學習(machine learning)找出當事人臉部表情特徵。資料越多,做出來的影片越真實。

政治人物或演藝人員這種,市面上有大量公開影像的公眾人物,最適合被拿來餵給AI人工智慧做機器學習。過去向歐巴馬(Barack Obama)、馬克祖克柏(Mark Zuckerberg),都曾被網友製作deepfake假影片,上傳到網路上。
石川カオリ的日本時事まとめ翻譯
在所有deepfake假影片當中,「假A片」對於當事人的殺傷力是最強的。背後因素當然包含整個大環境的性羞辱文化,還有以男性視角為主的性產業文化。這其實就是一種 影像性暴力 (image-based sexual abuse)。

但不論今天「假A片」的受害者是生理男性還是生理女性,或更廣義來看deepfake假影片的受害者是生理男性還是生理女性,這種利用最新科技的惡意行為,都該被譴責。

關於 影像性暴力 的說明,請參考香港「關注婦女性暴力協會」網站:
影像性暴力 | 關注婦女性暴力協會
石川カオリ的日本時事まとめ翻譯
▌遇上這種事情該怎麼辦?

最重要的第一步就是 報警處理。不管是deepfake「假A片」,還是私密影像外流,第一步就是報警處理。

如果是收到或看到這些私密外流影像的人,最重要的就是 不點閱、#不下載、#不分享、#不譴責被害人。

以deepfake來說,雖然通常受害人都是知名公眾人物(因為任何人都很容易在網路上取得這些公眾人物的大量圖片,這是deepfake很重要的關鍵),但也不能排除一般市井小民有可能受害(只要對方能夠掌握夠多你的臉部圖片的話)。

最重要的一點,就是要保護好自己的影像,減少在完全公開的社群網路上傳個人照片,或是上傳的時候要多留意隱私設定(雖然不是想要嚇人,但有的時候加害者很有可能就是大家身邊的人)。

對於相關議題有興趣,可以追蹤台灣「數位女力聯盟widi」粉絲專頁
石川カオリ的日本時事まとめ翻譯

想看到更多好玩有趣、各種傻眼的日本時事新聞,記得 追蹤「石川カオリ的日本時事まとめ翻譯」,帶你看見不一樣的日本。

--

擔心錯過最新日本時事話題的朋友,現在有新的選項了!

本站推出月刊電子報【石川悄悄話】,每月 15號,它會將「石川カオリ的日本時事まとめ翻譯」當月最新內容,或後續新聞追蹤報導,直接推送到你的電子信箱裡!

>>> 按此訂閱電子報 <<<
載入新的回覆