西班牙小鎮的色情犯罪風暴:AI合成裸照散播,超過20名未成年少女集體受害
「數位性暴力是一場擴散中的災難...」西國西南部小鎮在今年9月中爆出鎮內超過20位未成年少女的照片遭人用AI合成裸照,並且在青少年的社群中不斷轉發。受害少女們的母親聯合揭發此事才掀起全國重視,目前已有28位受害少女的家長成立聯合群組,全案已由當地警察進行調查中。近年全球AI合成技術氾濫,愈來愈多兒童與成人都成為合成色情影像的受害者,除查案難度大幅提升之外,許多犯案者本身也是青少年,「兒童犯下的兒童色情犯罪」現象,是當前執法與教育的難題。
西班牙一處名叫阿爾門德拉萊霍的小鎮近日登上全球媒體版面。該鎮居民僅有3萬人,但從今年9月中開始,檢警單位已接獲至少20起報案,超過20名年齡11歲至17歲之間的少女指控,有人利用AI軟體將她們的公開照片合成出假的裸照,並在Whatsapp與Telegram等通訊軟體上大量擴散。
《BBC》報導,據信這批合成裸照在7月就已出現,受害少女們最初發現後只有各自告知父母,但其中一位少女的母親阿迪布(Miriam Al Adib)恰巧是個小有名氣的網紅婦產科醫師,她的Instagram帳號追蹤者超過13萬,平日就積極透過社群宣傳性知識。阿迪布得知女兒受害後,她選擇在社群上公諸於眾,才讓受害少女和她們的父母了解事件廣度與嚴重性。
▌數位性暴力與其影響
目前已有28名受害少女的母親成立聯合群組,她們向警方遞交超過200頁的報案文件。透過阿迪布的努力,此案也在西班牙國內引起軒然大波。阿迪布表示:「我們不知道有多少孩子持有這些照片,也不知道他們有沒有上傳到色情網站......這些都是我們擔憂的問題,」
一位14歲少女的母親布蘭科-雷約(María Blanco Rayo)表示,受害者的情緒反應各不相同,她自己的女兒還能消化一切,但也有女孩嚇到不敢踏出家門。另一位受害者的母親告訴《路透社》,許多少女都被嚇壞了,她們害怕說出真相會被責罵,一開始只有默默忍耐,有些人因此憋出了嚴重焦慮症狀。
該小鎮所在的埃斯特雷馬杜拉(Extremadura)自治區首長瓜蒂歐拉(María Guardiola)也在Twitter譴責此案「令人噁心」。她表示:「針對女性的數位性暴力是一場正在蔓延的災難。」
台灣行政院根據聯合國《消除對婦女一切形式歧視公約》確立了「數位性暴力」的定義,即是透過數位方式不成比例地影響他人或施加暴力,造成特定性別的他人身心痛苦。具體行為包括網路跟蹤與騷擾、惡意或未經同意散布與性/性別有關的私密資料等等。
數位性暴力的特性也比其他犯罪更需要耐心關注。阿迪布指出,「如果你是其他犯罪類型的受害者,比方被搶劫好了,你會去報案,而且不會因為有人傷害你就躲躲藏藏。但在牽涉到性的犯罪案件裡,受害者經常會感到羞恥、認為自己有責任並想要躲起來。所以我要傳達一件事:這不是妳的錯。」
西班牙今年已是第二次爆出AI合成裸照案件。今年5月,西國歌壇小天后羅莎莉雅( Rosalía)也被人合成裸照並貼上網路。她並未退縮害怕,在推特回擊「女人的身體不是公眾財產......我誠摯希望你們有天能了解,你們都是某個女人生下的。現在,其他女性都很害怕,而且我們值得被尊重。」
▌兒童犯下的兒童色情犯罪
迫於全國矚目的壓力,當地檢警已展開大動作調查。《BBC》報導,警方循線找到至少11位涉案少年,他們可能是主動利用App製作裸照的主嫌或是轉發照片的散播者。不僅如此,還有人企圖拿著合成裸照勒索其中一位少女,警方也將深入調查。
綜合《BBC》與《衛報》報導,11位涉案少年的年齡落於12歲至15歲之間。在西班牙,14歲以上的少年才有可能面對刑事指控與後續刑責,低於14歲者通常會被送往感化教育機構進行訓誡。至於已滿14歲的涉案少年,當地檢察官還需要確認可以用什麼樣的罪名起訴,相關文件仍待分析。
西班牙目前還沒有明確法律可以約束AI合成影像的罪行,但此案涉及兒童影像,可能構成持有並傳播兒童色情資料的罪名,若犯案者超過14歲,可能被求處6個月至2年有期徒刑。其他能夠起訴的罪名還包含虐待兒童與誹謗罪等。
歐美國家普遍對兒童色情犯罪抱持零容忍態度,歐盟於2001年始大力推動的《布達佩斯公約》(The Budapest Convention,又稱《網路犯罪公約》)中,要求締約方將任何與兒童色情資料有關的網路行為全部定為刑事犯罪,包含以電腦系統「製作、分發、傳播、提供、出售或擁有」兒童色情資料。根據公約第九條,兒童指的是18歲以下群體,只要色情資料出現「看似兒童者」且影像風格「逼真、寫實」,就足以納入兒童色情犯罪的管轄範疇。
▌AI致使案量暴增與犯罪年輕化
然而,AI技術的高速進展,又令打擊兒童色情犯罪的困難度推向另一重門檻。西班牙網路犯罪部門兒童保護組負責人伊茲奎多(Javier Izquierdo),解釋,過去這類案件通常只關乎「某個成人在暗網或隱匿的網路論壇下載了兒童色情片」。但隨著AI技術快速普及,警方面對的難題是青少年在非常年輕時就接觸到這類科技,執法與教育都趕不上犯罪速度。
今年6月美國聯邦調查局(FBI)才公開警告,無論成年或未成年,AI合成色情影像的受害案件量都在不斷上升,加害者不僅把幾可亂真的影像張貼到網路上,甚至還會藉此騷擾受害者,例如威脅要分享給受害者的家人,要求他們交出錢財或真正的裸照等,更有人因此遭受進一步暴力虐待或性侵。
由於AI工具唾手可得,大量案件也令警檢難以負荷,《華盛頓郵報》報導,美國國家兒童失蹤與受虐兒童援助中心(National Center for Missing and Exploited Children)設置的「撤下它」(Take It Down)專案係為私密影像犯罪而成立。該組織僅在2022年就接獲320萬起涉及兒童色情影像的報案,要從如此海量的影像中找出哪些兒童真的受到傷害、哪些又是AI合成影像,即便利用AI辨識工具仍會耗盡警方的精力和時間,遑論找出始作俑者。
台灣2021年亦曾爆發「小玉Deepfake換臉事件」:網路名人朱玉宸利用AI「深偽」(Deepfake)技術將女性名人的臉部惡意合成到色情影片,還在網路群組中販售營利。台灣立法院因此於今年1月通過數位性暴力相關四法修正案,分別從《刑法》、《犯罪被害人權益保障法》、《兒童及少年性剝削防制條例》與《性侵害犯罪防治法》加強保護。刑法增訂條文特別明訂「製作或散布他人不實性影像」最重處5年有期徒刑;若意圖營利,最重可處 7年有期徒刑。
回到阿爾門德拉萊霍鎮上,沒有涉案的群眾不代表就能從此安心,有孩子的家庭尤其深受困擾。育有一男一女兩個青少年的母親羅倫佐(Gema Lorenzo)說:「如果有兒子,妳會擔心他也做過這種事(合成或散播裸照);如果有女兒就會更擔心,因為這是一種暴力。」
阿迪布也透露,引起傳媒注意後,她收到來自世界各地女性的私訊,她們告訴阿迪布自己也遇到同樣的麻煩,而且不知道該怎麼辦。阿迪布說:「現在,全世界都在發生一樣的事,唯一不同的是,我們鎮上把事情鬧大了。」
文/王穎芝
收看更多文章,請訂閱轉角國際facebook專頁:
回應