近日,據(jù)《赫芬頓郵報》報道,繼臭名昭著的深度偽造軟件“Deepnude”被下架后,又有一個更強大、更智能的“娛樂”網(wǎng)站出現(xiàn)在互聯(lián)網(wǎng)中。在這個網(wǎng)站上,任何使用者可以輕易地在數(shù)字層面剝?nèi)カ@取一個人(通常是女性)的衣服。
而根據(jù)其網(wǎng)站的介紹,他們所專注的事業(yè)是:“通過AI研究,讓人類的夢想成真”。
為了避免為其引流,本文對該網(wǎng)站的名字略去不提。
此網(wǎng)站的使用相當簡單,用戶只要上傳一張自己選擇的穿戴整齊的女性照片,幾秒鐘之內(nèi),網(wǎng)站就會免費為他們脫光衣服。在輿論的抗議下,網(wǎng)站在9月6日暫時關(guān)停,但不到一天后,網(wǎng)站就帶著“收費模式”重新上線。收費模式下,獲得一張深度偽造的高清裸體圖片僅需0.3美元。
成果“驚人的真實”,已積累3800多萬點擊量
用技術(shù)做對比的話,2019年走紅的“Deepnude”并不先進,如果能拋去其獨特的“色情”元素,他們生產(chǎn)的產(chǎn)品甚至可以被稱為是幼稚可笑的:如果在Deepnude上傳一張男性半裸的照片,那在照片的下半部分將被拼接上一副裸露的女性乳房。但相比之下,這個成立于2020年的新網(wǎng)站比Deepnude先進得多。
據(jù)稱,該網(wǎng)站生產(chǎn)的裸體女性圖像“驚人的真實”。在這些生成的圖像中通常沒有偽造的破綻或是視覺線索,都是在深度偽造的技術(shù)下綜合處理生成的,這大大增加了對圖片主體的潛在傷害。
“任何有報復心的變態(tài)都可以很容易地‘裸體化’并發(fā)布他前女友的照片,圖片將非常有說服力,好像她的真實裸體被泄露了一樣?!薄逗辗翌D郵報》寫道。
此外,該網(wǎng)站自稱開發(fā)了自己的“最先進的”深度學習圖像翻譯算法來“裸體化”女性身體,可以覆蓋到所有的種族,從這個角度來說,它可能比頻頻被爆種族歧視的Facebook更“人人平等”——“人人”除了男性。當你上傳一張男性照片時,該網(wǎng)站會為其匹配上女性的性器官。
從今年年初至今,該網(wǎng)站已經(jīng)積累了3800多萬點擊量——這可能和該網(wǎng)站的“推薦”策略有關(guān)。每個使用者都可以生成分享鏈接,而每個點入這個鏈接的人將給分享者帶來一份“獎勵”——他們會獲得至多一百個免費生成女性高清裸體的額度。這鼓勵了成千上萬的使用者為它做廣告,有時他們會附上網(wǎng)站生成的“成果圖”,這些圖片的主體可能是他們的同事、鄰人、前任,甚至是被隨手拍下的陌生人。
然而,以URL形式分享的鏈接存在著明顯的弱點:社交應(yīng)用可以在自己的平臺上全面禁止其傳播。但至今為止,只有Facebook在被媒體提醒后這樣做了。截止至此稿發(fā)布,該網(wǎng)站仍可以被直接在搜索引擎中被找到。
不僅是名人:任何女性都可以成為被偽造的對象
早在此網(wǎng)站之前,Telegram就被爆出平臺上有深度偽造合成裸照的應(yīng)用。據(jù)網(wǎng)絡(luò)安全研究機構(gòu)Sensity在2020年秋季發(fā)布的報告,在Telegram的應(yīng)用中,至少有10.48萬女性“被裸體”,而在分發(fā)這些照片的7個頻道中,累計用戶超過10萬。
根據(jù)Sensity的追蹤調(diào)查,Telegram應(yīng)用中超七成的使用者表示他們上傳的照片是通過社交平臺,或其他私人渠道取得的。
“這是一個非常非常糟糕的情況?!庇疃葌卧鞂<液嗬ぐ⒓抡f:“(新網(wǎng)站生成的)圖片真實性大大提高了?!蓖瑫r他也指出,深度造假技術(shù)在應(yīng)用于名人外,也針對普通女性:“絕大多數(shù)使用這些(工具)的人瞄準了他們認識的人。”
沒有人是安全的——Sensity的首席執(zhí)行官帕特里尼說,只要你在社交媒體上發(fā)布了有人臉信息的圖片,就可以被用于生成裸照。
帕特里尼和阿吉德的意見都可以在另一個網(wǎng)站(它是Deepnude的迭代產(chǎn)品)中得到佐證。在此網(wǎng)站的展示頁面中,有來自世界各地的女性裸體展示,而經(jīng)過記者溯源,可以發(fā)現(xiàn)這些圖片來自于各個平臺:Pinterest、Instagram、或是購物網(wǎng)站;這些女性有的是商業(yè)模特,有的是健身博主,也有約拍人像的普通女孩。這些裸體照片的原型可能是她們的工作照,也有生活片段的分享。
此外,展示頁面中相當一部分照片來源是“無版權(quán)圖片”,這意味著這些圖片可被免費下載、使用。那么隨著深度偽造技術(shù)的發(fā)展,“無版權(quán)圖片”應(yīng)被視作商品還是個人肖像權(quán)的部分?
至少,在溯源的過程中,沒有任何信息顯示這些女性是自愿提供這些圖像的。
深度偽造視頻呈指數(shù)級增長,暫無有效管控方式
根據(jù)Sensity的數(shù)據(jù),自2018年以來,網(wǎng)上深度偽造視頻的數(shù)量呈指數(shù)級增長,大約每六個月就翻一番。截止到2020年12月,他們共發(fā)現(xiàn)虛假視頻85047個。
然而,相對于其迅速擴張的現(xiàn)狀來說,深度偽造尚無行之有效的管控方式。
“大規(guī)模檢測可以說是最好的解決方案,”阿吉德說,這指的是用算法大規(guī)模過濾社交媒體和平臺,但,不幸的是,“目前很難做好大規(guī)模的檢測,并將這套檢測系統(tǒng)納入我們生活的數(shù)字基礎(chǔ)設(shè)施中...檢測系統(tǒng)部署起來不夠準確和可靠,特別是對于海量吞吐數(shù)據(jù)的社交平臺來說?!?/p>
另一種技術(shù)方法被稱為內(nèi)容認證,如TruePic或Adobe等平臺,他們可以通過捕捉點來認證照片或視頻的真?zhèn)巍_@本質(zhì)上是對原始圖像進行“指紋識別”,并記錄下圖像在處理過程中的所有更改。但這種方法也有缺點。其中最顯著的一點是,人們可以將照片拍照后再次上傳。
阿吉德認為,理想的方法可能是兩者的結(jié)合,加上一些數(shù)字素養(yǎng),這樣個人就可以在不那么復雜的深度造假中發(fā)現(xiàn)媒體操縱的跡象。然而,就目前而言,識別深度造假仍然是一場差距懸殊的追捕賽:被造假的受害者需要花費大量精力維持生活、追訴公義,在這個過程中一些受害者失去了工作,社會關(guān)系和尊嚴,而有些人死于自殺。
某種意義上來說,這些圖像是否真實已經(jīng)不再重要——《赫芬頓郵報》這樣寫道——它們創(chuàng)造了一個新的現(xiàn)實,受害者必須生活在其中。
編譯/綜合:南都見習記者胡耕碩
編輯:蔣琳
掃描二維碼推送至手機訪問。
版權(quán)聲明:本文由信途科技轉(zhuǎn)載于網(wǎng)絡(luò),如有侵權(quán)聯(lián)系站長刪除。
轉(zhuǎn)載請注明出處http://macbookprostickers.com/xintu/10591.html