性是生產(chǎn)力。
Deepfake 這項(xiàng)技術(shù)從被人們所知悉到人人均可上手,發(fā)展程度之快出乎所有人的意料。究其根本,不過(guò)是因?yàn)?Deepfake 有一個(gè)絕佳的土壤——色情內(nèi)容。
據(jù) CNN 報(bào)道,在去年出現(xiàn)的 Deepfake 視頻中,約 96% 為色情內(nèi)容。這些視頻全部以女性為主角,她們多是受人們喜愛(ài)的明星。這就是 Deepfake 的「魅力」所在,它能讓明星也能為你「定制」色情內(nèi)容,不只是一次性幻想,還可以是一個(gè)真實(shí)度極高的性愛(ài)視頻。
▲ 用女星蓋爾加朵的臉制成的?Deepfake 視頻
如果帕麗斯希爾頓生在 2019 年,她恐怕很難大火。在性愛(ài)錄影帶如此易得的現(xiàn)在,即使真人上陣演一出極限動(dòng)作片,也很難獲得當(dāng)年鼎盛的關(guān)注。
Deepfake 對(duì)人們的威脅正在擴(kuò)大,它不只針對(duì)直接的女性受害者,也針對(duì)所有觀看視頻的人。
▲ 圖片來(lái)自:Life2Coding
一切都在升級(jí),一開(kāi)始 Deepfake 只是技術(shù)人員的專(zhuān)屬,復(fù)雜的代碼讓生成一個(gè)視頻成本極高。
隨著門(mén)檻的降低,斯嘉麗約翰遜、艾瑪沃特森等明星通通「下海拍片」,每一個(gè)都是可怕的性愛(ài)錄影帶?,F(xiàn)在,Deepfake 視頻可以輕易地威脅到所有人,政界人物、你的鄰居、你的女友……只要獲得一張對(duì)方在社交網(wǎng)絡(luò)的正面照片,生成一個(gè)專(zhuān)屬的 Deepfake 視頻是如此容易。它可能是一個(gè)性愛(ài)視頻,也可能是一個(gè)假的政治演講視頻。
Deepfake 威脅著所有人。當(dāng)你難以辨別真假時(shí),你就會(huì)開(kāi)始懷疑一切,同時(shí)也很容易被假視頻所蒙騙。
▲ 圖片來(lái)自:Giphy
為此,Adobe 在和美國(guó)國(guó)防部合作開(kāi)發(fā)幫助判斷圖片真?zhèn)蔚墓ぞ?;俄勒岡大學(xué)的研究人員想讓動(dòng)物幫我們鑒別偽造的視頻和音頻;還有的創(chuàng)業(yè)公司開(kāi)始瞄準(zhǔn)圖像辨別生意,自動(dòng)為照片加上時(shí)間和地點(diǎn)信息,提供相關(guān)真假信息確認(rèn)。
技術(shù)正在尋求一種更為妥帖的解決方案,但一切的限制也需要法律法規(guī)的參與。
這一次,法律終于不再缺位。
上周,加州州長(zhǎng) Gavin Newsom 簽署了兩項(xiàng)新法令,其中一項(xiàng)是禁止任何人在選舉 60 天內(nèi)發(fā)布有關(guān)候選人的 Deepfake 視頻。另一項(xiàng)法令則是允許該州居民起訴任何使用 Deepfake 技術(shù)將其圖像放入色情視頻的人。
▲ Gavin Newsom
它針對(duì)的是人們對(duì) Deepfake 視頻中爭(zhēng)議最大的兩個(gè)部分:色情和政治選舉。
同樣來(lái)自加州的議會(huì)代表 Marc Berman 認(rèn)為 Deepfake 制成的視頻有可能會(huì)成為誤導(dǎo)選民做出選擇的危險(xiǎn)工具。
選民有權(quán)利知道他們所看到的這些視頻、音頻和圖像在即將到來(lái)的選舉中可能被操縱,這會(huì)影響他們進(jìn)行投票,但這些內(nèi)容并不代表現(xiàn)實(shí)。
▲ 圖片來(lái)自:medium.com
但這真的就足夠了嗎?在限定時(shí)間內(nèi)最大程度摒除 Deepfake 視頻對(duì)選舉的干擾就夠了嗎?允許受害人起訴那些未經(jīng)允許就為自己制造了一段色情視頻的人就夠了嗎?
這一切或許遠(yuǎn)遠(yuǎn)不夠。
無(wú)辜被「拍攝」了一段 Deepfake 色情視頻的女性只能通過(guò)漫長(zhǎng)的訴訟流程來(lái)保證自己應(yīng)有的權(quán)利,且全世界還只有加州有相關(guān)的法律支持你捍衛(wèi)自己的權(quán)利。
這一切遠(yuǎn)遠(yuǎn)不夠。
目前,網(wǎng)絡(luò)安全專(zhuān)家 Deeptrace 已經(jīng)發(fā)現(xiàn)了 14678 個(gè) Deepfake 視頻,視頻數(shù)量比 2018 年首次統(tǒng)計(jì)增加了 84%,其中大部分都是人工制作的性愛(ài)錄像帶。有超過(guò) 1.3 萬(wàn)個(gè) Deepfake 視頻在相關(guān)的色情網(wǎng)站上,她們的主角包括女明星,網(wǎng)紅以及一個(gè)個(gè)普通人。
▲ 圖片來(lái)自:Wired
技術(shù)的發(fā)展讓他們有了原本不會(huì)有的困擾。
實(shí)時(shí)視頻仿真軟件 Face2Face 的開(kāi)發(fā)者 Justus Thies 也曾意識(shí)到這項(xiàng)技術(shù)的危險(xiǎn)性,他在一次接受采訪(fǎng)的時(shí)候表示:
如果這類(lèi)視頻軟件得到廣泛應(yīng)用的話(huà),將會(huì)對(duì)社會(huì)造成劇烈的影響。這也是為什么我們不把軟件代碼開(kāi)源的原因之一。如果讓不成熟的人接觸到這類(lèi)軟件,將會(huì)大大提升網(wǎng)絡(luò)霸凌的等級(jí)。
▲ ?Face2Face
Deepfake 引發(fā)的網(wǎng)絡(luò)霸凌已經(jīng)初見(jiàn)端倪,相關(guān)的法律法規(guī)卻還沒(méi)準(zhǔn)備好。「先行者」加州做出的謹(jǐn)慎嘗試也伴隨了不小的爭(zhēng)議。
立法限制新技術(shù)在特定領(lǐng)域的使用只是開(kāi)始,如何規(guī)范技術(shù)的使用,如何保護(hù)用戶(hù)的應(yīng)有權(quán)利?這些都該得到更多的討論和關(guān)注。
Deepfake 所用的技術(shù)在法律領(lǐng)域基本是一片空白,加州兩項(xiàng)新法令的出臺(tái)則是一個(gè)積極的信號(hào)。
它告訴所有人,Deepfake 視頻所涉及的新技術(shù),不應(yīng)該成為制作者的法律保障。
題圖來(lái)自?The Conversation。