最近,DeepFake 技術(shù)又一次站在了風(fēng)口浪尖上。不只是因?yàn)樗茉谛‰娪吧弦苹ń幽荆橇⒎ㄕ呓K于意識(shí)到它的可怕之處。
6 月初,一份有關(guān)馬克·扎克伯格的假視頻在國外社交媒體 Instagram 和 Facebook 上廣為流傳。
視頻中的人,無論從相貌聲音,還是穿著打扮,都跟真的扎克伯格幾無二致。他能眨眼,會(huì)用手勢(shì),嘴/臉部動(dòng)作和畫外音音軌高度吻合。乍看之下,幾乎找不到破綻,只是聲音有些奇怪。
更早之前,美國眾議院議長(zhǎng)南希·佩洛西也經(jīng)歷了類似的事件。有人通過剪輯、拼接和慢放等手段制作了一段她的演講視頻,雖然沒有用到 AI 技術(shù),但視頻中的她看起來有些神志不清,說話結(jié)結(jié)巴巴,語速緩慢,像是醉酒一樣。
這段視頻甚至引來了美國總統(tǒng)特朗普的嘲諷(兩人素來不合)。
令人不解的是,這些社交平臺(tái)并沒有選擇第一時(shí)間屏蔽虛假視頻。事實(shí)上,正是因?yàn)?Facebook 拒絕撤下佩洛西的假視頻,才導(dǎo)致有人做出了其 CEO 扎克伯格的假視頻,來考驗(yàn) Facebook 對(duì)虛假信息的衡量標(biāo)準(zhǔn),看它會(huì)不會(huì)做出“自己打臉”的事情。
按照 Facebook 的官方回應(yīng),佩洛西的視頻“沒有違反平臺(tái)的政策,因?yàn)樗腥硕伎梢宰杂杀磉_(dá)自己(的想法),如果有第三方事實(shí)檢測(cè)工具認(rèn)定視頻是假的,視頻就會(huì)被打上標(biāo)簽,提醒用戶注意其真實(shí)性,而且還會(huì)在推送中降低權(quán)重。”
換句話說,F(xiàn)acebook 的態(tài)度就是:我們不會(huì)移除編輯過的假視頻,但會(huì)讓用戶知道它不是真的。
其他社交巨頭也都紛紛表態(tài),Twitter 選擇了跟 Facebook 和 Instagram 站在一隊(duì),不會(huì)刪除這些假視頻,而谷歌旗下的 YouTube 則為了保險(xiǎn)起見,選擇了刪除視頻。
科技圈內(nèi)部?jī)蓸O分化的情況也引發(fā)了輿論熱議。有的人認(rèn)為,縱容虛假信息流傳會(huì)造成更大的混亂,尤其在政治和外交問題上,因此必須嚴(yán)格管控。
也有人認(rèn)為,這些視頻不會(huì)對(duì)某個(gè)個(gè)體造成實(shí)質(zhì)性危害,貼上虛假標(biāo)簽即可。如果今天刪除了它們,就會(huì)開創(chuàng)一個(gè)糟糕的先例,明天可能導(dǎo)致更嚴(yán)格的管控政策。
美國國會(huì)出手
美國國會(huì)也盯上了假視頻和它背后的 AI 技術(shù),因?yàn)椴粌H是佩洛西,就連總統(tǒng)特朗普都曾受到假視頻的困擾。
與此同時(shí),領(lǐng)英(LinkedIn)上還出現(xiàn)了一個(gè)疑似間諜的賬號(hào)。她的名字是 Katie Jones,頭像是一個(gè)典型的白人女性,畢業(yè)于密歇根大學(xué),在美國國際戰(zhàn)略研究中心(CSIS)工作。她的職場(chǎng)網(wǎng)絡(luò)雖然只有 50 多人,但里面有美國參議員助理、副助理國務(wù)卿,以及美聯(lián)儲(chǔ)席位候選人兼經(jīng)濟(jì)學(xué)家 Paul Windfree。
根據(jù)調(diào)查,CSIS 根本沒有這樣一個(gè)員工,密歇根大學(xué)也沒有她的學(xué)位記錄,而且她聯(lián)系網(wǎng)內(nèi)的人都不認(rèn)識(shí)她。肖像審查專家判斷,她的頭像很可能是用 AI 技術(shù)生成的假臉,很多特征與 AI 假頭像高度吻合。
再結(jié)合她添加的人都是政府重要人物,專家普遍認(rèn)為,其目的很可能是隱藏自己,從他們身上獲取信息,甚至添加更多位高權(quán)重的人物,將領(lǐng)英作為從事隱秘間諜活動(dòng)的渠道。
多名議員認(rèn)為,如果對(duì)此類事件放任不管,不僅會(huì)影響到政治人物,還會(huì)傷害弱勢(shì)群體和少數(shù)族裔,甚至波及 2020 年的美國總統(tǒng)大選。
因此,美國國會(huì)召開了有史以來第一場(chǎng)有關(guān) DeepFake 類技術(shù)的聽證會(huì),會(huì)議已于 6 月 13 號(hào)結(jié)束,相關(guān)法案也已經(jīng)醞釀了數(shù)月之久,出臺(tái)對(duì)該技術(shù)和社交平臺(tái)的約束政策只是時(shí)間問題。
縱觀歷史,能受到如此待遇的技術(shù)并不多見,立法者如此大張旗鼓地針對(duì)它,足以看出它潛在的破壞力。
AI 換臉術(shù)如何走紅
如果放在 10 年前,恐怕很少有人會(huì)質(zhì)疑一段視頻的真實(shí)性,尤其是人臉清晰可見的視頻。只不過隨著 AI 技術(shù)的進(jìn)步,憑空造出一個(gè)以假亂真的人臉,替換視頻中的人臉,或者替換視頻中的整個(gè)人物,都早已不是遙不可及的事情,甚至可能有些過于容易了。
2017 年底橫空出世的 DeepFake 技術(shù),雖然不是第一個(gè)實(shí)現(xiàn)換臉的技術(shù),但卻是將 AI 假視頻帶入大眾視野的先驅(qū)。這是一種基于深度學(xué)習(xí)的偽造技術(shù),適用于修改圖片和影像,可以實(shí)現(xiàn)人臉的移花接木。哪怕是動(dòng)圖或視頻中的人物,也可以被替換成毫不相干的另一個(gè)人。
DeepFake 的走紅要?dú)w功于腦洞大開的網(wǎng)友,他們?cè)?**中引入了 DeepFake 技術(shù),將其中女主角的臉,替換成了一些當(dāng)紅女明星的臉,蓋爾·加朵、艾瑪·沃特森、斯嘉麗·約翰遜和泰勒·斯威夫特等大牌女星都難逃一劫,紛紛被替換到了不可描述的場(chǎng)景中。
由于視頻中角色的臉部動(dòng)作和視角變化較少,因此除了個(gè)別幀數(shù)出現(xiàn)渲染模糊和混亂的問題,DeepFake 的替換效果足以以假亂真。
不過,出于惡搞精神也好,獵奇心態(tài)也罷,這些人無疑是濫用了 DeepFake 技術(shù),對(duì)當(dāng)事人造成了傷害,而且維權(quán)無門。飽受其害的“黑寡婦”斯嘉麗就曾在公開場(chǎng)合表達(dá)了自己的憤怒和無奈。
鑒于其造成的惡劣影響,很多社交平臺(tái)都開始封殺 DeepFake 視頻。該技術(shù)的開發(fā)者也在 GitHub 上呼吁,“不要將 DeepFake 的換臉技術(shù)用于***,它的價(jià)值并不在此。”
實(shí)際上,能夠制造假圖片和假視頻的 AI 技術(shù)不僅僅只有 DeepFake,相關(guān)技術(shù)在過去五年里層出不窮。這都要?dú)w功于另一項(xiàng)大名鼎鼎的深度學(xué)習(xí)技術(shù):生成式對(duì)抗網(wǎng)絡(luò)(GAN)。
這是一種讓兩個(gè)神經(jīng)網(wǎng)絡(luò)“左右互搏”的技術(shù),其中一個(gè)網(wǎng)絡(luò)負(fù)責(zé)生成物體,一個(gè)網(wǎng)絡(luò)負(fù)責(zé)判別物體,兩者通過不斷對(duì)抗來創(chuàng)造非常真實(shí)的虛構(gòu)圖像、聲音或視頻。
自 2014 年 Ian Goodfellow 發(fā)明 GAN 以來,世界范圍內(nèi)的很多深度學(xué)習(xí)團(tuán)隊(duì)和企業(yè)都開始在上面添磚加瓦,各種 GAN 框架漫天飛舞。
在 DeepFake 出現(xiàn)之前,就已經(jīng)有了基于 GAN 的 Face2Face 技術(shù)和 CycleGAN 模型。前者可以通過攝像頭捕捉人的臉部動(dòng)作,然后實(shí)時(shí)轉(zhuǎn)移到現(xiàn)有視頻中的另一張人臉上,后者則可以改變圖片和視頻中物體或場(chǎng)景的樣貌,實(shí)現(xiàn)馬與斑馬之間的轉(zhuǎn)換。
類似的技術(shù)還有很多。UC 伯克利大學(xué)團(tuán)隊(duì)的 Everybody Dance Now,融合吸收了很多種 GAN 框架的精髓,可以分分鐘讓舞蹈小白看起來像是舞王附身,堪稱是“舞蹈界的 DeepFake”。
英偉達(dá)的 StyleGAN,可以自動(dòng)生成惟妙惟肖的圖片,適用于人臉、汽車、風(fēng)景和動(dòng)物等。對(duì)于人臉來說,StyleGAN 用來混合的特征包括性別、膚色、臉型、姿勢(shì)、表情、胡須、是否戴眼鏡、頭發(fā)長(zhǎng)度和顏色等等。它雖然不是一個(gè)完美的模型,生成的圖片經(jīng)常出現(xiàn)瑕疵,但總體上效果出眾。
有人用 StyleGAN 制作了一個(gè)網(wǎng)站 thispersondoesnotexist.com,每次刷新都會(huì)生成一張人臉圖片,偶爾還真會(huì)刷出現(xiàn)高顏值的人。唯一的問題是,這人不是真正存在于這個(gè)世界上的。上文提到的那個(gè)虛假的領(lǐng)英女性頭像,專家懷疑就是 StyleGAN 或者其他 GAN 框架的杰作。
AI 造假技術(shù)觸手可及,是福是禍?
除了主流的 DeepFake 和 GAN,還有很多 AI 技術(shù)可以用來生成視頻,像香港科技大學(xué)陳啟峰教授團(tuán)隊(duì)的級(jí)聯(lián)優(yōu)化網(wǎng)絡(luò)(CRN),僅憑一張簡(jiǎn)單的場(chǎng)景布局圖片,就可以生成無數(shù)個(gè)高分辨率的圖像和視頻,還有三星 AI 實(shí)驗(yàn)室讓靜態(tài)蒙娜麗莎和愛因斯坦圖片動(dòng)起來的元數(shù)據(jù)框架。
然而,我們?cè)诟惺?AI 技術(shù)帶來的驚喜的同時(shí),也必須意識(shí)到一個(gè)問題:借著開源的東風(fēng)和技術(shù)無罪的精神,AI 造假的門檻越來越低了。
隨便在網(wǎng)上一搜“AI 換臉”,就會(huì)找到很多神經(jīng)網(wǎng)絡(luò)訓(xùn)練教程,如果有編程功底,從開源社區(qū)拿到代碼和數(shù)據(jù)就可以自行搭建框架和訓(xùn)練。
即使不懂得如何構(gòu)建神經(jīng)網(wǎng)絡(luò),看不懂晦澀的論文,甚至是不懂編程也沒問題,網(wǎng)上早就有 fakeapp 和 faceswap 等現(xiàn)成的換臉軟件,只要電腦硬件足夠強(qiáng)大,跟著教程走,自制簡(jiǎn)單的換臉短視頻并不困難。
往好的方向看,這種趨勢(shì)降低了視頻制作的門檻,方便了大眾進(jìn)行藝術(shù)創(chuàng)作,尤其是以惡搞為主要目的的視頻。在 B 站上就能找到很多高質(zhì)量“AI 換臉”視頻,譬如把《復(fù)仇者聯(lián)盟》中的美國隊(duì)長(zhǎng)改成“象牙山隊(duì)長(zhǎng)趙四”,把雷神改成徐錦江,把《武林外傳》中的佟湘玉改成“黑寡婦”斯嘉麗。
拋開法律層面存在的爭(zhēng)議不提(涉嫌侵犯肖像權(quán)),如果我們用最大的善意去看待這些惡搞,制作者的初衷可能并沒有惡意,只是單純地想讓看客一笑,用 AI 技術(shù)滿足大家最豐富的腦洞和想象力,畢竟里面沒有涉及到形象侮辱和名譽(yù)詆毀。
而且用的好了,我們還能看到“AI 復(fù)活張國榮”這樣的致敬作品。或許等技術(shù)更加成熟,越來越多逝去的名人會(huì)以“復(fù)活的”形式重新回到熒幕上。《速度與激情 7》中最后出現(xiàn)的保羅沃克就使用了類似的技術(shù)。
但如果往壞了想,AI 技術(shù)被居心叵測(cè)的人利用,就會(huì)出現(xiàn)上文說到的濫用情況。比如把女明星的臉放在色情或暴力視頻中,用來偽裝成一個(gè)不存在的人,偽造一個(gè)從沒發(fā)生過的事,或者把一個(gè)人做的事放在另一個(gè)人身上,從而誤導(dǎo)不明真相的人,混淆視聽。
如何破解 AI 操縱信息的困境?
AI 技術(shù)的進(jìn)步無疑是一件利大于弊的事情,技術(shù)本身不存在原罪。只不過我們必須制定配套的規(guī)則、規(guī)范和保護(hù)措施,才能有效避免技術(shù)濫用的情況發(fā)生,并且將發(fā)生時(shí)的損失降到最低。
美國議員正在起草的法案指出,整個(gè) AI 產(chǎn)業(yè),從上到下都必須參與其中。
首先,企業(yè)和研究機(jī)構(gòu)需要開發(fā)對(duì)應(yīng)的技術(shù),用來有效識(shí)別虛假 AI 信息。網(wǎng)絡(luò)上的信息載體可以大致分為文字、圖片、音頻和視頻。不幸的是,每一種都被 AI 攻陷了。
OpenAI 的 GPT-2 模型可以生成流暢連貫的假文章,GAN 和 DeepFake 可以制造逼真的圖片和視頻,至于模擬聲音,可以用 RNN 等深度學(xué)習(xí)模型完成,搜狗就剛剛展示過即時(shí)變聲的酷炫功能。
不過我們可以用技術(shù)來對(duì)抗技術(shù),用 AI 來對(duì)抗 AI。從本質(zhì)上看,虛假信息的傳播問題可以有兩種控制方法:一是從源頭入手,尋找證據(jù),查驗(yàn)信息的真實(shí)性;二是從數(shù)字信息本身入手,檢查是否存在修改痕跡。
Adobe 就發(fā)明了檢測(cè)圖像是否經(jīng)過 PS 的工具,可以用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別圖片有沒有被修過的痕跡。
美國國防部高級(jí)研究計(jì)劃局(DARPA)也早就注意到了 DeepFake,并且開發(fā)了一種 AI 工具,可以在 GAN 生成的視頻和圖像中捕捉微妙的生理信號(hào)線索,比如不自然的眼睛運(yùn)動(dòng)和呼吸頻率,從而識(shí)別假視頻。在 SytleGAN 和 BigGAN 還沒有誕生的時(shí)候,準(zhǔn)確率甚至高達(dá) 99%,只是現(xiàn)在應(yīng)該達(dá)不到這個(gè)水平了。
也有研究團(tuán)隊(duì)發(fā)明了新的神經(jīng)網(wǎng)絡(luò)模型 XceptionNet,用假視頻數(shù)據(jù)集訓(xùn)練 AI,教它如何識(shí)別假視頻。在清晰度比較高的情況下,準(zhǔn)確率高達(dá) 95% 以上。
然而“造謠動(dòng)動(dòng)嘴,辟謠跑斷腿”,打假不如造假吃香,學(xué)術(shù)界在對(duì)抗 GAN 方面做出的努力,仍然遠(yuǎn)不及研究 GAN 的努力。據(jù) DeepTrace 平臺(tái)統(tǒng)計(jì),2018 年,全球涉及到 GAN 生成圖像和視頻的論文多達(dá) 902 篇,而研究如何識(shí)別合成圖像和視頻的論文只有 25 篇,僅為前者的 1/36。
其次,社交平臺(tái)必須承擔(dān)其監(jiān)督和管理的責(zé)任,建立更完善的虛假信息檢測(cè)機(jī)制。
這就要求 Facebook 和 Twitter 這樣的社交平臺(tái)拿出更積極的態(tài)度,而不是像現(xiàn)在這樣,遇到難以控制的虛假信息就貼上個(gè)標(biāo)簽放任自流,甚至于連標(biāo)簽都懶得貼,直到有媒體報(bào)道才后知后覺。
所謂的 AI 算法和大數(shù)據(jù)加持下的事實(shí)檢查工具,也遲遲沒有大規(guī)模使用,偶爾使用還會(huì)鬧出啼笑皆非的笑話,比如巴黎圣母院著火的視頻被 YouTube 識(shí)別為 911 事件,只好依賴效率低下的人力篩查。這次扎克伯格和佩洛西的假視頻,到本文發(fā)稿時(shí),也沒有在醒目的地方打上虛假信息的標(biāo)簽。
美國議員 Adam Schiff 認(rèn)為,歸根結(jié)底,是因?yàn)楝F(xiàn)有法律沒有要求社交平臺(tái)對(duì)平臺(tái)上用戶發(fā)表的內(nèi)容負(fù)責(zé),他們沒有足夠的動(dòng)力去改進(jìn)。
因此,最后需要配合的就是立法和監(jiān)管機(jī)構(gòu)。相比近幾年 AI 技術(shù)的突飛猛進(jìn),配套的法律法規(guī)顯得有些落伍了。針對(duì) AI 合成內(nèi)容,如何監(jiān)管,如何收集證據(jù),如何判罰和量刑等問題都沒有確切的、詳細(xì)的、可操作的法律條款作為依據(jù)。
專家建議,應(yīng)當(dāng)讓社交平臺(tái)采取合理的措施,保證內(nèi)容的節(jié)制性,從而更有動(dòng)力打擊 DeepFake 等技術(shù)制造的虛假信息。
不過,當(dāng)這些條件都尚未成熟的時(shí)候,上網(wǎng)沖浪的我們都應(yīng)該牢記一件事情:文字、圖片、音頻和視頻都有可能是偽造的,不能輕易地相信網(wǎng)絡(luò)上的信息。
或許這很可悲,但我們就跟斯嘉麗一樣無奈。
-
圖像處理
+關(guān)注
關(guān)注
27文章
1300瀏覽量
56894 -
AI
+關(guān)注
關(guān)注
87文章
31534瀏覽量
270343 -
GaN
+關(guān)注
關(guān)注
19文章
1966瀏覽量
74240
原文標(biāo)題:DeepFake 換臉術(shù)混淆視聽,攪亂美國政壇
文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論