為什麼我們對deepfake技術又愛又恨?

為什麼我們對deepfake技術又愛又恨?

Deefake到底是什麼?即便你對這個近來AI界頻頻出現的熱詞不夠瞭解,對「AI換臉」也一定不陌生。從國外的惡搞奧巴馬、蓋爾加朵,到國內的朱茵換臉楊冪、以及ZAO App的曇花一現。這項腦洞大開的技術在2017年由Reddit網站用戶「deepfakes」提出並開源,便在論壇炸了鍋。隨即衍生出FakeApp等視頻合成工具和一系列偽造影片。

這種源自人工智能生成對抗網絡(GAN,generative adversarial network)的偽造技術,可以實現用另一張人臉圖片替換掉原始視頻中的原始人像。基於GAN算法的博弈優化原理,最終生成逼真度極高的偽造視頻,目前已可以以假亂真。

為什麼我們對deepfake技術又愛又恨?
為什麼我們對deepfake技術又愛又恨?

一方面,deepfake技術應用在影視文化行業的想像空間極大,另一方面,惡搞與色情影片對人性的聳動,使其從誕生之初就伴隨著肖像權、版權和倫理層面的紛爭。deepfake被濫用究竟有何威脅?造假之風日盛,打假軍團也逐漸誕生。用AI打假AI,成為一場「軍備競賽」。而我們會獲勝嗎?

Deepfake被濫用對我們究竟意味著什麼?

■ 近來的一項研究表明,目前網上有14678個DeepFake視頻,其中96%是色情視頻。大部分都是著名女演員的臉,被轉移到色情明星的身體上。(Deep Trace Lab)作為主要目標之一的女演員斯嘉麗就表示:「這對我的影響沒有那麼大,因為人們知道色情視頻裡的人並不是我......但是對於那些因此可能丟掉工作的人來說就不同了。」 (機器之心)

對於普通人或知名度較低的女性而言,deepfake技術讓造假色情視頻變得十分容易,基於報復或其他目的的色情視頻,可能讓女性面臨更高的名譽風險而難以自辯。

■ 技術的革新也讓「欺詐產業」不斷改頭換面。基於deepfake的合成人像、合成語音乃至合成筆跡,讓欺詐活動變得更加隱秘而難以偵查和防衛。

今年 3 月,犯罪分子成功模仿了一家英國能源公司的德國 母公司CEO的聲音,欺騙了多位同事和合作夥伴,一天內詐騙了 220,000 歐元(約合 173 萬元人民幣)。(Deeptech深科技)6月,間諜使用 AI 生成了一個並不存在的個像和資料,在職場社交平台LinkedIn上欺騙了包括政治專家和政府內部人士的眾多聯繫人。(新智元)

■ 除了已爆發的安全風險,Deepfake的潛在效應還將蔓延到大眾的信息獲取和社會信任層面。

「如果一個信息消費者不知道該相信什麼,他們不能從虛構中辨別事實,那麼他們要麼相信一切,要麼什麼都不相信。如果他們什麼都不相信,那就會導致長期的冷漠,這對美國是有害的。」(外交政策研究所研究員Clint Watts/新智元)

AI對抗AI,會是好的解決方案嗎?

■ 正如中國科學技術法學會李晟教授所言,deepfake的真正問題在於,「傳統意義上「真實」與「虛假」的界線會被打破」。既然能用技術造假,可否利用更強有力的技術來檢測假視頻?這種AI對抗AI的思路成了過去兩年內不少機構關注的方向。

紐約州立大學教授Siwei Lyu和學生發現,使用AI技術生成的假臉極少甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的。美國國防部研究機構 DAPRA 據此研發出了首款「反變臉」的AI刑偵檢測工具。(新智元)Hao Li 所在的團隊通過追蹤每個人特有的面部微表情來做到這一點。這些標記(微表情)被稱為「軟生物特徵」,它們對 AI 來說太微妙了,目前還無法模仿。(機器之心)

■ 不過無論是Lyu還是Li都認為,這項技術可能沒多久就沒用了。「在偽造視頻的後期處理中手動添加眨眼並不是一個巨大的挑戰」,隨著鑒別技術的提升,假視頻的質量也會進一步提高。開發這種算法,「至少有助於阻止和延遲創建偽造視頻的過程。」(Siwei Lyu網易)

生成式對抗網絡的原理就是讓兩套神經網絡在相互博弈中學習,長遠看來,兩者永遠處在不斷的對抗當中,誰也無法徹底打敗誰。(愛范兒)

■ 即便是當前十分有效的檢測技術,也難以完美捕獲所有的造假信息。人工智能基金會的研究副總裁Delip Rao 表示,「近期公佈的 deepfake 檢測算法據說可以達到 97% 的準確率。但考慮到互聯網平台的規模,這剩下的 3% 仍然具有破壞性。假設 Facebook 每天要處理 3.5 億張圖象,即使是 3% 的錯誤率仍然會導致大量錯誤識別圖象被放出。」(Delip Rao/機器之心)

■ 另一個問題在於,「打假研究」與「造假研究」的規模和聲量很不成比例。「2018年,全球加在一起,也只有25篇有關識別合成圖象的論文發表。

對比一下,GAN有902篇。算下來,1比36。」(量子位)對於此,Facebook、Google等巨頭公司已開始調整思路,採用獎金競賽、搭建數據集等方式,期望集眾力填補這一缺口。9月,Facebook宣佈與數家公司和高校合作發起Deepfake檢測挑戰賽。(cnBeta)

這種規模化的行動能否幫助打假技術實現飛躍?我們尚需等待。

除了AI反制,還有什麼應對思路?

■ 在不明確技術氾濫後果的前提下,合理地釋放技術成果成為了一些企業的選擇。比如OpenAI前段時間推出的無監督語言模型GPT-2,就沒有按照行業慣例進行開源,只發佈了簡化版,不發佈數據集、訓練代碼以及模型權重,目的就是避免「這一技術被人惡意利用」。(腦極體)

■ 由於AI打假存在漏網之魚,Hwang認為最有可能的解決方案是,在自動檢測工具(可以掃瞄數百萬個視頻)和人工審查(可以關注更棘手的案件)之間取得平衡。例如,記者、事實檢查員和研究人員可以收集視頻內容的支持證據。對於經過特別打磨的deepfake作品尤其有用。(前瞻網)

■ 美國弗吉尼亞州和加州都在deepfake技術的立法監管層面有所嘗試。今年5月,我國民法典人格權編草案二審稿提出,任何組織或者個人不得以醜化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。「如果正式通過,這意味著即便沒有營利目的和主觀惡意,未經本人同意的AI換臉同樣有可能構成侵權。」(北京大學法學院副院長薛軍/新華網)

■ 「在我看來,最重要的是,公眾必須意識到現代技術在視頻生成和編輯方面的有很大的能力。這將使他們更批判性地思考自己每天消費的視頻內容,尤其是在沒有來源證明的情況下。」(斯坦福大學訪問助理教授Michael Zollhofer/新智元)

編者小結

正如這項技術的締造者「deepfakes」所言:任何技術都可能被邪惡的動機利用。Deepfake誕生不久,就引發了諸如色情視頻氾濫、更隱秘的欺詐手段、乃至身份識別和社會信任的挑戰。如果我們想要擁抱這種能讓Paul Walker在《速度與激情7》中復生的美妙技術,就更應當積極地參與到防止技術濫用的努力之中。

目前看來,依靠技術制衡技術、開發好的AI算法來檢測虛假內容,依然是最可行的解決辦法。雖然這條路徑無法通向100%的成功率,並且面臨造假技術更新帶來的持久「軍備競賽」局面。這場競賽已從最初的大小機構各自為陣,轉向了巨頭公司利用獎金競賽、搭建數據集等方式,鼓勵更廣泛的關注和參與。

但在技術博弈之外,依然有很多重要的路徑值得探索。例如:人工查證如何聰明地參與到技術偵測之中,起到四兩撥千斤的作用?在能夠駕馭之前,這類敏感技術是否應該有限度地開源?配套的監管政策如何不妨礙技術的正向發展?

回到最初的問題:deepfake出現將對大眾如何定義真相將產生衝擊。因而,對抗技術濫用並不只是行業和監管等一小部分人的事;當這一問題獲得更廣泛的關注,人們對造假的免疫力才會更強,更懂批判性思考和吸收,社會對「假象」的風險才有了最堅實的根基。

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪