KPMG:超級深偽欺詐技術將形成暗黑產業鏈

KPMG安侯企業管理股份有限公司董事總經理謝昀澤表示,過一段時間,以生成式AI技術創作或偽冒影片的深偽技術(Deepfake)越來越普及,但多數影片都無法達到高畫質、長時間,且多鏡位的品質,深偽的工具使用門檻也較高,使用者仍有機會肉眼識別。但Sora的橫空出世,卻一舉突破了這些障礙,其根據簡單的提示詞,所生成的4K超高畫質影片,真實感已經達到專業人士難以分辨真偽的程度。

過去大家都擔心會有超越專家能力的「超級人工智慧(Super AI)」出現,但是現在「超級深偽(Super Deepfake)」欺詐技術,已隨著越來越多的網路AI影音服務就在眼前,如果沒有適當的風險控制,將形成「深偽即服務(Deepfake as a Service, DaaS)」暗黑產業鏈。

KPMG安侯企業管理股份有限公司執行副總經理林大馗依據近期資安情資分析,有多起犯罪集團利用深偽技術生成的AI人像來欺騙金融機構面部識別系統進行詐貸;更有多宗利用深度偽造技術針對跨國公司進行詐騙的事件,更造成了至少8億台幣的損失,顯示了以AI深偽技術結合傳統詐騙手法的「新智慧詐騙工程」正在蔓延。

謝昀澤認為,要防止被Sora等AI影片「耍啦」,必須有要靠「使用者提升AI風險素養」,及「服務廠商建構AI內容的透明度與可識別度」等兩大防禦策略。

使用者對網路影音過去的認知是「有片有真相」,以後要轉變為「保持懷疑,確信來源」,才能夠在生成式AI普及的網路世界中,具備基本的「防深(偽)術」。

林大馗也建議應用生成式AI提供服務的企業或服務提供商,未來的資安不只要重視傳統的「機密性」,並於所產出的成品提供「透明的告知或識別」,讓使用者可以輕易分辨是AI生成的內容外,更要對「真實性」加強驗證,建構足夠的防偽機制。

林大馗表示,生成式AI究竟會成為未來眼球經濟的「沉浸式利器」還是「沉沒式利刃」,關鍵就在資安防護能力。

更多中時新聞網報導
股價創新高要小心!輝達自爆重大隱憂 黃仁勳1招急救援
勞保年金又調漲「8個年度請領者領更多」漲幅最高7.48%破紀錄
半導體10年市值拚增10倍!「熊本廠題材一波到底」8檔台積鏈亮燈先噴了