人工智能已解鎖創造「深度偽造」的能力 — 即高度逼真但虛構的媒體。從無縫換臉的影片到聲音克隆,讓人難以分辨真假,深度偽造代表了一個「眼見(或耳聞)未必為實」的新時代。這項技術為各行各業帶來創新機遇,但同時也帶來嚴重風險。

本文將探討AI 深度偽造的定義、運作原理,以及它在當今世界帶來的主要機遇與危險。

什麼是深度偽造?

深度偽造是由 AI 生成或修改的合成媒體(影片、音頻、圖片甚至文字),能夠逼真模仿真實內容。這個詞源自於「深度學習」(先進的 AI 演算法)和「偽造」,於 2017 年左右在 Reddit 論壇流行起來,當時用戶分享換臉名人影片。

現代深度偽造常利用生成對抗網絡(GAN)技術 — 兩個神經網絡相互對抗訓練,產生越來越逼真的偽造內容。過去十年,AI 的進步使得製作深度偽造變得更簡單且成本更低:只要有網絡連接,人人都能使用合成媒體生成器

早期深度偽造因惡意用途(如將名人臉孔植入假影片)而聲名狼藉,令這項技術蒙上負面色彩。然而,並非所有 AI 生成的合成內容都是惡意的。像許多技術一樣,深度偽造是一種工具 — 其影響(好壞)取決於使用者的目的

正如世界經濟論壇所指出,雖然有不少負面例子,「這類合成內容同時也能帶來益處。」以下章節將探討深度偽造 AI 的主要正面應用,及其帶來的嚴重風險與濫用。

深度偽造

深度偽造 AI 的機遇與正面應用

儘管深度偽造聲譽有爭議,但它(通常較中性地稱為「合成媒體」)在創意、教育及人道領域提供多項正面應用

  • 娛樂與媒體:電影製作人利用深度偽造技術創造驚艷視覺效果,甚至為演員「返老還童」。例如,最新的《印第安納瓊斯》電影透過 AI 訓練過去數十年的影像,數碼重現年輕版哈里遜福特。這技術能讓歷史人物或已故演員「復活」演出,並提升配音準確度,精確對齊口型。整體而言,深度偽造能製作更具沉浸感和真實感的電影、電視及遊戲內容。

  • 教育與培訓:深度偽造技術令學習體驗更生動互動。教師可生成教育模擬或歷史重現,呈現著名人物的逼真形象,令歷史或科學課堂活靈活現。
    AI 創造的逼真角色扮演場景(如模擬醫療緊急情況或飛行駕駛艙場景)有助培訓醫護、航空、軍事等專業人士,讓學員在安全可控環境中準備應對真實情況。

  • 無障礙與溝通:AI 生成媒體打破語言及溝通障礙。深度偽造翻譯器能將影片配音成多種語言,同時保留講者的聲音和肢體語言 — 藝人 FKA Twigs 更創造了自己不懂語言的深度偽造版本。這具備救命潛力:緊急服務利用 AI 語音翻譯加快 911 電話的理解速度,關鍵時刻縮短翻譯時間達 70%。
    同樣,深度偽造驅動的手語虛擬人正在開發中,能將語音轉換成手語,為聽障人士製作極逼真的手語影片,早期研究顯示算法難以分辨真假。另一重要應用是為失語者克隆個人聲音,例如一位患神經退化病的美國國會議員,利用 AI 克隆聲音在無法說話後仍能以自己的語調發言。
    這些應用展示深度偽造提升無障礙溝通,保存個人聲音與表達。

  • 醫療與治療:在醫學領域,合成媒體有助研究與患者福祉。AI 生成的醫療影像可擴充診斷演算法的訓練數據 — 一項研究發現,主要以 GAN 生成的 MRI 影像訓練的腫瘤檢測系統,表現與以真實掃描訓練的系統相當。這意味深度偽造能在不侵犯患者隱私下,提供大量訓練數據,提升醫療 AI。
    治療方面,受控深度偽造亦能安慰患者。例如,照顧者嘗試製作影片,讓阿茲海默症患者看到親人年輕時的模樣(患者最熟悉的時期),減輕混亂與焦慮。在公共衛生宣傳中,深度偽造技術助力強而有力的訊息傳遞:一個反瘧疾活動中,足球明星大衛貝克漢的影片被 AI 修改成用九種語言「發聲」,令該宣傳觸及全球五億人。這展示合成媒體如何放大重要訊息,觸及多元觀眾。

  • 隱私與匿名:矛盾的是,同樣的換臉技術既可製造假新聞,也能保護隱私。活動家、吹哨人或弱勢人士可用 AI 生成的逼真面孔替代真實面容,隱藏身份而非簡單模糊。
    著名例子是紀錄片《歡迎來到車臣》(2020),利用 AI 生成的面孔遮掩逃避迫害的 LGBT 活動家身份,同時保留其面部表情與情感,讓觀眾仍能感受其人性。
    研究者正將此理念擴展至日常隱私工具,例如實驗性「匿名化系統」,能在社交媒體自動替換未同意被識別者的臉孔為合成相似臉。類似地,「聲音皮膚」技術可實時改變講者聲音(如線上遊戲或虛擬會議),防止偏見或騷擾,同時傳達原始情感與意圖。
    這些應用顯示深度偽造或助個人掌控數碼身份與安全。

深度偽造換臉技術可用於匿名化個人。例如,電影《歡迎來到車臣》透過 AI 將志願演員的臉覆蓋在高風險活動家的臉上,隱藏身份同時保留自然表情,展示合成媒體在敏感情況下保護隱私的能力。

總結來說,深度偽造是一把雙刃劍。一方面,「合成內容本身無善惡之分 — 影響取決於使用者及其意圖」。上述例子突顯了利用深度偽造技術促進創意、溝通及社會公益的機遇

然而,這強大工具的另一面是惡意使用時帶來的巨大危害。近年來已有不少關於深度偽造欺騙與濫用的警示案例,以下將深入探討。

深度偽造 AI 的機遇與正面應用

深度偽造的風險與濫用

易於製作的深度偽造激起了嚴重的關注與威脅。2023 年一項調查顯示,60% 的美國人對深度偽造感到「非常擔憂」,成為他們最害怕的 AI 相關問題。深度偽造技術的主要風險包括:

  • 錯誤資訊與政治操控:深度偽造可被用作大規模散播虛假資訊的武器。偽造的公眾人物影片或音頻可能顯示他們說或做從未發生過的事,誤導公眾。這類謊言可能破壞對機構的信任、影響輿論,甚至引發動亂。

    例如,俄烏戰爭期間流傳一段深度偽造影片,顯示總統澤連斯基似乎投降;雖因頭部比例異常及聲音怪異迅速被揭穿,但展示了敵對方利用 AI 偽造作宣傳的潛力。
    同樣,2023 年一張五角大樓附近「爆炸」的假圖在網上瘋傳,導致股市短暫下跌,後被證實為 AI 生成。

    隨著深度偽造技術提升,擔憂在於它們可能製造極具說服力的假新聞,削弱公眾辨別真偽的能力。這不僅散播謊言,還產生令人寒心的「說謊者紅利」效應 — 人們可能開始懷疑真實影片或證據,聲稱它們是深度偽造。結果是事實被侵蝕,媒體與民主討論信心進一步流失。

  • 非自願色情與騷擾:深度偽造最早且最普遍的惡意用途之一是製作假色情內容。攻擊者(通常透過匿名論壇或應用程式)利用少量照片,生成逼真的色情影片,通常針對女性,且未經同意。這是嚴重的隱私侵犯與性騷擾。

    研究發現,網上深度偽造影片中約 90–95% 是非自願色情,幾乎全是女性受害者。這類假影片對個人造成羞辱、創傷、名譽損害,甚至勒索威脅。知名女演員、記者及普通人都曾遭遇臉孔被貼到成人內容中。

    執法機構與政策制定者日益關注此趨勢;例如美國多州及聯邦政府已提出或通過法律,將深度偽造色情定為犯罪,並為受害者提供法律救濟。深度偽造色情的危害凸顯了該技術如何被濫用來侵犯隱私、針對個人(多帶反女性偏見)及低成本散播誹謗假像。

  • 詐騙與冒充騙局:深度偽造成為網絡罪犯的新武器。AI 生成的聲音克隆甚至實時影片深度偽造被用來冒充可信人物進行詐騙。聯邦調查局警告,罪犯利用AI 聲音/影片克隆冒充家人、同事或高管,誘使受害者匯款或洩露敏感資訊。

    這些詐騙是高科技版的「冒充」詐騙,已造成重大損失。真實案例中,盜賊用 AI 模仿 CEO 聲音,成功說服員工匯出22 萬歐元(約 24 萬美元)。另一起事件中,罪犯在 Zoom 會議中深度偽造公司 CFO 影像,授權轉帳 2500 萬美元至詐騙帳戶。

    此類深度偽造社交工程攻擊正激增 — 報告顯示過去幾年全球深度偽造詐騙激增。高度可信的假聲音/影片結合數碼通訊速度,令受害者措手不及。企業尤其易受「CEO 詐騙」或假高管指令影響。

    若員工未受訓練對視聽媒體保持懷疑,可能會執行看似合法的深度偽造指令,導致資金被盜、資料外洩或其他重大損失。此威脅促使安全專家呼籲加強身份驗證措施(如使用安全通道確認請求)及技術檢測工具,驗證敏感交易中的音頻與視頻真偽。

  • 信任侵蝕與法律挑戰:深度偽造模糊現實與虛構界線,引發廣泛的社會與倫理問題。隨著假內容越來越逼真,人們可能開始懷疑真實證據 — 這對司法與公眾信任極為危險。

    例如,真實的不法影片可能被違法者稱為「深度偽造」,使新聞報導與法律程序複雜化。對數碼媒體信任的侵蝕難以量化,但長遠看極具破壞性。

    深度偽造亦帶來棘手法律問題:AI 生成的人像肖像權歸誰?誹謗或毀謗法如何適用於損害名譽的假影片?還有同意與倫理問題 — 未經許可使用他人面孔或聲音製作深度偽造,通常被視為權利侵害,但法律仍在追趕這現實。

    部分司法管轄區已開始要求明確標示修改過的媒體,尤其用於政治廣告或選舉時。此外,社交平台面臨壓力,需偵測並移除有害深度偽造(類似處理其他錯誤資訊或操控媒體)。

    技術層面,偵測深度偽造是一場「軍備競賽」。研究者開發 AI 偵測系統,尋找細微的偽造痕跡(如面部血流或眨眼異常)。但隨著偵測技術提升,深度偽造手法也不斷進化,形成持續的攻防戰。

    所有這些挑戰顯示,社會必須面對如何在 AI 時代真實驗證媒體,並追究深度偽造創作者濫用責任。

深度偽造的風險與濫用

駕馭深度偽造時代:尋求平衡

AI 深度偽造呈現科技進步的經典兩難:巨大潛力與風險並存。一方面,我們擁有前所未有的創意與益處 — 從保存聲音、語言翻譯,到構想新型敘事及保護隱私。

另一方面,深度偽造的惡意使用威脅隱私、安全與公眾信任。未來關鍵是最大化利益,同時減少傷害

多方努力正同步展開。科技公司與研究者投資偵測工具與真實性框架(如數碼水印或內容驗證標準),幫助大眾分辨真假媒體。全球政策制定者也在探索立法,遏止最嚴重的深度偽造濫用 — 例如禁止假色情、選舉錯誤資訊,或要求 AI 修改媒體須明確披露。

然而,僅靠法規難以應對技術快速演進及跨境特性。教育與意識同樣重要:數碼素養課程可教導公眾批判性評估媒體,警覺深度偽造跡象,就像人們學會識別電郵詐騙或網絡釣魚一樣。

若用戶知道「完美」或轟動的影像可能是偽造,他們便能在反應或分享前多加思考。

>>> 點擊了解更多:

AI 在數碼時代的角色

人工智能與數據安全問題

駕馭深度偽造時代


最終,深度偽造現象已成定局 — 「魔瓶已開,無法再封回」。專家主張採取平衡策略:鼓勵合成媒體的負責任創新,同時建立強有力的防護措施防止濫用。

這意味著在倫理指引下推動娛樂、教育、無障礙等正面應用,同時投資安全措施、法律框架與規範,懲治惡意使用。透過共同努力 — 技術專家、監管者、企業與市民 — 我們能建構一個深度偽造 AI 「普及、熟悉且值得信賴」的未來。在這樣的未來,我們善用深度偽造帶來的創意與便利,同時警惕並抵禦其帶來的新型欺騙。

機遇令人振奮,風險亦真實 — 認識兩者是塑造有益社會的 AI 媒體生態的第一步。

外部參考資料
本文章內容參考以下外部資源整理而成: