國際

DW事實核查:如何識破深度偽造視頻?

(德國之聲中文網)想象一下,只用一天時間,你就能像布魯諾·馬爾斯(Bruno Mars)一樣舞動,像惠特尼·休斯頓(Whitney Houston)一樣高歌! 聽起來不可思議?但這種讓人“做出或說出”他們從未真正做過或說過的事的技術,其實一點也不復雜,甚至唾手可得。你只需要一些視頻畫面或一段語音,就能創造出一個虛擬的平行世界!

這種借助人工智能技術生成的“造假內容”,被稱為合成內容,更廣為人知的名字是深度偽造(deepfake)。

布魯諾·馬爾斯的那個例子出自2018年,至今看起來仍然令人驚嘆——而如今的深度偽造已經發展到以假亂真的地步。

媒體仿冒中的深度偽造

近年來,一個反復出現的現象就是“媒體仿冒”,即有人冒充媒體機構創建虛假賬號,用真實媒體的名義來欺騙人們,甚至傳播虛假信息。他們通常會復制頭像,並使用和真實賬號極其相似的用戶名,讓假賬號看起來真假難辨。

有時,造假者甚至會直接盜用媒體的標志和字體,制作出看似官方發布的內容。我們在以往的事實核查中也分析過不少類似案例。

如今,這類仿冒行為也會借助深度偽造技術。例如,在這段視頻中,看起來好像是一名德國之聲(DW)員工在推銷一個“穩賺不賠的投資機會”。實際上,視頻制作者只是從DW新聞節目中截取了一個片段,然後通過深度偽造技術生成內容,讓它看起來像是本傑明·格魯伯(Benjamin Alvarez Gruber)在為這個投資機會作推薦。但真相是——這一切都是假的!視頻背後隱藏的,是一場精心設計的投資騙局。

以下幾點可以幫助我們識別這是一個深度偽造視頻:

隨著深度偽造技術不斷升級,像“注意嘴巴動作是否奇怪”或“視頻畫質差”等老辦法,已經不一定管用了。

不過,在這段視頻中,我們確實可以看到一些破綻:格魯伯在深度偽造視頻中說的話,與唇部動作不完全匹配。如果放大視頻仔細觀看,就能發現口型和聲音對不上。另外,有時候視頻中這位記者的牙齒會莫名消失——明明嘴巴還是張開的,牙齒卻看不見了!這些細微的小錯誤,往往能幫助我們識別出造假的痕跡。

我們還建議將這類內容與多個信息源進行比對。在這個案例中,重要的一步是去核查格魯伯的真實社交媒體賬號,看看是否有相同的視頻出現。

你還可以再進一步,借助深度偽造檢測工具來進行核查。例如,德國之聲與其他機構共同開發的InVID驗證插件中就包含這種檢測功能。

在這個投資騙局案例中,檢測軟件給出的結果是:該視頻有94%的概率是深度偽造。

什麼是深度偽造?

“深度偽造”是指那些利用人工智能技術——更確切地說是機器學習——生成的音頻和視頻文件。

各種各樣的深度偽造都是可能的,例如,換臉(Face swaps):將一個人的臉替換成另一個人的臉;口型同步(Lip synchronization):調整說話者的嘴型,讓畫面和一段完全不同的音頻完美對上;聲音克隆(Voice cloning):復制某個人的聲音,讓其說出從未說過的話。

不僅如此,深度偽造還能從零生成完全虛擬的人臉和身體,比如打造數字虛擬形象(digital avatars)。甚至連已故的人也可以通過這項技術“復活”。例如,美國佛羅裡達州的達利博物館(Dali Museum)就曾利用深度偽造技術,讓藝術家薩爾瓦多·達利(Salvador Dali)以數字形象“重現”。

這些合成視頻的背後,是一種叫作生成式對抗網絡(Generative Adversarial Networks,簡稱 GAN)的技術。GAN 是一種機器學習模型,由兩個神經網絡相互競爭,從而不斷提升生成結果的准確度。

簡單來說:就好比兩台電腦在玩“找茬”游戲——一台電腦負責生成你的數字克隆,另一台電腦則扮演“挑剔裁判”,不斷拿它和原始素材進行對比,追問:你的動作夠像嗎?聲音是否匹配?表情有沒有到位?生成方為了“騙過”裁判,會一次又一次改進,直到讓對方完全信服為止。

雖然這項技術越來越先進、越來越聰明,但只要知道觀察的重點,你依然可以識破深度偽造。

找出可見和隱形的破綻

想分辨真假,不需要成為深度偽造專家。只要掌握一些小技巧,你也能練就“火眼金睛”:

1. 三思而後行。分享之前先想一想:這件事真的可能發生嗎?如果你不確定,就不要輕易轉發。

2. 快速核實消息來源。看看能否在多個可靠的信息源中找到相同的消息或說法。只需簡單搜索一下新聞標題,通常就能找到真相的端倪。

3. 找到不同版本進行對比。如果你懷疑一段文字、圖片或視頻的真實性,可以將其描述輸入搜索引擎(如Google或DuckDuckGo),找到另一個版本,然後進行對比。普通搜索或反向圖片搜索都能幫助你完成這一步。

想找出合成或篡改媒體中那些幾乎看不見的破綻,難度更大。你可以通過以下細節來判斷內容是否被動過手腳:視頻中是否出現奇怪的“跳幀”;聲音的重音是否突然變化;音質是否異常低劣,畫面裡是否有模糊區域,手腳或身體的形狀是否不自然……以及是否還有其他讓人感覺“不對勁”的地方。

相信你的直覺,時刻問自己:這合理嗎?這真的可能發生嗎?仔細觀察、再三確認,必要時請朋友或同事一起幫忙判斷。

4. 檢查深度偽造的典型特征:完全對稱的臉;不匹配的耳環或眼鏡框;耳朵、鼻子、牙齒形狀怪異;畫面對比度不正常;頸部、頭發或手指連接處不自然。有時,這些問題需要逐幀觀看視頻才能發現。 你可以用本地播放器(如VLC)或在線工具來完成這一操作。

5. 放大觀察嘴部和口型變化。放大嘴部區域,把它和真實人類的自然嘴型進行對比。想一想:發出某個聲音時,嘴巴正常應該是什麼形狀?如果看起來不自然,可能就是深度偽造的痕跡。

提升你的感官敏銳度

你可能已經注意到,核實信息的一個關鍵環節,就是善用自己的感官。好消息是,這些能力是可以通過訓練來提升的!在德國之聲的創新博客上,你可以進行一系列練習,強化自己的視覺和聽覺敏銳度。通過不斷練習,你會變得更加自信,更有能力識別合成內容和冒牌媒體。

深度偽造技術的危害

深度偽造技術在色情領域帶來的影響尤其嚴重,包括所謂的報復性色情(revenge porn)。大量虛假的色情視頻和圖片被廣泛傳播,受害者從名人到在校學生都有,給他們造成了巨大的傷害。

對於整個社會而言,深度偽造的另一大威脅在於當下人們獲取信息的方式。普通人在網絡上每天接觸到海量信息,但經常無法確定自己看到或轉發的內容是否真實。

在社會高度分裂的環境中,這種傳播方式給了造假者可乘之機,人們很容易被操縱去相信某些事情,無論真假。在這種情況下,視頻本身的畫質好壞並不重要,關鍵是親眼所見的震撼效果,哪怕它是假的:例如,時任希臘財政部長瓦魯法基斯(Yanis Varoufakis)對德國比出中指;貝克漢姆(David Beckham)會說九種語言;扎克伯格(Mark Zuckerberg)聲稱他控制了你,因為他掌握了你被盜的數據。

荷蘭曾有一個政治動機驅動的深度偽造視頻在網絡上瘋傳。該視頻由新聞網站 “De Correspondent” 制作,表面上看起來是荷蘭首相呂特(Mark Rutte)宣布了一項重大政策轉變:從此以後,他將全力支持大規模的氣候保護措施。

還有一種現象被稱為“說謊者紅利”(liar’s dividend),意思是某些政客能從充斥著虛假信息的輿論環境中獲利。

僅僅因為這項技術的存在,人們就可以輕易地聲稱:“我沒說過,這是深度偽造!”而要證明內容是真的,卻變得異常困難。最著名的例子就是特朗普,他曾聲稱《華盛頓郵報》公布的那段其用粗鄙的、侮辱語言冒犯女性的錄音是假的。而事實是,錄音公布不久後,他還曾為此公開道過歉。

經驗教訓

大多數虛假信息的傳播都有其目的:讓公眾產生懷疑;支持某種流行觀點;或者高調反對其他觀點。對於被剝離了上下文、經過剪輯或刻意擺拍的圖片和音頻,想要進行驗證非常具有挑戰性,但不要因此恐慌。只要學會看來源、查憑證、多比對、細觀察,你還是可以在信息洪流中保持清醒,不做虛假內容的“搬運工”。

DW中文有Instagram!歡迎搜尋dw.chinese,看更多深入淺出的圖文與影音報道。

© 2025年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。

作者: Julia Bayer, Rachel Baig, Ruben Bouwmeester

相關文章

你可能會有興趣~
Close