Deepfake 問世不久,美國擔心此技術會被用在 2020 年總統大選,就如同 2016 年俄羅斯干預美國總統大選一樣,尤其裴洛西才被刻意偽造的影片攻擊。眾議院因此舉辦了聽證會,不過,美國當時的擔憂並沒有成真。
從 2021 年開始,對政治人物的 Deepfake 攻擊日漸增加,但接受採訪的事實查核員們普遍認為,他們日常處理較多的還是相對單純的低成本假訊息(Cheapfake),例如西班牙 Maldita.es 的麥凱勒提到,Deepfake 假訊息在西班牙仍然相對罕見,他們的工作重點仍是比較常見的 Cheapfake,雖然隨著近期 AI 的進步,這種情況可能會改變。
「其實有很多跡象表明內容是偽造的。」Comprova 編輯約瑟夫(José Antonio Lima)提到,錄音的主角是一位資深的政治家,有很多公開資料可以佐證他的立場跟錄音中的主張有很大的出入,而本人也否認錄製過這個音檔。
但對 Comprova 來說,這次挑戰並不在於能否識破,而是人們相不相信。約瑟夫提到,「我們認為這些證據仍然脆弱,因為此類內容主要在不信任媒體的人、和強烈相信陰謀論的人群中傳播。」
約瑟夫分享,「假訊息網絡至少有兩個目的:首先,製造大量噪音,造成一些學者所說的信息混亂,以抹黑媒體的名聲,並在自己正確的位置上充當公眾的調解人;其次,吸引更多的易感人群,長期指導他們的選舉立場。(像 Deepfake)這樣華而不實的內容,可能是為了擴大這些泡沫,吸引更多人進入假訊息網絡。」
因此他們最後尋求專家的協助,證明錄音與該政治人物的聲音並不相符,「我們希望這至少能讓一些人相信該內容是假的。」
印度、南韓的選舉也出現過 Deepfake 影片,只是用在完全不同的面向。
Deepfake 問世以來,大家最擔憂的事件也發生在俄烏戰爭——去年 3 月 16 日,澤倫斯基在一段被社群平臺瘋傳的影片中,呼籲烏克蘭軍隊放下武器,Maldita.es 的麥凱勒表示,這段 Deepfake 影片之所以引人注目,是因為它有巨大的潛在後果:讓烏克蘭人相信他們的總統已經投降。
但值得慶幸的是,這個 Deepfake 因為品質太差,不但沒人相信,還引來恥笑。 台灣事實查核中心的專文報導 就引述《BBC》假訊息調查記者的推特:「這是我從事這個工作以來看過最差的深偽影片之一」;烏克蘭裔的假訊息專家也說:「這個深偽影片讓我忍不住爆笑⋯⋯至少脖子跟臉的位置要對齊!」 除了品質太差,綜整各國的事實查核報告,可以發現烏克蘭總統投降的影片沒有廣為傳播有三個關鍵:政府有事先預告、澤倫斯基本人快速出來破解、Facebook 平台迅速下架。
烏克蘭政府在 3 月 2 日——影片出現的兩週前——就 告訴民眾 ,俄羅斯有能力製造和傳播 Deepfake,內容可能會是澤倫斯基宣布烏克蘭投降,目的是散佈恐慌,讓公眾感到灰心喪氣。 影片出現的當天,澤倫斯基也迅速在官方 Telegram 上 親拍影片 反駁投降之說;而 Meta 也以違反針對誤導、操縱媒體(misleading manipulated media)政策刪除了旗下相關平台(Facebook、Instagram)上流傳的影片。 麥凱勒表示,澤倫斯基親自揭穿這則不實訊息非常重要,「雖然如何打擊假訊息是一個持續討論的話題,但政府明明已經有可以做的事:例如回答事實查核組織者的詢問,並認識到我們工作的重要性。」
「這個案例能夠這麼剛好全部一氣呵成,相對來說很少見。」Deepfake 識假專家許志仲也提到,大部分可能就是發言人出來說這是假的,很少總統直接出來澄清,社群平台的反應也不見得這麼快,但這個例子可以看到,要快速遏止一個 Deepfake 假訊息的傳播,如果有 SOP(標準作業流程),釐清的速度就可以很快。
許志仲舉例,例如事實查核單位迅速查證,將結果傳給各個單位,包括受害者、社群平臺等,建立一個溝通的頻道,方便後續更新,一有新的消息,各方都可以同時行動等等⋯⋯「不過實際上的 SOP 要怎麼做,各個公司文化不同應該也會有很大的落差。我只是覺得這個例子雖然少見,但顯示了就算在社交媒體這麼龐大的平臺上,還是可以做得不錯。」
正如對 Deepfake 會在重大事件造成關鍵影響的恐懼,最終以俄烏戰爭中破綻百出的影片收場,Deepfake 現象問世以來,事實查核組織們每天面對卻都是 Cheapfake,「到目前為止,對 Deepfake 的恐慌是一個比 Deepfake 本身更大的問題」, 德國巴伐利亞廣播電台的事實查核組織這樣寫道 。 「我的確覺得 Deepfake 現象變得更加普遍,數量比前一年更多了。但我們也試著不要恐慌,因為長期以來,人們一直在談論 Deepfake 可能是下一個巨大挑戰,但迄今為止並沒有真的發生。」德國 Correctiv 查核記者馬里諾夫說,「我們學習更多關於 Deepfake 的議題、嘗試自我教育,但我們不會覺得『天啊,這將毀掉整個資訊領域』。」
巴西 Comprova 編輯海立奧(Helio Miguel Filho) 以上次總統大選的經驗提到,在上次總統競選期間,只發現了三個可以被視為 Deepfake 的案例。 另一方面,Cheapfake 的影響更大,可能是因為產量較多,「我們遇到的 Deepfake 通常不會產生持久影響,反而是觀眾對 Deepfake 的擔憂大於其影響。」
海立奧解釋,「從長遠來看,過度的擔憂可能會產生問題。人們不相信他們看到的任何東西也會產生不良後果,因為民主需要公眾對制度的一定程度的信任才可能持續。」
而 AI 工具的普及,又讓 Deepfake 假訊息邁向下一個階段。
由於創作的門檻降低,它成為迷因(Meme)工具,有些人製作只是為了「開玩笑」,甚至在原始貼文中就標註「這是假的」、「這是用什麼工具生成」,但這些標註通常會在訊息傳播的過程中消失,就如同前文提到的,由著名調查記者希金斯所製作、川普被捕的 Deepfake 影像。
希金斯接受 美聯社 採訪時表示,有些照片裡川普甚至有三條腿,「有人相信這件事凸顯了我們的教育體系沒有提供批判性思考的技能」。 但 Comprova 編輯約瑟夫抱持著不同態度,「我很難假設創造假訊息的人沒有惡意。迄今,世界上已經有很多國家遭受利用社交平台大規模傳播假訊息的困擾,那些有能力使用工具創造假訊息的人,當然有能力理解到,就算這些內容有明顯的錯誤,在傳播過程中也會失去原始的訊息。」
約瑟夫指出,近幾個月來 Comprova 屢屢看到有人以好笑的方式傳遞假訊息,被問到的時候,他們就回答說「我們只是在開玩笑,是你們不懂」。
《深度造假》作者敘娜在書中寫道,「這些內容的「娛樂性」,某種程度上也掩蓋了內容有害的本質,並加以粉飾。」她以川普轉推現任總統拜登(Joe Biden)的 Deepfake 動圖為例——「那張動圖是用 AI 手機應用程式 Mug Life 製作而成。動圖裡的拜登雙手交握,揚起眉毛,邊做鬼臉、舌頭邊繞著嘴唇移動,舔自己的臉。⋯⋯動圖的內容是否很蠢?沒錯。一眼就能看出造假?是的。但有沒有達到目的?絕對有。」
敘娜提到,川普轉推後,那則推文獲得了將近 1 萬 7 千次轉推、4 萬個讚,觸及了數以萬計的用戶,「我們可以合理推論,這張動圖至少在某種程度上影響了選民對拜登的觀感⋯⋯迷因及其他『愚蠢』的網路內容,都可能是散播政治不實資訊的有害工具,特別是這類型的內容看似無害。」
但麥凱勒認為這種病毒式的傳播其實也帶來好處,「熱門的 AI 生成圖像大多都會被人們熱烈分享,這也正在提高人們對於 AI 造成潛在危害的認知。」
台灣事實查核中心總編審陳慧敏提到,目前在臺灣流傳的 Deepfake 圖像都是比較沒有危害、偏娛樂性質的內容,例如 中國東北松花江河冰開花的影像 ,「我們會查,是因為大家還是看不出來是 AI 做的。」 而這類型的圖片也增加了事實查核的挑戰。在現有的 Deepfake 事件中,大多數的查核方式都是「找到原始的照片/影片」,因為被稱為 Cheapfake 的影片很少是「無中生有」,都有一個原始的影片做基礎,再將別人的臉換上去。
但生成式 AI 就無法用此類方式查核。生成式 AI 是透過大量的素材訓練,來生成跟原始素材相似的新資料。以 Midjourney 為例,使用者只要輸入指令,AI 就會尋找在資料庫中跟指令相似的素材,生成符合指令的新內容。
以松花江河冰開花的查核為例,台灣事實查核中心是透過 AI 圖片辨識工具 AI image detector ,發現每一張的結果都有 9 成的機率是人造的;也實際用 Midjourney 成功生成相似的圖片,推測它應該就是 AI 製圖影像。 Comprova 編輯約瑟夫指出,在沒有「原始內容」可以對照的情況下,他們會朝以下方向查核內容的真實性:誰製作了影片或照片?有人目睹過當時的情況嗎?有媒體發布過嗎?參與該事件的人怎麼說?
而陳慧敏和許志仲都認為,對付這種 AI 生成、「無中生有」的假訊息只能從源頭做起。
陳慧敏認為,目前使用現有 AI 工具生成的東西並沒有任何標示,就算原作者在貼文上以文字說明,在大部分的傳播過程中也會佚失。應該要在 詮釋資料(Metadata) 中註明,甚至直接壓類似浮水印的東西在圖片或影片上,才能避免此問題。
許志仲提到,可以更進一步在所有照片或影片中加入獨特的資料。他舉例,如果今天在網路上傳影像時,檔案中都會被加入某種獨特的 ID,只要被修圖、或被「換臉」,這個資料就會被改變,事實查核時就很好辨識。
這個方法也適用於 Midjourney 這類工具,「假設所有照片在上傳時都帶有一組 ID,被生成出來的照片就不會有這組 ID,那就很容易辨識它是人工生成的。」
除了標示,更可以加入「對抗攻擊」來主動防禦。許志仲舉例,使用者上傳照片時,會再透過 AI 的技術生成一張一模一樣的照片,但這次的生成過程中,加入了對抗攻擊。日後若有人想要拿這張照片來換臉,這裡的對抗攻擊就能夠騙過 AI,讓對方換臉無法成功。
但這類方式相對全面,「難處就是要從源頭推動。」許志仲指出,這必須建立起國際標準,所有網路上傳的空間都要同意才能會發生,「這是這兩年才有開始有討論、投入,因為 Deepfake 的被動防禦技術可能走到盡頭,大家才往主動的方面去走。」
回顧目前已發生過的 Deepfake 事件,2023 年雖然充斥著各種容易識破的 AI 生成圖片,但影片品質已大幅進步到幾乎難以用肉眼辨識。例如 4 月時,前美國國務卿希拉蕊柯林頓(Hillary Clinton)接受媒體採訪,說她將支持佛州州長德桑蒂斯(Ron DeSantis)競選總統,要不是她最後說了一句 「九頭蛇萬歲」 ,幾乎沒有破綻。
從 2018 年開始投入識假技術研究的許志仲,見證了 AI 假訊息的快速進步。
由於識假技術也是 AI,是拿既有的資料去訓練——等於必須想像、或是實際看見攻擊方如何造假,才能擬定防守的方式,「我們的資訊是不對等的。」許志仲說。
「發展到現在,看起來 Deepfake 的技術還是佔上風,而且愈來愈難對付了。」許志仲說,還是有一些方法在做低品質的偵測,只是還沒有很成熟。
他也提到,因應 Deepfake 假訊息愈來愈多,近期訓練好的換臉模型,很多都不再公開釋出,避免被拿去亂用,「這讓造假變得難一些,但對偵測方來說,我們同樣也沒有這個資料讓我們的技術變得更好。」
許志仲也強調,識假需要「人機合作」,不能純以 AI 來判斷。以他們自身開發的工具為例,當使用者上傳需要辨識的影像時,工具並不會直接告知是真是假,而是提供「偽造的可能性」的機率數字讓使用者判斷。
再加上人會有很多額外資訊可以參考,許志仲提到,從影片上下文、浮水印、或內容本身(這個人會不會做這件事),很多時候你一眼就能看出是假的。
目前臺灣與 Deepfake 相關的法律主要是針對「換臉色情片」,2023 年 1 月修正了《刑法》部分條文,製作不實性影像並散布營利,最高可處 7 年有期徒刑。而 9 月行政院也預計提出《人工智慧法基本法》草案。
陳慧敏提到,目前 Deepfake 假訊息還沒有直接針對臺灣社會的攻擊,目前大多是光靠截圖、修圖的案例。但以 Deepfake 的成本相對較高,加上需要公共人物的大量影像資料來訓練這兩個特徵來看,選舉還是最有可能出現的場合。
許志仲認為,以被動偵測的角度,總有一天可能真的會出現「完美的 Deepfake」,在防守方掌握新技術的細節之前,畢竟只要加入各個技術的優點、解決現在已知的缺點,就有可能出現。
「愈多人投入才愈有機會追上偽造的技術。」許志仲期盼能有愈多人加入研究的領域,「因為很多人投入生成模型的開發,它才會進步那麼快。如果我們也有同樣的人投入,會不會進步得比較快?一個人再怎麼聰明,想法都有限,或許我們找得到解方,只是我沒想到而已。」
他指出,AI 的監管還有很多路要走,「我們也可以理解這些現有提出的解方很難落實的原因。它需要各方加入,會有隱私權的衝突,經濟、政治因素我們也很難介入。」許志仲提到,只能回到自身,就是每次看到網路上來的訊息時,轉傳之前都要思考一下。
陳慧敏也提到,正是因為目前沒有百分之百可以辨識是 Deepfake 的工具,這勢必不是靠一個萬能的工具就能解決。
如同加彭與馬來西亞的例子,加彭總統的真實影片被大家懷疑是 Deepfake、馬來西亞政治人物的外流影片,當事人說是 Deepfake,但其他人不相信,除了真和假之間還有很多因素要考量,陳慧敏指出,「這是教育的機制、是整個社會的數位識讀。這個機制沒辦法單憑工具決定對錯,需要很多媒體、查核組織,需要整個環境看到一個訊息就開始徵信(驗證真偽)。」
陳慧敏認為就是回到假訊息的應對方式,「你如果看到驚訝、讓你有情緒的訊息,就先冷靜下來看看這是什麼,有沒有出現不合理的地方。再去找訊息的出處,是誰傳的?如果是親友,他知道來源嗎?如果最終確認只是在網路上流傳的訊息,就應該先『等一下』。」
「再來就是查證。」陳慧敏以五角大廈爆炸的圖片為例,「我們當然很難找五角大廈查證,但這顯然是個很大的新聞,就可以看看你信任的媒體有沒有報導。」
「AI 會愈來愈逼真。如果已經沒有肉眼可辨識的錯誤,一件事情有沒有發生,就只能仰賴徵信和查證的習慣。」陳慧敏說,「這個習慣,比過去任何時候都還要重要。」
此篇報導所使用的 Deepfake 事件資料主要集中在「假訊息」。而根據 AI 公司 Deeptrace 2019 年製作的 Deepfake 調查報告 ,網路上有 96% 的 Deepfake 內容都是色情影片。報告研究範疇主要為英語網站,但他們發現 Deepfake 色情網站上有將近 1/3 的影片不是西方主題,其中韓國流行歌手更佔了 1/4,「表明 Deepfake 色情成為全球現象」。