【翻牆問答】Deepfake與假新聞

2022.03.25
Share on WhatsApp
Share on WhatsApp
【翻牆問答】Deepfake與假新聞 2019年1月25日,一名法新社記者正在觀看一段由deepfake技術修改過的「換臉片」。
法新社

問:近日網上流傳一段使用深度偽造(Deepfake)技術,假冒烏克蘭總統澤連斯基的投降片段,而澤連斯基隨後亦親身拍片澄清闢謠,之後英國國防大臣,亦成為Deepfake假片的受害者。對不少深信有圖有真相,有片有真相的人,這次事件對中國或香港聽眾,有甚麼啟示?

李建軍:雖然這次俄國黑客玩Deepfake手法相當粗糙而被揭發,但以中國和俄國的技術水平,遲早都會發生以Deepfake技術搞亂網絡輿論的事件。特別YouTube、Facebook等公司負責中文內容的人,對假新聞近乎是「零把關」,任由內容農場甚至中國大外宣製造的假新聞四處流竄,情況只會越來越糟糕。

Deepfake變得普及,是因為現時一般使用的電腦運算水平越來越高,再加上AI人工智能的輔助,要製造一些近乎以假亂真的片段變得相對容易。以往都已經有針對習近平的Deepfake惡搞片段,而相信以中共一向搞政治鬥爭無底線的習慣,利用Deepfake片段搞亂民運,甚至成為中共內部權鬥的手段都不出奇。

中國沒有新聞自由,專業記者要對一些謠傳作出核實都有相當高難度,因此中國尤其多政治陰謀論流傳,這點基本上是縱容了利用Deepfake搞假消息。而利用Deepfake技術,亦是擅於製造假新聞的俄國情報部門的明顯技倆,相信中國要運用有關技術也並不困難。

問:要避免誤信Deepfake的假消息,又應該怎樣做?

李建軍:關於澤連斯基的片段,要避免誤信相當簡單,一切以烏克蘭總統府官方網站或推特為準就可以。由使用俄語,或五毛發布的一些片段,都必須採取高度懷疑態度,因為現時中國當局的取態是支援俄國,他們指揮五毛協助普京發布假新聞,這點是十分之合符常理的事。同樣的邏輯可以用於針對民運人士,異見人士,或香港民主派人士的Deepfake片段,因為這些人士一般有自己的官方,經認證的社交媒體平台,Deepfake並不容易得逞。

至於中共內部權鬥那些Deepfake片段就麻煩得多,因為被搞的對象,他們的官方網站或微博戶口都不見得平日會講真話,公眾對這些人信任度十分之低。但現時一般Deepfake片段都不敢出全高清,或4K版本,因為解象度一高,相關片段就很容易露出馬腳,始終Deepfake技術仍然有待提升,因此,如果有關片段只有標清版本,甚至低至以前錄影帶水平的版本,那大家就應提高警覺。很多網上片段都用手機拍,由於手機解像度所限,相對矇矓可以理解。但如果是講話一類片段,並不可能矇矓得太過份。

問:對於以Deepfake技術製造出來幾可亂真的假新聞問題,西方國家都很頭痛,那又有甚麼方法可以解決?

李建軍:首先,YouTube以至Facebook等公司,他們的管理人員的保安,應該得到正視,例如同中共關係太密切的人,根本不應該在這些公司的內容審查部門任職。這些公司的假新聞政策有無得到妥善執行,這個問題是值得大家注意。

另一方面,可以用作搞Deepfake之用的軟件技術,是否應限制出口到俄國同中國,這點是值得深思。做Deepfake的硬件,現時比較難作出限制,始終做Deepfake的硬件,都是一般人用的電腦和視像處理卡,總不可能嚴防到一個影響日常生活的程度。但Deepfake的軟件,沒有理由可以售予中國和俄國相關人士,甚至過往日本、韓國都有利用類似技術,偽造著名女星片段的事件,最後引起執法部門的注意。

當Deepfake變成了假新聞製造工具,影響西方世界的安寧時,嚴限Deepfake軟件的流通,其實是保護相當多人的安全。而暫時而言,中國和俄國都未具備開發十分之成熟Deepfake軟件的能力,他們好大程度都依賴美國的技術。對中國、俄國採取Deepfake軟件的禁運,可以最大程度上限制兩地政府濫用Deepfake功能。

新增評論

請將評論填寫在如下表格中。 評論必須符合自由亞洲電台的 《使用條款》並經管理員通過後方能顯示。因此,評論將不會在您提交後即時出現。自由亞洲電台對網友評論的內容不負任何責任。敬請各位尊重他人觀點並嚴守事實。