【翻墙问答】Deepfake与假新闻

2022.03.25
Share on WhatsApp
Share on WhatsApp
【翻墙问答】Deepfake与假新闻 2019年1月25日,一名法新社记者正在观看一段由deepfake技术修改过的「换脸片」。
法新社

问:近日网上流传一段使用深度伪造(Deepfake)技术,假冒乌克兰总统泽连斯基的投降片段,而泽连斯基随后亦亲身拍片澄清辟谣,之后英国国防大臣,亦成为Deepfake假片的受害者。对不少深信有图有真相,有片有真相的人,这次事件对中国或香港听众,有甚么启示?

李建军:虽然这次俄国黑客玩Deepfake手法相当粗糙而被揭发,但以中国和俄国的技术水平,迟早都会发生以Deepfake技术搞乱网络舆论的事件。特别YouTube、Facebook等公司负责中文内容的人,对假新闻近乎是「零把关」,任由内容农场甚至中国大外宣制造的假新闻四处流窜,情况只会越来越糟糕。

Deepfake变得普及,是因为现时一般使用的电脑运算水平越来越高,再加上AI人工智能的辅助,要制造一些近乎以假乱真的片段变得相对容易。以往都已经有针对习近平的Deepfake恶搞片段,而相信以中共一向搞政治斗争无底线的习惯,利用Deepfake片段搞乱民运,甚至成为中共内部权斗的手段都不出奇。

中国没有新闻自由,专业记者要对一些谣传作出核实都有相当高难度,因此中国尤其多政治阴谋论流传,这点基本上是纵容了利用Deepfake搞假消息。而利用Deepfake技术,亦是擅于制造假新闻的俄国情报部门的明显技俩,相信中国要运用有关技术也并不困难。

问:要避免误信Deepfake的假消息,又应该怎样做?

李建军:关于泽连斯基的片段,要避免误信相当简单,一切以乌克兰总统府官方网站或推特为准就可以。由使用俄语,或五毛发布的一些片段,都必须采取高度怀疑态度,因为现时中国当局的取态是支援俄国,他们指挥五毛协助普京发布假新闻,这点是十分之合符常理的事。同样的逻辑可以用于针对民运人士,异见人士,或香港民主派人士的Deepfake片段,因为这些人士一般有自己的官方,经认证的社交媒体平台,Deepfake并不容易得逞。

至于中共内部权斗那些Deepfake片段就麻烦得多,因为被搞的对象,他们的官方网站或微博户口都不见得平日会讲真话,公众对这些人信任度十分之低。但现时一般Deepfake片段都不敢出全高清,或4K版本,因为解象度一高,相关片段就很容易露出马脚,始终Deepfake技术仍然有待提升,因此,如果有关片段只有标清版本,甚至低至以前录影带水平的版本,那大家就应提高警觉。很多网上片段都用手机拍,由于手机解像度所限,相对蒙胧可以理解。但如果是讲话一类片段,并不可能蒙胧得太过份。

问:对于以Deepfake技术制造出来几可乱真的假新闻问题,西方国家都很头痛,那又有甚么方法可以解决?

李建军:首先,YouTube以至Facebook等公司,他们的管理人员的保安,应该得到正视,例如同中共关系太密切的人,根本不应该在这些公司的内容审查部门任职。这些公司的假新闻政策有无得到妥善执行,这个问题是值得大家注意。

另一方面,可以用作搞Deepfake之用的软件技术,是否应限制出口到俄国同中国,这点是值得深思。做Deepfake的硬件,现时比较难作出限制,始终做Deepfake的硬件,都是一般人用的电脑和视像处理卡,总不可能严防到一个影响日常生活的程度。但Deepfake的软件,没有理由可以售予中国和俄国相关人士,甚至过往日本、韩国都有利用类似技术,伪造著名女星片段的事件,最后引起执法部门的注意。

当Deepfake变成了假新闻制造工具,影响西方世界的安宁时,严限Deepfake软件的流通,其实是保护相当多人的安全。而暂时而言,中国和俄国都未具备开发十分之成熟Deepfake软件的能力,他们好大程度都依赖美国的技术。对中国、俄国采取Deepfake软件的禁运,可以最大程度上限制两地政府滥用Deepfake功能。

新增评论

请将评论填写在如下表格中。 评论必须符合自由亚洲电台的 《使用条款》并经管理员通过后方能显示。因此,评论将不会在您提交后即时出现。自由亚洲电台对网友评论的内容不负任何责任。敬请各位尊重他人观点并严守事实。

完整网站