虚假信息爆炸式来袭

【川透社全译报道】人工智能驱动的虚假信息正在影响人们日常生活。糟糕的是,政府和大型科技公司在阻止信息混乱以及引…

今年五月,一张关于五角大楼附近的一场爆炸的照片在推特上迅速传播开来。接着又出现了白宫附近的爆炸照片。反诈打假方面的专家很快鉴定这些图像可能是由人工智能伪造的,但是这些图片的流行确确实实地导致股市下跌。

这只是虚假内容给现实世界带来不良影响的最新一则案例。人工智能的蓬勃发展意味着,用于创建虚假图像和视频以及大量令人信服的文本工具现在可以免费获得。信息验证专家表示,我们正在朝着一个越来越难以区分真假的时代发展。

今年7月,包括OpenAI、谷歌、微软和亚马逊在内的主要人工智能开发商向拜登政府承诺,将努力降低其技术的潜在危害。但这也很难阻止人工智能生成内容的浪潮及其可能造成的混乱。

白宫表示,这些公司的“自愿承诺”包括“开发强大的技术机制,以确保用户知道内容是何时生成的,例如水印”,作为防止人工智能被用于“欺诈和欺骗”的努力的一部分。但接受《连线》采访的专家表示,这些承诺只是权宜之计。帮助人们利用技术促进人权的非营利组织Witness的项目总监山姆·格雷戈里(Sam Gregory)表示:“即使有水印,也无法简单粗暴地判断某些东西是否是人工智能生成的。

水印通常被库存图片社和新闻社使用,以防止图像在未经许可和付费的情况下被使用。AI生成的水印内容种类繁多,但是到目前为止还没有一种标准,这意味着每家公司都在使用不同的方法。例如,Dall-E使用可见水印;其他应用可能会使用元数据或像素级别嵌入水印,这对用户来说是不可见的。虽然元标准的像素级水印相对难以去除,但视觉水印则要脆弱得多(谷歌搜索很快就能提供消除Dall-E水印的在线教程),有时只需调整图像大小就可以使其失效。格雷戈里(Gregory)说“总有方法可以破坏水印。”

白宫的声明特别提到对人工智能生成的音频和视频内容使用水印,但不包括文本。这并不意味着没有办法对OpenAI的ChatGPT等工具生成的文本进行标记。一种方法是操纵单词的分布方式,比如让某些单词更频繁地出现。但这些不一定是人类可以检测到的,它们将需要由机器进行解释,然后标记给观众或读者。

当考虑到混合媒体内容时,所有这些都变得更加复杂,比如音频、图像、视频和文本元素可以出现在单个TikTok帖子中。例如,有人可能会把真实的音频放在使用人工智能制作的图像或视频上。平台需要弄清楚如何表明剪辑的一个组成部分(但不是全部)是人工智能生成的。

但是,简单地将内容标记为人工智能生成并不能帮助用户判断某些内容是恶意的、误导性的,或者仅仅是搞笑的。

加州大学伯克利分校信息学院的亨利·法里德(Hany Farid)教授曾与软件公司Adobe合作,制定维护内容真实性的行业标准,他说:“很明显,如果你正刷TikTok视频,而且这些视频是为了好玩和娱乐,那么这种媒体使用从根本上来说并不是坏事。使用的语境需要得到重视。这些困境会持续存在,但平台在过去20年中一直在努力解决这些问题。”

公众对人工智能的逐渐认识也会增加错误信息出现的可能性。正如人们可能会认为人工智能生成的内容是真实的一样,它的存在本身也会让人们对任何视频、图像或文本的真实性产生怀疑。所谓的骗子红利便是坏人利用人们警惕的心理将真实内容捏造为虚假的。

2021年,在缅甸政变后的一周里,一段视频在网上疯传,视频中一名妇女在进行舞蹈练习时身后有军事车队。许多网友认为这段视频是伪造的。今年4月, 一段关于印度南部米尔纳德邦一位议员指责自己的政党窃取了30多亿美金的录音泄露,而事实并非如此,这段录音是机器生成的。

现在,没有什么可以阻止恶意行为者在真实内容上加水印,使其看起来像假的。法里德说,防止伪造或损坏水印的最好方法之一是通过加密签名。“如果你是OpenAI,你应该有一个加密密钥。”他说,“水印将包含只有持有密钥的人才能知道的信息。”法里德建议的内容来源和真实性联盟已经制定了加密和像素级水印的技术标准。另一种选择是在人工智能学习的训练数据中嵌入水印。

法里德说,我们正在迅速进入这样一个时代,我们越来越难相信我们在网上阅读、看到或听到的任何东西。这意味着我们不仅会被虚假的东西愚弄,我们也不会相信真实的东西【全文完】


来源:《Wired》2023年10月刊 | 作者:Vittoria Elliott
原文标题: