深度伪造真假难辨,应对之路在何方?

【川透社编译报道】AI在“模仿游戏”中表现出色,深度伪造技术可生成逼真图像、复制声音等,假脸甚至比真照片更易被…

在当今科技飞速发展的时代,人工智能(AI)技术取得了令人瞩目的进展。其中,AI在“模仿游戏”1中展现出了强大的能力。所谓“模仿游戏”,是英国数学家艾伦·图灵(Alan Turing)提出的一个概念,即机器通过展示与人类无异的智能行为,来欺骗人类的感知能力。在AI生成深度伪造(Deepfake)图像这一领域,这种欺骗性表现得尤为明显,它可能会让人们难以辨别网络上看到的人脸是真实的还是伪造的。

深度伪造为何易被误认

研究表明,当人们面对一批包含真实照片和AI生成照片的图片,并被要求挑选出真实照片时,令人惊讶的是,深度伪造的人脸更有可能被认为是真实的。科学家推测,这可能是因为AI生成的人脸与我们根据现实生活中常见面孔所形成的心理模板相匹配,而且那些被认为不那么有吸引力的面孔看起来更符合日常生活的常态,所以似乎更真实。

深度伪造对网络行为的严重影响

深度伪造技术对我们的网络行为产生了严重影响。当人们得知某些面孔是伪造的时,他们对包括真实面孔和深度伪造面孔在内的整体信任度都会下降,这可能会破坏我们在网络上交流的基础。此外,深度伪造的威胁远不止于图像和视频。它还可以复制人的声音和交流方式,甚至进行模拟电话通话,最终通过收集一些个人的在线数字信息,成为人类的数字克隆体。而我们在网络上发布的照片、视频、图像和音频等信息,无意间暴露了我们的“数字DNA”2,为网络犯罪分子提供了可乘之机,他们能够利用这些信息创建极其逼真的深度伪造内容,让人难以辨别真伪。

科技公司的反深度伪造举措

面对深度伪造技术带来的挑战,科技公司和研究人员一直在努力寻找解决方案。社交媒体平台应嵌入AI深度伪造检测技术。例如,微软推出了视频认证工具,可分析静态照片或视频,并给出该媒体是否被人为操纵的置信度评分3;元公司(Meta)发起了深度伪造探测器挑战,与谷歌内部技术孵化器Jigsaw合作发布了大量视觉深度伪造数据集,推动相关检测系统的开发;Jigsaw还发布了名为Assembler的实验平台,帮助记者和一线事实核查人员快速验证和检测网络上的深度伪造图像。然而,目前这些技术的检测准确率仍有待提高,最好的检测算法准确率也仅能达到65%左右,商业解决方案的成功率也未达到理想水平。

各国应对深度伪造的法律法规

同时,各国政府也纷纷出台法律法规来应对深度伪造问题。欧盟更新了《行为准则》(Code of Practice),旨在阻止通过深度伪造传播虚假信息,这是全球首个要求大型科技公司在其平台上打击虚假信息和深度伪造的国际法律框架;美国出台了《深度伪造特别工作组法案》(Deepfake Task Force Act),协助国土安全部应对深度伪造技术,部分州还通过法律将可能影响选举结果的深度伪造视频的发布和传播定为犯罪行为;中国的网络监管机构也发布了相关指南,规范内容提供者对人脸和语音数据的修改,以遏制深度伪造内容在网络上的传播。

人类自身警惕是关键防线

尽管行业、政府和组织都在努力识别和限制深度伪造内容在网络上的无序传播,但要彻底解决这一问题仍任重道远。目前的机器学习算法在检测方面还存在局限性,需要更加全面的方法。因此,对抗深度伪造带来的虚假信息,最好的保护仍在人类自身。我们在面对网络上的信息时,要保持警惕,多思考其来源和真实性,不轻易相信未经证实的内容。【全文完】

来源:《连线》2023年5月17日刊 | 作者:Jamil Usman
原文标题:The imitation game

  1. “模仿游戏”是英国数学家艾伦·图灵(Alan Turing)于1950年提出的一个思想实验,用于探讨机器是否能够具备智能。在该实验中,一个人与一台机器分别处于不同的房间,通过电传打字机与外界进行交流。如果外界的询问者无法分辨与之交流的是机器还是人,那么就可以认为这台机器具备了智能。 ↩︎
  2. “数字DNA”在本文中是一种形象的说法,指的是人们在网络上发布的各种个人信息,包括照片、视频、图像、音频等,这些信息如同生物DNA一样,具有独特性和可识别性,能够反映个人的特征和行为模式。网络犯罪分子可以利用这些信息创建极其逼真的深度伪造内容。 ↩︎
  3. “置信度评分”是一种用于衡量某个判断或预测结果可靠性的指标。在本文中,特指微软推出的视频认证工具在分析静态照片或视频后,对该媒体是否被人为操纵所给出的一个评分,评分越高,表示该媒体被认为是真实的可能性越大;反之,则表示被操纵的可能性越大。 ↩︎