真假难辨:如何识别人工智能的伪装?
【川透社节译报道】研究人员普遍认为,随着AI技术的发展,未来AI生成的虚假内容将难以被识别。尽管存在多种识别软件和技术,其中包括水印技术,但这些方法的可靠性仍有待提高。
许多研究人员认为,人工智能生成的虚假内容最终将变得无法检测。
借助AI生成,不仅是公众人物的肖像会被用于不良目的,“恶意行为者”也会利用AI制作普通人的假色情视频和图片,以此勒索钱财。
如何识别这种欺骗行为是AI研究者们关注的热门话题。许多研究者参加了12月在新奥尔良举行的NeurIPS会议,这是该领域最大的会议之一。目前,很多公司都提供用于检测机器生成内容的软件,其中既有初创企业也有包括英特尔和微软等在内的老牌科技巨头。与此同时,大型人工智能模型的开发者也在研究为AI生成的产品添加“水印”的办法,以便轻松区分真假图片、视频或文本。
然而,到目前为止,这些技术的可靠性尚未得到证明。人工智能领域的专家似乎对其前景持悲观态度。《经济学人》对NeurIPS的与会代表进行了一次非正式的民意调查,在被问及的23人中,只有一人对检测技术的可行性持肯定态度。
识别软件依赖于人工智能模型在生成内容时留下的痕迹。这些模型要么无法完全复制真实图像和视频的某些特征,或者人类生成的文本,要么会添加一些不必要的元素——这些错误频繁出现,足以让其他软件检测出来。之前的一段时间里,人类也能识别这些错误。如今,最先进的算法已经规避此类错误,虽然这些线索仍然存在,但是它们越来越难以被人类察觉。机器可以被训练来区分真实图像和人工智能生成的图像,但是它们的表现似乎并不理想。识别软件容易出现假阳性(错误地将人类内容标记为由人工智能生成)和假阴性(未能检测到机器生成的内容)。
如果事后识别计算机生成的内容太困难,另一个选择则是事先对其进行数字水印标记。马里兰大学的一个团队提出了一种标记文本的方法,并被加州大学圣塔芭芭拉分校的一个团队加以改进,即调整语言模型的词汇偏好。但由于该技术是统计性的,因此对于较长的文本最为可靠。
许多图像水印方法可以用微妙的方式调整像素,这些变化对人来说极其微妙,但可以被计算机检测到。但裁剪、旋转、模糊、或重新锐化图像都可能去除这些标记。
在NeurIPS会议上,一组研究人员展示了一种名为“树轮”水印的方法,效果更为稳健。“树轮”水印法不是在完成的图像中嵌入水印,而是在图像生成的初始噪声阶段就嵌入其中。如果图像生成软件以相反的方式运行,它会与噪声一起重新生成水印。关键的是,该技术不易因修改最终图像而遭到破坏。
水印方法研究者与其他研究人员之间正进行一场军备竞赛,后者的目标是破解他们的技术。哈佛大学的一个团队声称有方法可以擦除水印。马里兰大学的科学家发表的一篇论文也称目前包括“树轮”水印法在内的图像水印法都不能确保万无一失。
尽管如此,2023年7月,美国政府宣布与包括OpenAI和谷歌在内的几家AI公司达成“自愿承诺”,以增加对水印研究的投资。但在这场造假者与侦探的角逐中,前者似乎占了上风。【全文完】
来源:《经济学人》2024年1月20日刊 | 作者:不详
原文标题:detecting AI fakery Ture or false?