随着美国大选的临近,科技公司正在努力阻止和遏制由人工智能生成的虚假信息和错误信息的传播。
生成性人工智能的普及意味着虚假信息和错误信息的内容正在迅速增加。
为了遏制这一现象,科技公司采取了两种方法。
“模型开发者……试图建立预防机制,”伊利诺伊大学格兰杰工程学院的计算机科学副教授王刚表示。“他们不仅仅是进行预防,有时在某些事情发生时,他们会进行后期分析,以了解这些恶意行为者在做什么。”
预防方法
今年早些时候,谷歌和微软禁用了其人工智能聊天机器人Gemini和Copilot对与选举相关问题的回答。另一方面,OpenAI的流行GPT生成性人工智能系统则会回答有关选举的问题。
谷歌因不允许Gemini回答有关共和党总统候选人唐纳德·特朗普未遂刺杀事件的问题而受到批评。
人工智能技术供应商还开始标记人工智能生成的内容。
今年二月,Meta公布了在Facebook、Instagram和Threads上标记人工智能生成图像的计划。该社交媒体巨头还开始在所有平台的人工智能生成视频、图像和音频帖子上加上“由AI制作”的标签。
剖析与分析
人工智能供应商还采取第二种方法,通过分析来减少虚假信息和错误信息的传播。
10月9日,OpenAI发布了一份报告,详细说明了他们如何发现和阻止其模型在美国及海外选举中创建和传播虚假信息和错误信息。
例如,一个名为Storm-2035的团体使用ChatGPT生成关于美国总统和副总统候选人的长篇文章。
Storm-2035还利用OpenAI的模型在X(前Twitter)和Instagram上生成关于苏格兰独立和美国总统选举的评论。
Storm-2035还在微软8月发布的一份关于针对美国选举的伊朗团体的报告中被提及。OpenAI发现该团体在X和Instagram上发布评论。
此外,Meta将Storm-2035与2021年针对苏格兰选民的伊朗活动联系在一起。
另一个麻烦制造者试图使用OpenAI的新GPT-4o模型生成支持共和党总统候选人唐纳德·特朗普的内容。该事件在6月曝光,当时X用户注意到一个之前用英语回复他人的账户开始分享俄语文本。调查发现,该账户的初始帖子是使用OpenAI的模型生成的;在6月18日,该账户在耗尽GPT-4o积分后显示JSON错误消息。
分析方法使得像OpenAI这样的人工智能供应商处于攻击者与社交媒体平台提供商之间的中介位置,因为这些供应商能够看到其模型的使用情况,并将其与社交媒体上的活动联系起来,王刚表示。
随着美国大选的临近,越来越多的恶意行为者使用生成性人工智能传播虚假信息。
无法跟上
王刚表示,无论是预防还是分析方法都无法消除或完全阻止虚假信息和错误信息的传播。
“我们仍然看到恶意行为者可以利用模型生成不良内容,”他说。“有方法可以越狱这些预防措施。”
即使作为中介,人工智能模型提供者也无法跟上。
“人工智能生成的内容是宣传者梦寐以求的,”RPA2AI首席执行官Kashyap Kompella表示。“技术平台和社交媒体公司努力而艰难地跟上。”
OpenAI报告的作者Ben Nimmo和Michael Flossman在报告中确认了这一点,他们写道:“人工智能公司对威胁行为者的独特见解可以帮助加强更广泛信息生态系统的防御,但无法替代它们。”
开源挑战
这些开源模型的使用案例更难以监控。王刚 伊利诺伊大学格兰杰工程学院计算机科学副教授
部分挑战在于,虽然像GPT-4o这样的专有模型可以被密切监控,但开源模型则无法做到这一点。
“对于这些开源模型,监控其使用案例更为困难,”王刚表示。“任何人都可以下载,任何人都可以用它生成内容。”
尽管开源模型的用户必须拥有强大的GPU计算机来运行模型,但这对许多恶意行为者,尤其是国家支持的行为者来说并不是问题,王刚补充道。
“缺乏可追溯性是一个问题,”他说。“当内容生成后,真的很难将其与真实内容区分开。”
还有混合编辑——人类与开源模型生成器合作创建的内容,使得虚假信息和错误信息的事件更难被检测。
虽然水印和数字指纹可以阻止一些虚假信息的制造者,但这些技术尚不成熟,无法有效应对,王刚表示。
此外,水印仅仅触及了打击恶意使用生成性人工智能模型的表面,Pindrop的首席产品官Rahul Sood表示。Sood在一篇博客文章中提到了一段在七月广泛传播的关于民主党总统候选人卡马拉·哈里斯的人工智能生成的深度伪造视频。
“有些公司声称水印足够,这是一种人工智能安全的洗白,”Sood说。“这只是一个良好的第一步。我们不应假设这就足够了。”
他指出,像水印这样的保护措施完全取决于人工智能供应商。
“如果你是一个开源平台,就没有动机、没有激励、也没有要求来设置这些保护措施,”Sood继续说道。
其他挑战
另一个问题是,每种类型的人工智能生成内容——文本、音频或视频——都需要独特的角度或回应,Copyleaks的联合创始人兼首席执行官Alon Yamin表示。
“重要的是要意识到并寻找与特定内容相关的[回应],”Yamin说。
即使人工智能供应商处理每个独特的虚假信息和错误信息实例,他们也无法独自完成。
“虚假信息战术迅速演变,这意味着科技供应商必须不断更新和完善他们的人工智能工具,”Skyhigh Security的产品执行副总裁Thyaga Vasudevan表示。“这是一个猫鼠游戏,恶意行为者寻找新的方法来操纵或绕过人工智能的保护措施。”
在没有足够安全措施的情况下,恶意行为者往往可以利用生成性人工智能通过识别和操纵选民偏好、针对特定选民群体和生成逼真的深度伪造来传播虚假信息,Vasudevan补充道。
缺乏监管也使得打击这些战术变得具有挑战性,他说。
“仅靠人工智能模型无法解决虚假信息问题,必须与政府、社交媒体平台和公民团体进行持续合作,以确保及时响应,”Vasudevan说。
社交媒体提供商还需要像金融行业一样,专注于与检测平台的合作,以检测深度伪造,Sood表示。
“他们意识到这对消费者的信任非常重要,”他说。“社交媒体平台尚未做出同样的决定。”
明确的监管措施可以促进社交媒体平台上检测技术的使用。
例如,联邦通信委员会今年早些时候提议了关于人工智能生成的自动拨号电话的新规则。
“必须有这样的努力,不仅适用于电信公司,也适用于社交媒体平台公司,”Sood继续说道。
然而,随着美国大选的临近以及其他全球选举的发生,监管在2024年可能影响不大。
检测工作
小型组织和活动团体所做的努力可能会有效。
其中之一是TrueMedia.org,这是一个非营利性、非党派的组织,专门识别政治深度伪造。用户可以粘贴社交媒体网址,该组织的网站可以检测内容是否真实。Truemedia.org使用Pindrop的音频深度伪造检测技术。
DeepBrain AI是另一家创建人工智能头像并将文本转换为视频的生成性人工智能供应商。由于其系统生成头像,有时会被误认为是深度伪造系统。
随着深度伪造在选举中的传播,DeepBrain创建了一种深度伪造检测器,监控来自YouTube、TikTok、Reddit和其他社交平台的内容。
“防止深度伪造内容发布是不可能的,”DeepBrain的全球营销经理John Son表示。“这是事后处理。我们看到问题,然后我们尝试减少伤害。”
Esther Ajao是TechTarget的新闻撰稿人和播客主持人,专注于人工智能软件和系统。