人工智能影响了2024年美国大选吗?

几天前,新罕布什尔州的选民收到了一个模仿美国总统乔·拜登(Joe Biden)的人工声音的自动电话,联邦通信委员会(Federal Communications Commission)禁止在自动电话中使用人工智能生成的声音。

这是一个引爆点。2024年的美国大选将是第一次在公众广泛使用人工智能生成器的情况下展开,人工智能生成器可以让人们创建图像、音频和视频,其中一些用于邪恶目的。

机构急于限制人工智能带来的不当行为。

16个州制定了有关在选举和竞选中使用人工智能的立法;其中许多州都要求在临近选举的时候在合成媒体上发表免责声明。支持选举管理人员的联邦机构选举援助委员会(Election Assistance Commission)发布了一个“人工智能工具包”,其中包含选举官员可以用来在一个信息造假的时代就选举进行沟通的提示。各州发布了自己的页面,帮助选民识别人工智能生成的内容。

专家警告说,人工智能有可能制造深度造假,让候选人看起来说了或做了他们没有说过的话或做过的事情。专家们表示,人工智能的影响力可能会在国内(误导选民,影响他们的决策或阻止他们投票)和国外(使外国对手受益)伤害美国。

广告

但预期中的人工智能驱动的错误信息雪崩从未成为现实。随着选举日的到来和结束,病毒式的错误信息起了主要作用,误导了计票、邮寄选票和投票机。然而,这种欺骗主要依赖于老的、熟悉的技术,包括基于文本的社交媒体声明和视频或脱离背景的图像。

纽约大学斯特恩商业与人权中心副主任保罗·巴雷特(Paul Barrett)表示:“事实证明,使用生成式人工智能对于误导选民并不是必要的。”“这不是‘人工智能选举’。”

普渡大学(Purdue University)技术政策助理教授丹尼尔·希夫(Daniel Schiff)表示,没有“大规模的最后时刻宣传”在投票地点问题上误导选民,影响投票率。“这种错误信息的范围较小,至少在总统选举中不太可能成为决定性因素,”他说。

专家表示,人工智能生成的说法最受关注的是支持现有的叙述,而不是捏造新的说法来愚弄人们。例如,在前总统唐纳德·特朗普和他的副总统竞选伙伴JD万斯错误地声称海地人在俄亥俄州斯普林菲尔德吃宠物之后,描述虐待动物的人工智能图像和表情包在互联网上泛滥。

与此同时,技术和公共政策专家表示,保障措施和立法将人工智能制造有害政治言论的可能性降至最低。

希夫说,人工智能对选举的潜在危害引发了“紧急能量”,专注于寻找解决方案。

广告

希夫说:“我相信公众倡导者、政府行为者、研究人员和普通公众的高度关注是有意义的。”

拥有Facebook、Instagram和Threads的Meta要求广告商在任何有关政治或社会问题的广告中披露人工智能的使用情况。TikTok应用了一种机制来自动标记一些人工智能生成的内容。ChatGPT和DALL-E背后的OpenAI公司禁止将其服务用于政治活动,并阻止用户生成真人的图像。

误导行为者使用的是传统技术

布法罗大学(University at Buffalo)计算机科学与工程教授、数字媒体取证专家吕思维(Siwei Lyu)表示,人工智能影响选举的力量也在减弱,因为还有其他方式可以获得这种影响力。

达特茅斯学院(Dartmouth College)定量社会科学助理教授张赫伯特(Herbert Chang)表示:“在这次选举中,人工智能的影响可能会减弱,因为传统形式仍然更有效,而在Instagram等基于社交网络的平台上,拥有大量粉丝的账户使用人工智能的次数较少。”Chang参与撰写了一项研究,发现人工智能生成的图像“比传统的表情包产生的病毒式传播更少”,但人工智能创建的表情包也会产生病毒式传播。

拥有大量粉丝的知名人士不需要人工智能生成的媒体就能轻松传播信息。例如,特朗普在演讲、媒体采访和社交媒体上一再错误地说,非法移民被带到美国是为了投票,尽管非公民投票的情况极为罕见,而且在联邦选举中投票需要公民身份。民意调查显示,特朗普的反复主张得到了回报:10月份,超过一半的美国人表示,他们担心非公民在2024年大选中投票。

广告

PolitiFact的事实核查和有关选举相关错误信息的报道挑出了一些使用人工智能的图像和视频,但许多病毒式媒体都是专家所说的“廉价假货”——未经人工智能欺骗性编辑的真实内容。

在其他情况下,政客们颠倒了剧本——指责或贬低人工智能,而不是使用它。例如,特朗普错误地声称林肯项目发布的他失言的蒙太奇是人工智能生成的,他说哈里斯的一群支持者是人工智能生成的。CNN发表了一篇报道,称北卡罗来纳州副州长马克·罗宾逊在一个色情论坛上发表了攻击性言论,罗宾逊声称这是人工智能。一位专家告诉北卡罗来纳州格林斯博罗的WFMY-TV,罗宾逊所说的“几乎不可能”。

人工智能曾引发“党派仇恨”

当局发现,新奥尔良的一名街头魔术师制造了一月份的假拜登自动电话,在电话中可以听到总统劝阻人们不要在新罕布什尔州的初选中投票。魔术师说,他只花了20分钟和1美元就制造出了假声音。

雇佣魔术师打电话的政治顾问面临600万美元的罚款和13项重罪指控。

这是一个引人注目的时刻,部分原因是它没有重演。

哈佛大学肯尼迪学院(Harvard Kennedy School)公共政策兼职讲师布鲁斯•施奈尔(Bruce Schneier)表示,在选举日之前的几周里,人工智能并没有推动两种主要错误信息的传播——捏造的吃宠物的说法,以及关于联邦紧急事务管理局(Federal Emergency Management Agency)在米尔顿(Milton)和海伦(Helene)飓风过后救灾工作的谎言。

广告

“我们确实目睹了利用深度造假来似乎相当有效地煽动党派仇恨,帮助建立或巩固对候选人的某些误导或虚假看法,”丹尼尔·希夫(Daniel Schiff)说。

他与普渡大学政治学助理教授凯琳·希夫(Kaylyn Schiff)和普渡大学博士生克里斯蒂娜·沃克(Christina Walker)合作,创建了一个政治深度造假的数据库。

数据显示,大多数深度造假事件都是出于讽刺目的。这背后是有意损害某人声誉的深度造假。第三种最常见的深度造假是为娱乐而创造的。

丹尼尔·希夫说,批评或误导人们对候选人的深度造假是“美国传统政治叙事的延伸”,比如把哈里斯描绘成共产主义者或小丑,或者把特朗普描绘成法西斯主义者或罪犯。Chang同意Daniel Schiff的观点,认为生成式人工智能“加剧了现有的政治分歧,不一定是故意误导,而是通过夸张的方式”。

主要的外国影响力行动依赖于行动者,而不是人工智能

研究人员在2023年警告说,人工智能可以帮助外国对手更快、更便宜地开展影响力行动。评估针对美国的外国影响活动的外国恶意影响中心(Foreign Malign Influence Center)在9月底表示,人工智能并没有“彻底改变”这些努力。

该中心表示,要威胁美国大选,外国行为者必须克服人工智能工具的限制,逃避检测,并“战略性地瞄准和传播此类内容”。

广告

包括国家情报总监办公室、联邦调查局和网络安全和基础设施安全局在内的情报机构都指出了外国的影响行动,但这些行动更多的是在视频中使用演员。一段视频显示,一名女子声称哈里斯在一场肇事逃逸的车祸中撞伤了她。视频的叙述“完全是捏造的”,但不是人工智能。分析人士认为,这段视频与俄罗斯一个名为Storm-1516的网络有关,该网络在试图破坏宾夕法尼亚州和佐治亚州选举信任的视频中使用了类似的策略。

平台保障措施和州立法可能有助于遏制“最恶劣的行为”。

社交媒体和人工智能平台试图通过在声明中添加水印、标签和事实核查,使使用它们的工具传播有害的政治内容变得更加困难。

Meta AI和OpenAI都表示,他们的工具拒绝了成千上万个生成特朗普、拜登、哈里斯、万斯和民主党副总统候选人明尼苏达州州长蒂姆·沃尔兹的人工智能图像的请求。在12月3日关于2024年全球选举的报告中,Meta负责全球事务的总裁尼克·克莱格(Nick Clegg)表示,“与选举、政治和社会话题相关的人工智能内容的评分在所有经事实核查的错误信息中所占比例不到1%。”

不过,也有缺点。

《华盛顿邮报》发现,当收到提示时,ChatGPT仍然会撰写针对特定选民的竞选信息。PolitiFact还发现,Meta AI很容易生成支持海地人吃宠物这一说法的图像。

广告

希夫表示,随着人工智能技术的进步,这些平台还有很长的路要走。但至少在2024年,他们采取的预防措施和各州的立法努力似乎取得了成效。

希夫说:“我认为,深度检测、提高公众意识以及直接禁令等策略都很重要。”