(JY编译)在暴徒冲击美国国会大厦事件发生近三年后,虚假的选举阴谋理论仍在社群媒体和网路新闻中广泛传播。这些理论包括装满选票的行李箱、在深夜计票以及死者投票被计入等。
专家警告说,在即将到来的总统选举中,情况可能会更糟。先前用于对抗虚假声明的保障措施正在逐渐减弱,而制造和传播这些虚假声明的工具和系统却在不断增强。
在前总统特朗普的引导下,许多美国人继续散播一种未经证实的观点,即美国各地的选举都不能被信任。其中,57%的共和党人认为,民主党拜登没有合法当选总统。
同时,生成式人工智能工具的出现,使得传播误导性讯息的成本大幅降低,同时也更加便利。社群媒体公司曾经致力于纠正事实记录,但现在它们的重心已经发生了转变。
人工智能专家、华盛顿大学终身教授奥伦·埃茨尼(Oren Etzioni)说︰「我预计将会有一场误导性资讯的海啸。我无法证明这一点。我希望我的预测是错的。但是所有的因素都已存在,我感到非常恐惧。」
AI深度伪造走向主流
影像和影片的操纵在选举中并不罕见,但2024年的总统选举将面临前所未有的挑战,即高度先进的人工智能工具的广泛应用。这些工具能够在短时间内产生非常逼真的虚假内容,而且使用它们只需要进行几次简单的点击操作。
埃茨尼强调深度伪造技术的危险和潜在滥用,特别是在政治竞选中。他指出,虚构的图像、视讯和音讯可以被制作得非常逼真,以至于人们难以辨别真假。
埃茨尼说︰「你可能会看到像拜登总统这样的政治候选人被紧急送往医院。候选人发表未曾说过的言论、银行遭到挤兑、以及虚假的爆炸和暴力事件。」
布伦南司法中心(Brennan Center for Justice)选举与政府计画的高级主任拉里·诺登(Larry Norden)称,高科技伪造已经对全球的选举产生了影响。他提到,最近斯洛伐克选举前几天,人工智能产生的音讯录音冒充自由候选人,讨论提高啤酒价格和操纵选举的计划。事实查核人员竭力辨认它们为虚假,但它们在社交媒体上仍然被分享为事实。
专家表示,这种定向的虚假讯息传播可能导致特定社区的选民产生误导,影响其投票决策。这可能包括具有说服力的简讯、在WhatsApp上以不同语言分享的虚假投票流程公告,或仿制得像选民所在地区的官方政府网站的虚假网站。
错误讯息学者、宾州大学安纳伯格公共政策中心主任凯瑟琳·霍尔·贾米森(Kathleen Hall Jamieson)指出,当人们面对看似真实的虚构内容时,由于长期进化形成的认知倾向,很容易相信这些虚构的讯息,而不是真实的情况。
美国国会的共和党和民主党成员以及联邦选举委员会正在努力研究和制定监管这项技术的政策。然而,他们尚未就具体的规定或法案达成最终一致。因此,目前唯一实施关于政治AI深度伪造的限制措施来自各州,它们可能会采取了一些法律或政策来规范和限制这种技术的使用。
一些州已通过法律,规定对深度伪造进行标注,或禁止使用这些技术来误导选民对候选人的认知。此外,一些社群媒体公司,如YouTube和Meta(拥有Facebook和Instagram),已经实施了使用AI进行标注的政策。不过,这些公司是否能够始终有效地识别和阻止违规行为,目前尚不清楚。
社群媒体的安全措施消失
就在一年多前,马斯克收购了Twitter,并开始解雇高阶主管、拆除核心功能等,以对社群媒体平台进行改造。这导致了平台的重大变革,现在它以「X」为名。
在接管Twitter后,他还采取了一系列行动,包括颠覆验证系统、削弱反对错误讯息的团队,以及恢复先前被禁止的阴谋论者和极端分子的说法。
许多保守派对这些变化表示赞赏,因为他们认为Twitter先前的管理尝试涉及对他们观点的审查。然而,民主倡导者认为这次接管导致了曾经有用的新闻和选举资讯资源的转变,使其成为一个主要没有受到监管的回音室,加大了仇恨言论和错误讯息的传播。
非营利监察组织Accountable Tech联合创始人杰西·莱里奇(Jesse Lehrich)表示,Twitter曾经是「最负责任」的平台之一,因为它曾经愿意尝试一些可能减少错误讯息传播的功能,甚至愿意牺牲用户互动度。
他说︰「但目前情况已经发生了变化,变得极端。」并补充说他认为Twitter的变化为其他平台提供了宽松政策的理由。X没有回答《美联社》的电子邮件提问,只发送了自动回复。
根据致力于在科技和媒体领域倡导公民权利的非营利组织Free Press的报告,在迎接2024年的过程中,X、Meta和YouTube共同废除了17项防范仇恨和虚假信息的政策。
YouTube在去年六月宣布了一个关于对待有关选举的内容的政策调整。该政策表示,尽管平台仍将监管当前或即将到来的选举的误导性内容,但将不再删除声称2020年选举或其他过去美国选举存在广泛舞弊、错误或故障的内容。该政策的目的是保护言论自由,即使观点具有争议性或基于已被证明是错误的假设,也允许其进行公开辩论。
莱里奇提到,即使科技公司不希望删除误导性内容,平台仍有许多内容中立的方式来减少假讯息的传播。这些方式可能包括对数月前的文章进行标注,或增加分享内容前的审核难度,以确保发布的资讯更加可信。
X、Meta和YouTube自2020年以来裁减了数千名员工和合约工,其中一些是内容审核员。裁员可能会对平台上的内容审核和管理产生影响,因为这些工作人员通常负责监督和审核发布在平台上的内容,以确保其符合规定和政策。
华盛顿大学的虚假资讯专家凯特·斯塔比尔德(Kate Starbird)指出,许多人认为内容审核团队缩减是受到政治压力的结果,这「为2024年比2020年糟糕的情况铺平了道路。」
Meta声称拥有约4万人的庞大安全保障团队,以及独立事实查核网路。该公司还经常关闭旨在制造纷争和不可信的虚假社交媒体帐户网路。
贴文中说︰「没有比Meta线上保护选举做得更多或投资更多的科技公司——不仅仅在选举期间,在任何时候。」
YouTube发言人Ivy Choi表示,该平台投资于推荐和资讯面板等功能,以提供可靠的选举消息。她也强调了YouTube对打击误导性内容的努力,特别是那些误导选民投票或干扰民主进程的内容。
TikTok和其他一些监管较少的平台,如Telegram、Truth Social和Gab的崛起,可能更容易传播缺乏根据的主张和错误讯息。特别是WhatsApp和微信等应用程式依赖私人聊天,这增加了外部群体发现和阻止可能的错误讯息传播的难度。
Photo by Tiffany Tertiles on unsplash