
2025年作为全球关键选举年,从欧洲的荷兰、爱尔兰,到世界各地的多场重要选举,都出现了AI深伪技术干预选举的案例,引发各界对于民主机制受损的担忧。图为两个主播均为AI深伪的,Wolf News也是虚构的媒体。(图片来源:公用领域 Graphika报告书) 
							 
							
						
				   				 
【看中国2025年10月31日讯】(看中国记者杨天资编译/综合报导)人工智能(AI)技术的快速发展,为社会带来前所未有的便利与变革,却也同时开启了一扇扇潜在风险的大门。其中,AI深伪(Deepfake)技术的滥用,已对全球民主政治,特别是选举的公正性构成日益严峻的挑战。2025年作为全球关键选举年,从欧洲的荷兰、爱尔兰,到世界各地的多场重要选举,都出现了AI深伪技术干预选举的案例,引发各界对于民主机制受损的担忧。欧盟作为全球AI监管的先驱,其《人工智能法案》(AI Act)旨在应对这些风险,但这项开创性的立法在实际执行与约束力上,仍面临诸多质疑与挑战。
AI深伪对欧洲选举的冲击
在2025年10月的欧洲选举中,AI深伪内容已在多个国家造成实际影响。在荷兰和爱尔兰的国会大选中,多起AI深伪事件浮出水面,显示出这项技术对选民认知和民主信任的潜在破坏力。
在爱尔兰总统大选期间,网络上曾流传一部由AI生成的深伪影片,该影片假冒爱尔兰国家广播公司(RTE)的新闻报导,以AI合成其中一名候选人康诺里(Catherine Connolly)的影像,并错误地发布其退选声明。这段看似真实的虚假内容迅速传播,迫使康诺里公开澄清并严厉谴责此行为是“误导选民、破坏民主的可耻行为”。这起事件不仅凸显了深伪技术的欺骗性,也揭示了其在选举关键时刻可能造成的巨大混乱和对候选人声誉的损害。
荷兰国会大选也未能幸免于AI深伪的干扰。在选举期间,一个Facebook帐号散布了多张AI生成的图片,这些图片对特定候选人进行了攻击和抹黑。阿姆斯特丹大学与梅因斯大学的研究进一步证实了AI内容在荷兰选举中的渗透程度。在约2万篇与荷兰选举相关的社群贴文中,超过400篇是由AI生成的内容,其中超过120篇的源头可追溯至与自由党有关的帐号。阿姆斯特丹大学人工智能与社会学教授佛瑞塞(Claes de Vreese)形容,这“可能是欧洲选举首次面对AI技术全面整合”的挑战。这项研究结果令人警惕,它表明AI不仅仅是个案干扰,而是可能被有组织地用于影响选举结果的工具。
除了直接的深伪内容,研究人员也警告,AI聊天机器人对选举的影响不容小觑。当使用者向AI聊天机器人询问“应该投给谁”时,这些工具可能会产生“高度扭曲且两极化的荷兰政治版图”的建议。由于大多数选民往往在投票前几天才做出最终决定,这种潜移默化的影响可能对选举结果产生决定性作用。荷兰资料保护局(DPA)曾于10月21日提醒选民,不要向AI聊天机器人寻求投票建议,正是出于对此类隐性干预的担忧。
AI深伪技术对选举的影响是多层面的。它不仅制造虚假资讯,混淆视听,还能煽动情绪,加剧社会分裂。更深层次的是,当选民无法辨别资讯真伪时,将会对媒体、政治人物乃至整个民主体制产生信任危机。这种信任的崩溃,将对民主社会的稳定和运作带来长远而深远的负面影响。
欧盟《人工智能法案》:监管的雄心与现实
面对AI深伪对民主进程日益增长的威胁,欧盟于2024年8月1日正式实施了其开创性的《人工智能法案》(AI Act),成为全球首部全面性的人工智能监管专法。该法案旨在应对AI衍生的风险,包括由AI驱动的不实讯息,并确保基本权利、安全和伦理原则。这部法案将AI系统依据风险程度分为多个层级,并对供应商和部署商课予特定的透明度义务。
《人工智能法案》的核心是其“风险分级”管理模式,将AI系统分为“不可接受风险”、“高风险”、“有限风险”和“最小风险”四个层级,并针对不同风险等级施加不同的监管要求。其中,“意图影响选举或公投结果的AI系统”被明确归类为高风险,这意味着此类AI系统的提供者和部署者将面临一系列严格的义务,包括进行风险评估、确保数据品质、实施人为监督、提供透明度资讯等。该法案还要求OpenAI的ChatGPT、Google的Gemini等高度复杂的通用型AI模型(General Purpose AI, GPAI)遵守一系列义务,其中包含降低对民主造成的“系统性风险”。这些通用型AI模型被要求揭露用于训练模型的受版权保护数据资讯,并确保其输出内容的透明度。
值得注意的是,《人工智能法案》具有“域外效力”,这表示即使AI系统的开发商或提供者不在欧盟境内,只要其AI系统的输出在欧盟境内被使用,就必须遵守该法案。此举旨在确保所有在欧盟市场运作的AI产品和服务都符合欧盟的规范标准,避免因地理位置差异而产生监管漏洞。违规者可能面临高达3,500万欧元或前一财政年度全球年度营业额7%的巨额罚款,旨在提供强大的吓阻力。
约束力不足与实施挑战
尽管欧盟《人工智能法案》被誉为全球AI监管的里程碑,但其在实际执行与约束力方面仍面临诸多批评与挑战。这些挑战不仅源于AI技术本身的复杂性与快速演进,也与监管框架的设计和实施机制有关。
首先,执行困难是法案面临的一大难题。欧盟各成员国之间监管框架的差异,以及法案中缺乏明确的统一监管机构,使得跨国平台上的透明度执行充满挑战。当各国选举登场时,监管部门往往只能从旁观察,难以即时有效介入。此外,AI技术的快速演进也使得法规难以跟上,新的深伪技术和传播模式不断出现,可能迅速超越现有法规的覆盖范围。例如,加密的直接讯息服务被用于散布假讯息、网红(influencers)参与政治宣传,以及数位竞选资金来源不透明等新兴趋势,在现有法规框架下难以有效监管。
其次,罚款的吓阻力有限。虽然法案规定了高额罚款,对大型企业可能具有一定的吓阻作用,但对于小型参与者或在监管宽松地区运营的实体而言,其吓阻力可能不足。更重要的是,罚款主要属于“事后”措施,仅在违规发生后进行处理,而非预防深伪内容的产生和传播。这种被动的监管方式,难以从源头上遏制AI深伪的滥用。
第三,全面实施的延迟引发了担忧。尽管部分条款已于2024年8月生效,但法案的全面实施日期定于2026年8月2日。在AI技术飞速发展的背景下,这段时间差可能导致法案在完全生效前就已显得过时,无法有效应对最新的技术挑战。
第四,与其它法律的潜在冲突也是一个问题。例如,《人工智能法案》中的透明度义务可能与《数位服务法案》(Digital Services Act, DSA)产生冲突,因为生成式AI模糊了DSA中介服务类别的界线,这可能导致法律适用上的混乱和执行的不确定性。
第五,高额的合规成本可能阻碍产业发展。法案的严格监管措施可能导致高昂的合规成本,特别是对中小企业而言,这可能构成巨大的负担,甚至阻碍创新和竞争力。有声音指出,OpenAI执行长Sam Altman曾表示,若AI监管过于严格,可能考虑撤出欧洲市场,这反映了产业对过度监管的担忧。欧盟的“规则主义”(rule-based extremism)监管模式,与美国相对宽松的监管方式形成对比,可能使得欧洲AI产业在创新竞争中处于劣势。
第六,风险判定的模糊性也影响了法案的约束力。尽管法案将“旨在影响选举结果”的AI系统视为高风险,但实际执行上,要证明AI系统的“意图”或其对选举造成“重大损害”的因果关系极为困难。AI系统带来的问题具体取决于使用者、地点和目的,这使得难以进行统一的风险分类。例如,用于微定位政治广告或深伪内容生成的AI应用,如果无法明确证明其“意图”,可能就无法被归类为高风险或被禁止的系统。
最后,执行与资源不足也是法案面临的现实挑战。尽管欧盟设有《数位服务法案》(DSA)等框架,但执行机构普遍面临资源和技术专业知识不足的问题,难以应对快速变化的技术和平台影响力。此外,大型科技公司也可能对欧盟的监管努力采取抵制态度,使得法规的执行面临阻力。
综合来看,AI深伪技术对欧洲乃至全球选举的影响已是不可逆转的现实,欧盟的《人工智能法案》虽然是前瞻性的尝试,但在实际操作中仍面临诸多挑战,其约束力被认为有待加强。要有效应对AI深伪对民主的威胁,需要一个多层次、跨领域的综合应对策略:
AI深伪对民主选举的干预,不仅是对技术的考验,更是对人类社会智慧和韧性的考验。欧盟的经验提供了一个重要的借鉴,它提醒我们,尽管立法是关键一步,但有效的监管必须是动态的、全面的,并能不断适应技术和社会的变化。只有如此,才能在确保AI技术发展的同时,捍卫民主的基石。
来源:看中国
短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.
【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
 
  












