2025年2月19日,中国重庆,智能手机的白色屏幕上显示ChatGPT 徽标,笔记本电脑屏幕上显示相同的ChatGPT徽标。(图片来源:Cheng Xin/Getty Images)
【看中国2025年2月21日讯】(看中国记者路克编译)Axios报道,OpenAI近日发现并阻止了其人工智能工具被用于中国更大规模影响力活动的两种行为,其中一种涉及传播西班牙语的反美虚假信息。该公司表示,这种潜力——人工智能如何增强虚假信息并加速国家支持的网络攻击——正从令人担忧的理论逐步演变为复杂的现实。
OpenAI于周五发布了最新的威胁报告,详细列举了多个滥用ChatGPT及其他工具的案例。其中,一项被命名为“赞助不满”的活动利用ChatGPT账户生成内容,包括攻击中国异见人士蔡霞的英文评论,以及批评美国的西班牙语新闻文章。这些简短评论部分被发布在X平台上,而长篇文章则出现在多个拉丁美洲新闻网站上,有些甚至是以赞助内容的形式呈现。OpenAI情报与调查团队首席调查员Ben Nimmo在与记者的简报会上表示:“据我们所知,这是首次发现中国的影响力行动将长篇文章翻译成西班牙语并在拉丁美洲地区发布。如果我们不了解他们如何利用人工智能,就无法将这些推文与网络文章联系起来。”
另一项被OpenAI称为“同行评审”的活动则涉及使用ChatGPT生成社交媒体监听工具的营销材料。据称,该工具的开发者曾利用它向中国安全部门提交抗议报告。OpenAI随后封禁了相关账户,理由是这些行为违反了公司“禁止使用人工智能进行通信监视或未经授权的个人监控”的政策。此外,报告还提及了几起骗局、与朝鲜和伊朗相关的影响力行动,以及影响加纳选举的尝试。
OpenAI从去年开始发布威胁报告,旨在了解并应对中国及其他独裁政权如何利用人工智能对付美国及其盟友,甚至是他们本国人民。正如最新报告所示,人工智能工具在虚假信息活动的各个环节中都可能被使用,同时也可能暴露某个团体的技术手段、目标及弱点。Nimmo指出:“威胁行为者使用我们模型的方式,有时会让我们窥见他们在网络其他角落的行动。”人工智能不仅被用于制造内容,还可能泄露更多线索。
然而,随着开源工具的功能日益强大——尤其是能够在本地运行——威胁行为者可能将其应用于更多任务,这使得此类活动的追踪变得更加困难。例如,在“同行评审”案例中,OpenAI发现,尽管ChatGPT被用于编辑和调试部分代码,但相关账户还提到了使用开源模型,如DeepSeek和Meta的Llama 3.1版本。Nimmo表示:“这是一个非常有趣的案例,威胁行为者似乎至少提到使用了多种不同的模型。”他补充说,目前尚不清楚他们为何使用如此多工具的动机,“或许是为了掩盖自己的痕迹,原因可能有很多。”
随着人工智能不断增强攻击者的能力,人工智能提供商必须投入更多资源来追踪和应对这些威胁——而这往往需要借助他们自己的技术。面对日益复杂的局面,OpenAI的努力揭示了一个关键趋势:人工智能既是工具,也是战场。
来源:看中国
短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.
【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
