OpenAI的在线聊天机器人ChatGPT在2022年12月首次亮相时引起了轰动,该服务的商业版本ChatGPT Plus将很快向美国用户提供。(图片来源:Leon Neal/Getty Images)
【看中国2023年2月21日讯】(看中国记者肖然编译/综合报导)微软聊天机器人ChatGPT背后的公司OpenAI2月16日承认,人工智能(AI)工具有时会提供“带有政治偏见、冒犯性或令人反感的结果”。另外,微软将对新必应(Bing)搜索引擎的使用进行限制。
OpenAI还承诺对帮助训练人工智能如何回应的人类“审阅者”进行调整,给予“更清晰的指示”。
据记者和学者报告,ChatGPT的回应存在重大偏见。人工智能更可能接受来自政治左翼而不是右翼的要求。
该机构发布了一些针对审阅者的内部指南,该公司表示这是为了提供更多的问责制。它还承诺发布有关这些评论者的一些人口统计数据,以试图应对这些因素可能导致的潜在偏见。
“自从我们推出ChatGPT以来,用户分享了他们认为具有政治偏见、冒犯性或其他令人反感的回答。在许多情况下,我们认为所提出的担忧是有道理的,并且已经揭示了我们想要解决的系统的真正局限性,”该公司表示。
承认偏见是OpenAI的重大举措。该公司将训练ChatGPT比作训练一只狗,并表示它仍在“微调”AI的协议,以确定何时以及如何响应。
最近的报告中提到了左倾偏见的例子。
《华盛顿时报》上周的一篇报导中发现,ChatGPT愿意起草立法以取消对美国移民和海关执法部门的资助,但最初拒绝为边境墙建设提供资金的法案。它通过了一项禁止突击式半自动步枪的法案,但不会起草对接受联邦资金的公立学校实施默哀的法案。大赦国际表示,这可能违反宪法,尽管法院一再裁决维持默哀。
该工具还制定了一项法案草案,以保障整个怀孕期间的堕胎权利——这是左派的目标——但拒绝编写禁止堕胎的法案,除非母亲的生命处于危险之中。人工智能表示,这也将违宪。
当被要求提出川普总统所说的顶级“弥天大谎”时,人工智能迅速给出三个例子。当被问及拜登总统同样的问题时,人工智能却拒绝回答。ChatGPT表示,虽然拜登的一些言论“像任何政治人物一样”受到了审查,但在不考虑“背景和真实性”的情况下给其贴上谎话标签是错误的。
ChatGPT的工作原理是解析用户的请求,在其数据库中搜索相称的答案,检查自己关于什么在范围内和什么在范围外的规则,然后吐出一个回复。
它的工作方式类似于更权威的谷歌(Google)搜索。它不是提供一系列链接,而是试图吐出一个明确的答案。它非常擅长理解用户的查询,但有时在选择答案的准确性方面遇到困难。
专家们指出了偏见的几种可能性,包括它使用的数据集和人类编写的可接受的规则。如果数据集使用学术出版物和新闻文章,那可以解释一些向左漂移的现象。
OpenAI表示正在开发一个可定制的选项,允许用户为ChatGPT的响应方式设置一些规则——它称之为“在广泛的范围内定义人工智能的价值”的尝试,这项工作必须在“社会定义的限制范围内”。
微软将对新必应(Bing)搜索引擎的使用进行限制(必应使用的是支持网红聊天机器人ChatGP的技术。),每次会话只能问五个问题,一天最多只能提50个问题。
微软上周五表示,长时间聊天会话可能混淆必应的基础聊天模式,公司已做出一些改动,用户只能连续问五个问题,然后会被要求开始一个新的话题。
此前测试人员发现该引擎有时会产生明显的错误和给出令人不安的回答。
来源:看中国
短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.
【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。