一旦接受研究人员的适当训练,生成式AI可以非常有效地学习新事物。(图片来源:Adobe stock)
【看中国2023年5月31日讯】(看中国记者程帆编译综合报导)近日,多位世界顶级人工智能(AI)研究员、IT工程师和不少科技公司首席执行长再次联名,就生成式AI对人类构成的生存威胁发出了严厉警告。
据路透社的报导,5月30日(周二)在美国非营利组织AI安全中心(Center for AI Safety)网站上发布了一份只有22个英文单词的声明,即“减轻AI可能带来的灭绝威胁是整个(人类)社会需要面对的一个优先事项,与应对大流行病和核战争等其它重大风险并列。”
到目前为止,有超过超过300名AI领域从业人员签名并表示支持以上声明。他们包括世界领先人工智能实验室之一的谷歌DeepMind首席执行官哈萨比斯(Demis Hassabis)、聊天机器人ChatGPT研发公司OpenAI首席执行官奥特曼(Sam Altman),以及AI奠基人辛顿(Geoffrey Hinton)和本希奥(Youshua Bengio)等等。
值得一提的是,曾担任谷歌副总裁的知名教授辛顿与加拿大蒙特利尔大学教授本希奥是2018年计算机领域最高奖项“图灵奖”的得主、被业内人士称为“深度学习三巨头”中的两位。他们不但是深度神经网络(deep neural network)的开创者,还为深度学习(deep learning)算法的发展和应用奠定了基础。而这些正是导致计算机视觉(Computer Vison)、语音识别(Speech Recognizing)、自然语言处理(Natural Language Processing)和机器人研究等方面迅速崛起、乃至掀起全球科技浪潮的主要原因。
不过,一同获得该奖项的纽约大学教授兼Meta首席人工智能科学家杨立昆(Yann LeCun)尚未签名。
辛顿在接受媒体采访时表示,对自己毕生所研究的东西,现在感到后悔了。他在离开谷歌后不久就形容,AI聊天机器人所带来的某些危险“相当恐怖”!他指出,像GPT-4这样的系统一旦接受研究人员的适当训练,就可以非常有效地学习新事物。
目前,最令他担心的是,通过利用AI,网络上会出现很多虚假的图片、视频或文字,可能让人分不清真伪。其次,他还担心AI将改变就业市场,让律师助理、私人助理、翻译等不需要直接与人打交道的岗位消失。
AI安全中心执行主任亨德里克斯(Dan Hendrycks)对《纽约时报》表示,新的声明很简洁有力,旨在尽可能地被广泛接受。此外,内容中没有提及如何减轻AI潜在威胁的任何方法,也是避免意见分歧。他说,“我们没想要去推一个包含了30种干预手法的庞大菜单... 因为那样会淡化(想传达的)信息。”
本次的部分支持者在今年3月发布在未来生命研究所(Future of Life)的另一封公开信上也签了名。他们呼吁所有AI实验室立即暂停训练比GPT-4更强大的智能系统,为期至少6个月。不过,该信后来受到了多方批评,有些专家认为它夸大了AI带来的风险,还有一些人则赞同存在这种风险,却不同意信中建议的措施。