AI奠基人离开谷歌 示警科技危险(图)

发表:2023-05-06 19:46
手机版 正体 打赏 0个留言 打印 特大

人工智能
AI聊天机器人所带来的某些危险“相当恐怖”!(图片来源: LIONEL BONAVENTURE/AFP via Getty Images)

【看中国2023年5月6日讯】(看中国记者程帆编译综合报导)屡获殊荣的计算机科学家辛顿(Geoffrey Hinton)被业界尊为“AI(人工智能)奠基人”。不过,近日他开始认真地重新思考自己这一辈子的劳动成果。

据路透社和美联社的报导,辛顿今年4月就已向谷歌请辞,除了因为年龄因素外,更重要的是他现在可以无所顾虑的畅谈AI可能给人类带来的风险,“而不必担心会影响谷歌的业务”。

在长达数十年的学习和职业生涯中,辛顿在深度研究神经网络(neural networks)方面的开创性工作,为我们今天看到的许多AI技术奠定了基础。

但在接受媒体采访时,他表示,“我对毕生所研究的东西,现在感到后悔了。”他还形容,AI聊天机器人所带来的某些危险“相当恐怖”!

最初,辛顿认为,ChatGPT语言模型的能力,不如人类大脑处理语言的方式。然而,去年谷歌和微软在科技开发商OpenAI投入了大量资金和数据以建构系统,令他的想法开始改变,“或许在某些方面,AI确实会比人脑处理得还要好。”

例如,正在开发的数位智慧和生物智慧(biological intelligence)就“非常不同”。前者可以透过“完全复制”获取大量知识,它是人类大脑无法达到的。

辛顿解释道,“如果我有1,000相同权重且完全复制的数位代理人,那么,只要其中一个代理人学到怎么做某事,其他代理人就会立刻知道。但生物代理人办不到这一点。因此,相同数位代理人的集结,就可以获取比任何单一生物代理人多的知识。这就是为什么GPT-4的知识量会远大于任何人。”

他指出,像GPT-4这样的系统一旦接受研究人员的适当训练,就可以非常有效地学习新事物。这与训练有素的专业物理学家能比高中理科学生更加快速地通过新实验发现如何动脑筋的方式没有什么不同。

目前,最令辛顿担心的是,通过利用AI,网络上会出现很多虚假的图片、视频或文字,可能让人分不清真伪。其次,他还担心AI将改变就业市场,让律师助理、私人助理、翻译等不需要直接与人打交道的岗位消失。

从长期来看,辛顿认为AI会对人类将构成威胁,未来,这些技术还会对人类构成其他的威胁。“因为AI可能通过大量的数据分析,做出一些令人意想不到的行为。”

他补充称,有些公司和个人现在已经允许用AI写代码,甚至自主设计演算法,并在实际使用。“我担心,总有一天,类似于‘杀人机器’的自动化武器就会成为现实。”“现在很难防止坏人利用AI做坏事。”

他说,光是和5年前的技术相比,技术进步就非常大。有些人还认为,人工智能最终变得比人类更聪明是相当遥远的事。“连我也曾那样认为,大概还要三五十年、或更久。但现在,我不再这么觉得了。”

来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏
善举如烛《看中国》与您相约(图)

看完这篇文章您觉得

评论



加入看中国会员

donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意