机器人受访对答如流 但最后她竟说……(视频/图)

发表:2017-07-14 07:23
手机版 正体 打赏 0个留言 打印 特大

机器人受访对答如流但最后她竟说……视频/图
超仿真机器人Sophia。(You tube视频截图)

【看中国2017年7月14日讯】前段时间,一个叫Sophia的超仿真机器人上了电视节目,对各种问题对答如流,表情丰富,把所有人都给惊到了。她大概是世界上最像人类的机器人了,可以辨识记忆人脸,有超强学习和理解能力,甚至可以和人有眼神交流。

但是,她说的最后一句话,却让人不寒而栗,细思恐极!

该视频上传后,引发网友热议:

网友:“MAN MASK5”说:“为什么感觉最后的回答是真的?”

网友“小御小日记”说:“我有点害怕……”

网友“张凤起”说:“人类确实比机器人可怕,正因为人的好奇心无穷,更加勇于挑战常规,挑战人性,虽也因此科技得以进步,但往往一不注意,就酿成灾难。”

网友“Sing Ho NZ”说:“极度怀疑是外星人创造的,目的是利用机器人控制人类。”

随着应用领域与复杂度不断拓展,人工智能也变得越来越强大。AI(Artificial Intelligence人工智能)已经进入到一些简单的决策当中,比如谁应该入狱,谁应该获得贷款等等。未来AI可能会在自动驾驶汽车上做出攸关生命的抉择,比如在一场不可避免的车祸中,决定到底哪个司机有最佳的生存几率。

然而,人类通常不知道自己创造的这些AI在想什么。

当研究人员开始透过“学习”训练机器,将经验转化为模拟神经网络的系统,产生出的结果不是代码,而是不可读、数百万甚至数十亿的人造神经元。

多数研究人员都同意,认识AI是一项迫切的挑战。如果我们不知道人造思维如何运作,又该如何确定它所持的偏见或预测它的错误呢?

我们无法事先知道AI是否有“种族歧视”,也无法预期它的思维模式是否可能让自驾车发生事故……

Pinterest的软件工程师Tracy Chou,在公司内专门负责机器学习项目,他认为AI发展中很大的问题在于,多数人都把AI或机器学习想得过于“中立”,“多数人都不了解的是,是人类设计了这些AI模型,也是人类选择要用什么数据来训练机器。”

有一个最简单的例子:Google翻译。当你在Google翻译上输入“医生”,要求翻译成葡萄牙语时,总是会得到阳性名词médico,而非阴性名词的médica;输入“护士”时,则会得到阴性的enfermeira,而非阳性的enfermeiro。类似的事情其实经常发生。

和人类不同的是,我们不能直接询问机器“为什么这么做?”尽管AI在限定的环境条件下能表现十分出色,但谈到内省(introspection)的能力,AI的程度可能与蟑螂差不多。

当我们用人工智能取代人类决策者时,我们如何保证他们不偏离人类预期的“轨道”?我们更不知道,未来更加智能的机器人都要“摧毁人类”时,人类将如何面对自己所造出的这一切!

 



责任编辑:傅美萱

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员

看完这篇文章您觉得

评论



加入看中国会员
donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意