机器人想对人类说“No”,可能吗?

发布时间:2015-11-30 22:16    发布者:eaoogle_WSN
关键词: 机器人


"永远不要相信人类!"


在1950年末出版的科幻作品《我,机器人》里,作者阿西莫夫在第一页就引用了《机器人学指南》第56版(2058年)的“机器人学三定律”:
  • 机器人不得伤害人类,或坐视人类受到伤害;
  • 除非违背第一法则,机器人必须服从人类的命令;
  • 在不违背第一及第二法则下,机器人必须保护自己。

这三定律看起来非常简单易懂,right? 而且令人欣慰的是,服从人类的法则排在第二位。因为有些人经常做傻事,如果机器人总是对人类言听计从,恐怕会惹出不少乱子。所以来自塔夫斯大学人机交互实验室的Gordon Briggs和Matthias Scheutz正着手制定一种全新的机制,让机器人学会在必要时刻拒绝人类发出的命令。
从语言学理论上来看,如果某人要你做一件事,你理解它的意思靠的更多的是语境而不是词汇本身,这就是我们说的“合适条件”。在合适条件下,你会将语义和自身能力统一起来进行权衡,而不是只去理解别人的命令。对机器人来说,合适条件同样重要,尤其是在如下的场景中:
  • 认知:我知道怎么做这件事吗?
  • 能力:这件事真的是我力所能及范围之内的吗?
  • 目标优先级和时间:我现在就能去做这件事吗?
  • 社会角色和义务:基于我所扮演的社会角色,我有责任做这件事吗?
  • 规范允许:做这件事会违反一些规则吗?

前三种合适条件很容易理解,不过对于第四和第五条,我们可以讨论一下。“社会角色和义务”是指机器人是否相信人类有权命令自己做事。而“规范允许”语义则更为复杂,它表示机器人不该去做那些明知很危险的事情,或者更准确地说,如果机器人不了解事情的危险性,它就会按照命令去执行。
现在我们来研究一下,这些条款在人类与机器人的交流中到底是如何工作的。研究人员做这件事不仅是为了让机器人分清何时该听从命令,他们还想提供一个全新的框架,让机器人能表达出自己拒绝接受命令的原因。这一点很重要,因为如此一来人类就不会胡乱下命令了,他们在做决定前会充分考虑到一系列的合适条件。
举例来说,如果你的命令违反了某些规则,即使是只是“前进”——一个极其简单的命令,机器人也会拒绝执行(因为机器人知道如果“前进”就会摔下桌子)。如果机器人可以解释原因,人类就可以及时修改命令,这样一来就可以提高机器人的效率。
我希望研究者能给机器人添加一个“狼来了”模式,如果有人故意下达恶意命令,今后就再也得不到机器人的信任了。
我们再举一个例子,如果人类事先知道一个屋子是危房还硬要让机器人进入呢?这种行为依然会置机器人于危险境地,所以如果机器人和命令人之间没有特定的社会关系,它可以选择拒绝执行命令。
如果全面推行该机制,原本的机器人第二和第三定律就不再起作用了,因为在危险情况下机器人可以选择拒绝执行命令。
这样的机制会不会造成机器人反噬人类呢?也许会吧。不过恐怕想让机器人无条件遵守人类的规则也是不现实的。如果你试着让电脑和软件完全遵守人类制定的规则,等待你的结果必然是一团糟,机器人也与该情况类似,毕竟强扭的瓜不甜。
也许未来的某天,机器人也会懂得拒绝的。


本文地址:https://www.eechina.com/thread-158143-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

  • Microchip视频专区
  • 利用模拟开发工具生态系统进行安全电路设计
  • 我们是Microchip
  • 深度体验Microchip自动辅助驾驶应用方案——2025巡展开启报名!
  • Cortex-M4外设 —— TC&TCC结合事件系统&DMA优化任务培训教程
  • 贸泽电子(Mouser)专区

相关视频

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表