机器人想对人类说“No”,可能吗?
发布时间:2015-11-30 22:16
发布者:eaoogle_WSN
关键词:
机器人
![]() "永远不要相信人类!" 在1950年末出版的科幻作品《我,机器人》里,作者阿西莫夫在第一页就引用了《机器人学指南》第56版(2058年)的“机器人学三定律”:
这三定律看起来非常简单易懂,right? 而且令人欣慰的是,服从人类的法则排在第二位。因为有些人经常做傻事,如果机器人总是对人类言听计从,恐怕会惹出不少乱子。所以来自塔夫斯大学人机交互实验室的Gordon Briggs和Matthias Scheutz正着手制定一种全新的机制,让机器人学会在必要时刻拒绝人类发出的命令。 从语言学理论上来看,如果某人要你做一件事,你理解它的意思靠的更多的是语境而不是词汇本身,这就是我们说的“合适条件”。在合适条件下,你会将语义和自身能力统一起来进行权衡,而不是只去理解别人的命令。对机器人来说,合适条件同样重要,尤其是在如下的场景中:
前三种合适条件很容易理解,不过对于第四和第五条,我们可以讨论一下。“社会角色和义务”是指机器人是否相信人类有权命令自己做事。而“规范允许”语义则更为复杂,它表示机器人不该去做那些明知很危险的事情,或者更准确地说,如果机器人不了解事情的危险性,它就会按照命令去执行。 现在我们来研究一下,这些条款在人类与机器人的交流中到底是如何工作的。研究人员做这件事不仅是为了让机器人分清何时该听从命令,他们还想提供一个全新的框架,让机器人能表达出自己拒绝接受命令的原因。这一点很重要,因为如此一来人类就不会胡乱下命令了,他们在做决定前会充分考虑到一系列的合适条件。 举例来说,如果你的命令违反了某些规则,即使是只是“前进”——一个极其简单的命令,机器人也会拒绝执行(因为机器人知道如果“前进”就会摔下桌子)。如果机器人可以解释原因,人类就可以及时修改命令,这样一来就可以提高机器人的效率。 我希望研究者能给机器人添加一个“狼来了”模式,如果有人故意下达恶意命令,今后就再也得不到机器人的信任了。 我们再举一个例子,如果人类事先知道一个屋子是危房还硬要让机器人进入呢?这种行为依然会置机器人于危险境地,所以如果机器人和命令人之间没有特定的社会关系,它可以选择拒绝执行命令。 如果全面推行该机制,原本的机器人第二和第三定律就不再起作用了,因为在危险情况下机器人可以选择拒绝执行命令。 这样的机制会不会造成机器人反噬人类呢?也许会吧。不过恐怕想让机器人无条件遵守人类的规则也是不现实的。如果你试着让电脑和软件完全遵守人类制定的规则,等待你的结果必然是一团糟,机器人也与该情况类似,毕竟强扭的瓜不甜。 也许未来的某天,机器人也会懂得拒绝的。 |
网友评论