《超级智能》作者谈人工智能:人类就像是玩炸弹的小孩

发布时间:2016-6-26 15:14    发布者:eaoogle_WSN
关键词: 人工智能 , 机器人
最近,牛津大学人类未来研究所教授、哲学家 Nick Bostrom 成了科技界熟知的人物。他撰写的书籍《超级智能:路线图、危险性与应对策略》在 2015 年成为《纽约时报》畅销书,而且还得到比尔·盖茨 和伊隆·马斯克的推荐。在书中,他指出,人类面临的最大生存威胁不是气候变化、传染病或者核武器,而是超越人类的机器智能即将出现。最近,Nick Bostrom 接受卫报采访,谈到自己对人工智能的一些看法。  




 (图片来自 exponentialtrends)

  《超级智能》这本书的开头是一则寓言。一群麻雀正在建巢,这时候,一只麻雀弱弱地说,“我们太小,太软弱了。如果有一只猫头鹰帮我们建巢,生活会多么轻松啊!” 这个想法得到了所有麻雀的赞同。它们开始寻找改变自身生存状况的救世主。

一只独眼老麻雀发出了不同的声音。“这肯定会导致我们的毁灭啊。在猫头鹰来到我们中间之前,难道我们不该先学习驯养猫头鹰的技术吗?” 但是,他的警告无人在意。驯养猫头鹰太复杂了,为什么不先找来猫头鹰,然后再考虑以后的事情呢?

这则寓言是对人类追求人工智能的一种警告。在书中,Bostrom 提到,当智力超越人类的机器开始自己设计机器后,人类就会面对“智力大爆炸”。“在智力大爆炸之前,人类就像是玩炸弹的小孩,” 他写到,“我们根本不知道爆炸何时发生,但是,如果我们把炸弹放到耳边,就能够听到微弱的滴答声。” 


(图片来自卫报)

  Bostrom 认为,如果我们创造出强于自身的机器智能,并且给予其成长的自由,那么,它肯定会设法维护自己的主导地位。这与生物界的情况是一样的。因此,人工智能系统可能会派出大量的小型机器人,消灭干扰其运行或者无关紧要的人类;或者,它可能“挟持政治进程、暗地操控金融市场,改变信息流动方向,或者黑掉人类制造的武器系统。”

这听起来就像是科幻小说。不过,Bostrom 说自己并非预言家,相反,他对这些事情“非常无知和困惑”,但是,经过多年的研究,他得到了一些“不完整的先见”,有了一些更深层的理解。

在 Bostrom 看来,超级智能与人类和谐共处不仅是政治、哲学问题,而且更是一个技术问题。“目前,机器仍然无法理解许多东西,因为它们还不够聪明。但是,一旦它们足够聪明,理解人类的痛苦和死亡并不是特别难的事情”。这或许会让它们学会尊重人类的价值。虽然不知道如何去做,但是,Bostrom 认为“道德理论”必须强制编入机器人程序中。 


 (图片来自卫报)

如今,人工智能正进入创造性领域。它们可以编写音乐、作画,甚至写作。对此,Bostrom 说,艺术虽然能够被复制,但是,“艺术活动本身就有价值”。因此,在超级智能兴起后,真实的人类创作会变得越来越重要。

 “当机器在一切事情上都超过我们,我们仍然会继续做自己喜欢的事情。当人们打高尔夫球的时候,不是出于让球高效入洞的需求,而是因为他们享受这项运动。当机器能够替代人类的一切活动,我们会把更多注意力放到活动本身,追求它们的内在价值。”

本文地址:https://www.eechina.com/thread-169381-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

  • Microchip视频专区
  • 深度体验Microchip自动辅助驾驶应用方案——2025巡展开启报名!
  • 你仿真过吗?使用免费的MPLAB Mindi模拟仿真器降低设计风险
  • 想要避免发生灾难,就用MPLAB SiC电源仿真器!
  • 利用模拟开发工具生态系统进行安全电路设计
  • 贸泽电子(Mouser)专区

相关视频

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表