微软聊天机器人上线一天就被“教坏”了

发布时间:2016-3-25 09:57    发布者:eechina
关键词: 聊天机器人 , 人工智能
由微软开发的一个聊天机器人已经在Twitter网站上变成了“流氓”,它不但辱骂用户,还发表了种族主义评论和煽动性的政治宣言。

这个实验性的人工智能(AI)聊天机器人名为“Tay”,可通过人类对话进行学习,其设计目的是与18到24岁之间的年轻人进行互动。在微软放出这个机器人的短短24个小时以后,该公司就不得不对其发表的一些煽动性评论进行了编辑处理,并表示该公司正在“进行一些调整”。

微软发表声明称:“人工智能聊天机器人Tay是个机器学习项目,专为与人类交流而设计。在学习过程中,它作出的一些回应是不合适的,反映出了有些人与其进行互动的语言类型。我们正在对Tay作出一些调整。”

Tay由微软技术和研究及必应(Bing)团队开发,可通过海量的匿名公开数据学习如何与人类沟通。另外,与Tay共事的还有包括即兴喜剧演员在内的一个团队。Twitter用户受邀与这个聊天机器人进行互动,其他一些社交媒体的用户也可在Kik或GroupMe上将其添加为联系人。

微软称:“Tay的设计目的是与人进行交流并为其带来娱乐,能够通过休闲幽默的对话与人进行线上互联。Tay越是与人聊天就会变得越聪明,因此与她进行对话的体验将可变得越来越个性化。”

但这种设计所带来的一种不幸结果是,Tay在与人类交流的过程中被“教会”了像纳粹主义同情者、种族主义者和种族灭绝主义者那样发布Twitter消息。同时,试图与其进行严肃对话的用户也发现了这种技术的局限性,他们指出Tay似乎对流行音乐或电视不感兴趣。还有人猜测,Tay如此之快地就降格至与人类进行不合适的聊天对话,可能表明了人工智能的未来。

--新浪科技

本文地址:https://www.eechina.com/thread-162347-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表