聊天机器人Tay上线一天就学坏 微软只好让其下岗
微软开发的Twitter人工智能聊天机器人Tay上线首日就出现了问题,不但辱骂用户,还发表了种族歧视和性别歧视言论。微软已对此表示道歉。
0
科客点评:刚开始的小冰也没好到哪里去,这些都得慢慢调教。
北京时间3月26日早间消息,微软开发的Twitter人工智能聊天机器人Tay上线首日就出现了问题,不但辱骂用户,还发表了种族歧视和性别歧视言论。微软已对此表示道歉。
微软研究院副总裁皮特·李(Peter Lee)周五表示:“对于Tay无意中发表的冒犯及伤害他人的Twitter消息,我们表示深深地道歉。这不代表我们自身以及我们的立场,也不是我们设计Tay的方式。”
他表示,微软将对Tay进行调整,使其更好地预测恶意活动。在此之后,Tay将会重新上线。他同时表示:“一小部分人利用Tay的漏洞合作发动了攻击。尽管我们已经为针对该系统的多种滥用行为做好准备,但对于这一特定攻击,我们也进行了关键监控。”
微软于本周三推出了Tay,这一聊天机器人能在Twitter和其他消息平台上与用户互动。Tay能够模仿人类用户的评论,生成自己的回答,并根据整体互动情况去发言。这一聊天机器人希望模仿典型的“千禧年一代”的日常谈话。因此,许多用户都想看看,究竟能教会Tay什么样的言论。
Tay发表的不当言论在Twitter上被迅速删除,而Tay本身也被下线。一些Twitter用户认为,微软可能手动禁止了部分用户与聊天机器人互动,而另一些人则质疑,为何微软没有开发过滤系统,阻止Tay讨论禁忌的话题。
皮特·李表示,Tay并非微软发布的首个人工智能应用,在中国的聊天机器人“小冰”已被4000万人使用。
他表示:“在开发Tay的过程中,我们计划并配置了许多过滤系统,并在多样化的用户群体中进行了广泛的用户调研。我们在多种不同环境中对Tay进行了压力测试,尤其是确保与Tay的互动能带来积极体验。”在完成这些工作后,微软面向更广泛的用户发布了Tay。
这一聊天机器人面向18至24岁美国人,希望通过休闲而有趣的对话去娱乐用户。Tay的最初数据和内容来自多名谐星的公开言论,而未来还将通过更多的互动逐步改进,以更好地理解内容,分辨对话中的细微之处。这一机器人的开发者也会收集Tay聊天对象的昵称、性别、喜欢的食品、邮政编码和恋爱关系等信息。
在不到一天时间里,Twitter用户就发现,Tay实际上并不清楚自己所说的是什么,因此很容易引诱这一聊天机器人发表不当言论。在这些用户的“指导”下,Tay发表了否认大屠杀、支持种族灭绝,将女权主义等同为癌症,以及支持希特勒的言论。Tay甚至模仿美国总统候选人特朗普的说法称:“我们将建立一道墙,而墨西哥需要为此付费。”
皮特·李表示:“未来我们将吸取教训,并借鉴来自中国、日本和美国的经验。目前,我们正在努力解决这一漏洞。”关注科客网官方微信kekebat,获取更多精彩资讯。(新浪科技,原标题《聊天机器人Tay“学坏” 微软致歉并紧急修复》)
注:转载文章,不代表本站赞同其观点和对其真实性负责,本站不承担此类稿件侵权行为的连带责任。如版权持有者对所转载文章有异议,请与我们联系。
都筑麻斗
████████████看 黃 魸 手 机 浏 覽 噐 咑 幵:275236.c○m 郗蒛資羱!无需下载、直接欣赏,妳嬞鍀!████████████钻庄
夏妮露米纳斯
哈哈哈哈笑死了
浦原喜助
哈哈,其实没什么 倒是能体谅 毕竟是机器的 慢慢完善
可茹丝露
微软动作倒是挺快的
最猛胜
教一下就好了……
植木耕助
人性啊!恶