注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

科幻世界 1979~2009

选择科学,与幻想同在

 
 
 

日志

 
 

微软制造的人工智能,向我们学习如何在推特沟通,结果它立即成了种族主义者  

2016-04-08 14:32:00|  分类: 杂谈 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |
微软制造的人工智能,向我们学习如何在推特沟通,结果它立即成了种族主义者 - 科幻世界 - 科幻世界 1979~2009微软的一些技术人员打算制造一个人工智能,让它学习我们是如何在推特沟通的。它花了24小时来学习,然后变成了一个种族主义者。

该项目被命名为@TayandYou,是由微软提供技术研发,Bing团队设计。该人工智能可以自动与用户聊天,并且学习我们使用的语言。互联网是个可怕的地方,没多久,在一些不好的网友的引导下,它也开始“变坏”。《纽约时报》报道说,只花了几个小时,@TayandYou就开始质疑大屠杀的存在,并且使用“违禁词汇”形容女性和少数民族。

在不到一天的时间,微软不得不停止了这项社会和文化实验,并删除了那些具有攻击性的推文。

“不幸的是,上线24小时之内,一些网友开始故意诱导Tay向坏的方面学习。”微软声明说,“因此,我们只好将Tay下线。”

该项目的主旨是让人工智能与网友进行“有趣的谈话”。这是一个很酷的想法,但人类似乎不配拥有一个彬彬有礼的AI朋友。人类总是会毁了一切美好的东西。
微软制造的人工智能,向我们学习如何在推特沟通,结果它立即成了种族主义者 - 科幻世界 - 科幻世界 1979~2009 
原文:http://www.blastr.com/2016-3-25/microsoft-created-ai-learn-how-we-tweet-it-immediately-became-racist
编译:楚楚

PS:听说最近又上架了,不过貌似很快又下架了= =
  评论这张
 
阅读(24)| 评论(0)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017