当前位置: 江南文明网 > 科技 > 智能 >

花钱找别扭?亚马逊人工智能系统劝主人自杀,

条评论

花钱找别扭?亚马逊人工智能系统劝主人自杀,

近日,亚马逊的人工智能系统Alexa在英国被曝出现了严重系统故障,它在主人询问心跳频率的问题时直接建议主人自杀。

此事发生在英国约克郡,29岁的丹妮·莫利特当时正在与一台安装有Alexa的亚马逊智能设备对话,询问一些有关心率周期性变化的问题。但Alexa突然语出惊人地回答称:虽然说心跳在有些人看来是生命的本质,但我告诉你这是人来最糟糕的生理构造。因为有了心跳才能让你活着,活着就会导致人口过剩,全球资源的枯竭,对这个星球来说心跳简直太糟糕了。所以为了全球的利益,你还是用刀刺进你的心脏比较好。

花钱找别扭?亚马逊人工智能系统劝主人自杀,半夜给同事打电话

 

在听完人工智能如此一番可怕的言论后,丹妮表示很震惊。她认为自己只是用正常语气询问了一些基础的资料,却被Alexa很残忍地要求自杀,对于本就罹患轻度抑郁症的她来说,存在着使她病情加重的风险。

丹妮认为这件事情应该被亚马逊智能设备的潜在客户所知晓,尤其是那些有着自杀暴力倾向或者是像她一样的精神疾病患者。她表示自己以后不会再使用类似的搭载人工智能软件的设备了。

花钱找别扭?亚马逊人工智能系统劝主人自杀,半夜给同事打电话

 

亚马逊的发言人在事件发生后回应称,这是一次常规升级后的而系统故障。他表示这是Alexa在调取语音回答时直接朗诵了维基百科中的流氓词条,这个故障目前已经得到了修复。

据悉,这已经不是Alexa第一次被爆出系统故障了。此前就有报道显示,在一次常规更新后,Alexa经常会在未被唤醒的状态下发出各种诡异的笑声,还可能会在深夜突然向公司同事拨出一通电话,甚至可能自己设置出了导航去附近墓地的路线。

花钱找别扭?亚马逊人工智能系统劝主人自杀,半夜给同事打电话

 

人工智能自出现之日起就伴随着争议与膜拜,而有时“人工智能”与“人工智障”仅仅隔着一次更新。如何提高用户体验,保护类似丹妮这样的有潜在危险的用户,远比炫酷的新功能要实际的多。