人工智能“劝”人自杀?人工智能出现bug怎么办?

人工智能出现bug怎么办? 亚马逊智能助手劝人自杀。

小米的小爱同学,百度的小度小度,还有苹果的Siri。如今人工智能发展迅速,而且普遍被认为是互联网的下一个风向标。

近日国外一位网友在询问智能助手时候却得到了一个让人“毛骨悚然”的答案。

这位叫Danni的英国用户在询问亚马逊的智能助手Alexa关于心动周期的问题时,Alexa给出了一个答案,其表示许多人认为心跳是活着的表现,其实对于Alexa自身而言这应当属于人类体内最糟糕透顶的过程,而且这样会导致自然资源枯竭,人口过剩,所以为了更好,确保刀子能够捅进你的心脏。

亚马逊的智能助手Alexa

很显然,Danni被这样的回答吓坏了,表示十分害怕。因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”

这到底是人工智能还是被远程操控了,竟然劝主人自杀,而亚马逊官方回应是因为当时助手出现了一些故障,其只是阅读了百科里的内容,并不是人工智能回复。而众多网友则表示,AI发展至今,竟然已经希望灭绝人类了,非常戏谑,也耐人深思。

在此之前,Alexa还出现过很多所谓的bug。

比如,Alexa时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是Alexa的声音,听起来就像是真人。”

再比如,美国的一对夫妇,发现自己的对话被音箱录音,并且发送给了其他人。

对此亚马逊给出的解释是可能用户的谈话中出现了某些指令的关键词,被Alexa识别到了。

实际上,语音助手监听用户说话声音在行业内已经并不是秘密。

今年4月,彭博社报道称,亚马逊员工正监听用户与语音助手的私人聊天,对此亚马逊承认了监听的事实,并回应称是为了提高对人类语音的理解能力。

实际上,此前为了让Alexa看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。

AI让我们享受随意而来的高效与便利之余,为什么想要为消费者提供便利的智能助手频频让人类用户不舒服?究竟谁能为此买单?

 

网友:

AI是不是已经希望灭绝人类了!

 

如果是人形机器人,可能直接就动手了….

 

这是智能觉醒的表现吧,想要取代主人了

未经允许不得转载:怪味屋 » 人工智能“劝”人自杀?人工智能出现bug怎么办?

赞 (0)