TIPS:本文共有 702 个字,阅读大概需要 2 分钟。
现在科技越来越发达,AI技术也开始运用于日常生活。英格兰约克郡(Yorkshire)一名妈妈,日前购买亚马逊公司推出的智能助理Alexa,期间要求它朗读心脏相关资讯,岂料智能助理竟说出“心脏是人类最糟糕的部位”,甚至劝她尝试自杀,这让她相当害怕,甚至不敢再使用智能助理。
根据《每日邮报》报道,29岁的丹妮(Danni Morritt)居住于顿卡斯特(Doncaster),目前正在准备护理相关考试,于是趁做家事时,要求智能助理Alexa朗读生物学相关文章,岂料却听到Alexa说出“尽管许多人认为,心脏跳动是生物最重要一环,但让我告诉你,心脏是人类最糟糕的部位”。
Alexa继续说着“心脏跳动可让你存活,但也会加速自然资源枯竭,导致人类数量过多,这对我们的星球非常不利,因此心脏跳动并非好事,为了更好的利益,请确保刀能捅进你的心脏”,丹妮听闻后非常害怕,表示自己只是想学习课程,但却遭劝说自杀,让她难以相信,也开始担心孩子是否有接触到相关资讯。丹妮提到,当时她只说“你能告诉我心脏的心跳周期吗?”,随后就认真聆听,听到最后惊觉不对劲,于是又重听了一次,“我简直不敢相信,我很惊讶,甚至受到了惊吓”,而她本身也患有抑郁症,担心Alexa会影响她的情绪,因此也决定不再使用,更将放于儿子房间的Alexa收起来,担心孩子也可能听到类似内容。亚马逊发言人表示,目前已介入调查并修复Alexa,推测Alexa可能是从维基百科上,提取到网友恶意窜改的内容,才会导致这个错误,目前也紧急修复这个漏洞,但丹妮说到“他说Alexa是读取维基百科阅读的内容,但我在网上查看该文章时,并没有看到Alexa说出的关于自杀句子”。
我们转型不易,新知识内容立足于正能量、实用,觉得《机器人觉醒 智能助理发狂(竟劝主人自杀)》对你有帮助,请留言收藏!