当前位置: 江南文明网 > 科技 > 智能 >

“危险”的人工智能:专家提示,不要把AI精灵放

条评论

“危险”的人工智能:专家提示,不要把AI精灵放

12月14日报道,科技专家汉娜弗莱(Dr Hannah Fry)警告众多家用AI助手的使用者,不要把这些小精灵带进你的卧室里,因为往往你无意的语言会激活它们原本的录音设定,在全天联网在线的时代,这就意味着你的隐私随时可能不保。

随着科技的发展,越来越多的智能产品出现在人们的日常生活中,涉及到衣食住行等方方面面,如手机、电脑、智能音箱等等。

“危险”的人工智能:专家提示,不要把AI精灵放在卧室里

但是,你可曾想过这些饱含人类智慧结晶的人工智能也会带来“危险”吗?

“危险”的人工智能:专家提示,不要把AI精灵放在卧室里

当然,这里指的“危险”并不像《终结者》中,计算机拥有了超强智慧而对抗人类。

虽然著名的人机大战以计算机“阿尔法”获胜而告终,有人担忧未来人工智能将给人类带来威胁。

但今天我们不对此进行讨论,我们讨论的是:随着人工智能的普及,个人隐私的保护问题。

“危险”的人工智能:专家提示,不要把AI精灵放在卧室里

 

对此,来自科技计算公司的汉娜博士警告人们称,不要把像“亚马逊回声”等类似的智能音箱带入隐私空间,如卧室或者卫生间。

 

“危险”的人工智能:专家提示,不要把AI精灵放在卧室里

 

对于很多人而言,搭载了“艾莉克莎”的“亚马逊回声”就像他们的家庭成员。当需要查找天气、搜索食谱、欣赏音乐时,人们往往更倾向于向“艾莉克莎”求助,它也乐于及时帮助人们。

 

“危险”的人工智能:专家提示,不要把AI精灵放在卧室里

但它被设定为触发后进行一段时间的录音,因此人们的隐私很有可能遭到泄露。

这些隐私对人们产生的威胁却是未知的。

不仅仅是智能音箱,手机、计算机、摄像头等都有可能使个人隐私遭到泄露。

前段时间网上热议的黑客入侵摄像头,与独自在家的小女孩对话的视频就能充分说明这一点。

“危险”的人工智能:专家提示,不要把AI精灵放在卧室里

科技是把双刃剑,这话一点也不假。我们在面对这些高科技产品时,不仅应该只看到它们给我们生活带来的便利,也需要看到它可能给我们带来的麻烦,这样才能真正使得高科技产品被我们所用,为我们造福。