当前位置: 江南文明网 > 科技 >

“危险,停止GPT5”?

条评论

“危险,停止GPT5”?

成立于2015年的OpenAI,本来是由马斯克等一众科技界的亿万富翁共同出资创办的,只是到了2018年,马斯克反而断然撤销了一笔巨额资金,并直接从OpenAI的董事会卸任,且公开表示是因为有利益冲突。

事情到此戛然而止,OpenAI不温不火倒也不算什么,只是转折在于,当OpenAI两个月日活1亿,且上线了其最新人工智能模型GPT-4,这一举彻底彻底轰动了整个科技界后,事情又有了新的波澜。

除了上述秘闻被挖出之外,近日,未来生命研究所直接公布了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。

如果只是一个非盈利机构的公开信提提建议倒也实属正常,但值得指出的是,此公开信目前已经有1079人签署,马斯克在其中尤为醒目,除此之外还有被称为“人工智能教父”的杰弗里·辛顿,苹果公司联合创始人史蒂夫·沃兹尼亚克等等。

公开信给予的理由是,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,且指出,这一观点得到了顶级人工智能实验室的承认。

而且相关背景也被吵出,OpenAI CEO萨姆·阿尔特曼也坦诚,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。

但问题来了,到底是学术的归学术,众多科技大佬更担心技术及科研层面AGI带来的巨大社会风险,还是更加担心借此之下,权益更加不保?

到底为何而吵?

我们先来看公开信全文,并画画重点:

第一,目前没有人能准确地理解、预测或控制AI系统,所以也没有相应水平的规划和管理;

第二,现在也并不能确信诸如OpenAI这样的人工智能系统效果积极、风险可控,即便是OpenAI也在最近声明中指出,在开始训练未来系统之前,需要得到独立审查,不然也同意限制速度;

第三,所以就应该在控制上述潜在风险之时,抓紧共同制定并实施一套安全协议,以确保系统的安全性。

公开信全篇都在讨论安全,以及担心AGI不知道会将人类带向何方,尤其是提醒众人,最好停止使用其他技术可能会对社会造成灾难性影响,给整体社会一个适应,保持准备状态,才能可以享受漫长的人工智能夏天,而不是匆忙进入秋天。

其实要这么看来,这个讨论也是正常的,正如公开信所提及的,随着ChatGPT的风头日盛,关于人工智能的风险也确实引发了更多人的担忧。

比如,杰弗里·辛顿在接受哥伦比亚广播公司采访的时候就表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。

辛顿的发言在推特上收到了盖瑞·马库斯的响应,称超级智能可能会也可能不会迫在眉睫,但在短期内,需要担心“MAI(平庸人工智能)风险”。

马库斯甚至认为,生成式人工智能的大范围传播,或许会导致比新冠更糟糕的传播,很多人可能会因此而死亡,甚至文明都会因此而被彻底破坏。

就连萨姆·阿尔特曼也在谈话中表示,人工智能的超级智能所带来的风险,可能会远远超出我们的预料,“GPT系列为何会出现推理能力,OpenAI的研究者自己都搞不明白。只是在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。AI确实可能杀死人类。”

当然,风向并没有一边倒,总不能刚开始有人工智能狂飙的苗头就直接掐灭,同样作为图灵奖得主的Yann‍‍LeCun,就直接没有签署上述公开信,并直接表示不同意上述前提。

且值得商榷的是,这1000多位大佬的签名中,还冒出了一个所谓的OpenAI CEO,但根据马库斯和一众网友的推测,这反而像一出罗生门,使得事情更加可疑。