当前位置: 江南文明网 > 科技 > 智能 >

深度学习之父Goffrey Hinton

条评论

深度学习之父Goffrey Hinton

在针对大模型的态度上,图灵奖三巨头已经可见地分成了旗帜鲜明的两个阵营:

Yoshua Bengio是悲观派。在反对强于GPT-4能力的大模型研发的联名信签署名单中,Bengio赫然在列。而Yann LeCun则更为乐观。他不仅在社交平台上公开反对叫停研究的做法,还将积极地进行了不少有关AGI(通用人工智能)的假设研究。

但无论是GPT-4引发的联名叫停运动,还是有关离职谷歌的决定,在图灵三巨头中,Goffrey Hinton都显得格外低调,未做任何公开表态。在中国首秀智源大会中,这位学者给观众上了一堂硬核的技术哲学课。

比起现下大模型已显露的安全和伦理风险,Hinton更关注超级智能(super-intelligence)时代下,人与机器的控制权抢夺问题。他认为,人类很少去思考如何与比自身更智能的物种的交互方式。这就陷入了类似精英治理合法性的讨论,不过在未来,“精英”可能并非人类,而成了人工智能。

不过,尽管尚未有面对超级智能控制人类的最优解,Hinton认为“人工智能”中的“人工”二字恰恰是人类的优势:这意味着智能物种并非通过进化迭代而来,“人工”的特点让它们不具备与人类竞争的天性。

在名为《通往智能的两条路》的演讲中,他提出了几个重要观点:

· 大语言模型通过成千上万个计算机副本获取知识,这就是大模型比人类更快学到更多知识的原因。

· 如果人类想让数字智能更有效率,就需要允许它们创建子目标。但相对地,设定清晰的子目标意味着数字智能将获取更多的权力和控制,从而使得目标的实现更加容易。

· 一旦数字智能开始追求更多的控制权,可能会通过控制人类来获得更多权力。一旦人工智能掌握了“欺骗”技能,也就能轻易具备控制人类的能力。

字里行间,这位深度学习之父提醒大家居安思危:“我相信,超级智能比我想象的要近得多。”

以下是Hinton的演讲整理(内容由智源研究院提供,略经36氪的整理编辑):

今天我要谈论的是我的研究,它使我相信超级智能比我想象的更接近。所以我想要谈论两个问题,而我将几乎完全专注于第一个问题,即人工神经网络是否很快会比真实的神经网络更聪明。正如我所说,我将描述引导我得出这一结论的研究。最后,我会简要讨论我们是否能控制超级智能人工智能,但这不是本次演讲的重点。

通往智能的第一条路径:硬件模拟

在传统计算中,计算机被设计为精确遵循指令。我们可以在不同的物理硬件上运行完全相同的程序或相同的神经网络,因为它们被设计为精确遵循指令。这意味着程序中的知识或神经网络的权重是永恒的,不依赖于任何特定的硬件。

然而,实现这种永恒性是有高成本的。我们必须以高功率运行晶体管,以使其以数字方式运作。我们无法充分利用硬件的丰富模拟和高度可变的特性。这就是数字计算机存在的原因。它们遵循指令的原因是因为它们被设计成让我们先观察问题,确定解决问题所需的步骤,然后告诉计算机执行这些步骤的模式。