当前位置: 江南文明网 > 科技 > 智能 >

复兴于大模型 商业化前景未明

条评论

复兴于大模型 商业化前景未明

“历史不会简单重复,它会押着同样的韵脚。”

几经跌宕,人工智能浪潮踏着生成式AI热度与大模型浪潮,再次攀上上升周期。13日,网信办等七部门正式发布《生成式人工智能服务管理暂行办法》(简称“《办法》”),行业人士认为,《办法》的迅速出台一方面证明了政策监管的敏捷高效,同时也佐证了当下大模型技术发展与行业影响的广泛。

为形容当下大模型现状,经纬创投创始管理合伙人张颖引用了一个调研数据——从今年3月到5月,召开业绩电话会议的标普500指数的公司中,有110家公司的高管提到了AI,这是过去十年的3倍。火热如斯,但周期恒在,在达到热度高点后,本次人工智能必然回归冷静波段,寻找商业化路径解决方案,落地商业本质。

对比国内人工智能AI1.0,如今的AI2.0较其有雷同之处,亦有升级迭代的进步。如在行业红利显露初期,大量资本与创业者涌入,百模大战。而在差异性方面,行业尤为关注凭借底层算法的升级、大模型泛化能力,以及2.0时代的人工智能能否解决1.0最为致命的商业化落地难题。

为什么此时火了?

人工智能行业已存在数十年,为什么大模型与生成式AI等到今天才火?

AI教父、图灵奖获得者杰弗里·辛顿早于1986年便在《自然》杂志发表自监督学习语言模型成果,可预测句子最后单词,可谓生成式大模型鼻祖,但当时的辛顿只能使用112个句子的数据,同时缺乏相应算力支持。

辛顿表示,AI领域有两种思路——一种是关于推理与逻辑的主流AI,一种是基于生物学的神经网络。“神经网络在20世纪80年代没有真正奏效的唯一原因是计算机运行速度不够快,数据集不够大。”辛顿称,主流AI派当时认为一个拥有大量神经元的大型神经网络,基于计算节点与它们之间的连接,仅通过改变连接强度便能实现从数据中学习,这个想法十分荒谬。

因此那个时候,计算机科学领域的人们对神经网络失去了兴趣。而现在,计算机速度快了数百万倍,如果用1986年的计算机去学习一些东西,辛顿称,过程只需要几秒钟。

2006年,辛顿团队开始进行所谓的深度学习训练,并找到预训练模式。在ChatGPT中,P代表预训练,T代表转换器,P代表生成。回忆过去,辛顿表示在2012年发生了两件大事——一是语音是被技术改进,并被推广至微软、IBM与谷歌等大型语音识别实验室;二是李飞飞与合作者创建了一个大型图像数据库,并对图像中的主要物体进行猜测。“那些曾坚定反对神经网络的人看到这些方法成功后,发现这种方法更有效,于是他们改变了立场。”辛顿称。

在第四范式联合创始人/首席架构师胡时伟看来,AI从1956年提出历经几次起伏,AI在业界或大众生活当中形成浪潮往往来自里程碑式的事件,如AlphaGO战胜人类,以及ChatGPT可以进行很好的对话等。这中间的沉寂期,来自大众预期无法满足,往往在沉寂期之内是真正数字化产业和AI产业带来价值产生沉淀的部分。

而从技术原理来讲,胡时伟表示,AI应用发展有一个规律——从小的模型到大的模型,整个AI使用从专用到通用。最早人类专家通过写规则让机器程序呈现某种智能特点,这时还是专用小模型。80年代以后,无论是统计学习还是神经网络,行业可以用这些技术让机器写少量的规则,但依然是专用某个小模型的阶段。2010年之后,搜索、推荐电商、人脸识别等场景,可以通过机器用海量数据撰写大量规则解决问题,对生产生活发生的作用。如今,海量规则加上千亿学习与强化学习基数,便出现了单一大模型解决多个问题的通用大模型技术。