大模型竞速趋向理性:企业直面产业应用与算力挑战
21世纪经济报道记者倪雨晴 深圳报道
2023年是生成式AI的爆发之年,短短一年之间它的身影无处不在。或许,在人类文明史上将以2023年作为分界,在此之前是AI的混沌期,在此之后生成式AI开天辟地,大模型竞赛拉开大幕。
自去年10月ChatGPT面世以来,大模型一路狂奔。国内甚至在今年上半年就形成了“百模大战”之势,从基础大模型到行业大模型,各家飞速前行;到了下半年,越来越多的应用涌现,并在垂直行业落地商用。回望过往一年,业界群雄并起,却也伴随着重复建设的争议、面临着产业化的难题。
如今大模型竞速更加激烈,企业如何更好地进行商业变现?又怎么解决算力掣肘等问题?近日,由南方财经全媒体集团指导、21世纪经济报道主办的“大模型竞速下半场:产业应用与算力挑战”闭门会上,社科院学界专家、投资机构及多位科技企业管理层,围绕商业变现、AI算力突破、AI芯片生态建设等话题进行探讨。
与会嘉宾的共识是,虽然目前国内有200多个大模型,但是将会面临激烈的竞争和淘汰。当然,生成式AI的应用将持续创新,其中B端产业应用潜力大,展现出新的商业模式和机会,C端赛道主要集中在生产力工具和娱乐属性上。整体而言,从上半年的火热之后,下半年业界对于生成式AI、大模型产业化都更加理性,整体呈现出创新与谨慎并存的态势。
同时,社科院数量经济与技术经济研究所数字经济研究室主任蔡跃洲提到,百模大战等反映的是通用目的技术渗透到方方面面,面对全方位的颠覆式的创新,如何迎接背后的挑战并抓住机会是重要课题。比如对中国存在算力问题,但是国内有庞大的需求,包括大模型的需求,未来应用场景还是我们的优势,牵引国产供给能力的提升、技术能力的优化迭代,孕育着机遇。
百模大战的“冷暖”
今年全球AI生成式技术与大模型的发展迎来了一波前所未有的热潮。据风投数据分析公司PitchBook数据显示,截至今年10月15日,2023年,全球AIGC领域筹集融资总额达232亿美元(约合人民币1656亿元),比2022年全年增长250.2%,其中AI核心(Al core)领域融资就达50.82亿美元。截至目前,全球AIGC新兴领域相关公司总数量已超过1500家。
火热之势可见一斑,在这一波浪潮中,非凡资本也选择了AI赛道。非凡资本合伙人胡小婧说道:“目前平台上已经收集了超过1000家国内外AI应用层企业,我们今年从融资服务层面深度服务的有60余家,融资转化率超过了10%。哪怕整个AI赛道在如火如荼的创业,但是事实上,相比往年,资本给到的扶持还是非常少。”
可以看到,虽然AI创业者众多,但是AI商业化从来不易,机构们对于投资也是出手谨慎,那么哪些应用更受追捧?
胡小婧谈道:“目前来看,AI应用层里,今年比较受机构青睐的是能够快速找到应用场景的企业,有一个非常尖锐的刚需切口,借此打开一个全新的市场,并且在收入层面快速看到增长。这些应用可以分成‘AI+’和‘+AI’,’AI+’指的是AI-Native,完全基于生成式AI技术为出发点的创新应用,’+AI’指的是在原先已有业务上,增加AI的工具就能大幅提效或产生增购的应用。”
而AI应用层的热门趋势也在不断演变,两种类型的企业在发展时间线上有所差别。她进一步指出,今年上半年非常利好“+AI”类的公司,因为在客户的需求基础上再去拓展应用场景,能够看到比较好的效果,在下半年,很多AI原生类的应用也推出产品,开始服务客户。
若从全球视角看,目前似乎形成了“1+N”的格局,OpenAI的ChatGPT是“1”个超级明星产品,其他“N”款应用在从各个领域进行突破,当然格局也在不断变化之中,国内的企业正在加速追赶。
大模型层面也竞争激烈。Fasion.AI创始人兼CEO程斌说道:“2月份的时候,我们还在讨论国内到底有哪两三家有实力训练真正的大模型,到5、6月份的时候涌现出来100多家大模型企业,每家都觉得需要有一个自己的轮子,某种意义上也造成一定的资源浪费。”
对此,360智脑专家葛灿辉也有同感,他说道:“目前国内有200多个模型,明年这个时候肯定不会有这么多了,我们相信在公有域剩下五到十家已经顶天了,私有域的也是非常残酷的淘汰赛。”
谈及和海外的差距,葛灿辉表示:“基础大模型的能力的提升基本没有捷径,第一是需要积累很多高质量的原始token数量,在预训练的部分语料的清洗处理必须非常到位;第二不能只限于中文,要有大量英文的材料作为输入。应用层面国内特别喜欢做超级APP,但是在AI领域,很多API能力要开放出来才能发挥最大价值,尤其在Agent时代,合作的效应一定大于自己去把一切搞定,做APP之间的互操作会非常方便,这是趋势。”
所以 360 智脑大模型特别重视开放和兼容,“我们跟 OpenAI 的 API 100% 兼容,第三方开源生态使用 360 智脑大模型会非常便利,我们希望可以非常方便的接入 LangChain LLamaIndex 等开源生态工具链。最主要的硬实力的追赶还是底层的硬件以及底层的模型,很多国内创业公司在推进私有模型的追赶,消费级硬件上的私有模型跟国外的差距并不大。”葛灿辉说道。
B端C端谁跑得更快?
随着AI技术的不断发展,大模型在C端和B端应用领域展现出丰富的创新。根据赛迪研究院的报告,随着GPT以及扩散模型等底层模型和算力能力的突破,生成式人工智能应用在近3年来取得了跨越式的发展。其中,2022年成为生成式人工智能的元年, 归功于AI作画的爆发与ChatGPT的发布。2023年,C端应用面临洗牌, B端应用即将进入全面商业化时代。
在多位业内人士看来,当前B端应用场景逐渐成熟,大模型正为千行百业提供赋能服务,处在商业化前夜。而C端应用虽然更加普及、成熟,但面临更多挑战和竞争,投资机构也对C端的投资更加谨慎。
胡小婧指出,今年国内在C端大模型领域的投资相对较少,主要原因是对国内大模型基础层的不确定性。一方面是刚开始大家不知道大模型的进步速度,担心C端产品容易被基础模型迭代颠覆,另一方面也担心创业公司竞争不过国内大厂,这种谨慎态度导致机构对C端机会的观望。
但C端仍有诸多发力点。胡小婧介绍道,C端的创新点主要集中在两个领域:“Save Time”和“Kill Time”。“Save Time”侧重于节约使用者的时间,例如生产力工具和效率工具。这些工具在提高个人生产力的同时,形成了个人付费的生态,甚至能够由个人带动企业的付费。另一方面,“Kill Time”则包括情感陪伴和游戏等,满足了用户在娱乐方面的需求,这两个分类涵盖了整个C端对于生成式AI新范式的主流需求。
B端应用上,大模型的应用呈现出两种主要趋势,一种是在原有的B端软件基础上,用AI工具增强原有解决方案,从而不断增强产品壁垒和客户价值。另一种趋势是AI Agent的崛起,即基于不同的任务解决方案拼接形成完整的工作流,胡小婧认为,这是下一代软件的重要机遇,虽然AI Agent还处于早期阶段,但其潜力不容小觑。
同时她还特别提到,对于从事toB软件服务的公司而言,商业模式发生了巨大变化,在SaaS收费趋势后,兴起了流量式收费,即按照token来计费。这一新兴的收费方式为企业带来了新的盈利机会,但也面临着低价竞争和维持客户使用量的挑战。
在小米集团技术委员会AI实验室大模型团队负责人栾剑看来:“AI的应用历程并非一帆风顺,而是经历了起伏波折。在发展过程中,曾出现过几个高峰,也经历过几次严冬。现在的大模型,对于toB应用来说,正处于一个比较好的发展阶段,因为在提高效率方面看到了真实的效果。相比之下,C端用户则对大模型的黏性不强,只在娱乐方面的接受程度较高。”
对于未来大模型应用的趋势,程斌表示:“大模型某种意义上带来了技术平权。当技术门槛被拉得无限平的时候,合理有效的应用将成为最终的杀手锏。目前大模型应用的真正受益方,是以前已经形成自己商业闭环、能够快速利用大模型进行降本增效甚至进一步延展自己业务边界的公司。接下来,在今年下半年到明年上半年,应该会集中爆发一批很有创意的AI驱动产品的公司。”
掘金应用的挑战
生成式AI的产业应用滚滚向前,随之而来的商业化过程也面临着一系列的挑战。
澜舟科技合伙人、首席产品官李京梅表示,澜舟科技在2021年成立时选择预训练模型,是因为预训练模型在toB的落地应用中拥有更高的效率和更低的交付成本。然而,大模型的发展也伴随着一个显著的变化,即参数量的增加。过去的预训练模型偏小,但为了赋予大模型更广泛的通用能力,如今的模型参数量已经达到了百亿、几百亿的级别,今年澜舟科技的孟子GPT大模型也是选择做更大参数量。
她回顾道,上半年大家都比较“燥热”以及特别兴奋,预期非常高,下半年开始理性化,商业化阶段的挑战逐渐凸显。而为了解决商业化问题,寻找标杆客户成为关键一环。通过与标杆客户共同打磨,不仅可以获得真实的用户反馈,还能够在应用过程中发现问题并及时改进迭代。
同时李京梅还谈道了“幻觉”的问题,这也是在toB场景中还没有完全解决的痛点。在大模型的生成中,经常会出现一些错误或者被称为“幻觉”的问题,对此,栾剑表示,关于幻觉问题,存在两种不同的观点。一些人认为幻觉是一个严重的问题,需要完全解决。然而,另一些人认为幻觉可能与人类的联想和创新密不可分。
“就我个人而言,我更倾向于后者。虽然幻觉在某些场合可能显得不太靠谱,但在人们能够容忍一定真实性错误的场景下,会给大模型在创造力方面留下空间,产生意想不到的效果。当然,我们仍需要不断地探索和改进,以确保人工智能技术在各个领域都能发挥出最大的价值。”他说道。
谈及商用难点,达观数据副总经理吕文超表示,目前单个场景能够产生的价值有限,客户的付费意愿与实际投入成本不成正比。为了解决这一问题,他提出了几种可能的方案。首先是组合打包,将多个产品线、多个方向进行整合,形成一个付费的整体解决方案。第二种方案是卖人力,即提供有经验的工程团队,满足客户在咨询和开发方面的需求。第三种方案是原有产品的升级扩展,通过完善现有产品,提升价值并拓展应用领域。
对于2C商业化的挑战,也有AI行业技术负责人对21世纪经济报道记者表示,虽然to C商业化相对较难,但一旦找到了契合的场景,成功仍然是有可能的。“在to B领域,很多龙头公司确实对AIGC有很强的需求,大企业付费意愿会比较高,关键在于我们的功能是不是真的能解决企业真正的痛点。”他说。
此外,IBM实验室数据与人工智能首席架构师徐孝天还提到了安全可信的问题,他表示:“模型的可信是很大的问题,特别是面对toB客户的时候,如果不把模型做成可信,非常难上线。因为从大企业的角度,它除了经济效益指标之外,还有社会责任等多方面的关注点。”
以上这些观点和实践经验,共同描绘出大模型商用面临的复杂格局。商业化路径的探索需要理性思考和与用户紧密合作,同时要解决模型生成中的幻觉问题,并且确保可信性也成为商业化过程中的一项关键考量。
算力挑战和国产化机遇
另一方面,随着大模型演进,对算力的需求变得愈发巨大。葛灿辉直言:“我们现在各方面算力也准备得挺多,但永远都不够,这是一个现状。”这也反映了大模型应用所需算力的迅猛增长,尽管不少企业做了充分的准备,但需求的不断增加仍然让人感到不足。
同样感到紧缺的还有达观数据的吕文超,“我们去客户现场一般都是用推理阶段,推理阶段其实对算力的要求还好,不是很高,但是也出现了紧缺的问题,”他说道,“比如之前A100、A800属于紧缺的显卡(GPU),不好买,最新的消息是A10、A16这样的普通的显卡都不好买了,下单周期很长。”
尽管大模型需要庞大的计算资源,但栾剑持比较乐观的态度。他举例说,小米就是以轻量化和本地部署作为研发小米大模型的突破点,设想将轻量化的大模型嵌入每个设备,只在必要的场合通过云边端结合的方式来协同。
栾剑表示:“从整体上看,算力需求是可控的。虽然短期内存在一定压力,但国内储备的显卡数量其实不小,而且训练和推理的优化算法也在不断涌现。随着算法效率的迅速提升,算力需求也将得到极大缓解。”
对于国内市场来说,算力挑战更加复杂,在美国禁令之下,高性能的GPU、AI芯片无法在中国出售,因此获取算力的成本大大增加,同时对于国产创新的需求也更加迫切。
从AI芯片应用类型的角度分,有推理芯片和训练芯片,目前英伟达在训练端一骑绝尘,占据大部分市场,而推理侧百家争鸣。虽然大模型需要强大的训练芯片,但是不少AI人士认为,推理侧可能拥有更巨大的市场,这也是不少国内企业瞄准的突围方向。
算能产品总监文兴武表示,很多领域的头部企业积极拥抱大语言模型,他们希望把大语言模型的体积小型化,用在自己的设备终端上,在行业里面进行革命,助力生意增长。对于所需的算力层面,“我们目前更多是在做一些推理侧,在边缘或者在端侧,供小型化大模型可以使用的产品。”他说道,未来将规划更多产品,拥抱技术变革潮流。
葛灿辉也谈到了推理的巨大需求:“我们目前主要采用的是国内的安全性要求比较高的芯片,我们有一个判断,推理方面的需求是远大于训练,推理上我们的硬件差距跟美国相比,其实并没有大家想的那么大,因为它的要求没那么高,而且很多场景都是只需要把显存加大就可以用,这方面的发展比原来乐观很多。”
徐孝天也持相似观点,他谈道:“深度学习或者大模型时代,但凡要落地,推理肯定会占据更大的算力需求,所有的模型到后面慢慢都会收敛,后面做推理的时候,单个的应用需要的算力要求会很低。IBM一直在投入的是量子计算,所有的大模型本质来讲做的是矩阵的乘加,如果用量子计算做概率的推演,它的计算成本会小很多,什么时候能够突破到一个应用级,可能还需要一段时间。”
可以看到,当前大背景下,国内的芯片厂商面临发展机遇,但是相比英伟达,生态仍是难题。
程斌表示,目前硬件训练端从单纯的算力角度,国内已经有一些产品能够跟国外产品对标,但是缺乏生态的支撑,导致无法大面积铺开。而推理端的国产化替代目前走的更快一些。在他看来:“真的到GPT-4乃至进一步的训练,算力的瓶颈还是存在的。”
最后,蔡跃洲总结道:“国内整体集成电路芯片的自给率2021年约是9.9%,2022年是10.1%,整体供需是不足的,同时国产信创自研芯片的转换,在适配上面存在障碍。化危为机的关键在于,大家有需求,对整个产业链来讲,其实给国产带来了机会,国内有这么大的需求,应用场景也是优势。”
总体来看,算力芯片国产化既面临诸多挑战,而通过优化模型、增强国内芯片的适应性、解决信创问题,以及拓展国产芯片份额,有望在算力领域迎来新的发展机遇。