来源:红杉资本
AIGC投资热潮下,自研大模型真的值得吗?
ChatGPT最大的贡献是完成了一场全民式的“AI教育”。因为使用门槛较低、功能新颖且具有强互动性,自去年底ChatGPT问世以来,该产品在很短的时间内就家喻户晓,且掀起了近半年来大火的AIGC投资热潮。我国的互联网头部企业更是纷纷追逐自研通用大模型的风口浪尖,开始在生成式人工智能领域的“军备竞赛”。目前,国内已有百度、阿里巴巴、腾讯、华为、科大讯飞等公司对AI大模型进行研究开发,若干自研的NLP大模型、CV大模型、多模态大模型已推出并实现部分落地。其中,腾讯另辟蹊径地尚未推出通用大模型,而是首先推出ToB的行业大模型,以一种“短平快”的方式切入赛道。实际上,国内外科技公司的自研通用大模型之争,更是一场烧钱的博弈。
目前国内互联网头部企业的自研大模型情况:
来源:洛克资本绘制
从训练大模型的经费数据上看,时至今日,微软已经陆续向OpenAI注资超130亿美元,且去年一年内,OpenAI的净亏损高达5.445亿美元。大模型训练所需的硬件成本极为高昂,据外国机构a16z Fintech Investments 测算,只有当一个公司一年的AI 运算预算超过5000万美元时,才能凭借足够的规模效应支撑自己批量采购GPU。OpenAI推出的GPT-3需要1024张A100 GPU芯片才能支撑起一次训练,且OpenAI至少需要32400张A100芯片用于日常推理,根据测算,仅训练ChatGPT的硬件成本就高达8亿美元以上,更不用说还有高昂的算法团队、数据方面等各种开支。
自研大模型,实际上是一个耗资耗时的系统性大工程,无论是在算法、算力还是数据方面,都需要投入极大的人力财力,从而影响整个公司的战略规划。如果训练不理想或是变现周期长、投入资本回报率不佳的话,无疑会给整个公司造成浪费战略资源、影响商业地位的负面效应。因此,是否要加入这场“烧钱”的自研通用大模型的战争,颇值得打一个问号。
在斥巨资自研通用大模型之外,还有一种比较节省资源的务实做法是搭建与自身产品生态相结合的“垂类大模型”或面向B端用户需求的“行业大模型”。相比于“大而全”的通用大模型,此类垂直细分的大模型更“小而美”,所需的资源量较小,应用落地更为精准,投入资本回报率更高,在当下整体偏于冒进的研发潮中是一种谨慎稳健的选择。
关注具体应用场景,另辟蹊径把AI带进千家万户
比垂直细分大模型更“小而美”的,则是上文提到的种种下游应用层的产品。这些产品借助于现有大模型的接口(API),借助于现有的“天花板级别”的大模型并向其付费,直接实现小微场景下的功能应用。大模型的价值,本就在于与各行各业的具体需求相结合,成为人类的协作者或指令下的创作者,广泛地激活生产力。用程序员的一句黑话来说,在低阶水平重复“造轮子”没有太大的意义(比如,圆形车轮已经是大家公认最好的了,却非要自己重新发明另一种形状的轮子)。对于有财力以及技术积累支撑的企业来说,在尖端水平上进一步突破技术的边界固然是一件有利于企业自身长远发展并且有利于整个人类社会的好事。但对于绝大多数资源有限的企业来说,更具商业价值和变现能力的是借助现有的轮子造自己的车。
我们看好人工智能整个产业的发展前景。生成式人工智能技术的发展势必会带来深远的影响,它在内容创作上开启无限可能,可能改变各个行业的商业模式,改变我们的工作、学习和生活、娱乐方式。另一方面,生成式人工智能只是人工智能领域的一个分支,侧重于内容生成,而决策式人工智能则凭借其强大的分析、推理、预测能力,在工业控制(机器人、汽车等)、推荐算法、图像识别等众多领域发挥重要作用。这两种人工智能并非新浪替代旧浪的关系,而是术业专攻、相辅相成,覆盖不同的应用场景。我们将密切追踪人工智能在各行各业中的实际落地应用,尤其是在各个行业、技术的交叉点上挖掘独特的商业价值。