在ChatGPT的热潮下,大模型五花八门,层出不穷,让人目不暇接。
近日,科大讯飞也宣布即将在5月6日发布讯飞星火认知大模型。尽管大家可能已经审美疲劳,但科大讯飞的大模型,依然是有值得注意、显而易见、却常常被人们忽视的特别之处——
(相关资料图)
尽管各行各业、各个大厂都在推出类ChatGPT大模型(或是通用的,或是垂直的),但作为榜样的ChatGPT本身是OpenAI在网页上推出NLP的模型。NLP,全称Natural Language Processing,也就是自然语言处理。在这一技术上,科大讯飞无疑是该领域的领跑者。
“百模大战”中难免泥沙俱下,但有一点是比较肯定的——从大模型的发展特点来看,新选手想要突围十分不易。
大模型并非空中楼阁
想要打造一个中国版ChatGPT,必须是建立在大模型的基础上。ChatGPT证明了在某种程度上,大模型拥有比小模型更优的效果。
过去AI公司囿于种种条件制约,基本都以小模型为主。如今这些公司确实要纷纷从小模型迁移大模型,但这不是一个从零开始的过程。
与小模型类似,AI大模型的核心要素在于数据、算法和算力,因此从小模型到大模型很多东西是通用的。
在数据领域,以ChatGPT为例,数据来源主要是互联网上的大量文本数据,以及各种知识库和语料库。一个优秀的中文NLP模型在获取数据的难度上还要超过ChatGPT,因为中文数据在互联网的开源程度较低,高质量无监督语料严重不足。而类ChatGPT大模型本质是基于有限语料范围的概率归纳模型,语料质量不高可能会导致大模型频繁“失灵”。
但幸运的是,小模型的数据集可以完全迁移至大模型使用,这使得在AI 1.0时代积累起来的数据优势可以延续。科大讯飞近日接受机构调研时表示,在严格遵守适用法律法规前提下,讯飞在多年认知智能系统研发推广中积累了超过50TB的行业语料和每天超10亿人次用户交互的活跃应用。科大讯飞在语音方面的主流市场占有六七成的市场份额,这无疑形成了讯飞大模型的优势。除了拥有海量的中文数据,科大讯飞通过深耕垂直领域还掌握了医疗、教育等专业数据端口的数据。
在算法领域,大模型和小模型也不是完全割裂的。不仅是大模型可以通过量化、剪枝、知识蒸馏等模型压缩方法生成小模型,优秀的小模型可以“反向蒸馏”、有效引导大模型的生成。这比从0开始构建大模型的可操作性强得多。
算力优势能迁移到大模型之上,这一点相信十分容易理解。以科大讯飞为例,公司于2009年开始算力基础设施建设,在总部自建有业界一流的数据中心,目前已建成4城7中心深度学习计算平台,在自用以外还面向平台数百万开发者和其他行业伙伴开放。尤其在当前美国卡脖子AI芯片的重要关口,这个优势在中国市场更凸显了重要性。尤其值得注意的是,超级算力中心建设资金门槛在ChatGPT出现后,已经推向百亿之上(在微软的支持下),而运营与维护成本更是天文数字。基于优质数据卡位,算法能力和商业化策略,科大讯飞在算力维度可以通过推动企业间的分布式计算协作,提升算力的效率、降低成本。
这些都是后来者远难以弯道超车赶上的。正如科大讯飞管理层在业绩会上说:“(这)是吃第十个包子,厚积薄发的一个事情。”
但NLP大模型却又并非新瓶装旧酒。过去的NLP领域有着非常显著的技术瓶颈,引用科大讯飞管理层的原话“瓶颈不在语音转文字,而在语义理解。”不同于机器视觉识别技术已经相当成熟甚至进入红海阶段,“语义理解”一直是全球AI难以翻越的一座大山,直到ChatGPT翻越了这座大山。
尽管我们要承认中国人工智能在这个领域稍许落后,但也要看到机会。就像某新财富分析师曾提到,就像特斯拉车没出来之前,蔚来和小鹏这些东西都没搞出来,但特斯拉车搞出来后,我们国家大量的新能源车厂像雨后春笋一样出现。
科大讯飞管理层表示,现在机会真正来了,技术会突破临界点,到达一个真正能商业化落地应用的阶段。
进入规模化的新阶段
在一片流血上市的人工智能公司里,科大讯飞的盈利能力独树一帜,恐怕已是人工智能公司之最,在整个A股市场中也担当得起“成长长青”这四个字。科大讯飞是过去10年来唯一连续10年营收年增长率均超25%的A股上市公司。
尽管如此,我们却依然能常常看到它的盈利能力受到诟病。这与科技公司的属性有关,由于高研发投入和定制化成本,所以在渗透率不足、规模化速度不高的情况下,盈利能力会承压。尤其在2022年科大讯飞在加大投入的同时,疫情导致项目收入确认延期,国际环境使得供应链调整进一步延迟项目。三重因素叠加,科大讯飞超30亿的合同延期到2023年,因此收入和支出形成“剪刀差”,短期的账面盈利能力向下。
但进入2023年第二季度,除了业务进度恢复常态,规模化带来的盈利弹性更值得期待。科大讯飞在业绩会表示,从2023年开始,要开启年利润增长30%的新阶段。
由于小模型的通用性较低,导致定制化属性较强。但大模型通过"大规模预训练+微调"的新范式,拥有了较强的通用性,这使得快速规模化落地成为可能。大模型作为解决AI应用碎片化的新开发范式,将带来了比传统AI更高的ROI。
事实上,过去传统AI时代的有效供给不充足制约了渗透速度,但事实上整体智能语音市场的需求很旺盛。从科大讯飞的财报也能看到这点。尽管受宏观因素影响,2022年公司可持续型“根据地业务”在2022年仍实现23%的增长,抵消了大项目延期所产生的影响,并推动公司的整体营收逆势中保持稳中有升。
具体地看,“根据地业务”中多个应用场景的前景十分明朗。2022年,科大讯飞的教育考试业务新增12个地市中考和2个省市高考,个性化学习手册新增300所运营校,学习机流水型线下门店新增769家,“双减”校内课后服务合作平台新增130个市区县,智慧医疗新开拓96个区县,智慧汽车新增合作车型110个。根据财报,以上业务拓展将在2023年才开始产生持续型收入。
大模型有望成为科大讯飞加速深耕这些应用场景的发动机,科大讯飞于2022年12月启动生成式预训练大模型“1+N”任务攻关,其中“1”是通用认知智能大模型算法研发及高效训练底座平台,“N”是应用于教育、医疗、人机交互、办公等多个领域的专用大模型版本,例如,通过学习海量医学教材、论文和病例,实现专业的医疗领域对话式AI系统,打造“每个医生的AI诊疗助理,每个人的AI健康助手”。“1+N”模式使得低成本、高效率的规模化成为可能。科大讯飞管理层在业绩会披露了未来目标,包括运营型的根据地业务和可持续流水型业务,5年内占比要超过80%;三年内人均效益能翻番,现金流要匹配利润增长,最终实现同步良性增长。
像科大讯飞这般在中国既能服务企业又能服务用户的科技公司屈指可数。随着开启AI开发新模式,科大讯飞有望进入大规模落地应用关键期,在B端和C端走出新天地。