2023年,AI浪潮由ChatGPT掀起,并引发中外科技企业展开对语言大模型的追逐和对算力的军备竞赛。无论是传统互联网巨头业还是新进入者都在加大算力基础设施投资,积极推出大模型。
人工智能这个词并不新鲜,但在初期其应用面相对较窄,像AlphaGO、OpenAI Five。其实在2020年语言大模型已经在业界获得了普遍认可,但是为什么2023年ChatGPT的推出驱动了整个算力相关板块Beta的行情?南京证券研究员孙其默表示,是ChatGPT向toC端打开了接入的窗口,让普通人看到了人工智能实际应用落地,以及逐步相信未来它对各行各业的深远影响。
孙其默表示,多模态大模型与应用生态圈将成为2024年的关键词。伴随着大模型处理数据的类型持续扩展,多模态大模型(LMMS)成为主流,这使得未来大模型参数与训练集规模将持续扩大。当前多模态系统主要处理文本、图片和语音。伴随技术发展,大模型处理的数据类型扩展至视频、音乐、3D等内容,大模型训练算力需求持续增长。OpenAI的GPT store上线,应用生态圈逐步成熟。GPT降低了制作大模型应用门槛,用户无需编程基础,用自然语言就能做出专属GPTs,从而加速大模型向个人用户和垂直行业渗透。根据GPTs Hunter网站数据,公共网络上已经有9.1万个GPT,涉及领域从开发工具、生产力、作图、语言学习,到财经、客户支持、市场分析、医疗健康。GPT store上线后,“杀手级”应用出现的可能性提升,这意味着AI应用推广后,推理算力需求持续增长。
孙其默表示,2024年产业链处于景气周期,从下游需求全球互联网云服务厂商,到中游芯片厂商,再到上游服务器零部件厂商进行全面的梳理。基本的逻辑就是为满足算力需求,云厂商加大AI相关资本开支,中游芯片服务器厂商获得订单,并向上游零部件厂商传导。
云厂商资本开支整体回暖,结构向AI倾斜。海外四大云厂商单三季度资本开支358亿美金,环比上涨10.6%,同比下降5.4%。微软单三季度资本开支达到99亿美元,环比上涨10%,同比上涨57.84%,预计2024年逐季提升且侧重云产品和AI基础设施投入;谷歌单三季度资本开支80.6亿美元,主要为技术基础设施投资,包括服务器和数据中心,未来进一步加大AI投入,2024年资本开支指引高于2023年;亚马逊单季度资本开支113亿美元,同比下降25%,环比上涨8.5%,预计全年资本开支低于2022年,结构上增加生成式AI及语言大模型相关支出;Meta单季度资本开支65.4亿美元,同比下降30.2%,环比上涨5.3%,2024年指引300亿-350亿美元,同比上涨11%-21%。国内云服务厂商(阿里、腾讯、百度)单三季度在156.5亿美元,同比上涨1%,环比上涨24%。从下游资本开支的角度来看2024年行业景气度持续。
数据中心芯片厂商业绩大增,服务器产品迭代速度加剧。以英伟达为代表的企业芯片业务收入大增,英伟达单三季度预计销售50万片A100和H100,数据中心芯片单三季度营收145亿美元,环比上涨40.6%,同比上涨278.7%。同时芯片厂商之间的竞争加剧,传统芯片厂商(英伟达、AMD)以及新进入者(亚马逊、Meta、微软)都在持续推出新的产品去抢占市场份额。
光模块作为AI服务器中的核心零部件,价量双升驱动业绩释放。从价格的角度来看,800G光模块产品验证周期较长,当下只有部分光模块龙头企业有出货,整体市场处于供不应求的状态,整体价格依然处于偏高的位置。从量的角度来看,伴随着2024年AI服务器的出货,800G光模块出货量将大量释放。根据国家海关总署的数据,光通信设备的激光收发模块的出口平均单价已经出现提升的趋势,出口量也在边际修复。根据测算,预计2024年,800G光模块的出货将带来20亿美金的增量,将驱动整体数通市场光模块行业(100G以上)增长40%,光模块龙头企业的业绩将显著增长。
(以上内容仅供参考,不作为投资决策依据。投资有风险,入市需谨慎。)
南京晨报/爱南京记者 许崇静