电子报阅读机
2026-03-22
星期日
当前报纸名称:江苏商报

国产大模型按下“提质进阶”键

日期:01-30
字号:
版面:第A07版:观察       上一篇    下一篇

  行业迈入工程化成熟期?性价比与落地能力成核心竞争力

  近日,多家国产模型厂商更新模型进展,包括DeepSeek开源新的OCR2模型、Kimi发布并开源KimiK2.5模型、阿里发布千问旗舰推理模型Qwen3-Max-Thinking。

  多位行业人士表示,节前大模型行业的密集动作,是行业开始迈向工程化成熟期的关键信号,包括模型从参数竞赛转向工程优化,产品交付从实验室Demo走向规模化服务,生态协同从单点突破走向系统协同。

  模型密集更新显实力

  1月27日,DeepSeek与Kimi再次同日发布模型,此前已有数次模型与论文发布“撞车”,足见行业关注度争夺之激烈。

  Kimi官方将K2.5定义为公司迄今为止最智能的模型,包括Agent、代码、图像、视频及一系列通用智能任务表现;同时,这也是Kimi迄今最全能的模型,包括原生多模态架构设计,同时支持视觉与文本输入、思考与非思考模式、对话与Agent任务。

  同日发布的DeepSeek-OCR2模型是去年10月官方推出的DeepSeek-OCR模型的迭代版本,团队采用了创新的DeepEncoderV2方法,让AI能够根据图像的含义动态重排图像的各个部分,而不再只是机械地从左到右扫描,这种方式模拟了人类在观看场景时所遵循的逻辑流程。

  暖哇科技首席数据官陈鸿表示,团队正在评测DeepSeek最新推出的OCR2模型。DeepSeek第一代OCR更偏向于技术论文性质,主要是为了验证其技术路线的理论可行性,实际应用效果囿于训练数据和模型尺寸还比较有限。对于OCR2模型,他认为其核心是让模型能理解图像中的像素信息背后实则蕴含逻辑关联与文本语义,这是OCR任务的本质,理应能带来性能提升。

  除了原生多模态深化外,推理工程化提效也是今年主流模型的一大趋势。

  1月早先时间,阿里开源多款模型,包括全系列语音合成模型Qwen3-TTS,专为多模态信息检索与跨模态理解设计的Qwen3-VL-Embedding和Qwen3-VL-Reranker模型系列等,均在多模态领域实现了进一步的性能提升。从近期阿里大模型产品的发布来看,一方面,大模型能力提升仍是模型更新及竞争的主线;另一方面,近一年来,阿里对大模型布局的“全尺寸、全模态、全场景”战略进一步加深,在多模态、跨模态领域更新加快。

  性价比成企业择模关键

  大模型行业竞争日趋激烈,头部公司积极卡位,争取在竞争中占据更有利位置。枫清科技创始人兼CEO高雪峰认为,这种良性的竞争,将进一步缩短国产大模型与国外大模型之间的差距。

  各家模型都有自己的优势场景,企业也不会只用一家模型。陈鸿认为,模型优势的变化很快,基本按月、季度迭代,每次基座模型的迭代和更新,团队都会用实际任务去做评测,选择对应最好的。

  “2025年初我们还在使用海外的ChatGPT4.5,当时它的效果最好,但DeepSeek推出后,虽效果略逊一筹,价格却仅为前者的十分之一,几乎成为无可替代的选择。”陈鸿说,业界可能执着于模型在基准测试中的排名,但对企业而言,性价比远比“第一”更重要。

  大模型的调用成本也在持续下降。陈鸿透露,从暖哇科技的业务来看,2025年初到年末,客户的token调用量实现多倍增长,但token调用费用却大大降低。

  高雪峰也发现,2025年大模型整体的Token成本明显降低。DeepSeek、阿里、字节等主流的通用大模型在2025年都进行了大幅降价,目前,国内主流商用模型API已经进入“厘时代”。看向未来,成本的持续下降是AI技术创新发展的必然,也正因如此,AI才能真正从C端尝鲜迈向B端规模化落地,从而发挥更大的作用和价值。

  对于节前大模型行业的密集发布与更新,大模型生态社区OpenCSG(开放传神)创始人陈冉则认为,这是行业进入了一个新的“工程化成熟期”的标志,从拼规模转向拼效率与落地能力。

  高雪峰进一步表示,开源正在加速技术迭代并大幅降低成本,使大模型从少数巨头能力走向产业基础设施。随着成本持续下降,AgenticAI智能体将从“能对话”迈向“能执行、能创造价值”,智能体时代的黎明即将到来。

  随着巨头的持续发力,高雪峰判断,通用大模型行业的马太效应将日益凸显,呈现出强者恒强的局面,中小玩家的机会更多出现在细分行业和领域,如制造、金融、教育、医疗等领域的大模型。

  工程化落地成新赛道

  技术方向上,多模态、Agent等方面已在行业内形成共识,但在实际落地过程中,成本把控能力、推理能力、工程化能力等方面逐渐成为考验模型厂商的重要指标。

  Kimi创始人杨植麟表示,Kimi本身预训练策略乃至整个模型的设计策略,都是围绕两个维度展开:提升tokenefficiency(token效率)是Kimi团队认为进行预训练时一项极为重要的指标与优化方案;第二个维度是实现longcontext(长上下文),因为延长上下文能有效降低损失,这也解释了为何当前许多复杂的Agent任务必须在超长上下文中才能完成——延长上下文必然会降低loss,而一个优秀的架构能使损耗下降得更多。

  紫荆芯界产品副总裁邵巍注意到行业模型和应用发布的节奏正在加快,有公司提速至每半年一次发布旗舰模型,甚至缩短到了四五个月一次。这说明一方面,负责软件开发的员工在不断推进模型的研发;另一方面,负责应用开发的员工也在持续迭代更新。无论是长上下文还是Agent等方面的发展,实际上都对推理能力提出了更高的要求。

  大模型的频繁更新对需要完成硬件适配的企业用户难言友好。客户既要求功能全面又要求性能卓越,这使得近期大模型行业除了产品的密集更新,还要与产业链上下游加速联动,在软硬双端从算法与架构层面降低行业成本上下功夫。

  在浙江算力科技董事长钱敏勇看来,实施路径上,推理成本的降低短期内仍依赖工程优化,包括整体架构、算法以及软件栈的优化。但从长期角度来看,新型硬件和芯片的创新将会带来更为深远的影响。

  炜烨智算董事长兼CEO周韡韡认为,AI已经从“看中学”阶段发展到了“干中学”的阶段。在基础设施方面,基础设施模型及其生态系统将会朝着基模生态一体化的方向发展。行业已经结束了模型的盲目竞争,进入了以推理能力为主导的时代。

  据第一财经、澎湃新闻等