南京证券研究员高宏表示,人工智能GPT模型:GPT是“Generative Pre-Training”的简称,是一种生成式预训练的语言模型,核心组成要素如下:
底座:算力。算力资源是人工智能和数字经济发展的重要底座,主要包括AI芯片、GPU、服务器、云计算、数据中心等。
模型:算法。预训练大模型,算法技术是连接产业链基础层与应用层的桥梁,包括各种深度学习框架、底层算法、通用算法和开发平台等。
输入:数据。属于上游“原材料”,包括数据采集、数据清洗和人工标注等板块,投喂数据给模型,包括文字、图片、语音、视频等,GPT模型先在大规模语料上进行无监督预训练、再在小得多的有监督数据集上为具体任务进行精细调节。
输出:应用。将AI模型进行商业化应用(如AIGC、ChatGPT、搜索引擎等领域)、创新应用场景,主要提供各种行业解决方案、硬件和软件产品。
高宏表示,要推进数字经济建设,算力是重中之重:为实现AI大模型训练、科学计算等高算力需求工作,需要使用数百甚至上千个GPU组成的计算单元作为算力基础评估、优化模型的配置和参数。为了使这样一个庞大的计算单元能够有效发挥其效率,需要使用低延迟、高带宽的网络联接各个服务器节点,以满足服务器/GPU间计算、读取存储数据的互联通信需求,同时对整个集群系统进行管理。服务器集群的网络系统包含服务器、网卡、交换机、线缆(包含光模块)等主要硬件。总而言之,要想实现AI大模型,算力是重要的基础,不仅仅需要顶级的数据中心,更需要更高带宽/更低时延的数据传输网络。
具体来说,就需要提到近年来一直推进的“光进铜退”战略,就是用光纤代替铜进行网络通信、数据传输。有三个好处:一、光纤原料是二氧化硅,随处可见,二、光纤传输的带宽非常高,三、发热小,就意味着能耗低。当然仅有光纤线路也不行,还需要配套的光模块,简单来说就是一边把电信号转换成光信号,发射激光进入光纤,另一边接收激光(光信号),再转换成电信号。一开始的时候转换的速率低一些,带宽也低一些,大概20G,40G,50G,但是发展非常快,产业需求催生技术升级,目前最先进的光模块已经达到800G。极大地提高了传输数据的速率。
算力网络的建设,当以运营商为核心:根据工信部数据,数据中心:三家基础电信企业为公众提供服务的互联网数据中心机架数量达81.8万个,全年净增8.4万个。
总的来说,数字经济早有国家政策大力扶持,今年以来,ChatGPT的推出,直接将量变引向质变。在这个过程中,需要把握住“算力”的核心主线,围绕“算力”,包含了巨大而广泛的新基建建设,更高带宽/更低时延的数据传输网络、更加高效/节能的数据中心等等。而如此巨大的项目,运营商群体具备先天的优势,不仅仅包括通信网络的完善架构,还包括强有力的资金支持。
(以上内容仅供参考,不作为投资决策依据。投资有风险,入市需谨慎。)
南京晨报/爱南京记者 许崇静