算力:数字经济的新引擎
上QQ阅读APP看书,第一时间看更新

1.2.4
当前算力发展的特征

从技术角度来看,算力是涵盖计算机硬件和软件、信息通信在内的综合性交叉学科;从产业角度来看,算力是信息产业的重要组成部分,主要包括算力设施的建造、算力服务业等;从基础设施角度来看,算力是“新基建”的重要内容,既包括大数据中心等直接提供计算能力的基础设施,也包括电信网络等实现数据传输的基础设施。

与土地、劳动力、能源、资本等传统要素所反映的竞争力不同,算力具有特别的技术特征和经济属性。从经济层面讲起,它具备一些典型的经济特征。

1.算力的获得、算力竞争力的打造,具有高投入、高风险、强外部性和高垄断的经济特征。这些特征决定了算力竞争主要由大国和大企业参与,需要更强的资金和技术实力、现代化的产业体系和技术体系、丰富的应用场景提供支撑。

2.算力的投入巨大,它的物质基础是数据的获取、传输、存储和处理系统,其中每一个环节的建设都耗资巨大,而且很多设施具有公共产品属性,属于新科技革命和产业变革中重要的基建,其投资建设往往需要依靠政府和大型企业。

据中国信通院预测,2025年国内5G网络投资累计将达1.2万亿元,而这只是形成算力的一个环节。算力的形成还需要大量运营、维护和升级成本。中国信通院的分析认为,2020年数据中心建设投资3000亿元,到2023年,数据中心产业投资累计或达1.4万亿元。

另据研究机构Gartner的数据,2018—2020年,中国数据中心系统支出占IT支出的比重逐年提升。2020年中国IT支出达到2.84万亿元,其中数据中心系统支出2508亿元,占IT支出比重达8.8%,图1-3呈现了2018—2021年中国数据中心系统支出占IT支出的比重情况。

图1-3 2018—2021年中国数据中心系统支出占IT支出的比重情况

来源:Wind,中信证券投资顾问部

我国数据中心已成为典型的“耗能大户”,据国网能源研究院预测,到2030年,我国数据中心用电量将突破4000亿千瓦时,占全社会用电量的比重为3.7%。

另外,国际环境保护组织绿色和平与工业和信息化部电子第五研究所计量检测中心(广州赛宝计量检测中心)联合发布《中国数字基建的脱碳之路:数据中心与5G减碳潜力与挑战(2020—2035)》的数据显示,2020年全国数据中心机架数为428.6万架,根据各区域分布系数进行合理加权外推,估算出2020年全国数据中心能耗总量约为1507亿千瓦时,碳排放量高达9485万吨。该报告同时预测,到2035年,中国数据中心和5G总用电量是2020年的2.5~3倍,将达6951~7820亿千瓦时,将占中国全社会用电量5%~7%。

很多国家和地区都对数据中心的耗能进行了严格限制,进一步挖掘数据中心的节能减排潜力,扩大绿色能源对数据中心的供给,提升数据中心建设的能效标准。

3.算力设施的投资和建设风险比较高。一方面,算力技术进步快,技术路线充满变数,一旦出现颠覆性的技术,技术路线发生变化,都可能造成前期研发和设施作废。目前来看,主力国家与核心企业都会在若干条技术路线上进行突破,保障了国家层面不会因为技术路线的重新定义,在未来算力竞争中被彻底边缘化,但投入成本很高,分散了研发资源和资金,那些能力有限的国家和地区只能采取跟随策略。

另一方面,虽然算力系统或算力网络的构建需要大规模投资和长期建设,但仅从数据中心来看,其建设并没有太高的门槛。大量中小型数据中心的建设会造成产能过剩和竞争过度问题,降低算力投资回报率。

4.算力产业具有很强的正外部性。作为新科技革命和产业变革中的基础能力,算力的提升与应用不仅会形成自身庞大的产业体系,同时会增强对其他产业的赋能,进一步夯实产业数字化转型的基础,这是算力正外部性的表现。也就是说,掌握更强技术的国家和企业,能够促成新兴产业的发展,并且进一步推动传统产业的转型升级。

从技术方面来看,当前算力发展至少呈现出5个特点:一是算力需求持续高速增长,运算速度不断提升;二是算力需求不断对硬件提出挑战;三是多种算力架构并存并快速发展;四是针对图像、语音等特定领域的专用算力日渐成势;五是泛在计算成为算力的新特征。

1.算力需求持续高速增长,运算速度不断提升。在过去几年时间里,算力的增长有目共睹。据OpenAI在2018年发布的报告,自2012年至2018年,AI算力需求增长超30万倍,相当于AI训练任务所运用的算力每3.43个月就要翻一倍。

以超级计算机为例,近20年来的进步非常明显。2010年,中国“天河一号”每秒浮点运算达2600万亿次。到2020年,中国的“神威·太湖之光”每秒浮点运算达93千万亿次,“天河二号”的每秒浮点运算达6140万亿次。2021年,日本富岳达到每秒浮点运算442千万亿次。

以云服务器为例,2019年华为推出新一代云服务器,包括通用计算增强型实例C6和通用计算基础型实例S6正式商用。其中,C6云服务器的计算性能比2018年的C3ne领先15%,S6比上一代S3的计算性能提升15%以上。

在2021第五届未来网络发展大会上,华为董事、战略研究院院长徐文伟的判断是,下一个十年,联接数量将达到千亿级,宽带速度每人将达到10Gbps,算力实现100倍提升,存储能力实现100倍提升,可再生能源的使用将超过50%。围绕信息和能量的产生、传送、处理和使用,技术需要不断演进。

2019年,百度发布昆仑云服务器,该服务器基于百度自主研发的云端全功能AI芯片“昆仑”而生,运算能力比基于FPGA的AI加速器提升了近30倍。

2020年,阿里云推出第三代神龙云服务器,与上一代相比,第三代神龙云服务器的综合性能提升160%。它提供了最多208核、最大6TB内存,云盘IOPS高达100万、网络转发高达2400万、网络带宽高达100G,均为高性能水平,支持CPU、GPU、NPU(嵌入式神经网络处理器)、FPGA等多种计算形态,具备30分钟交付50万核VCPU的极速扩容能力。

从2010年到2020年,阿里云的存储性能提升了2000倍,网络性能提升了50倍,整体算力以平均每12个月翻一番的速度增长,向摩尔定律的极限发起挑战。

2.算力需求不断对硬件提出挑战。算力的增长对芯片提出了新的要求,包括高算力、高能效、灵活性与安全性,而传统芯片架构并不能满足这些要求。传统芯片“算力增长慢”束缚了智能化水平的提升,“计算能效低”限制了智能化范围的扩大。

再者,巨量的数据和多样的数据类型,导致串行计算的CPU难以满足多元计算场景的要求,计算芯片种类走向多元化,GPU、FPGA、ASIC等跻身主流应用。

我们能看到,硬件世界已发生颠覆式变化,除了CPU、GPU、DSP、FPGA等,还涌现出各种各样的AI加速器。苹果、华为、百度、阿里等公司都推出了内置AI算法的芯片,应用场景多以云端为主。

同时,GPU算力的需求不断增加,英伟达在GPU算力市场占有一定优势,AMD也分了一杯羹,叠加比特币挖矿算力需求,一度导致市场上GPU卡供不应求。

国内也出现几支GPU方面的创业团队,如寒武纪、登临科技、燧原科技等。此外,RISC-V、存算一体化架构、类脑架构等算力也不断涌现,处于培育阶段。

Google的TPU(张量处理器)就是典型的例子。Google于2016年发布首款内部定制的AI芯片,推出第一代TPU,采用28nm工艺制程,功耗大约40W,仅适用于深度学习推理,在那场世界著名的人机围棋大战中助力AlphaGo打败李世石,宣告并不是只有GPU才能做训练和推理。

一年后,Google发布了能够实现机器学习模型训练和推理的TPU V2,达到180TFlops浮点运算能力。接着是2018年的第三代TPU,性能是上一代TPU的2倍,实现420TFlops浮点运算能力,以及128GB的高带宽内存。2019年,Google并没有推出第四代TPU,而是发布第二代和第三代TPU Pod,可以配置超过1000颗TPU,大大缩短了在进行复杂的模型训练时所需耗费的时间。

2021年5月,谷歌发布新一代AI芯片TPU V4,主要与Pod相连发挥作用。每一个TPU V4 Pod中有4096个TPU V4单芯片,能够将数百个独立的处理器转变为一个系统,每一个TPU V4 Pod就能达到1EFlops级的算力,实现每秒1018浮点运算。在相同的64芯片规模下,不考虑软件带来的改善,TPU V4相较于上一代TPU V3性能平均提升2.7倍。

与GPU相比,TPU采用低精度计算,以降低每步操作使用的晶体管数量,是同代CPU或者GPU速度的15~30倍。同时,TPU还可以进行池化,实现了TPU之间的高速互联,也就是TPU Pod,并对外提供TPU算力服务。

硬件的变革不仅体现在芯片本身,作为芯片重要载体的服务器,也面临着变革。以CPU为中心的传统服务器,正转向以XPU(互联芯片)为中心的下一代服务器。

国内不少企业正在布局。2018年,华为发布麒麟980芯片、昇腾910芯片;2019年推出基于ARM架构的鲲鹏920芯片,以及基于鲲鹏920芯片的TaiShan服务器、华为云服务,其芯片产品已覆盖云端(服务器端)和终端(消费端)。同样是2019年,华为发布了Ascend 910(昇腾910)AI处理器和MindSpore计算框架,并且AI芯片Ascend 910正式商用,每秒可处理1802张图片,其算力是同一时期国际一流AI芯片的2倍,相当于50个CPU;其训练速度比当时的前沿芯片提升了50%~100%,进而推动AI在平安城市、互联网、金融、运营商、交通、电力等各领域的应用。

从芯片的变化来看,随着7nm工艺制程日渐成熟,基于7nm工艺制程的CPU、GPU等算力性能得到极大提升,目前7nm工艺制程算力主要是中心化算力,移动端智能手机的处理器算力部分也已采用7nm工艺制程。台积电的7nm工艺制程已实现规模化,并开始攻关3nm工艺制程;中芯国际7nm工艺制程仍在技术攻关当中。

3.多种算力架构并存并快速发展。曾经,x86架构的算力占优势,英特尔和AMD基本垄断了x86算力架构市场,海光信息通过跟AMD合作,获得x86架构的授权;目前移动APP基本都是在端侧以x86架构为主的指令设置,未来APP复杂的计算任务将全部搬到云上,以x86为主的架构运行效率会变低,那么,云侧算力将从x86转到ARM架构。

我们也能看到,如今基于ARM架构的算力份额不断扩大,特别是在移动端,ARM架构算力成为主流,华为海思、天津飞腾等主要产品都是基于ARM架构。

同时,协同计算也是当前算力的典型特征,应用场景的复杂多样,产生复杂多样的数据,要求多种计算技术、计算维度协同处理。未来数据计算需求将去中心化,分布在边缘侧,从而实现端、边、云协同的新形态,把要求高的隐私保密性放到边缘侧进行计算,而把大数据运算和存储业务安排到中心侧进行运算,让端、边、云三方共同完成计算和存储业务。

相对传统中心化的云计算,端、边、云协同计算的反应速度更快,时延更低,还能降低功耗和成本,同时能更好地解决隐私安全问题。

4.针对图像、语音等特定领域的专用算力日渐成势。一方面是芯片工艺制程逼近摩尔定律的极限,另一方面是物联网智能终端对算力提出更丰富的要求,针对图像、语音等特定领域的专用芯片层出不穷。谷歌的TPU专为机器学习定制算力,阿里平头哥的含光NPU专为神经网络定制算力,赛灵思的FPGA芯片为5G、AI加速等领域提供算力,百度研发针对语音领域的鸿鹄芯片,还有云知声、思必驰、探境科技等也推出智能语音相关的芯片,北京君正、云天励飞、依图科技和芯原微电子等推出针对视觉和视频处理相关的专用芯片。

5.泛在计算成为算力的新特征。数据在哪里,计算就在哪里。随着数字化应用场景不断丰富,大数据泛在分布于端、边、云。从本地计算的集群到超大规模的数据中心,从边缘计算到端云协同,计算无处不在。

边缘计算迅速发展,将云本身的功能扩展到边缘端,并且边缘计算、中心云、物联网终端形成“云—边—端”协同的体系,降低响应时延,减轻云端压力,降低带宽成本。例如,阿里云的边缘节点服务(Edge Node Service, ENS)与边缘云计算平台;华为云的智能边缘云(Intelligent EdgeCloud, IEC);腾讯云的边缘计算机器(Edge Computing Machine, ECM);百度智能云的智能边缘组端云一体解决方案(Baidu Edge Computing, BEC);金山云的边缘节点计算(Kingsoft Cloud Edge Node Computing, KENC)等。