CICC:东方数字和西方计算就绪人工智能芯片有望受益。

“东算西算”工程全面启动,西部数据中心更加重视存储备份、离线处理等工作。该机构分析师认为,AI超算中心专注于训练任务,计算能力强、功耗高、延迟弱的特点符合西部枢纽的功能定位,叠加AI的国家战略地位。该机构分析师预测,AI超算中心有望受益于“东算西算”。云AI芯片作为计算能力的基础,市场空间广阔。该机构分析师预测,2025年云AI芯片全球市场规模将达到2665438+亿美元。

摘要

AI芯片是人工智能的计算能力基础,云端的AI芯片可以一步步满足AI推理和训练的需求。在AIoT提供海量数据,深度学习算法日趋成熟的当下,AI芯片作为AI应用落地的计算基础的重要性日益凸显。这家机构的分析师看到:1)终端AI芯片追求低功耗的推理任务,面向实际落地场景需求,在能耗/计算能力/延迟/成本上存在差异;2)边缘AI芯片在终端和云端之间,承担低延迟、高隐私要求、高网络带宽占用的推理或训练任务;3)云AI芯片针对高计算能力/训练任务,包括CPU/GPU/FPGA/ASIC等类型。该机构分析师认为,云训任务符合西部枢纽定位,云AI芯片有望受益于“东算西算”。

传统的通用芯片CPU/GPU/FPGA部分满足了AI的需求,GPU凭借其高计算能力成为主流选择。传统CPU遵循串行执行模式,计算单元占比小。各厂商试图通过提高主频/计算单元数/核心数来提升运算能力,但由于成本/功耗/技术难度等原因,目前仍没有一款符合AI要求的主流CPU产品。GPU的计算单元比例高,适合大规模数据的并行处理。虽然功耗和成本仍然较高,但高计算能力适应深度学习等算法的数据处理要求,叠加成熟的生态CUDA。GPU已经成为云AI芯片的主流选择。此外,FPGA因其可编程性而更加灵活,分别在计算能力/功耗/成本(小规模)上比CPU/GPU/ASIC更有优势。该机构分析师认为,在芯片需求不成规模、AI算法不断迭代的背景下,FPGA因其可重构特性成为最佳选择之一。

在AI云计算能力需求的驱动下,ASIC/DPU等专用芯片应运而生。由于ASIC是一种特殊的芯片,在研发成本和灵活性上有所欠缺,但其在特定使用场景下高计算能力/低功耗/小面积的优势仍然吸引着国内外厂商积极布局,如TPU、类脑芯片等。该机构分析师认为,AI渗透率的提升和RISC-V开源指令集的发展有望推动ASIC单位芯片成本的降低,形成“规模效应-成本降低-应用规模提升”的良性循环,有望成为未来的主流选择。DPU通过卸载CPU网络传输、数据安全、存储加速等功能,优化数据中心的基础计算任务,将CPU的计算能力释放给上层应用,从而提升数据中心层面的计算能力。该机构分析师认为,DPU有望与CPU、GPU三足鼎立,成为数据中心的核心计算能力支撑。