chaguwang.cn-查股网.中国
查股网.CN

中兴通讯(000063)机构评级研报股票分析报告

 
个股机构研究报告机构评级查询:    
 

中兴通讯(000063):运营商力推液冷 中兴液冷技术领先 有望核心受益

http://www.chaguwang.cn  机构:信达证券股份有限公司  2023-06-06  查股网机构评级研报

事件:6月5日,在31 届中国国际信息通信展览会上,中国移动、中国电信、中国联通三家基础电信运营企业共同面向业界发布了《电信运营商液冷技术白皮书》。

    点评:

    运营商力推液冷应用,液冷渗透率有望提升,中兴通讯有望核心受益为推进电信运营商液冷技术应用,《电信运营商液冷技术白皮书》提出“三年景愿”,即2023 年开展液冷技术验证;2024 年开展规模测试,新建数据中心项目10%规模试点应用液冷技术,推进产业生态成熟;2025 年及以后开展规模应用,50%以上数据中心项目应用液冷技术。

    中兴通讯是运营商算力产业链核心合作伙伴,公司连续2 年取得国内运营商服务器市场份额第一,2022 年运营商市场X86 服务器以17.5 万台的发货量位居首位,公司已提前深度布局液冷技术:

    1)IDC 机房侧:公司已完成单板级、插箱级、机柜级、机房级四个不同维度的液冷技术攻关,于23 年Q1 推出全液冷系统解决方案,实现DC 液冷数据中心机房、IT 液冷服务器设备、CT 液冷路由交换设备一体化集成开发、交付,整机能耗预计可降低约5%,液冷数据中心PUE 可降至1.2 以下;2)服务器侧:全新G5 系列服务器支持不同的冷板式液冷方案,如CPU 液冷、CPU+内存条液冷,以及CPU+内存条散热+VR 液冷,冷板液冷占比最高可达80%以上,充分满足不同制冷需求,浸没式液冷方案还在研发当中;3)液冷路由器:中兴通讯与中国电信研究院和中国电信云计算公司联合建设T8000 核心路由器的冷板式液冷试验局。试验局实现核心芯片运行温度降低10℃,理论故障率约减少一半;大容量核心机房综合PUE≤1.2,解决了高功率路由器空调散热难的问题。

    公司作为全球领先的综合性通信制造业公司和全球通信解决方案提供商,致力于将液冷技术应用到通信领域,我们认为公司作为运营商算力产业链核心合作伙伴,在未来运营商液冷数据中心项目的建设中有望率先受益。

    运营商服务器市场:服务器产品实力强劲,在多个运营商项目中排名均位列第一我们认为2023 年数字经济建设是国家发展主线之一,算网基础设施建设或将逐步加快,2023 年三大运营商在算力方面的资本开支均保持20%以上增速,中兴通讯有望核心受益。

    1)公司在中国电信2022-2023 年服务器集中采购中实现全标包入围,总份额第一,其中标包1、4、6 中排名第一,标包2、3、7 中位列第二。

    2)公司在中国联通2022 云服务器集中采购中总份额第一,其中标包1 排名第一;在2022-2024 年中国联通国际服务器集中采购标段1 中排名第二;在2022 年中国联通人工智能服务器集中采购中排名第三;在2022 年中国联通通用服务器集采中总份额第二。

    3)公司在中国移动2019-2020、2020PC 服务器集采、2021-2022PC 服务器集采(网络云标包)中均排名第一;在中国移动2021-2022PC 服务器集采(第一批次)中总份额位列第二;在中国移动2021-2022PC 服务器集采(第二批次,1-6 标包)中总份额排名第三;在中国移动2022 政企客户算力服务器集采中排名第二;在中国移动集中网络云资源池第三期工程计算型服务器采购中排名第一。

    AI 服务器:产品性能强劲,成为“文心一言”可靠算力底座3 月16 日,据中兴通讯微信公众号,中兴通讯和百度联合宣布,中兴通讯服务器将支持百度“文心一言”,为AI 产品应用提供更加强劲的算力支撑,助力AI 产业化应用和生态繁荣。

    “文心一言”是百度基于文心大模型技术推出的生成式AI 产品,具备跨模态、跨语言的深度语义理解与生成能力,“文心一言”将通过百度智能云对外提供服务,为产业带来AI 普惠。

    在服务器产品方面,公司服务器产品全面满足百度定制化要求,针对百度智能云AI、深度学习的需求,中兴通讯服务器产品采用高密度、模块化、精细化设计,具有高性能、高可靠、易扩展、易管理等优势,在AI、云计算、大数据、NFV 等领域具有出色的表现,适用于百度大脑、飞桨深度学习平台。目前,公司服务器产品已规模应用于百度智能云,充分满足百度智能云不同业务场景差异化配置需求、资源分配和上云服务。我们认为此次合作体现了公司在提供AI 服务器解决方案的强大实力,公司服务器产品可充分满足AI 模型所需的蓬勃算力需求和庞大的数据吞吐量需求。未来,随着国产AI 模型持续发展,AI 下游应用的落地,模型推理算力需求有望带动公司AI 服务器持续放量。

    截至目前,公司最新的R6500 G5 GPU 服务器可支持20 张单宽半长GPU 加速卡,具备高密度算力、灵活扩展、异构算力、海量存储、稳定可靠等特性,双路最大支持120 核,AI 性能提升10 倍,为数字经济发展提供强大算力支持。在中兴通讯2022 年年报解读交流会上,公司表示年底有望推出支持Chatgpt 的GPU 服务器以及高性能交换机,2023 年运营商数据中心交换机营收有望倍增,同时公司是全球领先的 ICT 解决方案提供商,研发实力强劲,我们看好公司强劲技术研发实力在AI 等新应用领域的持续价值变现。

    服务器方面:市场份额快速提升,保持较高增速据IDC 数据,2022 年中国服务器市场规模为 273.4 亿美元(1888.37 亿人民币),同比增长 9.1%,中兴通讯2022 年服务器收入已达100.08 亿元;根据中兴通讯官网,2022 年,中兴通讯服务器及存储营业收入百亿元,同比增长近80%;据IDC 2022 年第四季度中国服 务器市场跟踪报告,Top8 服务器厂商中,浪潮、戴尔、联想份额均出现下滑,超聚变和中兴则取得明显增长,其中中兴通讯市场份额从3.1%提升至5.3%,位居国内第五。公司在今年新产品发布会上表示将快步实现服务器及储存产品国内前三(按照2022 年份额超10%以上)、全球前五的经营愿景。

    谷歌、Meta、百度等深度学习库均已接入中兴Adlik 架构,长期需求有望持续释放2022 年12 月28 日,公司联合英特尔共同发布《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书,本白皮书深入介绍了中兴通讯主导的开源项目Adlik 如何与英特尔OpenVINO 工具结合。为解决购买专用 GPU 硬件会大幅增加部署成本,而且应用范围有限,灵活度较低的问题,中兴通讯通过硬件创新和软件层面的深度优化,在部分场景中,如果能够直接使用CPU 来进行推理,将有助于降低成本,提升灵活度,白皮书指出通过中兴Adlik 可以对AI 模型进行自动剪枝、蒸馏,实现模型大小的优化,再通过OpenVINO的量化工具和推理引擎,对模型实现INT8 量化,从而实现模型压缩,以降低模型推理所需的计算资源和内存带宽,提高模型的推理性能。通过使用中兴Adlik+第三代英特尔"至强"可扩展处理器+ OpenVINO工具套件的组合,可使已完成训练的高精度AI 模型转换成参数较小、结构简单、精度基本不下降的AI 小模型,其性能与大模型接近,模型数据吞吐量更高,从而实现在不增加GPU 硬件,大幅减少部署成本的情况下,直接使用CPU 服务器即可满足模型的日常推理需求,成功实现降本增效,并使得模型更易部署在算力有限的场景下,比如自动驾驶车端场景。我们认为此解决方案能够实现AI 模型推理的降本增效,适用各垂直领域的AI 小模型有望加速落地,充分满足不同场景需求。

    Adlik 是用于将深度学习模型从训练完成到部署到特定硬件,提供应用服务的端到端工具链,其应用目的是为了将模型从研发产 品快速部署到生产应用环境。Adlik 可以和多种推理引擎协作, 支持多款硬件,提供统一对外推理接口,并提供多种灵活的部署方案。目前谷歌TensorFLOW,Meta PyTorch 和百度的PP 飞桨深度学习库都已能够接入Adlik 架构。随着Meta AI SAM 开源图像分割模型的问世,计算机视觉产业或将加速发展。由于SAM 中的图像编码器功能必须在PyTorch 中实现,并需要 GPU 才能进行高效推理,我们认为计算机视觉产业的发展有望进一步带动对Meta 深度学习库PyTorch 以及其他AI 互联网企业深度学习库的需求,公司adlik 软硬整体架构的需求有望提升。

    盈利预测与投资评级

    公司具有软件、硬件、芯片、操作系统等基础能力,将基础能力外溢赋能更多数字经济应用,有望打开公司第二成长曲线。我们预计公司 2023-2025 年归母净利润分别为 101.90 亿元、123.35 亿元、149.90 亿元,对应 PE 为 16.77 倍、13.85 倍、11.40 倍,维持“买入”评级。

    风险因素

    5G 建设不及预期、算力基础设施建设不及预期、中美贸易摩擦

有问题请联系 767871486@qq.com 商务合作广告联系 QQ:767871486
Copyright 2007-2023
www.chaguwang.cn 查股网