算力产业链三大核心硬件解析(附股)

  • 爱股票APP
  • 2025-01-25 01:13:14
【算力产业链三大核心硬件解析(附股)】全球AI军备竞赛重磅升级!

特朗普刚刚宣布了一个堪称史上最大规模的AI基础设施投资计划。

这个由OpenAI、软银和甲骨文联合成立“星际之门(Stargate)”项目计划将在未来四年内投资5000亿美元,建设全新的AI基础设施,创造10万个工作岗位,目标赋能人类所有行业。

其中软银和OpenAI作为主要合作伙伴,分别负责财务和运营。

技术层面,Arm、微软、英伟达、甲骨文和OpenAI将作为核心技术合作伙伴,英伟达提供GPU和AI技术支持、Arm提供芯片技术支持、甲骨文提供技术和计算资源支持。

预计Stargate项目将会全面拉动光、铜、数据中心互联、电力资源、储能系统、小反应堆、液冷系统、光模块、交换机、PCB等各大AI基建领域。

本文重点梳理服务器、光模块和交换机三大核心AI基础设施硬件。

01 服务器

服务器是AI数据中心执行计算任务的核心设备,负责处理存储和传输数据,能够支持大规模数据处理、模型训练、推理计算等复杂任务。

在AI大模型发展早期,AI服务器需求以模型训练为主,随着生成式AI应用高速发展,未来推理型服务器有望逐渐成为市场主流。

AI算力需求进入从训练推动到推理推动的拐点,推理AI服务器产业链有望成为最明确的方向。

AI服务器领军企业方面,全球代表厂商包括戴尔、超微电脑、HPE、甲骨文、惠普、联想集团、浪潮信息、新华三、宁畅、超聚变、中科曙光、拓维信息等。

ODM代表厂商包括鸿海精密、富士康、英业达、广达电脑、纬创资通、工业富联、Supermicro等。

随着AI集群算力加功耗上升,将推动液冷散热和高端电源需求。

英伟达CEO黄仁勋曾明确表示,液冷技术是未来趋势,将带动整片算力散热市场全面革新。

当服务器功率密度普遍超过20kW时,将推动数据中心从风冷向液冷技术的转变。

液冷技术通过液体的循环流动带走发热部件的热量,能够更有效地降低设备的温度……点击链接看全文网页链接
算力产业链三大核心硬件解析(附股)