刀片服务器机柜功率怎么样的机房合适用数据中心微模块


3月29日消息

3月29日消息,位于海南文昌国际航天城的首都在线海南国际数据和算力服务中心于近日取得新进展,一期项目已完成封顶,目前即将完成楼内机电设施安装工作。
项目规划建设用地约60亩,建筑总面积约2.21万平方米,项目将打造成T3+级机房。项目总设计约2000个机柜,单机柜平均功率6KW以上,其中一部分规划为10KW以上的超算机柜,算力规模达100P。
一期建设范围包含超算机房、标准机房及2个核心机房,共计313架,以及212个机架的预留空间,随时为客户提供定制化需求,预计2023年6月30日前投入使用。

《绿色节能液冷数据中心》白皮书

《绿色节能液冷数据中心》白皮书,百亿增量空间
中科曙光牵头发布的液冷数据中心白皮书


1、英维克:精密温控节能解决方案提供商,算力时代加速液冷产品线升级

2、申菱环境:专用空调设备提供商,助力数据中心低碳节能发展


3、高澜股份:纯水冷却设备出身,逐步向新能源、信息通信热管理拓展


4、同飞股份:深耕工业温控领域,凭借液冷技术积累发力数据中心领域


5、佳力图:专注机房环境节能控温设备,延伸至下游IDC优化产业链布局


6、依米康:以精密空调起家的数字基建全生命周期绿色解决方案服务商

最近财政部、生态环境部、工业和信息化部联合印发关于《绿色数据中心政府采购需求标准(试行)》的通知,要求采购人采购数据中心相关设备、运维服务时,按照《需求标准》实施相关采购活动。
并将于2023年6月1日起施行。其中要求,数据中心相关设备和服务应当优先选用新能源、液冷、分布式供电、模块化机房等高效方案。PUE>1.4将不再采购数据显示,功率密度越高,液冷越有经济性。功率密度低的传统服务器,采用风冷即可。密度为10kW/机架时,成本与液冷持平。密度达到40kw/柜时,液冷每瓦降温投资成本比风冷少1美元。而AI集群算力密度普遍达到50kW/柜,液冷在未来必然成为主流方案

白皮书的发布和政策的引导下,液冷温控市场将迎来百亿的增量空间
算力需求提升带动服务器功耗走高,液冷散热成为有效解决方案。随着大模型等系列AIGC产品的商业化落地,未来AI集群算力密度普遍有望达到20-50kW/柜,自然风冷技术一般只支持8-10kW,风冷、水冷在机柜功率超过15kW后性价比大幅下降,液冷散热方案的能力与经济性优势逐步凸显。



数据中心液冷技术路径主要有冷板式液冷、浸没式液冷、喷淋式液冷三大类。目前市场上主流的液冷技术共有冷板式、浸没式和喷淋式三种。对比来看,冷板式液冷技术改造成本低、技术最成熟,浸没式和喷淋式液冷技术冷却效果更好,但改造成本高,且现阶段落地应用较少



我国IDC温控市场不断扩容,国产品牌市场份额持续提升。21年我国机房专用空调市场规模达50.09亿元,同比增长14.9%,风冷技术仍然占据主导地位。竞争格局方面,英维克、申菱等国产品牌的份额持续提升。随着AI服务器需求量的快速增长、国产温控厂商将迎来全新的发展机遇



预计国内互联网厂商推出大模型将带来近百亿液冷解决方案市场增量空间,TCO优势逐步凸显。根据我们的测算结果,国内互联网大厂AIGC算力模型的应用有望带来34.41亿冷板式液冷增量与58.99亿元浸没式液冷增量,总计93.4亿元液冷解决方案市场空间。

首都在线在投资者互动平台表示

首都在线在投资者互动平台表示,公司与燧原科技的合作开展顺利,已完成了测试平台的搭建,并向特定用户展开模型测试。位于海南文昌国际航天城的首都在线海南国际数据和算力服务中心项目总设计约2000个机柜,单机柜平均功率6KW以上,其中一部分规划为10KW以上的超算机柜,算力规模达100P。目前,一期项目已完成封顶,即将完成楼内机电设施安装工作,预计2023年6月30日前投入使用。

AI芯片液冷全梳理

AI芯片液冷全梳理


1、芯片级液冷成主流散热方案

1)机柜功率超过15kW,风冷已趋于能力天花板;

2)IDC中心PUE监管趋严,要求至1.25/1.2以下;

3)冷板式已较多应用,浸没式将成主流方案。




2、AI服务器散热投入明显增长

1)单KW功耗散热投入增至4倍:

风冷成本约3000元/kw,冷板式液冷约4000元/kw,浸没式液冷约12000元/kw。

2)服务器成本占比提升至2.5-3倍:

单台普通服务器功耗约400w,售价约6万,风冷散热价值量约1200元,占比约2%。

AI服务器以浪潮NF5468M6为例,包括2颗in­t­el lce La­ke处理器和8颗NV­I­D­IA A800 GPU ,功耗约4kw,售价约88万;支持配置液冷,浸没式液冷价值量4.8万元,占比约5.5%。




3、AI芯片液冷产业进入放量期

匡算AI服务器芯片级液冷2025年全球、中国市场规模223-333亿元、72-108亿元。

匡算通用服务器芯片级液冷2027年全球乐观702-941亿元、国内乐观203-272亿元




4、温控液冷的四大认知差

认知差一:政策没有明确支持?

近日工信部表示,到2025年底单位电信业务总量能耗下降幅度需达到15%、新建大型/超大型数据中心PUE值需低于1.3;如要满足高能耗算力需求,液冷将成为新建数据中心的必须选项。

认知差二:产业需求不是刚需?

AI算力需求提升大幅带动服务器能耗走高,未来AI集群算力密度预计将达到40+kw/柜。机柜功率大于15kw后,液冷方案性价比凸显;机柜功率大于20kw后,液冷方案成为唯一解决方案。预计2025年浸没式液冷数据中心渗透率有望达到40%以上。

认知差三:行业门槛低竞争格局差?

当液冷成为主流解决方案后,其安全性将形成极强的技术壁垒。作为底层算力核心配套设施,液冷解决方案的安全可靠,不仅决定能耗多少,同时亦决定了相关算力集群的安全稳定程度。行业领先厂商的先发优势将形成极大的后续成长壁垒,下游厂商跑马圈地阶段试错成本极高。

认知差四:相关公司业绩缺乏弹性?

预计2025年AI服务器芯片级液冷全球市场空间将达到300亿元、通用服务器芯片级液冷市场空间将达到800亿元,较2022年市场规模成几何级增长。随着AI服务器的快速放量,解决方案将从“风冷-水冷-液冷板-浸没式”不断升级,产品价值量也将逐步攀升,预计浸没式解决方案AI服务器成本占比将达到近6%。




5、相关上市公司

英维克:21年公司全链条液冷解决方案已实现单机柜200kW批量交付,截至23年3月已经完成总计500兆瓦液冷项目交付;为超聚变等提供全链条液冷解决方案。

高澜股份:22年三季报合同负债0.87亿较2021年底增109%,主要系服务器液冷产品预收款增加所致;已与国产GPU企业芯动科技达成战略合作;已与国内大型互联网公司形成合作关系。

申菱环境:液冷解决方案已应用于超算中心和互联网数据中心,募投项目建成后能够进一步扩大数据中心液冷机组的产能。

网宿科技:下属绿色云图研发的 DLC 直接浸没式液冷技术已进入商用阶段,与戴尔科技集团聚焦浸没式液冷技术展开战略合作。

飞龙股份:电子水泵技术国内领先,应用场景从汽车向服务器等领域拓展,28日公告电子水泵系列产品和热管理系统产品中标某客户服务器系统、车载系统及充电桩等多个项目。

高澜股份新深度:AI­GC算力芯片级液冷新弹性

高澜股份新深度:AI­GC算力芯片级液冷新弹性

芯片级液冷成主流散热方案:

机柜功率超过15kW,风冷散热已趋于能力天花板;

英伟达GPU 功耗超700W,散热要贴近核心发热源;

IDC中心PUE监管趋严,要求要求1.25/1.2以下。

量价齐升百亿级市场规模

AI­GC、东数西算等带动IDC建设需求,液冷方案渗透率的提升有望带动数据中心温控市场的量价齐升。

匡算AI服务器芯片级液冷2025年全球、中国市场规模223-333亿元、72-108亿元。

匡算通用服务器芯片级液冷2027年全球乐观702-941亿元、国内乐观203-272亿元。

芯片级散热弹性有望超预期

公司可提供冷板式和浸没式液冷服务器热管理解决方案及集装箱液冷数据中心解决方案;

2022年三季报合同负债0.87亿较2021年底增109%,主要系服务器液冷产品预收款增加所致;

已与国产GPU企业芯动科技达成战略合作;

已与国内大型互联网公司形成合作关系。

一致行动人拟全额认购定增,定增后大股东及一致行动人股权比例由14.1%提升至25.8%。

$高澜股份(SZ300499)$ $芯片ETF(SH512760)$

云上天府智算中心预计4月底率先投用1428个机柜

云上天府智算中心预计4月底率先投用1428个机柜

图源:新浪
3月27日,位于德阳市旌阳区的云上天府智算中心,电力调试工作正在紧张有序地进行。据了解,该中心投用后可提供6120个平均功率5千瓦机柜装机能力,可容纳服务器约10万台,预计今年4月底,将率先投用1428个机柜。
来源:中国IDC圈
【冬邦互联】

人工智能产业链梳理——液冷服务器

人工智能产业链梳理——液冷服务器

算力需求和芯片技术工艺提升,共同推进了服务器单机柜平均功率增长,因此液冷服务器也将在未来面临高需求。

目前,全球高密集度、高供电密度的超大型数据中心已逐渐采用液冷技术。

根据咨询机构IDC预测,抛开传统的大规模数据中心不计,未来有大概20%的边缘计算数据中心也将采用液冷技术。

Re­s­e­a­r­c­h­A­n­d­M­a­r­k­e­ts数据显示,到2023年,全球液冷数据中心市场规模将达45.5亿美元,年复合增长率将达27.7%。

据赛迪顾问,到2025年我国液冷IDC市场规模将突破1200亿元,增速保持30%以上;渗透率现处于20%左右。

从政策方面来看,在“双碳”背景下,国家发改委指导政策指出全国新建大型、超大型数据中心平均PUE降到1.3以下,国家枢纽节点进一步降到1.25以下。

液冷技术在经济性与散热效率两个角度均满足市场与政策指导需求。

相关公司:


1.英维克:公司是国内较早进入通信行业户外机柜专业散热领域的厂商,在该领域公司通过直接将产品销售并服务于华为、中兴通讯、科信技术、El­t­ek等国内外主流的通信设备制造商。


2.高澜股份:当前公司重点布局方向为电化学储能,已有基于锂电池单柜储能液冷产品、大型储能电站液冷系统、预制舱式储能液冷产品等技术储备和解决方案。


3.申菱环境: 数据服务空调主要应用于新基建中的5G建设和大数据中心建设场景,主要客户包含华为技术有限公司,华为技术服务有限公司,曙光,浙江天猫供应链管理有限公司,大同斯达歌(秦淮数据),国防科技大学。公司作为华为机房精密空调的主要供应商,销售份额保持稳定且占比较高,华为定制类和中大型暖通设备主要向申菱采购,用于企业业务和运营商业务。


4.中石科技:公司提供的产品有热模组(尤其是液冷散热模组、高性能VC及热管)、导热垫片、导热硅脂、导热凝胶、导热相变材料、碳纤维导热垫等,目前已向国内外多家企业批量供货。


5.润禾材料:冷却液作为硅油和改性硅油的一个重要分支,是公司研发和生产的方向之
一。公司在对应的低粘度硅油与改性硅油方面拥有多项专利与保密技术,用于保证公司在相关材料领域的技术优势。


6.巨化股份:据衢州市政府2月23日官方消息,日前,浙江省高端化学品技术创新中心传出喜讯,国家重点研发计划重点专项数据中心液冷热管理材料研发与应用示范研发项目,取得突破性进展,成功研发出了数据中心浸没式液冷热管理材料,并实现批量生产。上述创新研发的浸没式液冷热管理材料,主要用于大数据处理中心运算处理器的冷却,不管是手机还是电脑浸泡在其中,都能够正常运行。该材料此前长期受制于国外,被列入“十四五”国家重点研发计划重点专项之后,该计划由巨化集团牵头,依托浙江省高端化学品研发创新平台,并与北京大学、中科院等9家单位联合研发,攻克了数据中心高效液冷与安全智能热控防护等关键技术,形成了千吨级工艺包,批量产品经第三方检测运用,全部指标达到要求。


7.精研科技:其官网披露公司散热业务具有数十年经验,直接服务于服务器、5G基站、定制化元件及模组等。
精研科技在2023年1月15号的电话会议中,董事长对于本企业的散热器业务解释如下:

1,有新技术,公司散热算是比较牛逼的。

2,公司获得了英特尔的认证,可以配合英特尔的芯片使用的。

3,公司进入英伟达的供应商,大陆企业是第一家进入的,其他进入的是台资企业和日资企业。

4,公司有新的散热方案技术,这个技术是英伟达专门让精研科技配合研发的。

5,技术是非常先进的,方案是英伟达给的,英伟达在散热方面采购是非常巨大的


8.曙光数创(中科曙光子公司)2019年首次实现浸没相变液冷数据中心产品C8000产品在国家级重大科研装置大规模部署。

$高澜股份(SZ300499)$ $英维克(SZ002837)$ $中科曙光(SH603019)$

怎么样的机房合适用数据中心微模块

怎么样的机房合适用数据中心微模块
  为解决用户不断变化的业务需求与低投资、高回报之间的矛盾,满足未来的云计算、虚拟化、刀片式服务器等高密低耗、快速部署、灵活扩展的需求,有效地提高数据中心的工作效率,控制投资成本,满足300m2以下数据机房快速部署的需求,才推出模块化数据中心机房。
  模块化数据中心是一套完整的数据中心解决方案,集机柜、配电、制冷、监控、综合布线、消防等系统于一体,实现了供电、制冷和管理组件的无缝集成。使模块化数据中心实现智能、高效的运行,让客户花费最少的投资,获得更多的收益,从而降低运营费用。
  产品特点
  快速部署
  
1.模块化数据中心在规划、设计时严格遵循国际标准,采用模块化设计,集成度高,易于安装。
  
2.模块化数据中心在出厂前完成机柜的预安装,现场只需接通机柜外部电源,固定机柜等简单操作后即可使用。
  
3.模块化数据中心采用空调水平送风,无须安装架空地板。
  安全可靠
  
1.模块化数据中心遵循Tier 3标准,设备安全可靠。
  
2.模块化数据中心在设计时充分考虑抵御自然灾害能力,具有可靠的电力、冷量供应,保证通讯网络的正常运行。
  
3.模块化数据中心配置完善的监控系统,可随时了解机房内的情况,提升机房的防盗能力。
  灵活扩展
  
1.模块化数据中心采用模块化设计,可灵活配置,满足快速扩容。
  
2.模块化数据中心在电力供应、通信端口上预留合理的余量,可实现灵活扩容。
  绿色节能
  
1.模块化数据中心采用精密送风和密封冷/热通道,降低能耗,避免冷热气流的混合。
  
2.模块化数据中心提高数据中心的能效,与传统数据中心相比,减少30%的能耗。
  模块化数据中心主要由机柜、密闭通道、供配电系统、制冷系统、智能监控系统、综合布线和消防系统组成。
  单个模块化数据中心按照最大28台机柜(包括服务器机柜、网络机柜、综合布线柜)配置。该模块(不包括UPS)占地面积为35 m2,加上模块外维护通道和给模块内空调供电的PDF柜,总占地面积不超过55 m2,模块总高度不超过2.65 m。机柜数量可根据客户需求成对减少。
  模块化数据中心最大可配置28台机柜,机柜包括服务器机柜、网络机柜和综合布线柜。
  智能管理系统
  智能监控系统具有集中管理功能,同时支持对监控系统的远程管理与维护,远程操作界面与本地操作界面保持一致。
  监控系统主要针对模块化数据中心基础设施层各组成系统,如配电、制冷、安防及环境等系统,系统内各组成设备或部件的运行状态进行实时监控。
  监控系统采用分层式架构,主要分为数据采集层、数据运算及信息处理层、智能管理平台层。
  监控系统通过对模块化数据中心基础设施层内的各设备、部件、环境运行参数及相关信息的实时采集分析、运算与处理,实现对数据机房运维及业务等全方位的智能化管理,以充分实现模块化数据中心的可用性、开放性与可扩展性,并确保数据中心的安全性。
  模块化数据中心的监控量做为集中监控系统中的一个组成部分,通过交换机,将信号统一上传至中心机房的服务器上。
  能源管理包括电源系统监控和机房能效管理。
  
1.电源系统监控:系统通过PDF、ATS、UPS及蓄电池上的智能仪表标配的RS485(或FE)接口,对机房供电系统各类电参数信息进行采集、分析,并通过人机交互界面进行实时显示。
  
2.机房能效管理:能效(PUE)管理是通过对机房总用电情况及机房IT设备用电量进行实时监测,以清晰反映出机房整体及机房IT设备电量消耗分布情况。并通过这些数据进行统计分析,计算出机房PUE值。
  传统数据中心机房的局部高密部署
  模块化数据中心可应用于传统数据中心机房,支持10~20个云计算高密服务器机柜的部署,支持单机柜功率密度为3kW~25kW。
  模块化数据中心可提供独立的工作空间和维护空间,可解决机房局部的热点问题,实现机房的节能改造。
  中小型中心快速建设
  模块化数据中心可应用于面积50m2~100m2的中小型数据中心机房内,支持水泥地面安装和架空地板安装。模块化数据中心组建快速灵活,可按需部署,建设周期比传统机房缩短50%。
  综合以上所述:微模块机房是传统机房的又一大进步,主要采用“密闭冷通道”方案,同时也支持“密闭热通道”方案。模块化数据中心主要应用于传统数据中心机房的局部高密部署和中小型机房的快速建设。具有快速部署、安全可靠、灵活扩展和绿色节能等特点。