您当前的位置是:  首页 > 新闻 > 国内 >
 首页 > 新闻 > 国内 >

蓝汛首鸣:绿色数据中心的能效分析

2018-03-30 16:52:46   作者:   来源:CTI论坛   评论:0  点击:


  国外一项有关“为何需要绿色数据中心”的调查中发现,62%的企业认为,他们的数据中心面临着诸如散热、供电、成本等问题;23%的企业认为,其数据中心供电和散热能力不足,限制了IT基础设施扩展,或无法充分利用高密度计算设备;19%的被访企业认为,其数据中心的耗电量太大,费用超高,无法负担;还有17%的企业认为,机房温度过高,影响了计算设备的稳定运行,随之导致一系列问题的出现。
  因此,大多数企业的数据中心设施最严重的问题是:运算密度的提高导致用电密度的迅速加大,数据中心总体拥有成本随服务器的增加而成倍增加。过去的数据中心运算能力是目标,用电是“一般商品”,现在和未来的数据中心运算能力是“一般商品”,用电是焦点。《中国数据中心能耗现状白皮书》数据显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。
  蓝汛首鸣数据中心园区总建筑面积80000㎡、总规模 15000 个机柜,如何做到能源效率最大化的呢?对此蓝汛首鸣技术团队进行了以下分析:
  1、相较于传统数据中心所采用UPS的技术,蓝汛首鸣数据中心采用了高压直流技术,简化了配电系统设计,负载率80%情况下,结合监控系统数据动态分析,能效能提高3%-6%。同时,采用高效的BA管理系统,对制冷系统的整体管理精确到小时,大幅提高制冷系统的效率。冷机满载运行日节电8400KWH。
  2、在电源供应保障方面,首鸣采用两路来自不同变电站的市电接入,采用柴油发电机作为后备电源。同时按照 2N冗余配置、蓄电池后备满载供电15分钟,供电保障99.99%以上。与此同时,UPS(HVDC)采用了ECO节能模式,效率由93%大幅提升到99%。
  3、在冷却系统配置方面,首鸣采用冷水机组N+1冗余配置;蓄冷罐可持续满载10分钟以上;冷冻水管道系统为环路设计。此外,机房冷热通道分离,下送风、上回风,形成良好的气流组织形式,冷通道控制在18±2℃,热通道29±2℃,相对湿度控制在35%~60%之间;冬季和过渡季采用冷却塔和板式换热器联合的自由冷却节能制冷方式;设置专门的湿膜加湿系统和机房新风系统,确保机房环境。
  4、在此值得一提的是,其变频冷机、变频水泵、变频冷塔、变频空调均保证在不同的负荷条件下,变频冷机较传统冷机低负荷运行效率提升10%-20%。此外,冷热通道隔离、盲板封闭,从而保证冷风通道跟热风通道是完全隔离开,冷风能最大程度的应用到给服务器降温,避免冷风短路,较传统机房效率明显提高,PUE由1.8降低到1.4-1.5;而中温冷冻水系统,采用15度送水、21度回水,从而更大程度的利用板换,增加板换使用时间,制冷系统免费运行模式,利于节能减排。
  致力于打造高效的绿色数据中心,不仅是蓝汛首鸣节能减排的建设初心,也是为客户降低成本、提高能效,构建可持续发展的创新探索之路。
【免责声明】本文仅代表作者本人观点,与CTI论坛无关。CTI论坛对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。

专题