咨询QQ:
      杂志订阅

      编辑

      网管

      培训班

      市场部

      发行部

电话服务:
 010-82024981
设为首页 | 收藏本页
能效逻辑2.0::降低数据中心能耗成本及提高容量的新策略 (下)
  • 能效逻辑采用“由内而外”的方法推动IT负载能效及支持系统能效的改进。这种方法更具有策略性:在降低IT组件和设备层面能耗的同时,降低支持系统能耗,这使节能效应进一步放大——能效逻辑也正是利用了这种级联节能效应,使数据中心能耗大幅度地降低。
  • (6)智能ECO电源架构

    从历史角度看,数据中心的设计人员和管理人员很难平衡数据中心管理系统可用性和效率之间的关系。双变换式UPS系统可提供高可用性,但无法同时具备互动式UPS的高效率。双变换技术包括稳压稳频技术和更好地将敏感电子设备与市电进行隔离,但该双变换技术会产生一些能耗损失。

    然而双变换UPS技术的改进型弥补了效率方面的不足,双变换式UPS系统通过采用新的技术功能,实现智能ECO UPS的高效率。

    一般双变换UPS的变换过程约消耗4%~6%能源。但通过新的高效智能ECO方案可以提高UPS效率。当市电质量达到最佳时,智能ECO高效率变换过程可通过旁路实现。上述方案主要通过在UPS输出设计一个自动静态开关旁路。旁路工作速度较快,确保负载在旁路与逆变切换时对负载不间断供电。静态开关转移时间为4ms,以尽量避免引起IT设备断电的可能性。通过智能控制,UPS检测旁路市电在IT设备工作范围内时,UPS保持旁路运行状态而回避主路交流-直流-交流低效率运行方式。

    当UPS检测到供电质量下降到外界公认标准时,旁路断开,将电源切换至逆变器,从而纠正异常现象。逆变器须随时接受100%负载,这一状态须通过功率控制实现。切换必须不间断进行,以防关键总线的中断。较传统运行模式可节省4.1%~4.5%的能耗。

    UPS控制的另一个全新功能是智能休眠并联,它可帮助节省更多的能源。智能并联可通过休眠那些不需要支持负载运行的UPS模块及利用高负载率来实现内部的效率提升,从而提高整个冗余UPS系统的效率。

    执行UPS的智能ECO模式,采用智能休眠并联技术优化UPS至服务器及其他连接设备的配电路径可减少数据中心总能耗约4%。

    (7)温度和风量管理

    能效逻辑1.0主张机架布置时使用热通道/冷通道,并强调地板密封间隙的重要性。此外,还建议将冷冻水的温度提高至50°F(10℃)。该方法可降低总设施能源成本的1%,且几乎不需要进行技术投资。能效逻辑2.0结合了最初能效逻辑中的最佳实践,并通过密封技术、智能控制和节能,使温度、湿度和风量管理更上一个台阶,且颇受大部分数据中心的欢迎。

    从效率的角度出发,防止热风和冷风混合的首要措施是使机房空调的回风温度达到最大值。回风温度和显冷量间的关系如图6所示。图中回风温度每上升10°F(5.6℃),机房空调容量明显提高30%~38%,具体提高率主要取决于系统的类型。利用该附加容量可以使压缩机带载时间缩短,以及降低冷冻水流量来减少水泵功耗。同时提高机房空调的显热比(SHR),使其无限接近于1,并避免不必要的除湿。

    图6  机房空调的效率随回风温度的升高而提高

    机架安置于热通道/冷通道中,使用挡板遮挡机架开口时,该机架用作冷热通道间的屏障。但即使使用挡板,热风仍可从通道的顶部和两侧缝隙泄露出来,与冷通道的风混合。

    列间机房空调可在封闭环境中运行,以补充或代替外围冷却。其接近热源有助于控制温度和湿度,实现精确控制。通过将机房空调单元直接放至热源附近,可直接吸取最高温度的热回风,从而实现制冷效率的最大化。列间机房空调的缺点是将占据更多的IT机架空间,但通过能效逻辑2.0,可节省空间,从而消除此顾虑。

    智能控制允许将冷却控制的条件从回风温度控制转变为服务器温度控制,这对效率优化至关重要。通过服务器温度控制,确保压缩机/冷冻水容量和降低风量的最优匹配,同时提高冷风道的送风温度,使其接近美国采暖、冷却与空调工程师学会(ASHRAE)关于A1至A4类数据中心所规定的安全运行阈值(最大值为80.5°F;27℃)。据艾默生网络能源研究表明,冷通道送风温度每上升10°F(5.6℃),机房空调可节省20%的能耗。但送风温度过高会导致服务器风扇运行困难,使得在提高PUE效率的同时,实际上增加了整体的能耗。DCIM系统可通过比对机房空调温度和服务器能源消耗模式,以帮助确定最佳冷通道温度。

    在评估节约方法时,须慎重考虑室外空气对数据中心湿度的影响。在寒冷的冬天,通过新风节能系统引进外部空气会降低机房湿度,从而导致静电放电损害设备。使用加湿器将湿度控制在合理范围内,但其会消耗节能系统所节省的部分能源。而流体侧“板换”节能系统可避免该问题,其主要措施是在冬天利用外部冷空气来冷却液体(水/乙二醇),再利用回路中已冷却的液体作为空调系统冷源,而无需开启压缩机。该方法可确保外部空气无法进入封闭数据中心环境,从而避免处理室外新风。因此,数据中心通常优选流体侧节能系统。

    另一种流体侧节能系统主要使用SDC泵循环将冷却剂作为冬季的“Free cooling”系统。泵循环直接和压缩机并联,该方法省去其他节能系统的额外风扇、水泵或盘管。

    能效逻辑2.0的其他策略已显著降低机房空调的负荷,温度和风量管理可再降低5.2%的能耗。

    (8)可变容量冷却

    和IT系统本身一样,机房空调须按照峰值负荷的条件进行配置,尽管这在典型数据中心并不常见。因此,机房空调必须保证部分负荷运行时的效率。这对只能通过启停调节制冷量的传统机房空调是一个严峻挑战。现今的机房空调采用一系列新技术来提高部分负荷的运行效率,包括上述运用于温度和风量管理的技术。

    冷冻水机房空调中,用于地板送风的风机是最大的能源消耗设备。尽管变频器可显著改进传统定速风机效率,但EC风机可更好地提高机房空调的效率。从本质上讲,EC风机比传统离心风机的效率更高。变频器和EC风机均可安装于现有的机房空调或新设备中,并与上述智能控制协同运行。

    DX及冷冻水主机中使用可变容量压缩机可使各系统在未满负载运行的情形下,以更高的效率运行,从而提高效率。为直接蒸发式机房空调提供可变容量的方法有很多,最常用的两种是四步压缩机卸载技术和Digital Scroll数码涡旋压缩机技术。

    可变容量冷却可提高部分负荷情形下的运行效率,从而额外节省2.6%的数据中心能耗。

    (9)高密度冷却

    经证实,传统室内机房空调可高效地为IT设备维持安全和受控的环境。但对数据中心能源效率进行优化时,需要从传统数据中心密度环境(每台机架2~3kW)转移到更高热密度的机房环境。
    这要求将机房的补充空调(CRV/XDH/XDO/XDV)安装于设备机架顶部或旁侧,将热风直接从热通道中抽走,并将冷风送入冷通道,从而实现冷却。该方法可通过将机房空调靠近热源,以降低风机消耗功率,从而降低冷却成本。同时,还利用高效换热盘管,仅提供显冷量,显冷方式主要适用于只发热不产湿的电子设备。此外,水冷背板(COOLTHERM)还可应用于机架的后部,直接带走热量不散入机房。

    制冷剂可通过架空管道系统送至冷却末端,且该冷却末端一经安装后,可根据环境变化轻松添加或重新安装冷却末端。

    水冷背板(COOLTHERM)可安装在机架后部实现辅助冷却。但相比于补充空调(CRV/XDH/XDO/XDV),水冷系统中的水有泄漏风险。因此,设备机架本身或周围在使用水冷冷却时,须同时使用漏水检测系统。

    此外,所安装的用于支持补充空调(CRV/XDH/XDO/XDV)制冷剂传输系统也可支持新一代的芯片制冷,并保证通过制冷剂直接带走服务器的热量,这样就不需要使用服务器风扇来散热。
    高密度冷却可额外节省基础数据中心能耗的1.5%。

    (10)数据中心基础设施管理

    数据中心基础设施管理技术可采集、整合、集成IT和各设备系统的数据,如图7所示。从而实时显示运行情况,帮助优化数据中心的效率、容量和可用性。当超出预定限制范围时可发出警报,到安全发掘未使用的基础设施容量,并提供可视化图形标注哪些容量可用,哪些不可用,DCIM汇集了不同系统中的数据,以创建数据中心统一的数据。同时,DCIM可通过“自动发现数据中心系统”,并简化新系统的规划和执行流程,从而大幅度提高效率。

    图7  DCIM承诺在各设备和IT系统的实时数据的基础上,实现闭环控制

    若没有DCIM系统提供实时的可见性管理,数据中心的人员必须实行保守管理策略,以避免任何可能增加系统停机风险。这将导致系统的规模过大,且无法充分利用,同时增加了投资成本和运行成本。通过实时管理和控制,各组织可在确保数据中心系统合理使用能源的同时,充分利用现有的技术,如服务器电源管理技术和虚拟化技术。

    由于DCIM是能效逻辑2.0中多项策略的组成部分,因此本模型不会单独为DCIM分配节能比例。

    5   PUE分析

    尽管PUE已成为广泛用于衡量数据中心效率的指标,但能效逻辑却凸显了PUE的局限性,并强调了全面检测数据中心性能的重要性。

    图8是假定在未采取任何改善措施前,能效逻辑2.0中基础数据中心的PUE值约为1.9。例如某一组织仅采用能效逻辑2.0中的前5项措施,并选择使用高效、虚拟化且带有电源管理的服务器替换老式服务器来改造其数据中心,则该数据中心在维持目前性能水平的同时,总能耗将降低650kW。但是该设施的PUE值实际上会稍有偏差,即从1.92变为1.94。相反,若组织选择从电源和机房空调入手,同时执行策略6、7、8、9,则节省能耗虽然仅为200kW,但PUE值将显著改善。
    执行能效逻辑中的全部10项策略可提高IT和支持系统的效率,降低支持系统的负荷,并将PUE值从1.92降低至1.28。

    图8  能效逻辑2.0中的前5项策略可大幅度减少能耗,但却略微提高PUE值

    6   能效逻辑中的关键点

    能效逻辑构建了一个清晰的节能路线图,以大幅度减少数据中心能耗,同时不影响数据中心的性能。分析表明,若某组织能够系统地采用能效逻辑2.0的路线图,则可降低70%以上的能耗,同时还可消除数据中心成长扩容中的制约因素。

    作为对能效逻辑2.0的支撑,还创建了能效逻辑2.0级联节能计算器。输入某特定设备的IT负载和PUE值后,计算器用户可看到单项能效逻辑2.0策略对IT负载、PUE值和能源成本的影响。
    并非每个组织都能采用能效逻辑2.0策略。但该类组织考虑改进数据中心时,仍可参照本文的下列4条分析内容,从能效逻辑2.0中获益。

    (1)利用级联效应

    由于支持系统占数据中心能源消耗的比例相对较高,却无法直接提高数据中心的输出,因此该类系统成为被攻击的第一对象。但支持系统的负荷由IT负载决定;若IT系统效率提高,则可促进支持系统效率的提高。此外,比例相对较高的IT系统(指闲置的服务器)对数据中心的输出也没有贡献,这主要归因于级联效应——该类非生产性IT系统不仅自身耗能,而且将间接导致其支持的电源和机房空调耗能。实际上,基础能效逻辑数据中心中,一台闲置的200W服务器将消耗381W电力。这意味着每瓦未被利用的服务器容量实际上将浪费1.91W能耗(见图9)。

    图9  一台闲置的200W服务器将消耗381W能源,包括支持系统所消耗的能源

    (2)提高效率而不损害系统的可用性和灵活性

    数据中心能源消耗已为依赖数据中心的企业带来了麻烦和诸多问题,因此企业正在寻求该问题的市场化解决方案。很遗憾,该类“解决方案”均将效率放在首位,从而忽略了系统的可用性和灵活性,其实没有必要采用这种做法去承担风险。经验证明,能效逻辑2.0可以运用相关公认技术大幅度降低数据中心能耗,且不影响数据中心提供服务的性能。

    (3)密度越大,效率越高

    尽管如今许多数据中心管理员绝大部分时间都在管理密度远低于每台机架5kW的设备,但现今的服务器和支持系统经过专门的设计,已能实现高密度部署。每台机架20kW的密度可能会使数据中心管理员感到担忧,但如今的数据中心可通过专门设计来实现空间随需扩展,从而安全、有效地支持高效率密度设备运行。

    (4)容量与效率矛盾

    虽然电力成本在不断上升,但某些地区仍相对非常便宜。这导致部分企业或组织优化效率的步伐停滞不前。但能效逻辑路线图不仅仅是一套用于降低能耗的解决方案,还是一套可用于提高计算能力的解决方案。能效逻辑可通过消除计算和存储能力增长的制约因素,从而使企业或组织不必花费高昂成本去投资构建新设施就可满足用户计算与存储能力增长的需求。

    7   结束语

    能效逻辑1.0采用统计法讨论数据中心的能效,并强调了IT设备在决定数据中心能效方面极端重要的地位,这是数据中心效率发展过程中至关重要的一步;但受经济环境的影响,以及缺少对IT及设备系统的实时可见性,对数据中心性能的优化受到了限制。数据中心容量的提升抵消了大部分所节省的能源。

    能效逻辑2.0阐述了优化数据中心的更多潜力,展示了一个“典型的”5000平方英尺数据中心如何通过运用现有技术节省70%以上的能耗。现在,能效仍然是一个数据中心需要优先考虑的因素,同时新一代数据中心管理系统为数据中心提供了更好的可见性和控制,在此背景下,整个行业在降低数据中心能耗方面可实现更大的跨越。■

    (御风)

  •