首页 >> 通信新闻 >> 滚动 >> 正文
 
云数据中心渐行渐近——2013年网络世界第八届数据中心大会纪实
http://www.cww.net.cn   2013年5月13日 13:25    

无论是传统数据中心,还是云数据中心,节能都是永恒的话题,节能也有很多具体的方法及手段。不过,要想最大程度地做到数据中心绿色节能并非是一件容易的事,本次数据中心大会有幸邀请到了一位重量级嘉宾——百度技术经理及构架师张炳华,他向我们分享了百度云数据中心在绿色节能方面的探索与实践。

百度技术经理及构架师 张炳华

毫无疑问,象百度这样大型的互联网公司,背后必然是由多个大规模数据中心所支撑。不过,张炳华还是通过一组数字让我们对该公司数据中心的总体规模有了更具体的理解:总机房面积达十几万平方米,机架数目过万,计算能力超过1百万个核,总存储量约2000TB。

在这样的规模下,节能不再是锦上添花,而是成为能够带来巨大成本节省的重点工作内容之一。百度也确实在节能方面狠下功夫,其位于北京的云数据中心成为业内数据中心节能典范——近12个月的平均PUE值为1.36,最佳PUE值甚至能达到1.18,为国内最好水平。

“在数据中心绿色节能上,我们的总体思路是,数据中心是一个整体,应该从软件、硬件和基础设施各个层面去协同解决问题。”张炳华说。

在此指导思想上,百度着手优化软件架构,实施基于业务的“混布”(百度内部一种自创术语,即让同一资源在不同时间段运行不同业务,起到类似“削峰填谷”的作用)和业务的实时调度,最终构建了比较高效的软件系统。此举措节能率为20%,让百度十万台服务器减为八万台服务器。

硬件节能方面,由于采用整机柜定制、低功耗万兆接入、网络结构优化,以及通过32台GPU设备替代1000台通用x86服务器等多种手段,成功取得25%的节能效果,年用电节省2.14亿度。

在基础设施节能上,张炳华表示百度主要从两大部分入手,一个是制冷和空调系统,另一个是供电系统。

在制冷和空调系统节能上,百度首先借助CFD(Computational Fluid Dynamics)软件进行了气流组织优化,再加上冷通道封闭,从而大幅提升冷空气利用率。更值得一提的是,百度云数据中心全年约一半的时间实现了免费冷却,这要得益于百度采取了水侧Freecooling系统设计、提高冷水机组的供回水温度、启用变频空调等技术措施。同时,对于国外流行的风侧免费冷却,张炳华表示并不能简单照搬国外经验,因为除了粉尘污染,二氧化硫和氮氧化物给IT设备带来的危害更加严重,而且也更难以控制。

在供电系统上,百度云数据中心的创新之举在于,他们在国内首次大规模采用了“一路市电+一路高效UPS”设计。而一年半的实际运行结果显示,服务器电源模块的损坏率并未增加。此外,百度将节能举措深入到各个细枝末节,例如优化供电结构、合理布局,将低压供电系统深入负荷中心,末端去除STS,去除隔离变压器,采用能采用降低建设成本及能量消耗的高压柴发,等等。

尽管已经取得了不错的成绩,张炳华表示,未来百度还将探索各种节能举措,如彻底模块化、整机柜部署、服务器定制、高温运行、风侧冷却、市电主供等等。

此外,百度认为,当下流行的PUE指数虽然能很好地衡量数据中心基础设施能效,但是并不能评价数据中心的综合能效。为此,百度提出自己的衡量指标,即PAE(Power Application Efficiency,能源应用效率),并给出了计量公式:

PAE = 数据中心总能耗 / IT设备应用实际能耗,

[1]  [2]  [3]  [4]  [5]  [6]  [7]  [8]  
关注通信世界网微信“cww-weixin”,赢TD手机!
来源:网界网   编 辑:刘佳
分享到:
       收藏   打印  论坛   推荐给朋友
关键字搜索:云计算  数据中心  
猜你还喜欢的内容
文章评论查看评论()
昵称:  验证码:
 
相关新闻
即时新闻
通信技术
最新方案
企业黄页
会议活动