什么是上海新能源数据中心心,上海新能源数据中心心如何降低能源消耗

看百度怎样建低能耗数据中心|数据中心|能耗|能源_新浪财经_新浪网
  数据中心的楼顶上装着一排排蓝色的光伏板,光伏发电直接为服务器供电,即发即用。 经济日报记者 佘 颖摄  数据中心楼下的污水处理装置。利用这套独创的数据中心污水回收再利用技术,约60%的废水能够实现再利用。经济日报记者 佘 颖摄  节能减排,不仅是传统产业的紧迫任务,支撑人工智能、云计算等新兴产业的数据中心同样面临这一问题。近日,记者走进“百度云计算(阳泉)中心”。这里目前基本实现了自然降温,全年约96%的时间无需开空调机组制冷。因此成为国内唯一一个通过工信部和绿色网格组织(TGG)绿色数据中心设计、运营双5A认证的数据中心。  人工智能、大数据、云计算这些词汇有多热,已经不需要再强调了。但很少有人知道,支撑这些高科技的数据中心才是真正的热——几十万台服务器集中在一起高速运算,机房温度经常超过40摄氏度,堪比桑拿天。  可想而知,为服务器降温、保障服务器运转所需的能耗也是个大数字。据业内人士介绍,如果不作任何技术改进,一处数据中心的能耗很可能就超过一座30万人的县城。  有没有高效、自然凉的数据中心呢?还真有。  百度云计算(阳泉)中心,这是我国目前唯一一处基本实现了自然降温的数据中心,全年约96%的时间无需开空调机组制冷。阳泉中心也因此成为国内唯一一个通过了工信部和绿色网格组织(TGG)绿色数据中心设计、运营双5A认证的数据中心。  利用清洁能源免费冷却  一年省下的电,足够供应一座13万户家庭的小城市。  在山西省阳泉市市郊一片光秃秃的山坳里,有一栋流线型的建筑,这就是百度云计算(阳泉)中心。它于2012年动工,服务器设计装机规模超过16万台。2014年,数据中心正式投入使用,“百度大脑”的计算能力,很大一部分就来自阳泉。  阳泉是一座小城,依煤而生,曾经有60%至70%的人生活与煤矿有关,至今煤矿仍是阳泉的主导产业。煤电价格便宜,是百度将数据中心设置在此的原因之一,但数据中心并没有因此而肆意浪费电能,相反,他们引入了多种清洁能源。  人工智能的服务器极其昂贵,一组整机柜成本接近100万元。记者数了数,在一间普通教室那么大的房子里,一排15组整机柜,一共8排。算下来,仅这间房子里的服务器价值就超过1.2亿元。  按说这么金贵的仪器,机房连灰尘都不能有,更不要说水了,但记者竟然在屋顶发现了西瓜那么粗的水管。  “这是百度自主研发的OCU(顶置冷却Overhead Cooling Unit)新型空调末端和水侧免费冷却系统。”阳泉数据中心资深系统工程师黄民民用一张动图进行了介绍。简单说,就是通过在服务器整机柜顶端加装末端送风系统,利用空气对流原理,让服务器排出的热风上升,通过水冷系统后,变成冷风,自然下沉,形成循环。  听起来简单,但运用的都是高科技。此前,各企业普遍靠空调给服务器降温,昼夜不停,因为服务器金贵,既不能热着,也不能吹着。如果使用室外的空气直接吹,就会对服务器造成空气污染和腐蚀。百度使用了AHU(Air Handle Unit)风墙冷却技术,结合百度自主研发的高温耐腐蚀服务器,在40多摄氏度高温仍然能够正常运行,可全年实现风侧免费冷却。  水是宝贵的资源,冷却用过的水更不能轻易浪费。数据中心的楼下就像一座小型污水处理厂,配置了各种过滤装置、自动加药器。这在国内其他数据中心很少见到。利用这套独创的数据中心污水回收再利用技术,约60%的废水能够实现再利用。算下来,数据中心园区年均节水量可达48万吨,相当于4000多户居民一年的用水量。  水、风、太阳能,各种绿色资源都被运用在数据中心。数据中心的楼顶上装着一排排蓝色的光伏片,太阳能光伏发电直接给服务器供电,即发即用。今年,数据中心又签约风力发电2600万千瓦时。光伏与风电等清洁能源技术的使用,使得阳泉数据中心全年二氧化碳减排2.6万吨,相当于142万棵树一年的二氧化碳吸收量。  作为一家高科技企业,百度的系统优化更是拿手本事。例如,百度云采取了分层存储方式,经常被调取的资料位于上层,80%的冷数据位于下层,在不影响数据响应速度的前提下,自然减少了运算量。  “整个园区采用了百度400多项国际、国内技术专利,全年约96%的时间无需开空调压缩机,就能实现自然凉,即免费冷却”。黄民民说,“等到全部建成后,阳泉中心年节约用电量可达2.5亿千瓦时,相当于13万户家庭全年的用电量”。  节能的同时,数据中心也省下了不少钱,让消费者得了实惠。比如目前国内唯一一个还在免费为网民提供私人云服务的百度网盘,如果不是因为这400多项技术改进,成本将比现在增加3倍至4倍。  新兴产业需加速节能减排  我国数据中心总体能耗偏高,需在一年内将PUE值降低13.29%。  节能减排,不仅是传统产业的紧迫任务,新兴产业同样面临这一问题。  中国信息通信研究院产业与规划研究所云计算与大数据研究部副主任唐炜表示,当前大数据已上升为国家战略,我国逐步进入数字经济时代,并由政府推动数据共享和流通,激活了大数据产业新动能。数据产业成为风口的同时,也让数据中心的节能减排变得愈发重要。  我国此前的数据中心主要由移动、联通、电信等运营商建设。随着云服务市场的兴起,不少民营企业也意识到数据中心的重要性。阿里巴巴、百度、腾讯和一些量级较轻的公司都加大马力建设数据中心。  潮水般涌入的社会资本,加上原本就大手笔的国有运营商,让数据中心建设成为“高速赛道”。贵州、云南、宁夏、内蒙古、重庆、山西各地政府,特别是欠发达地区,纷纷将数据中心作为新兴产业的标志性基础设施,积极引进,大力建设。《年中国IDC产业发展研究报告》显示,2016年我国数据中心市场总规模为714.5亿元,同比增长37.8%。这个数字远高于全球17.5%的平均增速。  特别需要注意的是,因为“三去一降一补”等压力,2016年转型进入IDC(互联网数据中心)领域的传统企业数量进一步增长。房地产业、纺织业、材料制造与加工业、机械制造业等传统企业在厂房、水电等基础设施方面具有一定优势,可以为数据中心提供起步条件,但这些转型而来的数据中心在节能减排方面又面临更多困难。  与国际先进水平相比,我国数据中心总体能耗水平一直偏高。住房和城乡建设部2015年12月颁布的《绿色数据中心建筑评价技术细则》规定,数据中心设计PUE值应小于等于2.0。PUE值是国际上判断数据中心能耗的通用标准,我国2.0的标准代表着每消耗2千瓦时电,就有1千瓦时用于系统消耗,另一半才用于计算本身。  作为对比,2014年“绿色网格”发布的国际平均水平就已经达到1.7。目前,国内新建的数据中心平均PUE为1.73。也就是说,每消耗1.73千瓦时电,就有0.73千瓦时用于系统消耗。如果再考虑到此前大规模建设的数据中心技术相对落后,我国数据中心的能源浪费将更加惊人。2010年时,有业内媒体推算,当时我国数据中心机房消耗的空调冷却系统的能量至少为84亿千瓦时,这意味着为服务器提供冷却的机房空调系统能耗大约能达到我国空调设备每年总能耗的四分之一。  当然,我国有部分数据中心已经走进世界先进行列,比如百度阳泉中心模组2016年年均PUE为1.11,意味着每消耗1.11千瓦时电,只有0.11千瓦时用于系统消耗。但这样的绿色数据中心仍是少数。因此,工信部信息通信发展司政策与标准处处长黄业晶建议,我国需加快绿色数据中心技术研发应用,加快绿色数据中心产业生态建设,并抓紧修订绿色数据中心标准。  留给新数据中心的时间已经不多。2016年12月份出台的《“十三五”国家信息化规划》提出的目标是,到2018年,云计算和物联网原始创新能力显著增强,新建大型云计算数据中心电能使用效率(PUE)值不高于1.5;到2020年,形成具有国际竞争力的云计算和物联网产业体系,新建大型云计算数据中心PUE值不高于1.4。要在一年时间里,将PUE值降低13.29%,对于数据中心建设者来说,将是巨大的挑战。(经济日报·中国经济网记者 佘 颖)降低能耗已成为数据中心建设的关键之一--《电气应用》2014年23期
降低能耗已成为数据中心建设的关键之一
【摘要】:正数据中心能耗的急剧增长,不仅会导致成本费用的上升,而且对数据中心的发展和稳定运行也会产生巨大的负面影响,并成为生态环境重要的污染源,影响整个社会的可持续发展。数据中心的节能降耗应采用综合节能策略,贯穿于规划、设计、设备选型、建设和维护管理等全过程。涉及到IT设备芯片和元器件、服务器和存储设
【作者单位】:
【分类号】:TM92
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【相似文献】
中国期刊全文数据库
;[J];智能建筑与城市信息;2006年07期
王磊;李林林;周学理;;[J];科技与管理;2006年06期
;[J];智能建筑与城市信息;2007年02期
;[J];智能建筑与城市信息;2007年02期
丁学英;;[J];电力信息化;2007年09期
黄锴;;[J];智能建筑;2008年09期
郭维真;;[J];智能建筑;2008年09期
;[J];智能建筑;2008年09期
谢斌鑫;;[J];信息方略;2008年05期
姚宗国;李金屏;;[J];济南大学学报(自然科学版);2008年04期
中国重要会议论文全文数据库
姚贇;;[A];通信电源新技术论坛2011通信电源学术研讨会论文集[C];2011年
郭英鹏;;[A];广东通信2010青年论坛优秀论文集[C];2010年
杨伟强;赵冰;牛风喜;邢建厂;;[A];第七届工业仪表与自动化学术会议论文集[C];2006年
郭捷夫;;[A];2011年通信与信息技术新进展——第八届中国通信学会学术年会论文集[C];2011年
张赪军;黄红梅;白小霞;朱靖;;[A];第六届全国信号和智能信息处理与应用学术会议论文集[C];2012年
关亚东;;[A];中国新闻技术工作者联合会2013年学术年会、五届五次理事会暨第六届“王选新闻科学技术奖”和优秀论文奖颁奖大会论文集(广电篇)[C];2013年
沈洁;王浩;;[A];2013年中国通信学会信息通信网络技术委员会年会论文集[C];2013年
刘涛;;[A];中国烟草行业信息化研讨会论文集[C];2004年
谢信耐;;[A];第七届全国体育科学大会论文摘要汇编(二)[C];2004年
罗彤;吴蕾;江宝东;;[A];2007中国环境科学学会学术年会优秀论文集(下卷)[C];2007年
中国重要报纸全文数据库
杨青峰;[N];计算机世界;2007年
闻声;[N];科技日报;2006年
冷文生;[N];科技日报;2007年
张敏;[N];网络世界;2006年
宋家雨;[N];网络世界;2007年
祁金华;[N];网络世界;2007年
祁金华;[N];网络世界;2007年
;[N];网络世界;2007年
;[N];网络世界;2007年
;[N];网络世界;2007年
中国博士学位论文全文数据库
刘晓茜;[D];中国科学技术大学;2011年
敬思远;[D];电子科技大学;2013年
陈辉;[D];北京邮电大学;2012年
张鹏;[D];北京邮电大学;2013年
王智明;[D];北京邮电大学;2012年
孙鑫;[D];北京邮电大学;2012年
曹家鑫;[D];中国科学技术大学;2013年
冯振乾;[D];国防科学技术大学;2012年
黄鑫;[D];武汉大学;2014年
商云飞;[D];清华大学;2013年
中国硕士学位论文全文数据库
董凤江;[D];上海交通大学;2008年
杜刚;[D];北京邮电大学;2012年
张琦;[D];西安电子科技大学;2010年
齐文艳;[D];哈尔滨工业大学;2013年
谢涛;[D];华中科技大学;2013年
王之伟;[D];北京邮电大学;2010年
曹巍巍;[D];华东理工大学;2011年
李凯;[D];北京邮电大学;2006年
张娜;[D];吉林大学;2007年
谢佩博;[D];西安电子科技大学;2012年
&快捷付款方式
&订购知网充值卡
400-819-9993数据中心能耗怎样降低 数据中心能耗降低方法介绍【详解】
  由于目前经济不景气,数据中心经理不得不在有限的资金预算条件下满足苛刻的业务需求。他们一直在千方百计的削减运营成本,目前数据中心运营成本中增长最快,所占份额最大的部分是能源成本,而然这些能源中的大部分被服务器和冷却系统所消耗。  不幸的是,目前大多数高效的节能技术都需要相当可观的前期投资,并且在数年后才会带来回报。然而人们却忽视了一些几乎不需要什么成本的技术,原因在于这些技术看起来不切实际,或是过于极端。我们在以下为大家列出的8种节能方法已经在实际的数据中心环境中测试过,并且被证明十分有效。其中一些方法几乎不需要任何投资,大家可以立即采用,另外一些方法可能需要一些资金,但是与传统的IT资本支出回报率相比,获得回报的周期要更短。  数据中心能源效率的衡量标准是能源利用率(PUE),也就是数值越低越好,1.0是一个理想数值。PUE指数据中心总电力消耗量与转化为有效计算任务的电力消耗的比值。2.0意味着输入数据中心的2瓦电力中只有1瓦输入到服务器,损失的电力转化为了热能,这导致传统的数据中心冷却系统需要消耗电力去散热。  以下这些技术或许并不能降低你的 PUE值,但是你可以通过检查每月的账单来评估它们的效率。节约资金才是真正的目的所在。  在我们列出的方法中,你找不到太阳能、风能或是氢能源。因为这些替代能源需要对先进技术进行大量投资。在目前的经济危机中,这无疑无法马上实现成本节约。相比之下,以下这8种方法除了风扇、通风和管道外均不需要任何其他复杂的技术。  这8种方法分别是:  极端节能方法1 :调高温度设置。你在今天下午就可以使用这种最简单的节能方法:调高数据中心恒温器的温度设定值。传统观念认为数据中心温度应当设定在华氏68度以下。通常人们认为,这种温度设置能够延长设备的使用寿命,万一冷却系统失灵,管理员也可以获得更多的反应时间。  但是经验告诉我们,服务器组件如果发生故障,尤其是硬盘发生故障将会导致运行温度上升。但是近些年来,IT经济已经跨越了一个重要阈值:服务器运营成本通常会超过购置成本。这使得削减运营成本的优先权要高于硬件保护。  在去年召开的GreenNet 会议上,谷歌的&绿色能源沙皇&Bill Weihl介绍了谷歌提高数据中心温度设置的经验。他称, 华氏80度是新的安全设置温度。不过你的数据中心需要首先满足一个简单的先决条件:尽可能地将冷却用的冷空气与冷却后产生的热空气相隔离,如果需要,可以使用厚塑料门帘或是隔热板。  尽管谷歌称华氏80度是安全的温度,但是微软的经验告诉我们可以将温度设置的更高些。微软在爱尔兰都柏林的数据中心使用的是&无冷却器&模式,它们用免费的外部空气进行冷却,服务器进风口的温度为华氏95度。需要注意的是,随着设定温度的提高,会出现一个收益递减点,因为服务器风扇转速的增加将导致能源消耗增长。  极端节能方法2 :关闭不使用的服务器。虚拟化为我们展示了让不使用的处理器、硬盘和内存休眠所带来的节能优势。那么为什么不关闭整个服务器呢?让服务器时刻处于准备状态所带来的&商业灵活性&是否与它们消耗的能源成本等值呢?你是否已经找到了一些可以关闭服务器的情况,如果关闭了服务器,那么你将获得最低的能源消耗值&&0,至少对于服务器来说是这样。不过,你首先需要面对的是那些异议人士提出的反对意见。  他们往往认为重新启动会降低服务器的平均寿命,因为电压会加载在主板电容器等一些非热拔插组件上。这种想法已经被证明是错误的:实际情况是,服务器的组件与汽车和医疗设备等一些频繁启动的设备所用的组件是相同的。没有证据能够证明频繁启动将降低服务器的MTBF(平均故障间隔时间)。  第二个错误认识是,服务器启动需要很长时间。对于这种情况,你可以通过关闭启动时的诊断检查,从硬盘镜像启动,以及利用一些硬件具有的热启动功能缩短启动时间。  第三种反对意见是:如果我们必须启动一台服务器以适应增加的负载,这时用户不希望等待&&无论启动速度有多快。然而,即使程序申请速度非常慢,大多数应用架构都不会拒绝新用户,这样一来,用户根本意识不到他们是在等待服务器启动。事实证明,当应用受到使用人数限制影响时,只要能够向用户发出&我们正在启动更多的服务器以提高你的申请速度&这一信息,用户是愿意进行等待的。  极端的节能方法3 :使用免费的外部空气进行冷却。较高的数据中心温度设置将为你使用第二种节能方法做好准备,即所谓的免费空气冷却。这将方法将温度较低的外部空气作为冷却空气来源,不再需要昂贵的冷却器,微软设在爱尔兰的数据中心使用的就是这种方法。如果你试图将温度维持在华氏80度,而外部空气只有华氏70度,只需将外部空气吹入数据中心即可进行冷却。  与方法1相比,这种方法需要花费一些精力。你必须重新布置通风管道,以让外部空气吹入数据中心内。此外,还需要安装一些基本的安全设备,如空气过滤器、干燥器、防火风闸和温度传感器,以确保外部空气不会损坏精密的电子设备。  在试验中,通过使用外部空气冷却方法成功的降低了74%的能源消耗。在两组服务器中,第一组使用传统的冷却器进行降温,第二组使用外部空气冷却系统与冷却器联合冷却方式,两组服务器运行了十个月。其中,第二组服务器有91%的时间使用的是外部空气冷却。英特尔发现使用外部空气冷却的服务器上积有大量灰尘,这表明该系统除需要安装大颗粒杂质过滤器外,还需要安装一个细颗粒杂质过滤器。此外,由于需要频繁更换过滤器,因此在实际使用中需要采用易清洁并可反复使用的过滤器。  尽管积灰严重,温度变化范围较大,但是英特尔发现使用外部空气冷却的服务器故障率并没有增加。据此,以一个功率为10兆瓦数据中心为例,每年可节约冷却成本300万美元,以及7600万加仑水,在某些地区水的价格非常高。  极端节能方法4 :用数据中心冷却后产生的热空气为办公室供暖。你可以通过用数据中心冷却后产生的热空气为办公室供暖的办法将节能效果提高一倍。同样,你也可以使用办公室里温度相对低的空气为数据中心降温。在天冷的时候,你可以获得充足的暖气。与此同时,数据中心额外的冷却空气需求可以完全从外部中获取。  与外部空气冷却不同,你可能不再需要目前的取暖系统。也就是说,你不再需要一个一人多高的取暖炉。你也不用担心数据中心电子设备在产生的热量时会施放出有害物质。如今符合《关于限制在电子电器设备中使用某些有害成分的指令》(RoHS)的服务器在生产时已经不再使用污染环境的镉、铅、水银和多溴化合物等材料。  与外部空气冷却方法一样,你需要的唯一技术是采暖通风与空调系统(HVAC )方面的经验:风扇、通风管道和恒温器。你会发现你的数据中心可提供足够的热量,能够替代传统的取暖系统。位于瑞士Uitikon的数据中心为当地方居民免费供暖,节约的能源成本相当于80户居民的取暖费用。TelecityGroup Paris甚至将数据中心冷却后产生的热空气常年供应一些温室以支持气候变化研究。  重新布置你的取暖系统可能需要花费一周的时间,但是由于成本很低,你在一年内,甚至更短的时间内即可获得收益。  极端节能方法5 :为频繁读取的数据集配置SSD(固态硬盘)。由于读取速度快、功耗低、发热量小,因此SSD在上网本、平板电脑和笔记本电脑上非常流行。SSD也可以使用在服务器上,但是其成本高、可靠性低等缺点阻碍了其在服务器上的部署。幸运的是,SSD的价格在近两年出现了大幅下降,数据中心可通过部署SSD实现快速节能,你只需将一些应用存储在SSD上即可。如果配置合理,SSD可大幅降低磁盘阵列的能源和冷却成本。其大约可以减少50%的电力消耗,发热量几乎为零。  SSD无法克服的一个问题是写入操作次数有限。目前适合服务器存储的单层单元()固态硬盘的写入次数约为500万次。低成本的消费级多层单元()固态硬盘虽然容量比SLC固态硬盘要大,但是寿命仅为后者的十分之一。  好消息是,你可以从市面上买到接口兼容的固态硬盘,以替代现有的高能耗、高发热量的机械硬盘。为了迅速降低能耗,可将一些通常只需要读取的数据集存储在SSD上,如流视频文件。这样就不会遇到SSD的写入次数限制问题。除了降低能源和冷却成本外,启动速度也将大幅提升。  此外,在选择固态硬盘时,应当选择服务器专用固态硬盘,而不要选择台式机专用固态硬盘。服务器专用固态硬盘为了提高吞吐量,多采用多通道架构。常用的 2.0接口的固态硬盘传输速率为3Gbps,而日立与英特尔联合推出的Ultrastar高端固态硬盘的传输速率可达到6Gbps,容量可达400GB。尽管SSD 还存在一些设计缺陷,但这主要涉及到台式机和笔记本电脑固态硬盘的密码和加密问题,而服务器专用固态硬盘根本不存在这方面的问题。  极端节能方法6 :在数据中心使用直流电。是的,重新使用直流电。道理很简单:服务器在内部使用的是直流电,这样可能消除为服务器供电时将交流电转换为直流电这一环节,实现迅速节能。  在21世纪初,直流电在数据中心中非常流行。因为当时数据中心的服务器电源仅为75%。但是随着电源转换效率的提高,数据中心开始采用效率更高的208伏交流电。到2007年,直流电已经不再流行。然而在2009年,直流电又重新流行起来,这要归功于高电压数据中心产品的出现。  在早期的数据中心当中,电力公司输出的 16000伏交流电先被转换为440伏交流电,然后再转换为220伏交流电,最后再转换为110伏交流电后才提供给服务器。每一次变压都会浪费一些电力,由于转换率低于百分之百,损失的电力被转化为热能(由于需要冷却系统将这些热量散掉,因此将导致更多的电费开支)。直接转换为 208 伏交流电可以减少一次变压,当时服务器内置电源最大效率为95%。  到了2009年,新的数据中心设备可以将电力公司输出的13000伏交流电直接转换为575 伏直流电输入到服务器机架上。服务器机架将575 伏直流电一次性转换为48 伏直流电后直接为机架上的服务器供电。每一次转换时的效率都是老式AC 变压技术的两倍,并且转化的热量也更少。尽管厂商宣称,可以节约50%的能耗,不过大多数专家认为节约能耗25%更为可信。  这种方法需要一些资金投入,不过所涉及的技术并不复杂,并且已经被证实十分有效。一个潜在的隐性开销是48伏 直流电传输需要较粗的铜电缆。焦耳定律告诉我们,在功率相同的情况下,由于电流更大,低电压比高电压需要更粗的导线。  极端节能方法7 :将热量排入地下。在气候比较温暖的地区,外部空气冷却无法常年使用。比如,爱荷华州冬天的气温不是非常低,但是夏天的温度却非常高,空气的温度在华氏90至100度左右,这种温度不适合使用外部空气进行冷却。  通常地下数英尺处的温度相对较低,并且比较衡定。地下几乎不会受到如下雨、酷暑等户外天气的影响。如果将管道埋至地表深处,吸收了服务器热量的冷却水将在地下进行循环,这样冷却水的热量就被周围温度较低的土壤所吸收。  虽然这一技术并不复杂,但是地温冷却需要大量的管道。与此同时,建立一个成功的地温冷却系统需要进行仔细的分析和计算。由于数据中心是持续产生热量,单一的地温冷却槽将导致周围土壤温度饱和,进而导致冷却系统失灵。你需要分析一下数据中心周边土地的散热能力,确定特定区域内能够吸收多少热量,地下含水层是否能够提高散热能力。此外,还需要确定这一方法是否,以及会对环境带来什么影响。  极端节能方法8 :通过管道将热量排到大海里。与地温冷却系统不同,大海可以无限地吸收数据中心排出的热量。海水冷却系统与地温冷却系统相似,不过你需要有充足的水源,如位于美国与加拿大边境的五大湖可以作为冷却水源。  将海水作为数据中心的冷却水是最为理想的情况。在滨海地区,通过热交换器,海洋可为数据中心降温。谷歌在2007年为此申请了专利。不过,谷歌的海水散热方案并不适合我们,因为在谷歌的方案中首先要拥有一座岛屿。  如果你的数据中心紧邻海边、大型湖泊或是内陆水道,那就情况就非常简单。数十年来,核电站就一直在用海水或湖水降温。&瑞典计算机&网站在去年秋天曾经报道称,谷歌在芬兰Hamina将一个纸浆厂改造成了一个采用这种冷却方式的数据中心。该数据中心将冰冷的波罗的海海水作为唯一的冷却方式。与此同时,这些海水还作为数据中心的紧急消防用水。谷歌的实践证明该方案具有极高的可靠性。由于原纸浆厂已经铺设了用于从波罗的海抽取海水的直径2英尺的管道,因此谷歌在改造时省去了不少开销。  淡水湖也可以用于冷却数据中心。美国康奈尔大学位于纽约伊萨卡的校区利用附近的卡尤加湖为其数据中心和整个校园提供冷却用水。为此,该校区在2000年率先建立起了一个名为&湖水冷却系统&的冷却设施。该设施每小时可抽取3.5万加仑水,并将这些华氏39度的湖水输送至2.5英里处的校园内。  无论淡水还是海水冷却系统都需要一个昂贵的组件&&用于冷却数据中心的热交换器。这种热交换器可将用于直接冷却数据中心的冷却水与外部抽取过来的天然冷却水隔离。这种隔离是必须的,万一出现泄漏,既可保护环境,也可以保护精密的服务器设备。除了昂贵的热交换器外,海水或湖水冷却系统只需要一些普通的水管。  你希望节省多少资金呢?这些技术的价值在于它们并不互相排斥:你可以同时使用多种方法来实现你的短期目标和长期目标。你可以先采用最简单的办法&&提高数据中心的温度设置,然后再根据节约情况评估一下剩余的其它节能七种方法
最新更新栏目
您可能喜欢
大家都在搜什么是数据中心,数据中心如何降低能源消耗_百度知道
什么是数据中心,数据中心如何降低能源消耗
我有更好的答案
数据中心又称为IDC(Internet Data Center),可为互联网内容提供商(ICP)、企业、政府机构等部门、单位提供大规模、高质量、安全可靠的专业化服务器托管、空间租用、网络批发带宽以及ASP、EC等业务。近年来,绿色数据中心概念越来越受到行业的关注,数据中心服务商可以通过冷海水系统、凉爽海风、把数据中心建在寒冷地区等措施,降低数据中心能耗。例如,微软公司从2014年开始筹备名为“纳提克项目”的海底数据中心,项目处于原型机下水测试的阶段,建在水底可以省下一笔空调费用,还可能使用潮汐能发电。就我们的数据中心来说,XDC+数据中心通过太阳能系统、雨水回收系统等多种环保举措,降低PUE,构建绿色、生态数据中心。
采纳率:93%
为您推荐:
其他类似问题
您可能关注的内容
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。

我要回帖

更多关于 单位gdp能源消耗降低 的文章

 

随机推荐