数据中心(英语:Data center),指用于安置电脑系统及相关部件的设施,例如电信储存系统。一般它包含冗余和备用电源供应,冗余数据通信连接,环境控制(例如空调灭火器)和各种安全装置。大型数据中心消耗的电约与一个小城镇工业业务规模一样多。[1] 据估计,2022年全球数据中心的耗电量为 240-340 太瓦时(TWH),约占全球电力需求的 1-1.3%。这不包括加密货币挖矿所用的能源,据估计,2022 年加密货币挖矿所用能源约为 110 TWH,占全球电力需求的0.4%。[2]

欧洲核子研究组织(CERN)的数据中心

数据中心在规模、电力要求、冗余度和整体结构方面差异很大。用于划分数据中心类型的四个常见类别是现场数据中心(onsite data centers)、主机托管设施(colocation facilities)、超大规模数据中心(hyperscale data centers)、和边缘数据中心(edge data centers)。[3]

历史

编辑
 
美国太空总署(NASA)任务控制电脑房,1962年

数据中心起源于1940年代的大型电脑房,电子数值积分电脑 (ENIAC) 就是其中的典型代表,也是最早的数据中心之一。[4][note 1]早期的电脑系统操作和维护复杂,需要一个特殊的运行环境。连接所有组件需要许多电缆,因此设计了各种方法来容纳和组织这些电缆,如安装装置的标准机架、高架地板和电缆托盘(安装在高架地板的上方或下方)。单台大型电脑(mainframe)需要大量电力,而且必须冷却以避免过热。安全变得非常重要--电脑价格昂贵,而且经常用于军事目的。[4][note 2] 因此,设计人员制定了控制进入电脑房的基本设计准则。

数据中心是全球协作的特定装置网络,用来在网络基础设施上传递、加速、展示、计算、存储数据资讯。

在繁荣的微型电脑行业,尤其是在1980年代,电脑开始四处发展,在很多案例中很少有或没有操作需求。然而,随着资讯科技(IT)的发展,操作开始变得复杂,公司渐渐地认识到需要控制IT资源。随着客户端-伺服器计算的出现,在1990年代,微型机(被称为伺服器 servers)开始在旧电脑房间中寻找他们的位置。便宜网络装置的可用性,外加网络电缆的新标准,使得在公司内的一个房间中使用分层设计来放置伺服器的可能,在这个时刻被公认并不断流行开来。

 
ARSAT卫星公司的数据中心(2014年)

1997年至2000年互联网泡沫期间,数据中心迎来了繁荣。[5][note 3]公司需要快速的网络连接,以及不断的部署系统并出现在网络上。安装这种装置对于许多小公司是不可行的。许多公司开始建设非常大的设施,称为互联网数据中心(IDC),[6] 其提供增强的功能,例如交叉备份:“如果贝尔大西洋公司的一条线路被切断,我们可以将它们转移到……以最大限度地减少停机时间。”

它提供了商业上的系统部署和操作的解决方案。新技术和实践被设计用来处理测量和如此巨大测量操作的操作需求。

从2007年起,数据中心设计、构建和运作是一个众所周知的学科。它的标准文档来自于可信任的专家组,如电讯产业联合会,详细说明数据中心设计的需求。众所周知数据中心可用性的操作韵律学能够用来评估商业中断的影响。有许多开发在操作实践中被完成,并且设计了友好环境的数据中心。

云数据中心 (cloud data centers, CDCs) 这一术语已被使用。[7] 数据中心的建设和维护通常成本很高。[5] 这些术语之间的区别越来越小,它们正被集成到数据中心这一术语中。[8]

2010年代,全​​球数据中心市场稳步增长,后半段增长明显加快。据高德纳咨询公司 (Gartner) 称,尽管2019冠状病毒病疫情带来了经济挑战,但2021年全球数据中心基础设施支出达到$2000亿美元,比2020年增长了 6%。[9]

2010年代后期和2020年代初,人工智慧机器学习应用发生了重大转变,推动了全球对更强大、更高效的数据中心基础设施的需求。截至2021 年3月,全球数据生成量预计将从2020年的64.2 泽字节 (ZB)增长到2025年的 180 ZB以上。[10]

在最近的发展热潮中,美国已确立了数据中心基础设施的领先地位,截至2024年3月,美国拥有5,381个数据中心,是全球数据中心数量最多的国家。[11] 据全球咨询公司麦肯锡公司称,到2030年,美国市场需求预计将从2022年的17 GW翻一番,达到35 GW (吉瓦)。[12]截至 2023 年,美国约占全球市场的40%。[13]

美国电力研究所 (EPRI) 于2024年5月发布的一项研究估计,到2030年,美国数据中心的电力消耗可能占该国发电量的4.6%至9.1%。[14] 截至2023 年,美国约80%的数据中心负载集中在15个州,其中弗吉尼亚州德克萨斯州最多。[15]

现代数据中心的需求

编辑
 
数据中心部分区域的电信装置机架
 
机架式伺服器构成的机房

现代化和数据中心转型可提高性能和电效率[16]

资讯安全也是一个令人担忧的问题,因此,数据中心必须提供安全的环境,以最大限度地减少安全漏洞的可能性。因此,数据中心必须保持高标准,以确保其托管电脑环境的完整性和功能性。

行业研究公司国际数据公司 (IDC) 估计,数据中心的平均使用年限为9年。[16] 另一家研究公司高德纳咨询公司表示,使用年限超过7年的数据中心已经过时。[17] 数据的增长(到2025年将达到 163 泽字节 (ZetaBytes, ZB)[18])是推动数据中心现代化需求的一个因素。

关注现代化并不是什么新鲜事:2007年人们就曾谴责过对过时装置的担忧,[19] 2011年,Uptime Institute 也曾担心其中装置的使用年限。[note 4] 到2018年,人们的担忧再次转移,这次是员工的年龄:“数据中心员工的老化速度比装置更快。”[20]

满足数据中心标准

编辑

电信行业协会[21]制定了数据中心电信基础设施标准,规定了数据中心和电脑机房基础设施(包括单租户用户企业数据中心和多租户用户互联网托管数据中心)的最低要求,本文档中提出的拓扑结构适用于任何规模的数据中心。[22]

Telcordia GR-3160(NEBS对电信数据中心装置和空间的要求[23])提供了电信网络内的数据中心空间的指导方针,以及在这些空间中被安装装置的环境要求——这些标准是由Telcordia和行业代表共同制定。其可应用于容纳数据处理或资讯科技(IT)装置的数据中心空间。该装置可用于:

  • 经营、管理运营商电信网络
  • 直接为运营商客户提供基于数据中心的应用
  • 为第三方提供托管应用程式,向其客户提供服务
  • 提供以上类似数据中心应用程式的组合

数据中心分类

编辑

在 TIA-942:Data Center Standards Overview 中描述了数据中心基础架构的等级分类。依据对资讯容错的装置和网络设计,从最简易无容错设计的第一阶 (Tier1),单一网络而个别装置有容错配置的第二级,双重网络备用但只单一运行的第三级,到完全重叠容错、多重网络同时运行的第四阶 (Tier 4)。目前新的大型数据中心都是第四阶,以完全的重叠网络设计并且划分安全区域,并且提供足够的备份和备载容量以确保数据中心的不中断安全运行。

另外在 ANSI/BICSI 002-2014 (Data Center Design and Implementation Best Practices) 中, 以数据中心的可靠性和可用性 (Reliability and Availability) 分成第0级到第4级。

不同类别的数据中心会有不同的设计考量,从地点的选择开始,到外部电力运载需求、物理布局、冷却系统 (空调) 的考量、内部供电系统的设计、防火防震自然灾害、以及安全防护等等的设计都需要在开始建设数据中心前就考虑决定好。[24]

数据中心设计

编辑

几十年来,数据中心设计领域一直在向各个方向发展,包括大大小小的新建筑以及对现有设施的创造性再利用,如废弃的零售空间、旧盐矿和战争时期的掩体。

当地建筑规范可能规定了最低天花板高度和其他参数。数据中心设计中的一些考虑因素包括:

 
典型的伺服器机架,常见于主机托管.
  • 大小 - 建筑物的一个房间、一个或多个楼层或整个建筑物,
  • 容量 - 可容纳多达或超过1,000台伺服器[25]
  • 其他考虑因素 - 数据中心的空间、电力、冷却和成本。[26]
  • 机械工程基础设施 - 供暖、通风和空调 (HVAC);加湿和除湿装置;增压。[27]
  • 电气工程基础设施设计 - 电力服务规划;电源的配电、切换和旁路;不间断电源 (UPS) 系统;等等。[27][28]
 
数据中心CRAC冷却

物理布局

编辑

一个数据中心占用一幢大楼的一个房间,一层或多层,甚至整栋大楼。大部分的装置常常放在具有19英寸的隔层的机架中。这些机架成排放置,形成一个走廊。这允许人们从前面或后面访问隔层。伺服器从1U的伺服器到独立筒仓的存储装置在尺寸上有很大的不同,存储装置要占掉很多块地砖。一些装置,像大型电脑和存储装置常常像他们的机架那么大,并被放在他们的旁边。非常大的数据中心可以使用集装箱来放置,每个集装箱可以放置1000或者更多的伺服器;当有维修或升级需要的时候,整个集装箱会被替换而不是维修单个的伺服器。本地编译的代码可以控制最小的上升限度。

数据中心的物理环境是严格受控的:

空调

编辑
  • 空调控制数据中心的温度和湿度。ASHRAE's“数据处理环境的热量指导”建议温度在18-27 °C并且湿度在60%以下,以数据中心最佳条件17 °C作为最大上限。电源会加热数据中心里的空气。除非热量被移走否则温度会持续上升,导致电源装置故障。通过控制空气温度,伺服器组件在搁板层保持着制造商说明的温度/湿度范围。空调系统通过冷却来回的在露点以下的空间空气,帮助控制湿度。太湿的话水开始在内部组件上浓缩。假使空气干燥,辅助潮湿系统会增加水蒸气,如果湿度太低,将导致静电放电问题,那将损坏组件。地下的数据中心比起常规的设计,能够花费更少而保持电脑装置冷却。
  • 现代数据中心试图使用节约装置冷却,在那里他们使用外界空气来保证数据中心冷却。华盛顿州有几个数据中心一年11个月使用外部空气冷却所有的伺服器。没有使用冷却机或空调,节省了数百万电费。

供电

编辑
 
在大型数据中心的一组电池,用来提供电力,直到柴油发电机可以启动。
  • 备份电源由一个或多个不间断电源供应和、或者柴油机燃气发电机组成。[29]
  • 为了防止单一故障点英语Single point of failure,所有的电系统元素,包括备份系统,都典型的完全复制,并且关键伺服器连接两个电源("A-Side" and "B-Side")区域。这种安排常常用于完成系统的N+1冗余。静态电闸有时被用于在电源故障事件中保证瞬时转换一个到另一个。
  • 数据中心典型地使用升高60 cm(2英尺) 的地面,可移动的方块砖。现在的趋势是80—100 cm(31—39英寸),空闲区域的增加是为了更好的保证空气流通。这种供应是为了空气在地下充分流通,作为条件系统的一部分,也是为电力电缆提供空间。在现代数据中心的数据电缆典型是使用架空电缆。但是有些出于安全原因还是将他们置与地板下,并且有必要增加在架子上的冷却系统。更小/更少花费的数据中心没有升高地面而是使用相反的静态地砖在地面上。电脑电缆常常放置在走廊中,以保证最大化的气流效率。

防火

编辑
 
FM200灭火系统储罐。

数据中心采用防火系统,包括被动的和主动的设计元素,并在业务运行中实施防火计划。通常会安装烟雾探测器,以便在火灾初期发出预警。

虽然由于印制电路板的脆弱性,主机房通常不允许使用湿管的系统,但仍有一些系统可用于设施的其他部分或冷/热通道空气循环系统中的封闭系统,如[30]:

不过,也有其他灭火方法,特别是在敏感地区,通常使用气体灭火,其中三氟溴甲烷气体(哈龙1301, Halon 1301)最受欢迎,直到发现其生产和使用的负面影响。[1]页面存档备份,存于互联网档案馆

保安

编辑

物理访问通常受到限制。分层安全通常从围栏、系缆桩和门禁系统开始[31]。 如果数据中心规模较大或包含敏感资讯,则几乎总会有摄影机监控和长期保安员。指纹识别门禁系统已开始普及。

一些数据保护法规要求对访问进行记录;一些组织将此与访问控制系统紧密联络在一起。可在主入口、内部房间入口和装置机柜处输入多个日志。机柜的门禁控制可与智慧配电装置集成,从而通过同一装置将锁联网。[32]

移动数据中心

编辑
 
IBM的Portable Modular Data Center.

现时网上商贸、搜索云计算公司需要快速部署数据中心,又或灾难恢复运用,因此厂商开发了移动数据中心(英语:Portable Data Center)解决方案,将伺服器等装置装入货柜,而能够快速搬运数据中心并在短时间内安装操作。

生产移动数据中心的厂商和产品包括:

应用

编辑

一个数据中心的主要目的是运行应用来处理商业和运作的组织的数据。这样的系统属于并由组织内部开发,或者从企业软件供应商那里买。像通用应用有ERPCRM系统。

一个数据中心也许只关注于操作体系结构,或者也提供其他的服务。常常这些应用由多个主机构成,每个主机运行一个单一的构件。通常这种构件是数据库,文件伺服器,应用伺服器,中间件以及其他的各种各样的东西。

数据中心也常常用于非工作站点的备份。公司也许预定被数据中心提供的服务。这常常联合备份磁带使用。备份能够将伺服器本地的东西放在磁带上,然而,磁带存放场所也易受火灾和洪水的安全威胁。较大的公司也许发送他们的备份到非工作场所。这个通过回投而能够被数据中心完成。加密备份能够通过Internet发送到另一个数据中心,安全保存起来。

参见

编辑

参考文献

编辑
  1. ^ James Glanz. Power, Pollution and the Internet. The New York Times. September 22, 2012 [2012-09-25]. (原始内容存档于2019-05-16). 
  2. ^ Data centres & networks. IEA. [2023-10-07]. (原始内容存档于2023-10-06) (英国英语). 
  3. ^ Types of Data Centers | How do you Choose the Right Data Center?. Maysteel Industries, LLC. [2023-10-07]. (原始内容存档于2023-06-01). 
  4. ^ 4.0 4.1 Angela Bartels. Data Center Evolution: 1960 to 2000. August 31, 2011 [October 24, 2018]. (原始内容存档于October 24, 2018). 
  5. ^ 5.0 5.1 Cynthia Harvey. Data Center. Datamation. July 10, 2017 [2024-07-28]. (原始内容存档于2022-12-16). 
  6. ^ John Holusha. Commercial Property/Engine Room for the Internet; Combining a Data Center With a 'Telco Hotel'. The New York Times. May 14, 2000 [June 23, 2019]. (原始内容存档于2024-06-28). 
  7. ^ H Yuan. Workload-Aware Request Routing in Cloud Data Center. Journal of Systems Engineering and Electronics. S2CID 59487957. doi:10.1109/JSEE.2015.00020 . 
  8. ^ Quentin Hardy. A Data Center Power Solution. The New York Times. October 4, 2011 [2024-07-28]. (原始内容存档于2022-12-16). 
  9. ^ Gartner Says Worldwide Data Center Infrastructure Spending to Grow 6% in 2021. Gartner, Inc. [6 July 2024]. (原始内容存档于2024-07-06). 
  10. ^ Petroc, Taylor. Volume of data/information created, captured, copied, and consumed worldwide from 2010 to 2020, with forecasts from 2021 to 2025 (in zettabytes). Statista. [6 July 2024]. (原始内容存档于2024-08-30). 
  11. ^ Petroc, Taylor. Leading countries by number of data centers as of March 2024. Statista. [2024-07-28]. (原始内容存档于2022-12-16). 
  12. ^ Investing in the rising data center economy. McKinsey & Co. [6 July 2024]. (原始内容存档于2024-08-30). 
  13. ^ Investing in the rising data center economy. McKinsey & Co. [6 July 2024]. (原始内容存档于2024-08-30). 
  14. ^ Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption. Electric Power Research Institute (EPRI). [6 July 2024]. 
  15. ^ Powering Intelligence: Analyzing Artificial Intelligence and Data Center Energy Consumption. Electric Power Research Institute (EPRI). [6 July 2024]. (原始内容存档于2024-08-22). 
  16. ^ 16.0 16.1 Mukhar, Nicholas. "HP Updates Data Center Transformation Solutions," August 17, 2011. [September 9, 2011]. (原始内容存档于August 12, 2012). 
  17. ^ Sperling, Ed. "Next-Generation Data Centers," Forbes, March 15. 2010. Forbes.com. [2013-08-30]. (原始内容存档于2023-12-10). 
  18. ^ IDC white paper, sponsored by Seagate (PDF). [2024-07-28]. (原始内容存档 (PDF)于2017-12-08). 
  19. ^ Data centers are aging, unsuited for new technologies. December 10, 2007. 
  20. ^ Data center staff are aging faster than the equipment. Network World. August 30, 2018 [December 21, 2018]. (原始内容存档于December 7, 2023). 
  21. ^ Telecommunications Industry Association 942 Certifications & Ratings. TIA Online. [2022-10-02]. (原始内容存档于2022-10-02) (美国英语). 
  22. ^ Telecommunications Standards Development. web.archive.org. 2011-11-06 [2022-10-02]. 原始内容存档于2011-11-06. 
  23. ^ GR-3160 - Telecommunications Data Center | Telcordia. telecom-info.njdepot.ericsson.net. [2022-10-02]. (原始内容存档于2022-10-07). 
  24. ^ A ConnectKentucky article mentioning Stone Mountain Data Center Complex Global Data Corp. to Use Old Mine for Ultra-Secure Data Storage Facility (PDF). ConnectKentucky. 2007-11-01 [2007-11-01]. (原始内容 (PDF)存档于2011-07-25). 
  25. ^ Google container data center tour (video). YouTube. 7 April 2009. (原始内容存档于2021-11-04). 
  26. ^ Romonet Offers Predictive Modeling Tool For Data Center Planning. June 29, 2011 [February 8, 2012]. (原始内容存档于August 23, 2011). 
  27. ^ 27.0 27.1 BICSI News Magazine - May/June 2010. www.nxtbook.com. [2024-07-28]. (原始内容存档于2019-04-20). 
  28. ^ Hedging Your Data Center Power. [2024-07-28]. (原始内容存档于2024-05-17). 
  29. ^ Detailed explanation of UPS topologies EVALUATING THE ECONOMIC IMPACT OF UPS TECHNOLOGY (PDF). (原始内容 (PDF)存档于2010-11-22). 
  30. ^ Data Center Fire Suppression Systems: What Facility Managers Should Consider. Facilitiesnet. [2024-07-28]. (原始内容存档于2024-05-22). 
  31. ^ Sarah D. Scalet. 19 Ways to Build Physical Security Into a Data Center. Csoonline.com. 2005-11-01 [2013-08-30]. (原始内容存档于2008-04-21). 
  32. ^ Systems and methods for controlling an electronic lock for a remote device, 2016-08-01 [2018-04-25], (原始内容存档于2023-03-06) 
  33. ^ YouTube上的Google container data center tour
  34. ^ Kraemer, Brian. IBM's Project Big Green Takes Second Step. ChannelWeb. June 11, 2008 [2008-05-11]. (原始内容存档于2008年6月11日). 
  35. ^ Modular/Container Data Centers Procurement Guide: Optimizing for Energy Efficiency and Quick Deployment (PDF). [2013-08-30]. (原始内容 (PDF)存档于2013-05-31). 
  36. ^ Sun Modular Datacenter S20 and D20 Documentation. [2012-02-12]. (原始内容存档于2012-02-12). 
  37. ^ IBM Portable Modular Data Center. [2011-09-29]. (原始内容存档于2011-10-08). 
  38. ^ Huawei's Container Data Center Solution. Huawei. [2014-05-17]. (原始内容存档于2014-05-19). 
  39. ^ AWS Snowmobile. [2018-02-04]. (原始内容存档于2018-02-08). 

注释

编辑
  1. ^ Old large computer rooms that housed machines like the U.S. Army's ENIAC, which were developed pre-1960 (1945), are now referred to as data centers.
  2. ^ Until the early 1960s, it was primarily the government that used computers, which were large mainframes housed in rooms that today we call data centers.
  3. ^ There was considerable construction of data centers during the early 2000s, in the period of expanding dot-com businesses.
  4. ^ In May 2011, data center research organization Uptime Institute reported that 36 percent of the large companies it surveyed expect to exhaust IT capacity within the next 18 months. James Niccolai. Data Centers Turn to Outsourcing to Meet Capacity Needs. CIO magazine. [2011-09-09]. (原始内容存档于2011-11-15).