|
|
获悉,Amazon Web Services (AWS) 推出了一系列新的数据中心组件,使其数据中心能够更好地处理下一代人工智能 (AI) 工作负载。这些创新在本周的 AWS re:Invent 上宣布,涵盖电源、冷却和硬件设计,旨在提高 AWS 设施的能源效率。新功能最终将在 AWS 的新数据中心在全球范围内实施,其中一些组件已经在现有设施中实施。 “AWS 不断创新其基础设施,为全球客户构建性能最高、最具弹性、安全和可持续的云,”AWS 基础设施服务副总裁 Prasad Kalyanaraman 说。“这些数据中心功能代表了在提高能源效率和灵活支持新兴工作负载方面向前迈出的重要一步。但更令人兴奋的是,它们被设计为模块化的,因此我们能够改造现有的基础设施以实现液体冷却和能源效率,从而为生成式 AI 应用提供动力并降低我们的碳足迹。
AWS 简化了其电气和机械设计,使其数据中心更易于维护并提高可靠性。据该公司称,这些更新提供了 99.9999% 的基础设施可用性,同时将受电气问题影响的潜在机架数量减少了 89%。其中一个要素是通过更简化的能源分配设计,将数据中心的电气转换次数减少 20%。AWS 还将备用电源引入更靠近其机架的位置,并减少用于排出热空气的风扇数量,而是使用自然压差,这将提高服务器的可用电量。
由于新的 AI 服务器目前每个芯片需要高达 850W 的功率,预计每个芯片的功率将很快达到 1kW,因此液体冷却现在已成为必需品。AWS 开发了一种“新型冷却解决方案”,在其新的和现有的数据中心中使用直接到芯片的冷却。这家云巨头指出,某些技术不需要液体冷却,因此它使其液体到芯片冷却系统能够“无缝集成”AWS Tranium2 和 Nvidia GB200 NVL72 等功率芯片组的空气和液体冷却。该冷却解决方案是与 “领先的芯片制造商” 合作开发的。
AWS追加100亿美元扩建数据中心 近年来,AWS还积极投资于人工智能(AI)、机器学习(ML)、大数据分析和边缘计算等前沿技术,以保持其在这些领域的竞争优势。 当前,各大科技巨头正在加速其数据中心的扩建,以支持不断增长的云计算需求和人工智能应用。 当地时间12月16日,美国俄亥俄州州长迈克·德瓦恩宣布,亚马逊云科技(AWS)计划追加投资约100亿美元,在俄亥俄州扩建数据中心基础设施。 数据中心基础设施建设的主要驱动力主要是人工智能技术的发展、高性能计算需求的增加以及大数据分析的需求。特别是AI技术的快速发展,对数据处理和计算能力的需求急剧上升。 作为全球云计算市场的领导者,AWS自2006年推出EC2和S3以来,不断扩展其产品线,包括推出无服务器计算服务Lambda、关系型数据库服务RDS、NoSQL数据库DynamoDB等。 近年来,AWS还积极投资于人工智能(AI)、机器学习(ML)、大数据分析和边缘计算等前沿技术,以保持其在这些领域的竞争优势。比如,AWS推出了基于Arm Neoverse平台的Graviton4处理器,显著提升了计算性能和内存带宽。 为了保持在云计算市场的领先地位,AWS需要不断升级其技术和服务。通过扩建数据中心,AWS能够提供更强大的计算能力和存储空间,从而更好地支持企业级客户的需求。此外,AWS也在积极扩展其全球数据中心网络,以覆盖更多的地区和市场。 据悉,AWS已计划在未来十年内投资超过1000亿美元建设新的数据中心,以满足由于AI推动而激增的需求。2023年,AWS宣布在俄亥俄州的78亿美元投资计划,加上截至2022年已投资的超60亿美元,从2015年到2030年底,AWS在该州宣布的计划投资额将超过230亿美元。 除了AWS,其他科技巨头如谷歌和微软也在积极扩建数据中心以应对AI带来的挑战。根据Fortune Business Insights数据,2023年全球数据中心市场规模为2192.3亿美元。预计该市场将从2024年的2427.2亿美元增长到2032年的5848.6亿美元,预测期内复合年增长率为11.6%。
"AWS投资750亿美元:打造创新水冷AI数据中心,引领未来科技" 亚马逊公司(Amazon.com Inc. )的云计算部门亚马逊网络服务(AWS)正在推出旨在提高数据中心效率的新设计,以缓解对电网日益增长的需求。这些更新包括先进的冷却技术、备用发电机的替代燃料选择以及改进的服务器机架布局。其中一些组件已经实施,其他功能将随着新数据中心的启用而亮相。这一举措是为了应对为按需计算服务提供动力的服务器群的能源密集型特点。 AWS 推出提高数据中心效率的新设计 用于人工智能服务器的新型冷却系统 此外,AWS 正在对其服务器的配电和机械设计进行简化。这一战略可将基础设施的可用性提高到 99.9999%,将易受电力干扰影响的服务器机架数量大幅减少 89%。这种改进可能是通过最大限度地减少交流电到直流电的转换来实现的,而这种转换通常会导致能量损失。 AWS 推出下一代人工智能工具,实现客户支持现代化 这些新的冷却系统和简化的设计旨在支持机架功率密度在未来两年内显著提高六倍,预计之后还会有更多增长。通过将人工智能纳入其运营战略,AWS 正在利用预测分析来优化服务器机架定位,从而进一步减少因电力利用不足而造成的能源浪费。 Nvidia 负责超大规模和高性能计算的副总裁 Ian Buck 承认,先进的液体冷却解决方案将有效冷却人工智能基础设施,同时最大限度地减少能源消耗。两家公司正在密切合作,改进专门用于液体冷却应用的机架设计,预计这将使共享客户受益匪浅。 AWS 基础设施服务副总裁 Prasad Kalyanaraman 表示,这些改进是提高能效和模块化的关键步骤。 "Kalyanaraman表示:"AWS将继续坚持不懈地创新基础设施,为全球客户构建性能最强、弹性最大、最安全、最可持续的云。Kalyanaraman 说:"这些数据中心功能是向前迈出的重要一步,它们提高了能效并为新兴工作负载提供了灵活支持。但更令人兴奋的是,它们的设计是模块化的,因此我们能够对现有基础设施进行改造,以实现液体冷却和能源效率,从而为生成性人工智能应用提供动力,并降低我们的碳足迹。"
美国俄交俄州州长迈克·德瓦恩当地时间12月16日宣布,亚马逊云科技(AWS)计划追加投资约100亿美元,在俄交俄州扩建数据中心基础设施。新数据中心将包含计算机服务器、数据存储驱动器、网络设备和其他形式的技术基础设施,用于支持包括AI和机器学习在内的云计算。AWS去年宣布在俄亥俄州的78亿美元投资计划,加上截至2022年已投资的超60亿美元,从2015年到2030年底,AWS在该州宣布的计划投资额将超过230亿美元。GB200服务器出货量明年将达到50,000-60,000台,微软和 Meta 的需求领先,分别售出25,000台和10,000台。 广达的人工智能服务器收入预计将增长三倍。富士康预计明年AI服务器收入将占其服务器总收入的50%以上。包括微软、Meta、AWS、谷歌和戴尔(服务于xAI 和CoreWeave)在内的美国领先CSP预计将加速GB200的采用。
|
|