今天,全球AI盛会GTC(GPU Technology Conference)2024正式开幕,联想集团与NVIDIA宣布合作推出全新混合人工智能解决方案,帮助企业和云提供商获得在人工智能时代成功所需的关键的加速计算能力,将人工智能从概念变为现实。
这些混合解决方案是双方共同工程合作的结晶,旨在用户最需要的地点和时间里,无论是口袋还是云端,高效地将人工智能带入客户数据中。此举将推进联想集团AI for All的愿景,并为下一代大规模生成式人工智能的创新架构迅速进入市场提供了支持。
联想混合解决方案已经针对运行 NVIDIA AI Enterprise软件进行了优化,以实现安全、受支持且稳定的生产级AI,现在还将为开发人员提供刚刚发布的NVIDIA微服务,包括 NVIDIA NIM 和 NeMo Retriever。
当今,全球各个行业都在寻求利用人工智能来分析庞大的数据集,这其中电力效率成为了关键因素,企业在承担这些计算密集型任务的能源消耗方面承担着巨大压力。
联想集团在实现高效能和高功耗计算方面处于领先地位,多年前便推出了创新的联想海王星液冷技术。这项技术不仅使联想在Green500榜单上排名第一,而且它的尖端设计得到了NVIDIA GPU的支持,能够提高计算速度,并确保在高温和多GPU环境下也能维持设备的冷却。
联想ThinkSystem AI服务器: 与NVIDIA 一起,快速提升生成式 AI 推理和效率
在大规模高效增强人工智能工作负载方面,联想发布了ThinkSystem人工智能产品组合的扩展,这是一个改变行业的里程碑,其中包括两款全新强大的8路NVIDIA GPU系统,这两款系统专为提供海量计算能力和无与伦比的能效而设计,以加速人工智能的实施。专为生成式人工智能、自然语言处理(NLP)和大型语言模型(LLM)开发而设计,为NVIDIA HGX人工智能计算平台进入市场提供支持。
全新联想ThinkSystem SR780a V3 是一款采用联想海王星液冷技术的 5U 系统,电源使用效率 (PUE) 高达 1.1。通过使用 CPU 和 GPU 的直接水冷以及 NVIDIA NVSwitch 技术,系统可以在不达到任何热限制的情况下维持最大性能。
十多年来,联想业界领先的海王星直接水冷解决方案,通过循环利用温水来冷却数据中心系统,使客户能够实现高达40%的功耗降低,散热性能提高3.5倍,相比传统风冷系统效率更高。
根据Uptime Institute 2021 年全球数据中心年度调查,作为用于确定数据中心能源效率的行业指标,PUE 和功耗是最受关注的可持续发展方法之一。由于液冷提供了比空气更节能的替代方案,因此系统可以在消耗更少的能源的同时实现更高的持续性能。它还允许ThinkSystem SR780a 安装在密集的 5U 封装中,有助于节省宝贵的数据中心空间。
此外,新的联想ThinkSystem SR680a V3是一款气冷双插槽系统,可为配备英特尔处理器和NVIDIA GPU的复杂人工智能最大程度提供加速。高度加速的系统提供巨大的计算能力,并使用行业标准的19英寸服务器机架,允许密集的硬件配置,最大限度地提高效率,同时避免占用过多空间。
联想还展示了全新的PG8A0N,这是一款终极1U节点,专为AI设计。
客户可以在联想的NVIDIA认证系统产品组合上运行NVIDIA AI Enterprise,这是一个端到端云原生软件平台,用于开发和部署生产级 AI 应用程序。客户可以在联想的企业级基础设施上运行NVIDIA AI Enterprise中包含的NVIDIA NIM推理微服务,以高性能推理NVIDIA及其生态系统中流行的AI模型。
该产品组合包括联想的XClarity 系统管理软件,为企业提高基础架构部署的效率,以及联想的智能计算平台(LiCO),它可以简化集群计算资源的使用,用于人工智能模型开发和培训以及HPC工作负载。该产品组合还支持第4代和第5代英特尔至强可扩展处理器,并为未来更高功率的GPU提供热余量。
共同设计的 NVIDIA MGX 解决方案:为 CSP 和企业带来定制 AI、NVIDIA Omniverse 和 高性能计算
从工作站到云支持,联想是为 NVIDIA OVX和 NVIDIA Omniverse 开发平台提供设计、工程和支持的领先提供商。为了帮助企业快速构建和部署广泛的专用AI、HPC和Omniverse应用,联想与NVIDIA合作,使用NVIDIA MGX模块化参考设计更快地构建加速模型。
利用这些设计,云服务提供商可以经济、大规模地为 AI 和 Omniverse 工作负载提供加速计算,从而更快地接收定制模型。包这些系统将赋能科学家和研究人员,让他们通过加速处理TB级数据的复杂AI和HPC应用,解决世界上一些最具挑战性的问题。
联想采用NVIDIA MGX模块化参考服务器设计的新产品包括:
全新联想HG630N – MGX 1U—采用联想海王星直接液冷的开放标准服务器,在支持最高性能GPU的同时降低功耗。
全新联想HG650N – MGX 2U -高度模块化,GPU优化的系统,采用风冷,支持行业标准机架。
全新联想HG660X V3 – MGX 4U -该系统在风冷环境中支持多达8个600W NVIDIA GPU,是NVIDIA Omniverse和AI工作负载的理想选择。联想是NVIDIA MGX 4U的设计合作伙伴。
全新联想HR650N – MGX 2U -一款高性能Arm CPU服务器,具有多核以及存储和前置IO的灵活性。
搭载 NVIDIA RTX 的联想ThinkStation 工作站:生成式 AI 触手可及
联想通过提供多达 4 个 NVIDIA RTX 6000 Ada Generation GPU 来增强其数据科学工作站,用于大型 AI 训练、微调、推理和加速图形密集型工作负载。这通过自动化工作流程提高了人工智能开发人员的生产力:
配备NVIDIA AI Workbench 的全新联想工作站可用于开发和部署强大的AI 解决方案,用于推理、大规模仿真以及苛刻的工业和科学工作流程。NVIDIA AI Workbench 使所有开发人员都能轻松进行生成式 AI 和机器学习开发。
联想ThinkStation PX 配备双 CPU 和多达 4 个 NVIDIA RTX 专业显卡,是当今市场上功能最强大的工作站。联想的AI-ready ThinkStation台式机和ThinkPad移动工作站产品组合为人工智能提供了最广泛、最强大的工作站,以应对最密集的实时人工智能解决方案开发。
联想专业服务:快速开启AI之旅,加速行业进步
由NVIDIA 提供支持的联想实时解决方案正在通过人工智能和联想基础设施,帮助客户加速实现更加智能的未来,并在各个行业中挖掘新的潜力。在零售行业中,这些解决方案通过分析客户的移动和行为模式,优化人流分布并实时更有效地管理库存。在制造业中,联想和NVIDIA 的联合解决方案通过改进装配线的检查流程,增强了工人和机器之间的安全性。 在城市规划方面,联想的集成边缘AI解决方案正在帮助规划者利用数据优化空间、基础设施和资产的使用效率,有效管理交通流量和降低能耗。
联想最新宣布的人工智能服务卓越中心(COE)将业务顾问、数据科学家和人工智能优化的基础设施即服务结合在一起,以最大限度地提高成果,满足客户在人工智能之旅中的需求。
根据联想在安全、人员、流程和技术方面久经考验的AI 就绪经验,AI COE提供专业知识和能力,使企业能够快速实现强大、负责任和可持续的人工智能。联想新的人工智能专业服务包括:
•新的AI发现工具-帮助客户探索人工智能的“无限可能”。通过举办互动研讨会和评估,纵观整个生态系统,制定人工智能战略,联想构建了人工智能成功的蓝图。
• 与NVIDIA合作的全新快速启动生成式AI服务 – 利用强大的数据洞察力并通过生成式 AI 实现竞争优势。联想提供全栈解决方案来支持整个产品生命周期,以及实施、采用和扩展生成式人工智能解决方案的服务。
• 全新TruScale GenAI 即服务——通过即服务模型提供AI 功能,从而提高灵活性、可扩展性和可预测性。借助联想TruScale,基础设施始终能够恰到好处地配置、部署和管理人工智能创新。
• 增强的人工智能专业服务——通过提供业务顾问、数据科学家和人工智能优化的基础设施即服务,帮助客户加速人工智能转型,确保可持续人工智能的无缝利用。
以上就是GTC 2024:联想与NVIDIA推出全新混合AI解决方案的详细内容,更多请关注叮当号网其它相关文章!
文章来自互联网,只做分享使用。发布者:叮当,转转请注明出处:https://www.dingdanghao.com/article/215838.html