Red Hat推出首个完整AI平台:企业级AI解决方案新里程碑
微资讯
Red Hat长期以来一直在企业环境中部署AI技术。例如,Red Hat Enterprise Linux(RHEL)现在已经可以承担AI工作;Red Hat拥有自己的推理引擎;该公司还提供支持AI的系统管理工具。
现在,Red Hat将自己定位为全栈AI平台供应商。这家被IBM收购的Linux巨头正通过全新的Red Hat AI Enterprise(RHAE)套件以及与NVIDIA联合开发的Red Hat AI Factory来实现这一目标。
Red Hat AI Enterprise
RHAE是一个全新的集成AI平台,旨在以RHEL和OpenShift为基础,在混合环境中部署和管理模型、智能体和应用程序。Red Hat将其定位为"从硬件到智能体"的完整技术栈,统一了AI生命周期,使IT团队能够像管理其他企业系统一样管理AI,而不是孤立的试点项目。
该平台整合了高性能推理、模型调优和定制化,以及智能体部署和管理功能,支持"任何模型、任何硬件、任何环境",只要能够在Red Hat的Linux和Kubernetes平台上运行。Red Hat认为,这种方法为大规模运行AI提供了更加一致、安全加固的环境,使用企业已有的OpenShift工具和流程。
这完全符合Red Hat一贯的集成堆栈方法。
伴随AI Enterprise的推出,Red Hat还发布了Red Hat AI 3.3版本。该版本通过OpenShift AI目录添加了Mistral-Large-3、Nemotron-Nano和Apertus-8B-Instruct等模型的压缩生产版本。它还支持Mistral 3和DeepSeek-V3.2等更新模型,以及多模态升级,包括更快的Whisper语音处理和增强的工具调用功能,用于智能体工作流。
AI 3.3还引入了模型即服务的技术预览版,通过API网关为内部用户提供私有托管模型的自助访问,标准化大型组织内部AI的使用方式。
在硬件方面,Red Hat正在扩大支持范围,包括在Intel CPU上支持小语言模型的生成式AI,扩展对NVIDIA Blackwell Ultra GPU和AMD MI325X加速器的认证,并添加内部GPU即服务功能,如自动检查点以防止长时间运行的作业丢失工作。
为了解决治理和软件供应链问题,Red Hat正在添加新的AI Python索引,作为关键AI工具加固版本的可信存储库。这些工具包括IBM开发的开源工具包Docling,用于将非结构化文档转换为机器可读格式以进行模型训练,以及SDG Hub,这是一个用于构建合成数据生成管道的框架,用于微调大语言模型。
该公司还通过在工作负载中提供更详细的遥测数据和集成NVIDIA NeMo Guardrails的技术预览来加强AI可观察性和安全性,以在AI交互中执行策略和对齐。
Red Hat AI Factory
现在也是介绍Red Hat与NVIDIA合作的AI Factory的好时机。这是Red Hat最近为NVIDIA的Vera Rubin AI平台发布定制RHEL的直接后续行动。这个新的联合开发软件平台将RHAE与NVIDIA AI Enterprise结合,创造了两家公司所描述的端到端AI技术栈,针对大规模部署进行了优化。
AI Factory直接面向试图从临时AI项目转向"工业规模"生产系统的企业。它旨在帮助运营团队在统一框架下管理传统基础设施和AI特定需求,从配置和GPU编排到模型性能和安全性。
这个联合平台专注于三个主要主题:价值实现时间、性能和成本,以及企业安全态势。为了加快部署,客户获得简化的工作流程和对预配置模型的即时访问,包括IBM的有保障Granite系列以及通过NVIDIA NIM微服务提供的NVIDIA Nemotron和NVIDIA Cosmos开放模型,NVIDIA NeMo可用于企业数据调优。
在性能方面,AI Factory依赖于Red Hat的推理堆栈,由流行的开源推理引擎vLLM提供支持,以及NVIDIA技术如TensorRT-LLM、Dynamo和BlueField数据处理单元。这与内置的可观察性相结合,帮助组织满足严格的服务级别目标并降低AI总拥有成本。
Red Hat首席技术官Chris Wright将与NVIDIA的AI Factory描述为从AI实验向"工业规模、企业级生产"更广泛转变的一部分,认为以与核心IT平台相同的严格标准管理整个AI计算堆栈现在对大型组织来说是必需的。在这两种情况下,Red Hat都在押注其在混合云基础设施方面的长期专业知识,为寻求在多个环境中标准化AI的企业提供优势。
Red Hat还在整合生态系统支持,思科、戴尔、联想、超微、TD SYNNEX和WWT等合作伙伴表示计划围绕AI Enterprise和AI Factory提供经过验证的基础设施和渠道产品。他们的作用是将Red Hat的软件与AI优化硬件和服务打包,使客户能够将AI视为标准企业工作负载,而不是定制的科学项目。因此,如果您喜欢主要基于NVIDIA硬件的单一AI软件堆栈理念,Red Hat非常希望与您交流。
Q&A
Q1:Red Hat AI Enterprise是什么?它有什么特点?
A:Red Hat AI Enterprise(RHAE)是一个全新的集成AI平台,以RHEL和OpenShift为基础,在混合环境中部署和管理模型、智能体和应用程序。它被定位为"从硬件到智能体"的完整技术栈,支持"任何模型、任何硬件、任何环境",使企业能够像管理其他系统一样管理AI。
Q2:Red Hat AI Factory与NVIDIA的合作有什么优势?
A:Red Hat AI Factory是与NVIDIA联合开发的端到端AI技术栈,针对大规模部署优化。它结合了Red Hat的推理引擎和NVIDIA的TensorRT-LLM等技术,专注于快速价值实现、性能成本优化和企业安全,帮助企业从AI实验转向工业规模的生产系统。
Q3:Red Hat AI 3.3版本有哪些新功能?
A:Red Hat AI 3.3版本添加了Mistral-Large-3、Nemotron-Nano等模型的生产版本,支持Mistral 3和DeepSeek-V3.2等新模型,引入多模态升级包括更快的Whisper语音处理。还推出了模型即服务技术预览版,通过API网关为用户提供私有模型自助访问。