登录社区云,与社区用户共同成长
邀请您加入社区
或复制访问:nvidia.cn/training/certification/ai-infrastructure-professional/,或复制访问:nvidia.cn/training/certification/ai-operations-professional/,或复制访问:nvidia.cn/training/certification/ai-networking-professio
以 Llama3 为例,我们通过计算巢来创建、管理 LLM 推理服务:在阿里云容器服务 ACK (容器服务 Kubernetes 版)集群上,我们使用阿里云 ACK 的云原生 AI 套件,集成开源推理服务框架 KServe,来部署 NVIDIA NIM。本文介绍了通过阿里云计算巢快速部署 NVIDIA NIM 的方案收益和部署方式,该方案充分利用了 NIM 的安全与高性能的无缝 AI 推理功能,以
如果您希望系统掌握代理式 AI,从理解智能体如何感知、推理、行动,到真正具备构建可自主执行任务的 AI 应用,请关注 NVIDIA 深度学习培训中心(DLI)推出的全新代理式 AI 系列课程,帮助您逐步掌握打造高级智能体所需的关键技能。学习如何设计可大规模适配多种环境的智能体。,请购买课程兑换券,复制并访问:https://www.bagevent.com/event/9124240。,请购买课程
NVIDIA Spectrum-XGS 以太网是 NVIDIA Spectrum-X™ 以太网网络平台新增突破性产品,引入跨区域扩展打破建筑限制,成为继 scale-up 和 scale-out 之后的 AI 计算“第三大支柱”,可将极致性能与规模扩展至多分布式数据中心,组成十亿瓦级智能巨型 AI 超级工厂。NVIDIA Spectrum-X™ 以太网网络平台是首个专为 AI 设计的以太网网络,满
每个光学子组件设计可支持 4.8 Tbps 的发送带宽和 4.8 Tbps 的接收带宽,成为实现超高容量光数据传输的关键基石,其核心在于三个基于 COUPE 技术的光引擎,每个引擎均可提供 1.6 Tbps 的发送和 1.6 Tbps 的接收吞吐量。通过全面协调整体方案设计的各个环节,NVIDIA 不仅整合了世界一流的硬件,还集成了可扩展、高可靠且高性能的光系统所需的各种技术,形成了一个完整的生态
聚焦于“光电一体化封装(CPO)技术如何引领数据中心网络向全光演进”的前沿趋势,随着生成式 AI 和超大规模 GPU 集群的快速普及,数据中心网络带宽、功耗与可靠性瓶颈日益突出。CPO 技术不仅能满足 AI 时代指数级增长的带宽需求,还将引领数据中心向全光网络演进,成为支撑 AI 普及和数字化转型的核心基石。欢迎深入阅读全文,了解 CPO 技术的最新进展和产业动态,把握未来数据中心网络发展的核心机
2018年,NVIDIA 推出了 NVLink Switch 技术,实现了在 8 个 GPU 的网络拓扑中每对 GPU 之间高达 300 GB/s 的 all-to-all 带宽,为多 GPU 计算时代的 scale-up 网络奠定了基础。NVLink Fusion 充分融合了 NVIDIA 在 NVLink scale-up 技术领域长达十年的深厚积累,结合 OCP MGX 机架架构及生态系统开
在 AI 智能体检索数据时,无论是从检索增强生成(RAG)系统的向量数据库中获取嵌入,还是从外部工具或数据库中调取与客户查询相关的信息,这些过程都需要快速、低延迟的南北向连接。在多个 AI 智能体同时运行(如协作处理复杂任务或响应多用户查询)的环境中,高效的南北向网络能够有效避免瓶颈,保障系统的流畅性与响应速度。在大规模多租户环境中,例如由 NVIDIA 云合作伙伴(NCP)运营的环境,采用具有物
借助于跨区域网络的 Spectrum-XGS 以太网,不同规模和不同距离的多个数据中心能够被整合为一个统一的大型 AI 工厂,首次实现了在跨地域的多个独立的数据中心之间运行大规模单 AI 训练与推理任务所需的网络高性能。特别是,基于深度缓冲交换机的高延迟是其天然的弊病,此外,当缓冲被填满时,就必须进行排空。借助 Spectrum-XGS 以太网,AI 工厂之间可实现长距离连接,如 500 米以上的
10 月 15 日晚 7 点,NVIDIA 深度学习培训中心(DLI)每月小讲堂将在线讲解《使用 Isaac Sim 模拟机器人》课程,聚焦 NVIDIA Isaac Sim 平台,深入讲解机器人仿真的核心概念与应用实践。通过学习 Isaac Sim 、 Isaac Lab 和 Isaac ROS 在线自主培训课程,从根本上了解机器人开发的核心概念,并探索仿真和机器人学习方面的必备工作流。),备注