登录社区云,与社区用户共同成长
邀请您加入社区
考取这项认证,将验证您构建、开发、部署和治理先进代理式 AI 解决方案的技能,适用于开发者、架构师、技术负责人及希望在生成式 AI 与智能体领域提升竞争力的专业人士。NVIDIA-Certified Professional(NCP-AAI, NCP-GENL, NCP-ADS, NCP-OUSD):1580 元。NVIDIA-Certified Professional(NCP-AII,NCP-
科学过程可能重复且繁琐,研究人员往往需要花费数小时深入研读论文、管理实验流程或整理庞大的多模态数据集。科学 AI 智能体能够承担大量繁重任务,作为协助审查文献、生成假设、规划实验、提交计算作业、编排实验室操作、分析结果并总结发现的助手。这使得研究人员得以专注于创造性思考与科学探索。但构建科学 AI 助手极具挑战性。智能体需在多个研究步骤中制定高层计划,同时整合内存与上下文管理。一个错误便可能影响整
对于使用 NVIDIA 技术的开发者和研究人员而言,2025 年是又一个具有里程碑意义的年份。在数据中心功耗与计算设计、AI 基础设施、模型优化、开放模型、AI 智能体以及物理 AI 等方面的进展,正在重新定义智能系统的训练方式、部署模式及其在现实世界中的应用路径。由 NVIDIA、Google DeepMind 和 Disney Research 联合开发的 Newton 是一个基于 NVIDI
如果您能够通过自然语言与计算机通信,让计算机在 Bash 终端中执行任务,而无需手动编写任何命令,该怎么办?借助,您只需大约Python 代码和极少的依赖项,就能在从零开始轻松构建一个自然语言驱动的 Bash 代理。本文将逐步介绍核心组件及注意事项,帮助您轻松跟进行文脉络。我们将从零开始构建所有内容。作为额外亮点,博客还将展示如何进一步简化整体设计。我们来深入了解一下。
接下来,为基站(RU)和用户设备(UE)定义天线面板。可以采用如 ThreeGPP38901 等标准模型,也可自定义模型。
并以 verl 驱动的视觉语言模型强化学习为案例,为大家带来贯穿并行配置,内存估算到时序分析的强化学习工程方法论,展示我们在这一前沿领域的突破性成果。本次分享既涉及推理框架 TensorRT-LLM 在 DeepSeek-V3/R1 模型进行大规模专家并行部署的优化经验,也涵盖了 Blackwell 系列 GPU 通过 NVFP4 低精度进行推理部署来实现吞吐与模型精度兼顾的优化方案,以及针对面向
课程结束后,学员将具备亲手搭建机器人仿真环境的能力,并能将合成数据工作流集成到其中,构建可扩展的仿真优先开发流程。由 NVIDIA 深度学习培训中心(DLI)举办的 NVIDIA AI 培训班推出机器人仿真开发新课程,欢迎热衷于机器人开发的工程师、研究人员、爱好者积极报名,系统掌握仿真环境搭建与开发流程,全面提升实战能力。11 月 27 日:使用 NVIDIA Isaac 加速机器人开发(2025
TensorRT-LLM 1.2通过。
管理此类系统需要同步扩展和调度合适的 Pod,了解每个组件不同的配置和资源需求,按特定的顺序启动,并根据网络拓扑结构将它们部署在集群中。在图 1 中,PodClique A 代表前端组件,B 和 C 代表预填充主节点和预填充工作节点,D 和 E 代表解码主节点和解码工作节点。而开发的,它具有足够的灵活性,可以自然地映射到任何现实世界的推理架构,从传统的单节点聚合推理到具有多个模型的代理式。组,例如
本文记录了在Ubuntu 25.10系统上部署NVIDIA TensorRT LLM 1.2.0rc2的过程。作者使用Intel i5-1240P处理器和RTX2060 SUPER显卡的机器,尝试通过pip安装时遇到连接问题,最终通过指定NVIDIA PyPI源成功下载。但在安装过程中遭遇硬盘空间不足和依赖冲突问题,随后更换到配备4060Ti显卡的机器重新安装,又遇到大量依赖项安装需求。整个部署过