登录社区云,与社区用户共同成长
邀请您加入社区
谈及项目创作的灵感来源,队长崔湛林分享道:“基于对市场需求的理解和前沿技术的探索,我们意识到在 AI 时代加强网络安全的迫切性,由此萌生了开发一个运行在 DPU 上的实时网络安全系统的想法。印象最深刻的是当遇到开发挑战时,通过队员的共同努力和导师团队的专业指导破解了技术瓶颈,这种团队协作攻破难题的感觉令人难忘。另外,我们也受邀去 NVIDIA 在北京的办公室参加颁奖典礼,现场体验了 NVIDIA
基于以往 DPU 的开发经验,Axio 团队发现 DPU 数据面和 CPU 或 GPU 数据面的设计原则存在显著差异,采用传统的数据面设计方法开发 DPU 加速的应用程序会导致性能下降。依托 DOCA 社区的帮助,团队仔细阅读底层代码库的文档,逐步验证每一个 API 调用的正确性。谈及未来 DPU 领域的发展前景,黄昕阳指出:“在 AI 时代,DPU 凭借其独特的生态位展现出巨大潜力——不仅能作为
凭借将 VAST Data 的存储解决方案与NVIDIA BlueField DPU相结合这一创新方法,CoreWeave 已跻身领先的 AI 云服务提供商之列,并通过对创新技术的不懈追求来满足未来的客户需求,同时应对日益复杂的 AI 工作负载。CoreWeave 使用 NVIDIA Quantum-2 InfiniBand 网络平台作为其 GPU 到 GPU 的 AI 计算网络,不仅实现了低延迟
以艾迪普的实时图形图像渲染引擎 IDPRE 为例,在实际应用中,在 IDPRE 中采用 Rivermax 技术和 BlueField-3 DPU 硬件,利用 100G 网络接口和 PCIe 16X 高速传输带宽,大幅加速了网络传输和数据包处理。在泛媒体在线包装系统项目中,艾迪普的客户提出系统 IP 化升级需求,要求采用通用服务器加 IP 网卡虚拟化架构,以确保板卡传输带宽能支持未来 4K/8K 超
NeMo Curator 是一款 GPU 加速的数据管理工具,可大规模处理文本、图像和视频数据,提升生成式 AI 模型的训练准确性,并提供预构建流程用于生成合成数据,实现模型的定制与评估。使用 NVIDIA cuML 的 GPU 加速库,实现并优化可扩展的无监督学习技术,如 k-means 和 HDBSCAN,在数百万行数据集上评估聚类性能,学习如何在生产环境中部署。扫描下方二维码,访问 NVID
以 Llama3 为例,我们通过计算巢来创建、管理 LLM 推理服务:在阿里云容器服务 ACK (容器服务 Kubernetes 版)集群上,我们使用阿里云 ACK 的云原生 AI 套件,集成开源推理服务框架 KServe,来部署 NVIDIA NIM。本文介绍了通过阿里云计算巢快速部署 NVIDIA NIM 的方案收益和部署方式,该方案充分利用了 NIM 的安全与高性能的无缝 AI 推理功能,以
NVIDIA 深度学习培训中心(DLI)发布全新 OpenUSD 认证考试科目(NVIDIA-Certified Professional):OpenUSD Development(NCP-OUSD),验证您使用 OpenUSD 构建、维护和优化 3D 内容创作工作流的专业能力。在考试平台预约后,如需更改时段或科目,可取消预约,使用同一考试券(Voucher)进行再次预约。,访问 NVIDIA 中
NVIDIA 深度学习培训中心(DLI)推出 Isaac Sim 基础课程系列,涵盖 8 门免费课程,系统介绍机器人仿真,ROS 2 集成,合成数据生成及 AI 赋能机器人开发等核心内容。课程概要:利用硬件在环(HIL)技术,结合仿真环境,ROS 2 集成与合成数据生成,将机器人从虚拟仿真过渡到真实世界部署。课程说明:2 学时 | 中文 | Linux,Isaac Sim,ROS 2,Python
在打下坚实评估基础之后,您将学习一系列强大的定制技术,包括使用持续预训练注入新知识、通过监督微调教授新技能,以及使用直接偏好优化(DPO)使模型行为更符合人类偏好。最后,您将学习如何通过量化、剪枝和知识蒸馏等优化技术(基于 TensorRT-LLM 和 NeMo 框架)让您的定制模型在实际部署中高效运行。NVIDIA 深度学习培训中心(DLI)发布新课《为大语言模型添加知识》,提供了一个全面、实践
在延迟敏感型应用中突破 DeepSeek R1 的性能极限是一项非凡的工程。本文详细介绍的优化措施是整个 AI 技术栈各个领域的协作成果,涵盖了内核级优化、运行时增强、模型量化技术、算法改进以及系统性能分析与调优。希望本文介绍的技术和最佳实践,能够帮助开发者社区在任务关键型 LLM 推理应用中更充分地发挥 NVIDIA GPU 的性能。