登录社区云,与社区用户共同成长
邀请您加入社区
在人工智能飞速发展的今天,大语言模型(LLM)为各个行业带来了全新的场景和机遇。诸如客户服务数字人、计算机辅助药物研发的生成式虚拟筛选,基于检索增强生成(RAG)的企业多模态 PDF 数据提取,网络安全流数据过滤、处理和分类优化等工作流,正在无缝集成和运行在定制化的企业 AI 应用,企业还能够基于专有业务数据和用户反馈数据,不断优化 AI 应用。 同时,企业也面临着如何高效、安全地部署 LLM
案例简介 NVIDIA 与百度飞桨双方技术团队通过在数据、算法、模型等多个方面的合作,共同打造了一款适用于车辆空气动力学数值模拟的 3D 高精度汽车风阻预测模型——DNNFluid-Car。经过训练的 DNNFluid-Car 模型的计算速度比传统数值计算的速度快至少 2-3 个数量级,有效减少了对数以千计的 CPU 计算资源的依赖。 使用 AI 方法提升仿真效率 自汽车行业诞生之初,降低风阻系
前言 随着 ChatGPT 的一夜爆火,大模型如今越来越广泛的应用到各种业务领域中,阿里安全的业务领域对大模型技术的应用也已经 2 年有余。本文对阿里安全在大模型工程领域积累的实践经验做出总结和分享。 在大模型实际应用实践的过程中,阿里安全采用NVIDIA NeMoTM框架和TensorRT-LLM大语言模型推理加速库,显著优化了模型训练与推理性能。其中 NeMo 在多卡环境可实现 2-3 倍的
大语言模型(LLM)是近年来发展迅猛并且激动人心的热点话题,引入了许多新场景,满足了各行各业的需求。随着开源模型能力的不断增强,越来越多的企业开始尝试在生产环境中部署开源模型,将AI模型接入到现有的基础设施,优化系统延迟和吞吐量,完善监控和安全等方面。然而要在生产环境中部署这一套模型推理服务过程复杂且耗时。为了简化流程,帮助企业客户加速部署生成式 AI 模型,本文结合NVIDIA NIM(一套专