加速應用成長 NVIDIA NIM微服務可在數分鐘內完成佈署自動生成式AI
▲NVIDIA NIM微服务可在数分钟内完成布署自动生成式人工智慧
NVIDIA宣布推出以支援CUDA的GPU加速,并且能以预先训练人工智慧模型运作,可在最佳化调整后布署于云端、资料中心、工作站及PC的NVIDIA NIM微服务。
借由NVIDIA NIM微服务,NVIDIA表示将能透过数十种企业级自动生成式人工智慧,让企业能以微服务形式在自有服务平台建构、布署客制化应用程式,并且确保完全持有及控制自有智慧财产权的权利。
▲NVIDIA NIM微服务能布署于云端平台,或是自有伺服器运作环境,让企业、开发者能在短时间内导入人工智慧应用资源
除了提供NVIDIA NIM微服务,目前企业也能透过NVIDIA CUDA平台使用NVIDIA及其合作伙伴生态系统收录的20多种热门人工智慧模型,例如A121、Adept、Cohere、Getty Images、Shutterstock提供模型,以及Google、Hugging Face、Meta、Mistral AI及Stability AI提供开放模型,而NVIDIA加速软体开发套件、函式库及工具也能作为NVIDIA CUDA-X微服务使用,借此应用在检索增强生成 (RAG)、可程式化控管、资料处理、高效能运算 (HPC)等作业。
▲可透过NVIDIA CUDA平台使用NVIDIA及其合作伙伴生态系统收录的20多种热门人工智慧模型建构服务
包含Adobe、Cadence、CrowdStrike、Getty Images、SAP、ServiceNow,以及Shutterstock均为首波透过NVIDIA AI Enterprise 5.0使用NVIDIA NIM微服务的业者,分别应用旗下提供的应用程式、资料服务,以及网路安全平台服务。
而NVIDIA NIM微服务以包含Triton Inference Server、TensorRT-LLM在内推论软体构成的预先建置容器形式运作,并且以API即可完成串接,让人工智慧应用服务布署从原本需要花费数周时间,缩减为几分钟即可完成,甚至能布署于自有安全托管环境,借此提升人工智慧应用弹性。
▲透过API形式即可完成串接,并且在短时间内完成人工智慧技术建置
目前企业将可在AWS提供的Amazon SageMaker、Google Cloud的Kubernetes Engine,以及微软的Azure AI云端平台使用NVIDIA NIM微服务,并且与Deepset、LangChain与LlamaIndex在内热门人工智慧框架整合。
此外,NVIDIA也公布超过20款可用于医疗保健领域的NVIDIA NIM微服务,以及NVIDIA CUDA-X微服务项目,借此将自动生成式人工智慧带到更多应用范畴。
▲NVIDIA也公布超过20款可用于医疗保健领域的NVIDIA NIM微服务,以及NVIDIA CUDA-X微服务项目,借此将自动生成式人工智慧带到更多应用范畴
包含Parabricks、MONAI、NeMo、Riva与Metropolis在内NVIDIA加速软体开发套件和工具,目前均可作为NVIDIA CUDA-X微服务存取使用。而研究人员、开发人员及相关从业人员可透过微服务,更容易将人工智慧与全新、既有应用程式进行整合,并且可从云端或本地位置执行这些应用程式。
全新医疗保健微服务可为医学成像、医疗技术、药物探索和数位健康领域持续增加的模型集合提供最佳化的推论结果,并且能用于生成生物学、化学和分子预测。
▲透过微服务形式使更多医疗保健服务导入人工智慧应用资源
这些微服务还包含一系列可用于药物探索的模型,例如用于生成化学的MolMIM、可用于预测蛋白质结构的ESMFold,以及协助研究人员了解药物分子如何与标靶进行相互作用的DiffDock。
而VISTA 3D微服务更加快建立3D分割模型的速度,另外相较在CPU上运行的DeepVariant分析速度,Universal DeepVariant微服务将基因组分析工作流程中的变异调用速度提高50倍以上。
开发者将可透过「ai.nvidia.com」网站免费试用NVIDIA NIM微服务,而企业则可在NVIDIA认证系统及主要公有云服务平台透过NVIDIA AI Enterprise 5.0布署NVIDIA NIM微服务。
▲目前可透过「ai.nvidia.com」网站免费试用NVIDIA NIM微服务
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》