Zoho 依靠 Nvidia NeMo 打造独特大语言模型
顶级的电子邮件托管服务提供商 Zoho 已宣布计划借助英伟达的人工智能计算平台创建其专属的定制大型语言模型(LLM)。
以业务为重点的 LLM 将会借助英伟达的 NeMo 工具和先进的 GPU,全方位提升 Zoho 的人工智能服务水平。
Zoho 已在人工智能领域投资 1000 万美元,并且计划在来年将此数字翻倍。
这笔投资以及与英伟达的合作将使 Zoho 能够为 ManageEngine 和 Zoho.com 平台的用户拓展并改进其人工智能能力,其用户数量超过 70 万。
开发 LLM 以满足企业的特定需求,这将有助于它们在标准的消费级人工智能工具中崭露头角,并为这些企业做出更迅速、更优质的决策。
Zoho 的人工智能计划不仅包括大型语言模型,还包括能够处理视觉和语音的多模态模型,以及为企业提供的支持语音的人工智能工具。Zoho 还在测试 Nvidia TensorRT-LLM 以进一步升级其大型语言模型的部署,吞吐量提高 60%,延迟降低 35%。和该公司之前尝试的开源框架相比,已经见到了成效。
与 Nvidia 合作让 Zoho 能为更多样的人工智能工作负载提供更优的设置。Nvidia 的技术让语音转文本等功能以及必要的高性能基础设施变得更可行。更为重要的是,这些人工智能能力将被添加到 Zoho 超过 100 种工具的整个产品线里。它们将用于助力销售、营销、客户支持、会计等其他业务需求。
而且,与那些规模更大、用途更宽泛的模型不同,Zoho 能够把精力集中于业务中用途较窄的小型语言模型,这些模型能够满足特定的业务数据方面的需求。这使得 Zoho 的人工智能对于客户公司而言更容易获取到。因此,企业能够更有效地运用人工智能,目标也更精准,并获取依据他们实际想要辅助决策的信息类型量身定制的见解。
“当今市场上的许多大型语言模型是为消费者使用而设计的,对企业来说价值有限。在 Zoho,我们的使命在于开发专门为各种商业用例量身定制的大型语言模型,”Zoho 的人工智能主管 Ramprakash Ramamoorthy 说。“拥有我们完整的技术堆栈,其产品涵盖各种业务功能,这使我们能够整合让人工智能真正有效的关键要素:上下文。”