钛媒体独家对话Amazon Bedrock总经理:大模型太多,也太早,客户需要有多个选择
以下是对话实录,经钛媒体编辑整理。
钛媒体:大公司和小而精的团队,在当下实现AI技术创新、产业赋能方面,会有哪些不同优势?
Atul:就针对客户应用部署而言,我不认为大公司和小企业之间会存在哪些明显差异,它们之间有很多共通之处。我们都想为大公司尝试不同模式。当前Data Hygiene(数据卫生)这项工作非常具有挑战性。当你为较小的公司部署应用时,管理并确保模型训练所需的私域数据实现高质量和一致性相对容易。但对于规模较大的公司,有大量差异化数据,且数据更加分散,管理数据会更具挑战性。另一方面,初创企业可以通过承担更多的风险更快地行动,它们没有像大型客户这样的现有客户群,可能会出错,也会在试错中快速迭代创新。
钛媒体:AWS想要做GenAI这件事情,最终希望解决什么问题?
Atul:我们正在积极探索新的可能性。无论客户希望自主构建模型,还是希望对现有模型进行深度定制,我们希望构建一套生成式AI堆栈,让客户使用到丰富且一流的工具,除此之外,还有Amazon SageMaker,基于NVIDIA提供的丰富实例类型,我们还积极研发定制芯片,涵盖训练和推理两大领域,以满足更精细化的需求。
通过这一系列从底层到中间层的创新,我们的目标是:让企业内的任何开发人员都能够自由构建生成式AI应用,而无需关注复杂的机器学习或底层基础设施。我们坚信,所提供的工具将达到行业最高水准,帮助他们实现应用的创新突破。
目前,我们推出了Amazon Q business和Amazon Q developer两个版本。Amazon Q business旨在为企业中的每位员工配备一位专业顾问,确保他们能够快速获得解答并高效完成任务;而Amazon Q developer则专注于提升开发人员的工作效率,为之提供即时的解答,以顺利完成手头的具体工作。这正是Amazon Q的最终目标,也是我们不懈追求的方向。
钛媒体:对AWS自身的产品和业务结构真正意义上带来改变,可能需要多久?如何在这个领域建立我们的领导力?
Atul:实际上,一切都取决于客户以及我们试图解决的具体问题。我们已经看到数以万计的客户正在使用SageMaker来改变其客户体验。这些变化有的已经发生,有的则需要一些时间。因此,对于何时能够期待显著变化,确实没有一个固定的答案。
举例来说,纽约证券交易所正在利用Bedrock来分析处理众多监管文件,并将复杂的法规内容转化为易于理解的语言,这一举措将对最终用户产生深远影响;同时,电子健康记录技术供应商Netsmart通过应用相关技术,成功将患者健康管理记录的时间缩短了50%,这无疑为医生腾出了更多时间,使他们能够照顾到更多的病人。
今天我们已经看到了对最终用户的一些积极影响,但我相信这仍然是一个需要时间来逐步发展和普及的过程。然而,这一进程的进展速度是相对较快的,已经形成了不可小觑的势头。因此,我无法确切预测是在今年年底还是明年,生成式人工智能将变得非常普遍。不过,可以肯定的是,它正在逐步改变我们的世界,为我们带来更多的便利和可能性。
钛媒体:像RAG用于解决幻觉问题,但有些论文里提了幻觉仅靠RAG也无法解决,在企业级应用中,如何测评幻觉存在程度,以及在具体应用时的影响?
Atul:尽管我们无法彻底消除这个问题,但随着时间的推移,我相信会有越来越多的前沿研究涌现。你将看到客户在处理幻觉方面取得了更多的进步与改进。我可以明确地告诉你,这个问题虽然无法完全解决,但作为我们行动的一部分,它确实有助于减少其影响,只是无法彻底消除。随着时间的推移,无论是模型内部还是外部,都将出现创新,从而帮助客户更好地应对这种模式。
钛媒体:模型间的协作问题,客户在多个模型使用时,AWS目前有哪些比较好的解决思路?
Atul:对于客户而言,这个问题显而易见。因此,我们特别推出了一项名为模型评估的功能,该功能已于去年12月发布,并计划于明天全面上线。从本质上来说,这一功能旨在帮助客户在给定的一组提示上比较不同模型的性能,以便它们能够选择更符合自身特定用例的模型。
要实现这一目标,客户有三种方式可供选择。首先,他们可以在控制台中根据给定的提示比较不同模型的性能;其次,客户可以利用自动化评估功能,在不同数据集上运行不同的模型或使用标准行业数据集,从而查看哪些模型表现优异;最后,客户还可以借助公司内部的专业团队,以不同的方式评估模型,确定哪种模型符合他们的期望。最终,客户将从Bedrock获得一份详尽的报告,根据他们设定的标准,报告将展示模型的表现以及如何决定哪些模型对其有意义。
钛媒体:AWS在AI伦理方面的举措有哪些?
Atul:我们正与多个政府组织进行广泛合作。以我们推出的Titan图像生成器为例,该工具具备水印功能,能够添加不可见的水印,帮助客户判断生成的图像是否由人工智能生成。除此之外,我们还与一些列其他组织合作,确保以负责任的方式使用人工智能。
钛媒体:AWS在自研芯片方面的经验是什么?
Atul:多年来,我们一直在芯片领域进行投资,且早在2015年收购了芯片设计公司Annapurna Labs。尽管我们最初的重点是面向虚拟化和通用计算芯片,但随后我们专注于开发专门用于机器学习的AI芯片。例如,用于人工智能训练和推理的两款专用芯片Amazon Trainium和Amazon Inferentia。
得益于多年来对芯片开发的持续投资,我们有了更多机会对这些芯片进行迭代和改进,以确保其性能和稳定性。这些改进恰逢其时,因为生成式人工智能对计算能力的需求日益增长。
钛媒体:Bedrock上有很多模型,你是否观察到哪个模型最受客户欢迎,比如Meta和Anthropic?
Atul:目前,我们尚不会透露各模型提供商的具体性能表现。但我想说的是,这些模型受到了广大用户的青睐。这主要是因为模型的选择取决于具体的应用场景,人们会根据不同的需求来选用不同的模型。因此,过早地指出哪些模型被广泛应用还为时尚早。(本文首发于钛媒体APP, 作者|杨丽,编辑 | 盖虹达)