Google曝「Bard」運作原理 未來將以人工智慧推動更大成長

▲Google DeepMind科学家纪怀新博士

针对今年在Google I/O 2023期间正式揭晓的人工智慧服务「Bard」,Google 8月16日在台由参与「Bard」开发的Google DeepMind科学家纪怀新博士解说,透露Google是如何打造「Bard」。

虽说Google从很早之前就已经投入人工智慧技术发展,其中包含众人熟悉的Google Assistant数位助理服务,但其实包含Google Search、Google Maps、YouTube、Gmail、Google翻译在内服务很早就已经采用人工智慧技术加持,就连Pixel系列手机搭载的相机也同样借由人工智慧实现不可思议的夜间拍摄效果。

不过,在「Bard」背后的实际运作模式,实际上与早已用在Google各类服务的人工智慧运作原理有些不同,甚至有明显差异。主因在于用于Google诸多服务的人工智慧多半是借由巨量数据进行深度学习之后,依照不同情况判断做出最佳决策,例如判断使用者经常开启App、使用功能,或是透过关键字提供最合适解答,但「Bard」希望实现的互动则更像与人互动,除了给予使用者当下最佳解答,还能依照后续学习进行调整。

实际上的差异,比较像是Google Assistant的前身Google Now,主要是透过语音识别方式,将语音内容转换成文字进行搜寻,再将解答或搜寻结果呈现在页面上,但实际上系统本身可能并不「理解」使用者所要寻找内容,只是单纯将资料进行比对选出较贴近关键字词的内容。但是在后续更新的Google Assistant则是开始接入大型自然语言模型,并且透过学习机制开始「理解」使用者实际需求,并且在比对结果条列更贴近实际需求的答案。

而对于使用者而言,可能很难分辨其背后实际运作模式差异,纪怀新博士表示「Bard」的运作原理并非只是将英文版本完成训练,接续透过类似Google翻译的运作机制,将使用者语言进行转换即可。实际上是让「Bard」能真正理解特定语言,进而实际明白使用者实际需求,因此并非透过翻译机制进行串接即可对应不同语言,实际上还是要透过大量语言内容进行学习训练。

虽然「Bard」初期仅对应英文互动,但是借由其背后串接Google过去打造的Transformer自然语言模型,加上透过中介语言进行转换,很快地就能透过深度学习方式让「Bard」学会中文在内语言,并且能理解这些语言所陈述含意。

「Bard」最初接入的大型自然语言是Google在2021年公布具备1370亿组参数构成的LaMDA,并且透过自有TPU进行加速训练,让「Bard」能理解合理性、具体性、趣味性、安全性、真实性,以及包含整合及多项跳跃式问答内容,甚至能够进行微调。而在今年Google I/O 2023期间,Google则是宣布将新版PaLM 2大型自然语言模型接入「Bard」,使其能以更自然方式沟通互动,并且给予更合适解答。

相比早期的Google Assistant仅能提供单一、固定的解答,甚至在沟通过程显得生硬、不自然,Google希望能在「Bard」实现更自然互动、更能真正理解使用者需求,即便使用者透过不同语言进行互动也能提供合理、正确解答,甚至能够依照后续学习调整、修正解答内容。

但纪怀新博士也强调在真实生活中,许多事物的「解答」其实充满多面性,甚至可能会因为使用者提问方式不同有差异,加上人工智慧背后运作还是仰赖大量学习数据,甚至牵涉更复杂的隐私、道德等问题,因此成为当前人工智慧难以避开,同时必须面对的难题。

因此,Google目前在「Bard」服务仍以beta形式提供使用,甚至在提供最佳解答之外,还会额外提供不同候选解答,目的也是希望能透过使用者反馈进行微调,让人工智慧做出抉择更为精准,另外也会在解答内容加上引述来源,避免在解答产生偏见。

纪怀新博士表示,Google会以更负责任态度投入人工智慧技术研发,而「Bard」仅只是目前投入发展项目之一,未来目标希望能让人工智慧渗入更多生活场景,但也会以谨慎态度避免造成歧视、不公,或是影养使用者隐私安全等问题,并且让人工智慧能加速更多产业成长。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》