微軟發表Phi-2小語言模型評測報告 聲稱完勝對手

微软执行长纳德拉在上月Microsoft Ignite活动上,发表Phi-2模型。(网路图片/微软官网提供)

微软(Microsoft)研究部门周二发表小型语言模型(SLM)Phi-2的评测报告,以「小语言模型的惊人力量」为题,指出Phi-2在各类测试中展现良好理解与听懂语言的能力,表现胜过是它25倍大的其他对手模型。

微软在上个月的Microsoft Ignite活动中,首次发表Phi-2模型,执行长纳德拉那时特别强调,它以一小部分的训练资料,就能达最高水准表现。

GPT、或是Google的Gemini等人工智慧(AI)系统,是使用大型语言模型(LLM)。SLM跟他们不同,是以较少的参数、较少的电脑运算来运作。这样的小型AI模型,虽然不能生成LLM那么多的人工智慧,对于特定的任务,却是很有效率。

微软说:「Phi-2只有27亿个参数,在多个总合基准上,表现比70亿参数的Mistral和130亿参数的Llama-2 都还要好。」Mistral是法国新创AI公司的产品,Llama-2是脸书母公司Meta的模型。微软也用Phi-2把Google新发表的AI模型Gemini Nano 2比下去,微软表示,Phi-2虽然小,但表现与Gemini Nano 2相当或更好。

Gemini Nano 2是Google押注多模型LLM,所发表的最新一款可在本地运作的AI系统,预计要取代Google大部分服务中的PaLM-2。

微软的AI策略不只在开发模型,也为AI特别设计了Maia、Cobalt晶片,这显示微软想要全面整合AI与云端运算。特制的晶片要将AI任务做最佳发挥,支持微软调和软硬体能力的愿景,准备与Google的Tensor,以及苹果的M系列晶片,直接竞争。

Phi-2这类小型语言模型可在本地运作,跑系统所需的设备等级不必太高,甚至有可能在智慧手机就能运行,一旦成真,新的应用就会更广。