微軟小語言模型威力大 完勝比它大25倍的對手

微软研究部门12日发表小型语言模型(SLM)Phi-2的评测报告。 (路透)

微软研究部门12日发表小型语言模型(SLM)Phi-2的评测报告,报告以「小语言模型的惊人力量」为题,指出Phi-2在各类测试中展现良好理解与听懂语言的能力,表现胜过是它25倍大的对手模型。

微软在上个月的Microsoft Ignite活动中,首次发表Phi-2模型,执行长纳德拉当时特别强调,它以一小部分的训练资料,就能达最高水准表现。

GPT、或是Google的Gemini等人工智慧(AI)系统,使用的是大型语言模型(LLM),而SLM是以较少的参数和较少的电脑运算来运作。这样的小型AI模型,虽然无法像LLM生成那么多的人工智慧,对特定的任务,却是很有效率。

微软说:「Phi-2只有27亿个参数,在多个总合基准上,表现比有70亿个参数的Mistral和130亿个参数的Llama-2 都还要好。」Mistral是法国新创Mistral AI公司的产品,Llama-2是脸书母公司Meta的模型。微软也用Phi-2把Google新发表的AI模型Gemini Nano 2比下去;微软表示,Phi-2虽然小,但表现与Gemini Nano 2相当甚至更好。

Gemini Nano 2是Google押注多模型LLM,所发表的最新一款可在本地运作的AI系统,预计要取代Google大部分服务中的PaLM-2。

微软的AI策略不只在开发模型,也为AI特别设计了Maia、Cobalt晶片,这显示微软想要全面整合AI与云端运算。特制的晶片要将AI任务做最佳发挥,支持微软调和软硬体能力的愿景,准备与Google的Tensor,以及苹果的M系列晶片,直接竞争。

Phi-2这类小型语言模型可在本地运作,所需的设备等级不必太高,甚至有可能在智慧手机就能运行,一旦成真,新的应用就会更广。