微軟提出規模僅38億組參數、可在行動裝置更快運作的自然語言模型Phi-3 Mini

在诸多科技业者均提出可用于行动装置上执行的大型自然语言模型之后,微软研究人员提出名为Phi-3 Mini、规模更小的大型自然语言模型,仅以38亿组参数规模运作。

微软研究人员表示,Phi-3 Mini相比微软推出参数规模为27亿组的自然语言模型Phi-2,可用于手机或笔电装置 强调比Google的Gemini Nano有更高效能表现先前推出的Phi-2参数规模更大一些,同时运作效能可比拟Meta提出的大型自然语言模型Llama 2,本身基于Phi-2模型设计,并且以严格过滤的网路数据与合成数据进行训练,同时仅以38亿组参数执行运作,能在行动装置上以更轻巧形式使用。

而Phi-3 Mini的设计灵感来自儿童读物,透过更简单、容易理解语言描述复杂主题,让人工智慧能更快知晓实际执行需求。

虽然微软强调Phi-3 Mini运作效能可比拟Llama 2,但整体运作效能仍无法与搭配网路协同运作的大型自然语言模型实际表现,香在数学计算、程式编写与学术相关测试仍可超越Phi-2,以及包含Mistral、Gemma、Llama-3-In等规模较小的自然语言模型。

不过,由于本身对应参数规模较小,因此Phi-3 Mini对于处理涉及即时、事实相关知识的广度相对较差,但优点在于可在行动装置端有更好的执行效率表现。

微软目前已经透过自身Azure云端服务平台,并且借由Hugging Face、Ollama等托管平台提供Phi-3 Mini模型,接下来更计划推出数据规模达70亿组的Phi-3 Small,以及参数规模达140亿组的Phi-3 Medium。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》