新型人工智能学习模型让立场检测大升级
像 OpenAI 的 GPT 这类通用人工智能系统,依靠大量训练数据来提升模型的准确性和性能。
研究或医疗领域的人工智能应用程序通常既缺少训练数据,又缺少计算能力,能够借助一种新模型,其目的在于提升人工智能在更专业场景中的输出效率、相关性和准确性。
大型预训练语言模型(PLM)会运用规模越来越大的数据集,像维基百科,来训练并优化机器学习(ML)模型,以执行特定任务。
虽然像 ChatGPT 这类大型 PLM 的准确性和性能会随着时间的推移而提高,但是在大型数据集无法获取或者由于计算限制而不能使用的状况下,大型 PLM 的效果就不太好。
简而言之,在研究、医疗或者其他难以获取大量信息来充分训练现有人工智能模型的应用里,需要一种新的人工智能解决方案,以有效地利用机器学习。
为了解决这个问题,新加坡科学技术研究局(A*STAR)的一组计算机科学家近期设计出了一种协作知识注入方法,能够凭借较少量的训练数据有效地训练机器学习模型。
在这种情形下,研究人员创建了一个模型,能够依据推文、商业评论或者其他语言数据的上下文,更精准地判定针对特定目标(比如产品或政治候选人)的立场,是支持还是反对的意见。
该团队于 8 月 28 日在《大数据挖掘与分析》杂志上发表了他们的研究。
“立场检测本质上属于一项低资源任务,原因在于目标的多样性以及带注释数据的有限性。”A*STAR 前沿人工智能研究中心(CFAR)的高级科学家、此论文的第一作者严明说道。“尽管面临这些挑战,立场检测对于监测社交媒体、开展民意调查以及为治理策略提供参考信息而言,是至关重要的。“增强基于人工智能的低资源立场检测方法对于确保这些工具在实际应用中有效和可靠至关重要。”
较小规模的训练数据集或许会对人工智能预测模型的准确性产生深远的影响。例如,维基百科中的目标“违法”链接到犹大圣徒乐队的一首重金属歌曲,而不是该术语的真正定义:以非法方式行事。这种类型的错误训练数据会严重影响机器学习模型的性能。
为了提高依赖较小训练数据集的人工智能立场检测的准确性,研究团队专注于协作模型机制,从而验证来自不同来源的知识,并更有效地学习选择性特征。
“大多数人工智能系统依赖使用大量预定义数据集开发的预训练模型,这些数据集可能会过时,进而导致性能下降。我们提出的方法通过整合来自多个来源的经过验证的知识来应对这一挑战,确保模型保持相关性和有效性,”明说。
“预训练的大型语言模型由于其大规模参数,还需要大量带注释的数据进行训练。我们的方法引入了一个协作适配器,其包含数量最少的可训练参数,……提高了训练效率并改善了特征学习能力,”明说。
该团队还通过采用分阶段的优化算法来提高大型 PLM 的优化效率。
为了测试他们的模型,研究人员在三个公开可用的立场检测数据集上进行了实验:VAST,P-Stance 和 COVID-19-Stance。然后将该团队模型的性能与 TAN、BERT、WS-BERT-Dual 和其他 AI 模型所取得的性能进行了比较。
通过 F1 分数(一种用于衡量 ML 模型准确性的指标)来衡量,在针对低资源训练数据的情况下,研究团队的新立场检测模型在使用这三个数据集时始终得分高于其他 AI 模型,F1 分数在 79.6%至 86.91%之间。目前,F1 分数达到 70%或更高被认为是良好的。
新的站立姿势检测模型极大地提高了人工智能在更专业的研究环境中的实用性,并为未来的进一步优化提供了模板。
“我们的主要重点是在低资源的现实世界应用中实现高效学习。与主要的人工智能公司专注于开发通用人工智能(AGI)模型不同,我们的目标是创建更高效的人工智能方法,造福公众和研究界,”CFAR 的首席科学家、该论文的合著者周乔伊·田一说道。
来自新加坡科学技术研究局(A*STAR)前沿人工智能研究中心(CFAR)和高性能计算研究所(IHPC)的艾弗·W·曾也作出了贡献。