资策会今发布「AI软体开发指引」 6大面向建立企业有责操作

为协助企业利用生成式AI软体开发效率,同时降低错误与保护隐私,资策会软体院今发布「生成式AI软体开发指引」。(示意图/shutterstock)

生成式AI引发全球巨大创新热潮,资策会软体技术研究院(软体院)今发表「生成式AI软体开发指引」,提出问责性、透明度六大关键面向,要协助企业可负责任地开发和部署AIGC(生成式AI),在提高软体开发效率外,也能确保来源可靠度与安全性。

据Expert.ai调查,78%企业意识到训练专用GPT是重大工程,Build Your Own GPT(BYOG)成为企业面临的全新挑战。软体院今(2)日特举办软体院科技日「1st STI TECH DAY」,以「前瞻趋势与新兴生态布局」为题,聚集产学研专家共同探讨产业趋势与新兴生态发展。

会上继8月份推出「企业生成式AI导入指引」后,再发布第二份「生成式AI辅助之软体开发指引」,其涵盖六大关键面向,包括问责性、系统透明度、AI生成项目、资料治理、系统公平性、系统可靠度,从各面向协助发展建立负责任的软体开发机制。

2023年初,Google测试ChatGPT之程式撰写能力已达到三级工程师(初阶工程师)的水准,以生成式AI方式开发软体,为企业带来效益的同时,亦衍生一些新的风险问题及治理挑战。企业应当如何建立负责任的软体开发机制,是现今软体开发至关重要议题。

资策会软体院表示,该指引要提供投入生成式AI的软体开发者,掌握生成式AI软体开发作法,及可能遇到的问题与解决方案,建立负责任软体开发机制所需步骤、制定原则、可操作的规范等,来确保企业负责任地开发和部署AIGC,提高软体开发效率。

在增进效率同时,生成式AI模型可能产生不完整或不正确的程式码,需要开发人员进一步修正和调整。此外也可能存在隐私风险和潜在的安全问题,例如:生成不安全的程式码或违反隐私保护的内容。

因此该软体指引也要引导开发人员,谨慎评估和监控模型的性能和结果,建立负责任的开发机制,确保生成的项目符合需求并且安全可靠。