英特尔与日商Preferred Networks结盟,加速深度学习效能

记者洪圣壹东京报导

联网(Internet of Things,IoT)、第5代行动通讯网路(5G)、以及人工智慧(Artificial Intelligence,AI)等技术,是推动产业运用资料科技的主要动力,为加速业界在各种应用的创新,intel(英特尔)选择从 AI技术与深度学习的演进下手,稍早与日本株式会社Preferred Networks (以下简称:PFN)共同宣布双方携手开发为深度学习(deep learning)所设计的开放原始码(open source)框架Chainer,让注入英特尔动力的通用型基础架构得以加速深度学习效能

由PFN开发的Chainer是一款以Python语言为基础的深度学习框架,具备独特性以及强大效能,其「Define-by-Run」的特性,让使用者能简单且直觉地设计出复杂的类神经网路(neural network)。自2015年6月Chainer开放其原始码起,在雅马逊仓库机器手臂测试中,得到105分的高分,除了引起学术界关注之外,还吸引许多产业界使用者,这些用户需要弹性的框架来使用深度学习于研究以及实际应用等范畴

采用特定用途运算环境来开发与建置AI应用以及深度学习框架,对开发者社群形成诸多挑战,包括开发的复杂度时间、以及成本等。PFN 开发了先进深度学习框架 Chainer,其简单易用的特性被各行各业的程式开发者广为推崇,英特尔则是广用型运算技术以及AI/深度学习加速器供应商之一,这项合作结合双方技术,为使用先进AI与深度学习框架的应用程式之开发/执行成果进行最佳化。intel 表示,2020 年 AI 在伺服器运算需求将比现在还要高 12 倍,此项合作案成形后,英特尔将协助Chainer提供突破性的深度学习处理能力发展出业界最全方位的AI运算方案组合,其中包括Intel Xeon处理器、Intel Xeon Phi处理器、Intel Arria 10 FPGA、Intel Nervana技术、以及其他相关产品

此框架将采用英特尔高度最佳化的开放原始码程式库Intel Math Kernel Library (MKL)以及Intel Math Kernel Library Deep Neural Network (MKL-DNN)作为基础建构元素

除此之外,英特尔将持续针对Chainer在英特尔架构(Intel Architecture,IA)的效能进行最佳化,同时也会针对Chainer的更新作调整,包括针对Chainer进行最佳化以更新至广用型运算、加速器、程式库以及其他应用的英特尔架构。此外,双方将透过英特尔的GitHub储存库(https://github.com/intel/chainer) 与社群分享双方共同开发原始码的成果。同时推广多项联合行销活动以加速AI/深度学习市场的成长。