终端AI时代来临 NPU架构AI晶片崛起
AI发展日新月异(AI生成图)
AI不断演进(示意图:shutterstock/达志)
耐能智慧自2015年成立,迄今已经获得了超过1.9亿美元融资。创办人刘峻诚说,当初耐能刚宣布要推出AI晶片时,大家都笑他,但如今耐能智慧的晶片,效能却可以跟世界一级大厂平起平坐。耐能EDGE GPT解决方案产品凭借其强大的算力、优异的性能表现、高效的功耗控制、便捷的部署以及可靠的讯息安全保障等特性,在学界与业界都树立技术领先的市场标竿和典范。
长期以来在人工智慧、机器学习等前沿技术领域保持全球领先的史丹佛大学,今年也正式宣布采购耐能的EDGE GPT解决方案,进一步加强学校在先进科技领域的教研能力,并推动更个性化和智能化的教学模式,提高学习效率。
在商业应用方面,耐能智慧AI晶片有四大产品线,包含边缘伺服器、车用、安控及AIoT,高通除了是耐能股东之外,也与其进行各式各样合作,其中高通在其RB1、RB2机器人平台搭载耐能晶片,让高通AI算力提升4倍,为智慧扫地机器人及无人机部署物体检测等能力。
耐能边缘伺服器晶片可以像乐高积木一样,进行多颗堆叠,达到高算力、低功耗效果,适用于小型伺服器。另外耐能也聚焦车用,已经打入前/后装车用一级国际大厂,例如后装晶片应用打进日本丰田车厂、前装也有德系车厂进行紧密合作。耐能在2023年收购台达集团晶睿通讯旗下子公司欧特斯,准备切入先进驾驶辅助系统(ADAS)及驾驶行为侦测系统(DMS)。
即便过去在半导体与IC设计上,与台湾存在很强竞争关系的韩国,耐能晶片也有办法打入当地市场。例如跟Line同集团的韩国搜寻引擎Naver,以及全球第四大、韩国第一大安控产品领导厂商韩华集团等,都选择采购使用耐能的晶片。
虽然GPU晶片目前在AI市场上占据主导地位,但AI应用的爆发式发展,也产生了巨大的能源消耗。未来电费将可能占据整体AI运营成本的40%。目前碳中和已是大势所趋,除了更高的算力、更优异的性能,实惠的成本与节能势必会成为客户考虑的因素。
CPU其实是专为逻辑运算而生,电脑的主要的运算其实就是CPU在做;GPU一开始设计则是专为游戏或图像运算去设计的专用晶片;只有NPU才是真正专为AI而生的晶片,也因此它本身在性能、效率跟功耗上,相较于CPU与GPU在AI上使用会有大幅的综合优势。
刘峻诚打比方说,如果把未来百花齐放的AI应用比喻为城市里的大街小巷,那么CPU之于这座城市就像是坦克车,GPU则像是搬运货物的大卡车,NPU则如同一般家用房车。虽然CPU与GPU各自有当初设计的目的与优点,但若说到要在城市里面行驶与通行,那当然还是能够在城市里钻来钻去的小客车最省油、最好开,这就是NPU晶片在未来AI应用上的优势。
想更进一步了解NPU晶片技术、终端装置边缘运算的发展现况,以及台湾半导体与IC设计过去的成功经验在未来NPU AI时代有何优势?耐能科技创办人刘峻诚在本集【财经相对论】里,深入浅出地带您了解未来AI应用爆发时真正趋势之所在,敬请至Youtube工商时报频道收看。