《其他电子》鸿海研究院 首推新世代自驾AI模型

鸿海指出,过往自动驾驶系统的轨迹预测方法并不具备流式处理能力,必须特别为每个待预测的交通参与者分别计算一套专有场景的编码,以达到更高的预测精度,导致产生极大的计算负担。

鸿海研究院此次与香港城市大学提出的智慧型轨迹预测模型QCNet,主要优势在于能理解真实驾驶场景的全局资讯,活用和ChatGPT相同技术基础的Transformer架构,修改为适用于自动驾驶场景,学习车辆历史轨迹、车辆间交互行为、道路环境等多样性与不确定性。

透过获得丰富的场景反馈,QCNet可在复杂的道路环境捕捉车辆的多种潜在意图、超长距离预测未来6~8秒内的运动轨迹、同时对场景中的多个目标进行准确预测,并可将编码器的计算效率提升逾85%。

此外,QCNet为交通场景中包括车道、斑马线、车辆、行人等每个场景元素分别建立局部座标系,在场景元素对应的局部座标系下学习表征,并透过相对时空位置编码来捕捉不同场景元素间的相对关系,进而避免大量重复计算、并提升模型的即时计算效率。

鸿海研究院人工智慧研究所所长栗永徽表示,鸿海研究院在AI与自动驾驶领域投入大量人力,从基础模型以及算法核心精进技术,QCNet能够在Argoverse 1与Argoverse 2取得排名第一的佳绩,并将于6月全球AI领域享誉全球的顶级会议CVPR发表。

栗永徽表示,很欣慰看到人工智慧研究所自驾团队的研发成果获得世界级的肯定,未来QCNet可应用于集团电动车自动驾驶系统,大幅提升自动驾驶决策的实时性与安全性。