新技术助力!人工智能实时数据压缩迎突破

信息和通信技术,如物联网和云计算,是现代社会的基石所在。这些服务的效率在很大程度上依赖于处理和传输数字数据(包括图像和传感器数据)的速度。比如,能够从监控摄像头图像中识别个人的系统必须精简整个流程,从图像传输和人工智能(AI)识别到向用户提供结果。

由于数据传输往往比 AI 计算耗费更多的时间,因此迫切需要一种能够在保持原始数据完整性的同时,最大限度地减少数据量和通信时间的数据压缩方法。新技术可以加速 AI 计算的数据传输,并减少通过广域网(如 5G/6G 无线通信和互联网)传输的数据量,从而实现全球范围内显著的能源节约。

传统的数据压缩技术将数据以有限的块进行压缩和存储。正因如此,它们需要大容量的内存和处理器,这会增大压缩器的尺寸,并且把实时压缩限制在有限的数据流范围内。

筑波大学的研究人员通过开发一种技术应对了这些挑战,该技术能自动检测频繁出现的数据模式,并在通过压缩器一次后将其压缩至最少一位。这项技术确保了完全的实时数据恢复。该研究在《IEEE 接入》杂志上得以发表。

与此前仅能将一个数据单元压缩成一位的技术不同,新方法同时将多个数据单元压缩为一位,从而使压缩效率相较于传统方法提高了 10%至 30%。

此外,这种创新技术能够于硬件中开发出高速、紧凑的数据压缩模块,无需额外的处理器、内存或其他设备。如果集成到半导体芯片和人工智能系统中,该技术可以通过提高速度、减少数据量和在通信路径中节省电力来极大地改变数据传输,推动我们向社会 5.0 的愿景迈进。

更多信息: Shinichi Yamagiwa 等人,通用的基于自适应流的熵编码,《IEEE 接入》(2024 年)。 DOI: 10.1109/ACCESS.2024.3429389