拟部署人脸辨识系统揪出痴汉 印度遭质疑侵犯隐私
印度拟在勒克瑙的200处地点安装人脸辨识系统,引发侵犯隐私的质疑。(图/Shutterstock)
「半岛电视台」22日报导,为打击猖獗的性犯罪,印度政府拟在人口最多的北方省省会勒克瑙(Lucknow),在200个最容易发生性骚与性侵的地点安装人脸辨识系统。虽然政策立意良善,却遭数位专家质疑恐变质为侵入性维安政策,并导致个人隐私遭侵犯。
勒克瑙警方证实,在综整出200处最常发生性骚扰报案的地点后,警方将在这些据点安装人脸辨识系统。借由侦测女性脸部表情,即时反制不当肢体碰触行为。
报导指出,警方将在每个据点安装5个人工智慧(AI)镜头。一旦发生女性遭到侵犯而产生脸部表情变化,镜头就会向最近的警局发送通报。不过,警方不愿透露诸如谁有权限阅读数据等流程细节。
目前印度愈来愈多的机场、车站与咖啡厅采用人脸辨识系统。随着系统的日益普及,印度警方将建立以全国为范围的情资搜集与犯罪识别现代化系统,进而供警方使用。
不过,数位专家指出,人脸辨识系统运用于打击性犯罪的好处仍不明确,但却会造成人民隐私遭侵犯,以及政府扩大对民众监控等弊端;更何况,警方不愿说明这项科技的运作原理、数据储存方式,以及谁拥有流览数据的权限。
「网路自由基金会」更驳斥,用表情来研判女性是否遭到骚扰,根本十足荒谬。被侵犯的人会有怎样的表情?如果一个人打电话给家人时,因为生气而产生愤怒的表情,是否就会触发警报而让警察赶来?
其认为,这项技术还未经过实证,可能导致大量因研判错误而引发警报的案例,较可行的做法还是警方增加巡逻次数。
目前在美国与欧洲,对于脸部辨识技术的反感与日俱增;但印度官员坚称,引进相关技术可制止犯罪,还能协寻失踪儿童。专家反驳,在缺乏相关法律规范下,冒然使用人脸辨识恐威胁隐私权。警方根本没考虑到这是另一种加诸在妇女身上的权力形式。AI不是万灵丹,光靠科技无法解决社会问题。
根据统计,印度可谓全球女性最危险的居住地之一,平均每15分钟就会发生1起强奸案;其中,又以北方省为最不安全的省,该省在2019年发生的女性遭侵犯的案件数,居各省之冠。
尽管2012年的一起轮奸致死案引爆全国怒火,更让政府推动一系列改革,包括简化性犯罪举报机制、加速法院审理、修法让强奸者死刑;但实际定罪率却相当低。