李长亮:算法无处不在,但切忌“算法为王”

来源:环球时报

在这个信息时代,算法无处不在,几乎触及我们工作生活中的每个角落。我们似乎已经被算法包围,很多人担心社会的运转会“以算法为王”,人类会成为“云奴隶”。其实,尽管算法影响广泛,但它并不决定一切。算法本质上还是一种工具,它存在于人类智慧与决策体系之中。从技术属性来讲,算法本身无法为王;从社会伦理角度出发,人类也不会允许算法为王。

算法可以基于数据为我们量身定制信息和服务,比如视频网站分析用户历史搜索等行为数据,预测用户可能感兴趣的视频内容;在线学习平台通过分析学生的学习进度、测试成绩和学习风格,提供定制化的课程和复习材料;视频监控系统通过集成的图像识别算法,实时分析视频流,检测异常行为,甚至自动识别和追踪特定个体;智能电网的算法通过预测能源需求、优化发电效率和合理分配资源;自动驾驶汽车和无人机的算法处理来自无数传感器的海量数据,学习和适应不断变化的道路和飞行条件,提供安全、高效的驾驶决策,等等。

算法是有技术局限性的,其“决策”基于模式识别和概率计算,而非自主意识,还有很多需要加强的地方。首先,算法的性能高度依赖于数据的质量和数量,如果数据存在偏差或不足,算法的输出可能就不准确。许多强大的算法,比如深度学习模型、大语言模型等,依旧是“黑盒子”系统,它们的决策过程缺乏透明度和可解释性。在需要决策可解释性的领域,如医疗诊断、司法判决等,如果我们不能理解算法的决策过程,那么就难以完全信任它们的决策结果。其次,算法通常在特定的数据集上训练,并期望它们能够泛化到新的场景数据上。然而,算法的泛化能力是有限的,尤其是在数据分布发生显著变化的时候,算法可能无法适应新的数据分布,导致性能急剧下降。进一步而言,现实世界是动态变化的,因此算法需要不断适应这种变化,这就要求算法具备某种形式的学习能力或者定期更新。但是,动态适应性本身是一个非常大的技术挑战。另外,算法是以编码的形式存在,它可能会受到各种攻击,包括数据中毒、对抗性攻击等。这些攻击可以误导算法,导致错误的输出。虽然有研究致力于增强算法的鲁棒性,但到目前为止,还没有万无一失的解决方案。

从人类社会学角度出发,人类社会也不能允许算法为王,会以相应的法律法规进行约束。首先,自主权是现代伦理学的一个核心原则,也是人类尊严的重要体现,个体应该有选择自己决策的权利,如果算法为王,会破坏人类社会的基本伦理架构。比如,算法收集使用用户数据时,如果任由算法自作主张,这会涉及个人隐私信息自主权的基本问题。其次,算法会带来偏见和不公,由于算法通常是由既有数据训练而来,如果这些数据包含偏见,算法会继承甚至放大这些偏见。这不仅会影响决策的公正性,也可能导致社会不平等和歧视。例如,如果一个用于招聘服务的大语言模型,其训练数据中男性候选人的成功率远高于女性,则该模型输出的结果可能会更倾向于选择男性候选人,从而带来职场上的性别歧视。再者,算法会带来“信息茧房”,限制人们接触到的信息类型,影响个人的世界观和决策,不利于人类社会的创新和进步。另外,算法设计的不透明可能会影响公共舆论,比如用于塑造或操纵公众意见,影响对社会大众的引导和控制,甚至会影响政府选举、股市交易等关系国家政治经济的大事。最后,算法无法拥有人类的道德判断和同情心,在处理包含道德困境和情感纠纷的情况时,算法可能无法作出最符合人类价值观的决策。

在这个与算法共舞的时代,我们既是技术进步的受益者,享受着算法带来的诸多便捷,同时也必须对算法可能引起的风险保持高度警觉,在这一共生关系中寻求动态平衡。随着社会与技术的发展,未来我们有机会建立一个既安全可解释,又符合人类社会伦理的算法生态系统。(作者是中国中文信息学会理事)