编者按 算法是一项联结大数据和规制决策的技术手段,其通过一套复杂算法模型来统计和分析海量的网络数据,进而获得算法控制者所希望得到的结果。实践中,基于算法在社会应用过程中引发算法歧视、算法黑箱和个人权利受损等实践难题,对算法应用的法律监管和规制非常必要。本期集萃摘编四位学者相关论述,以期为学界与实务界探讨相关议题提供参考。
以共同善价值追求促进算法善治
中国政法大学法学院副教授?郑玉双
随着算法研发的发展和成熟,生产、社会生活、商业经营和公共决策等领域越来越多地利用算法来实现特定目标。基于算法的机器学习在社会应用过程中引发算法歧视、算法黑箱和个人权利受损等现实问题,使对算法应用的法律监管和规制变得必要。目前,学界大多基于回应型规制模式探讨如何对算法应用进行规制,但对于算法与法律之间的规范关联关注不多。然而,算法时代的首要命题是对算法与法律之间的关系进行界定,展现算法对法律价值世界的冲击方式。即如何从正义原则来引导新兴科技对社会和法律的重塑。理解算法和法律之关系的道德框架应当突出算法之技术和社会维度的共同善价值追求,并基于算法所产生的正义空间来提炼计算正义的基本内涵。计算正义的概念建构需要从两个问题展开,一是从算法实践中如何提炼出计算正义原则,二是法律如何基于计算正义原则应对算法产生的价值挑战。在计算正义原则的引导下,采取算法与法律之关系的重构模式,能够有效应对算法的价值危机和法律挑战,破解算法的法律规制难题,在智能时代实现算法善治。
加强算法设计监管
辽宁师范大学法学院教授?王祯军
提升社会稳定风险的识别、分析和预测能力是提高社会稳定风险评估效能的关键。算法的独特功能既可以扩大对重大行政决策利益相关群体的信息收集,扩充风险识别范围,提高风险分析的充分性和准确性,也可以为风险评估的人工“风险沟通”环节提供行动方案,在提升社会稳定风险评估的效能中发挥作用。将算法应用于社会稳定风险评估已经具备了数据基础,在技术和目的上具有可行性。算法在社会稳定风险评估中的应用既需要界定好政府、评估机构与网络平台的法律关系,也要解决个人权利保护和公共利益维护问题。为此,应合理构建政府、网络平台企业、评估机构的法律关系,加强算法设计的监管,建立算法评估机制,确保算法应用与人工“风险沟通”相结合。
运用算法修正合同治理底层逻辑
中山大学法学院教授?杨彪
确保当事人自由选择的有效性是改善合同治理效率的关键。进入数字社会后,复杂的决策环境和高昂的认知成本使人们的合同行为模式发生了巨大的变化,合同自由被严重侵蚀。隐藏在虚假自由背后的认知控制,是探讨合同自由问题的一个重要维度。传统合同法在应对当事人协商不足、放弃选择问题上采取形式主义的解释路径,依靠不精确的缺省规则来探寻合同真意,已被证明无法应对数字技术的冲击。以行为大数据与智能算法为核心,将数据驱动与规则驱动两条技术路线有机结合,修正合同治理的底层逻辑,从缔约助推、算法解释、缺省规则三个方面进行个性化改造,使治理的重心从模糊的整体转向精确的个体,能够显着提升合同治理效率,更好地实现交易公平。
构建算法辅助决策责任划分机制
上海师范大学哲学与法政学院副教授?于霄
数字社会已经成为触手可及的现实,算法辅助决策的安全性、公正性问题亟待解决。算法辅助决策较人类决策具有特殊的技术优势,所以得到很多人的自主、自愿选择。然而,算法参与人类意思的程度并非一致,可以由低到高区分为检索过滤算法、排序精选算法、偏好模拟算法和家长式算法。算法辅助决策亦存在风险,算法的复杂性使对其解释与认知越来越难,算法的设计者、运营者具有独立的利益需求,其会偏离人的偏好,人的决策能力会受到算法辅助的影响。但是,总体上,算法辅助决策是具有更高效率的,更有助于增强人的幸福感,虽然在某些方面存在可能有损人的尊严的隐患。因为算法的复杂性,人越来越多地放弃了意思参与。因此,应当承认算法能够超越人的意思能力。在此基础上,要根据社会和技术发展的情况,描绘评价算法意思参与的“智能性”光谱,以便衡量算法的实质意思参与以及所引发的责任。同时,算法比人具有更有效地分析信息的能力,其本身就是监管的最好工具,要构建“算法规制算法”的治理与保护路径。另外,要划分算法辅助决策的责任机制,如果意思是由人与算法共同作出,那么责任也应当由两者承担。
(以上依据《政治与法律》《法治研究》《中外法学》《东方法学》,王渊、张宁选辑)