而无论是韦伯、涂尔干、马克思或卢曼,其理论冲击力都在于他们胸怀一种深远的未来主义的时间视野,这使理论冲破了对于历史传统和当下实践的过度偏执。
目前,地方立法和行政执法方面形成了一些协同实践。(一)实施主体的双重性 按照民主政治的逻辑,法治是人民的事业,地方开展法治国家建设工作的基本主体就是本地方人民。
作为动态平衡过程的央地关系,应当以建构基于规则的、更具稳定性的法治秩序作为出发点与评价标准。而充分发挥……主动性、积极性之于地方,虽然也具有权利要素,但首先是义务性的,地方必须服从和服务于统一领导。因此,统一领导不能与行政命令画等号,以行政命令的方式要求地方开展法治工作有违统一领导的本意。当然,为避免诉讼膨胀,可以设计启动过滤机制。上述四个条款基本都属于行为模式,而法律后果部分,即《宪法》对该行为的态度,并没有得到明确揭示。
我国宪法和法律对地方的治理权作出了一定程度的确定,比如宪法明确了上下级国家机关的关系、地方人大和地方政府的职权等事项,立法法、地方组织法、预算法等法律和大量政策文件作了更具体的规定。相对来说,来自本地方人民的评价不如自上而下的评价表现得明显,但不能忽视。(28)2017年,英国发布的《数据保护法案(草案)》更是强化了知情-同意制度,并对个人同意增加了许多新条件。
《欧盟通用数据保护条例》特别强调数据行为的管理应当坚持行业主导、监管机构适度干预的理念,并强调充分调动市场自发力量来实现行业自律。在不同待遇审查模式中,算法使用者不会因为算法决策中的目标变量的选择与使用同其追求的合法的商业目标之间存在着直接相关性而免除法律责任。从法院操作层面来看,我们在对有关算法歧视的主观意图进行认定时,应当注意以下四个方面问题:第一,这种故意具有极强的隐蔽性,它往往不会对受歧视群体表现出强烈的故意,甚至都不要求对受歧视群体进行有意识的区分。在具体表现形式上,由于算法歧视内在发生机理复杂、形式多变,难以做出整齐划一的制度安排,需要结合具体情形进行有针对性的规制。
在实践中,特定性规制方式有以下几种。这种歧视非常隐蔽,不易被人们察觉。
在具体操作过程中,它们主要存在如下区别:(1)责任主体的主观意图不同。(62)Patel v.Zillow,Inc.,915 F.3d 446(7th Cir.2019). 进入专题: 大数据 算法歧视 。就差异性影响而言,法院往往会从算法决策对原告与其他社会公众的影响的比较的角度来进行判定。(63)因为算法自动化决策所引发的歧视问题是多维度、多层面和多领域的,算法歧视的形式也更为隐蔽。
例如,美国纽约州在2017年12月11日制定了《政府机构使用自动化决策系统的地方性规定》专门针对政府机构及司法机关使用算法决策的行为进行规制。例如在预测警务算法中,过分强调邮政编码,可能导致低收入的非洲裔美国人社区与犯罪地区产生联系,进而导致该群体成员都成为预测犯罪的具体目标。(2)解释的内容包括算法的输入、输出以及从中间过程的逻辑,必须是对该算法与决策的相关性进行解释。(44) (一)不同待遇审查模式 不同待遇审查模式,又称故意算法歧视审查模式。
(2)民主化数据收集与选择退出机制。它遵循的是实害救济的矫正主义逻辑。
开发者对于错误的算法决策(包括歧视性算法程序)必须进行自我调查并予纠正。作者简介:郑智航,山东大学法学院教授,法学博士。
五是系统性监督大型公共场所的算法。(56)在实践中,法院主要是从特定受保护群体受到算法决策影响角度来展开的,即只有某一算法决策对特定受保护群体构成了不利影响,才可能认定该算法决策存在歧视。(21)爱尔兰和德国提出,明确提醒用户并征得同意是使用面部识别算法的前提。这些数据往往给当事人带来歧视性影响。欧盟证券和市场管理局则从数据存储和算法备案的角度来防止算法出现歧视。倘若只有某个个体认为受到了不利影响,但其他特定受保护群体不认为存在不利影响,法院不会认为算法存在歧视。
它能够确保个人在接受服务后仍有权要求抹除数据。四是涉及种族、肤色、政治观点、宗教、工会身份、生物数据、性别、性倾向、犯罪记录、逮捕记录的算法。
根据这一概念,算法设计者在开发算法阶段应当接受第三方审查,从而发现算法可能存在的歧视和偏见。⑥从总体上讲,这些研究都是从具体个案出发进行的深入研究。
只有当这种刻板印象对于算法决策起着实质作用时,才会将这其认定为一种具有歧视意图的不平等待遇的算法。在差异性影响审查模式中,法院并不审查算法使用者在主观上是否有歧视的意图,而将重点放在差异性影响上。
大量的数据流与日益提升的算法分析和技术能力相结合,使人们能够利用基于机器学习的算法来解决复杂的问题。除此之外,注重算法歧视的结果责任也是一种重要的规制手段。④因此,美国联邦政府及各州都把存在实质性歧视影响的算法纳入法律调整的范围,并对歧视性算法进行司法审查。这主要涉及算法设计、训练数据和算法目标等信息。
(三)国家权力的自我克制 随着社会复杂性增加,社会治理的方式和手段愈来愈多地在向多元主义的方向迈进。该法案针对这些高风险算法,作出了特殊的规定。
例如,用户在使用Facebook后留下大量电子痕迹。在诉讼过程中,法院主要运用的是《民权法案》第七章及其相关条款。
(40)正如美国学者所言:人类决策者所隐含的(或显性的)偏差可能难以被找到并得以根除,但我们可以查看算法的大脑,并及时发现算法的偏差。例如,美国联邦贸易委员会技术研究和调查办公室对算法的透明度问题进行了独立研究,并向FTC消费者保护调查员和律师提供有关算法透明度的培训和技术专业知识。
1.自律性规制 自律规制主要通过行业的自我约束,加强制定算法基本原则,规范决策运行的过程,尽量减少或避免算法歧视的风险与危害。在新药许可审批过程中,它强调药物必须通过有关安全性和有效性的售前试验以后,才能进入市场。(43) 欧盟国家也积极主张建立他律机制来对算法歧视进行规制。这种结果性规制模式是一种事后性的处理,往往不会延伸到算法决策程序的前端。
美国《隐私权法》和《欧盟通用数据保护条例》从隐私保护的政策框架、数据保存与处理的安全责任、事后审查等方面对数据收集的民主化进行了规定。该机制旨在为用户实现无数据服务提供退出策略,(29)从而弥补民主化数据收集存在的一些问题。
注释: ①See Bruno Lepri et al.,Fair,Transparent,and Accountable Algorithmic Decision-Making Processes,31 Phil. Tech.611,611-612(2018). ②See Harris Mateen,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,39 Berkeley J.Emp. Lab.L.285,289 (2018). ③Northpoint公司开发的犯罪风险评估算法COMPAS对犯罪人的再犯风险进行评估,并得出一个再犯风险分数,法官可以据此决定犯罪人所遭受的刑罚。因此,算法应当经过审查和评估以后,才能在特定数据存储库中的给定数据集上运行。
它要求相关企业在通过推荐算法自动确定订单时,需要将相关的存储数据至少保存5年,并对相关算法进行备案,以便日后进行回溯检查。因为这些部门往往会根据算法软件所设置的坏人特征来识别不法行为者,并对其逮捕或指控,这会加剧种族不平等。
还没有评论,来说两句吧...