学术前沿

首页 > 学术前沿 > 社会法基础理论 > 正文

丁晓东|基于信任的自动化决策:算法解释权的原理反思与制度重构

来源:丁晓东
47
2022/7/20


作者简介

丁晓东,中国人民大学法学院教授、未来法治研究院副院长

文章来源

《中国法学》2022年第1期



摘要:基于个人信息的算法自动化决策越来越普遍,我国《个人信息保护法》和相关国内外法律都引入算法解释权加以应对。但由于算法具有黑箱性、不确定性与复杂性,算法解释权是否应理解为一般性权利还是限定性权利,要求系统性解释还是个案性解释、事前解释还是事后解释、人工解释还是机器解释,都存在解释争议与适用困境。在原理层面,这一争议与困境源于个人算法控制论。应以沟通信任原则重构算法解释权,将算法解释权的性质视为一种程序性权利,而非实体性权利。算法解释权制度也应进行重构,建议根据自动化决策所处的行业领域、市场化程度、个案影响、企业能力而对其内容、程度、时间和方式作不同要求。

关键词:算法自动化决策;算法黑箱;算法解释权;个人信息


一、引言

算法自动化决策在给个人带来便捷服务的同时,其黑箱属性和可解释性也引起了社会的普遍关注。为了应对与个人信息相关的算法黑箱问题,各国都在个人信息或个人数据保护法中规定了相关的算法解释权条款。但是,有关算法解释权的内容、程度、时间、方式等制度问题仍然存在很大争议。本文试图对算法解释权的解释争议与应用困境作更系统性阐述,在原理层面借鉴信任与沟通机制理论对算法解释权进行新的反思,并在此基础上进行制度重构。

、算法解释权的解释争议

目前各国都在其个人信息或个人数据保护法中引入了算法决策的相关条款,这些条款往往可以作不同解读。

(一)一般主张与限定主张

在权利内容方面,算法解释权一方面可以被解释为一般性权利主张,即此种权利赋予了个体在所有情形下针对所有自动化决策者的算法解释权利。另一方面,《个人信息保护法》的相关规定又可以被理解为限定性的权利性主张,包括特定条件下的说明解释权与拒绝自动化处理的权利。欧盟《一般数据保护条例》具有一定的相似性。

(二)系统解释与个案解释

算法解释权的程度要求也可以作两种理解。一种理解是,个人可以要求自动化决策者对算法的系统功能进行解释。另一种理解是,个人可以要求对个案决策进行解释。两种解释为个人赋予不同的信息权利,为自动化决策者施加不同的责任。从法条解释来看,以上两种程度要求都可以在我国的《个人信息保护法》中找到依据。欧盟的《一般数据保护条例》也可以作两种解释。

(三)事前解释与事后解释

就解释的时间要求而言,算法解释权既可以视为要求自动化决策者进行算法决策前的解释,也可以视为要求自动化决策者进行算法决策后的解释。对于算法解释权的时间要求,我国《个人信息保护法》并未进行明确规定。欧盟《一般数据保护条例》也作两种解释。一方面,《一般数据保护条例》中的很多条款规定了收集与处理个人信息前的告知性权利。另一方面,《一般数据保护条例》第22条规定的拒绝自动化处理的权利,在一定程度上赋予了个体以事后解释的权利。

(四)人工解释与机器解释

就解释方法而言,算法解释权可以被认为要求进行人工解释,即当个人提出算法解释权的主张时,自动化决策者应当通过人工服务的方式解释算法的运行机制。另一方面,也可以认为纯粹机器解释同样符合算法解释权的要求。目前各国的个人信息保护法并未对解释方法作出明确规定。欧盟《一般数据保护条例》和相关规定也可以解读出人工解释与机器解释两种不同要求。

三、算法解释权的适用困境

算法解释权的困境不仅存在于法律解释层面,也存在于法律适用与效果层面。一旦对算法解释权的内容要求、程度要求、时间要求、方式要求作刚性的规则要求,就会带来各类问题。

(一)算法解释权的权利内容

就权利内容而言,将算法解释权界定为一般性权利主张,首先可能面临知情同意原则带来的问题。将算法解释权视为一种限定性权利的主张,以拒绝算法自动化处理权作为核心,也面临不少困境与挑战。

(二)算法解释权的解释程度

就算法解释权的解释程度而言,算法的系统性解释除了上文提到的算法复杂性之外,还存在如下几方面的难题。首先,算法的系统性解释面临时时更新的难题。其次,算法的系统性解释常常难以引起个人注意,为个人提供有效信息。最后,算法的系统性解释还面临知识产权与“算计”算法的难题。其次,个案性解释的解释难度更大、成本更高。最后,个案解释可能会无穷无尽。

(三)算法解释权的时间要求

就算法解释的时间要求而言,事前解释的意义有限。事前解释只能是一般解释。同时,事后解释也面临难题。一方面,事后解释是在算法决策已经作出之后进行。缺乏知情与了解,个人的选择权与决定权可能成为一种任意行使的情绪性主张,缺乏理性基础。另一方面,事后解释应当以体系性解释作为要求,还是应当以个案性解释作为要求,也是一个两难问题。

(四)算法解释权的方式要求

在解释方式要求上,机器解释与人工解释也难以作统一要求。如果将人工解释作为强制性与统一性要求,并不现实。这意味着在个人信息的收集、处理、申诉等各个阶段,使用算法的企业都需要单独通知个人,并在个人行使访问权、更正权、删除权、拒绝自动化决策权等权利时都设置人工服务。但是如果完全不作要求,允许企业以纯机器解释的方法来进行算法解释,那么算法解释制度设计的初衷就可能大打折扣。

四、算法解释权的原理分析

从基本原理看,现行算法解释权建立在算法个体控制论的基础之上,但这一理论面临种种困境。应当超越算法个体控制论,以沟通信任的基本原理重构算法解释权。从性质来看,这也意味着算法解释权应当被视为一种程序性权利,而非一种刚性的实体性权利。

(一)算法个体控制论的困境

在原理层面,算法解释权的提出与制定,与个人信息控制权理论密切相关。算法解释权作为一种新型权利,正是访问权、纠正权、删除权等传统个人信息控制权的进一步拓展。

但将算法解释权视为绝对化的控制性权利,存在如下几方面的问题。首先,个人信息控制权本身存在可行性困境。其次,个人控制权存在正当性困境。在很多自动化决策的场景中,自动化决策者与个人之间的关系具有互惠合作性,而不只具有对抗性,这就使得个人的算法解释权与控制权难以具备绝对化权利的正当性基础。最后,市场本身也具有调整能力,在企业算法决策中,并非所有不合理的算法问题都需要国家力量的介入。算法解释权应当更多针对那些对消费者产生重大影响的自动化决策,或者针对具有市场支配地位的企业。

(二)抛弃算法解释权?

算法外部监管具有很多优势,但彻底放弃算法解释权的进路,代之以算法的外部监管,并不是合理的法律与制度选择。首先,算法的外部监管面临多重挑战。其次,在算法外部监管面临困境的方面,算法解释权的合理行使恰巧可以弥补其不足。个人对于算法的控制权虽然难以行使,但赋予个人对于算法的有限解释权,通过个人发现算法存在的问题,有利于对算法进行监督和合作治理。最后,算法解释权不仅可以扮演一种工具性权利,也可以成为一种价值本身。算法解释权的合理行使,有利于个人自主性的实现。

(三)迈向沟通信任的算法解释权

既然自动化决策者与个人既存在合作互惠关系,又存在对抗防范关系,那么算法解释权就应当以促进双方的合作互惠为目标,以消除个人的疑虑和防范自动化决策者的不合理支配为目标。也就是说,算法解释权应当建立在沟通信任的原则之上。

在个人信息保护的基础理论研究中,以信任原则建构信息隐私保护,已经涌现了一大批研究成果。这些理论的共识是,以个人控制论为基础的个人信息保护已经难以承担网络时代的信息隐私保护,信息处理者应当超越一次性的告知同意,构建可信赖的信息处理机制,赢得信息主体的信任。如,阿里·瓦尔德曼(Ari Waldman)认为,信息隐私的本质应当是信任,而非关于个人控制,以信任关系界定信息隐私,更有利于在互联网与大数据时代保护个人权益。杰克·巴尔金(Jack Balkin)等学者提出的信息信义义务理论,也与信任理论密切相连。巴尔金认为应当对平台施加信义义务,要求平台承担对个人的保密义务(duty of confidentiality)、谨慎义务(duty of care)和忠诚义务(duty of loyalty),以建构一种基于值得信任的平台个人信息保护。

在算法自动化决策问题上,以信任原则重构算法解释权,比个人信息保护中的其他议题更为必要。对于算法自动化决策,也应当更多以信任原则和信义法的框架重构算法解释权。

(四)算法解释权的程序性特征

从沟通信任的原则出发,可以对算法解释权的性质进行重新界定。既不应将算法解释权视为一种透明性要求,也不应将其视为一种静态、孤立、绝对化的实体性权利。相反,算法解释权应当被视为一种动态、沟通、相对性的程序性权利,因为信任本身就是持续性、关系性、程度性的。

首先,信任本身是一个过程,无法通过一次性授权而永久性建构,这使得算法解释权更类似一种动态性权利。信任本身就是一种贝叶斯态度,一方对另一方的信任常常取决于先前事件的变化而变化,而非取决于最初双方的合意。现代合同法研究也表明,所有合同都只能是不完备合同(incomplete contract),需要双方信任关系的持续性构建。

其次,信任需要在关系中进行建构,而不能通过孤立的权利行使来获取,这使得算法解释权更类似沟通性权利。

最后,信任是程度性而非绝对性的,这使得算法解释权更接近于一种相对性权利。在商业算法决策等场景下,信任关系更不可能达到私人之间亲密关系中的信任程度,也毋需达到这种程度。因此,算法解释权的行使不应追求绝对信任。

五、算法解释权的制度重构

从算法解释权的原理出发,可以重新建构算法解释权制度。

首先,就权利内容而言,算法解释权不应被视为一种内容边界完全清晰的权利。其实体性边界应该根据具体场景下个人与算法决策者之间的沟通信任关系而确定。总体而言,当算法决策所处的场景具有严重的信任危机,且难以通过市场竞争改善算法时,应当赋予个体一般性的算法解释权主张,而不仅仅是拒绝算法自动化决策的权利。相反,当算法决策所处的场景本身具有相对较高的信任度,或者该行业具有良性互动的竞争机制,则此时应将算法解释权限定为某些特定的权利主张。

其次,就解释程度而言,一方面应要求企业充分了解和掌握算法的系统性解释。企业需要不断进行内部的自我监管。另一方面,可以根据算法所处的领域特征、影响性不同而要求不同程度和类别的算法个案解释。对于那些用户具有较多选择权、个案影响一般的算法决策,应允许自动化决策者自身设定个案解释的规则。

再次,就解释时间要求而言,在告知环节可以要求或倡导企业在事前进行模糊性解释。算法向公众的告知可以描述算法的整体运行,而非对算法的所有参数和所有细节进行描述。

最后,就解释方式而言,自动化决策者可以根据自身能力、行业特征、用户数量与算法影响程度而选择人工解释或机器解释。在理念层面,人工解释具有一定的优先性,专业高效的人工解释更有利于信任的建立。同时,对于一些对个人或社会造成重大影响的算法,人工解释应成为兜底性要求,以便消费者或监管机构对企业或算法运用的主体进行算法监督。

六、结语

随着我国《个人信息保护法》的制定与生效,算法解释权已经被我国实证法认可。算法解释权的目的是为了在信息处理关系中搭建桥梁,在个人与自动化决策者之间构建信任、消除误解、减少疑虑。从信任沟通原则出发,本文主张将算法解释权视为一种程序性权利。在制度建构层面,应当根据算法自动化决策所位于的行业领域、市场化程度、个案影响、企业能力而对算法解释权的内容、程度、时间和方式作不同要求。总之,算法解释权应当成为个体与自动化决策者之间的信任沟通机制,促进“负责任算法”的实现。


中国人民大学法学院社会法教研中心

责任编辑:周胜雯

审核编辑:方志祺

分享到:

在线调查

Online survey
2010年11月28日,全国人大常委会表决通过了《社会保险法》,作为我国社会保险领域的第一部法律层级的规范性文件,您对其实效的预期:
该法的实施将极大的提升公民社会保险权益的保障水平
该法规定过于原则,无法从根本上改变我国社会保险制度的现状
该法的实效,取决于多重因素,有待观察