查看原文
其他

王祯军:算法应用于社会稳定风险评估的可行性、法律问题及对策

王祯军 法治研究杂志社
2024-09-04
































王祯军,辽宁师范大学法学院教授,法学博士



文章导读

·摘要

提升社会稳定风险的识别、分析和预测能力是提高稳评效能的关键。算法的独特功能既可以扩大对重大行政决策利益相关群体的信息收集,扩充风险识别范围,提高风险分析的充分性和准确性,也可以为风险评估的人工“风险沟通”环节提供行动方案,在提升稳评的效能中发挥作用。将算法应用于稳评已经具备了数据基础,在技术和目的上具有可行性。算法在稳评中的应用既需要界定好政府、评估机构与网络平台的法律关系,也要解决个人权利保护和公共利益维护问题。为此,应合理构建政府、网络平台企业、评估机构的法律关系,加强算法设计的监管,建立算法评估机制,确保算法应用与人工“风险沟通”相结合。


·目录
一、算法应用于重大行政决策社会稳定风险评估的可行性(一)大数据技术的发展为算法应用于稳评奠定了基础(二)算法可以实现社会稳定风险的数据分析(三)算法有助于实现稳评目标二、算法应用于稳评需面临的法律问题(一)政府、评估机构与网络平台的关系(二)算法对个人权利的影响1.侵犯隐私权问题
2.歧视和不平等问题(三)算法对公共利益的影响三、问题的解决思路(一)合理构建政府、网络平台企业、评估机构的法律关系(二)加强算法应用于稳评的监管1.监管算法的内容设计2.算法评估机制设计
3.算法应用与人工“风险沟通”相结合四、结论

文章来源:《法治研究》2022年第2期


重大行政决策是行政机关作出的事关公共利益的重大决定,可能成为社会稳定风险的源头或社会稳定风险事件发生的导火索。这一命题的理论依据是“风险社会”理论,即,现代社会的风险相当一部分来源于我们作为集体或者个人作出的每一个决定,如过去一段时间各地因重大行政决策引发的矛盾冲突和群体性事件。2019年4月,国务院公布《重大行政决策程序暂行条例》(以下简称《条例》),将社会稳定风险评估(下文简称“稳评”)确定为重大行政决策的前置程序。2021年《市县法治政府建设示范指标体系》作为开展示范创建活动的评估标准和建设法治政府的具体指引,在“重大行政决策科学民主合法”和“重大突发事件依法预防处置”两个一级指标中,均涉及稳评和风险防范的内容。提升社会稳定风险的识别、分析和预测能力是提高稳评效能的关键,对于防范社会稳定风险,确保科学决策和顺利实施决策具有重要意义。算法是“在计算或其他解决问题的操作中,特别是计算机所遵循的一个过程或一组规则”。在信息时代,算法为政府提供了大量收集个人信息并且监控个人行为的机会,它可以广泛抓取并高效解析个人数据生成相关决策,具有将网络空间虚拟社会和现实世界的个体相互联结,根据个体的过去和现在预测未来的技术能力。“在公共事业领域,从司法审判到智慧警务,从福利分配到信用评估,算法也正在政府、专家之外成为影响决策的第三股力量,或独立或辅助地发挥着智慧决策的作用。”显然,算法的独特功能既可以扩大对重大行政决策利益相关群体的信息收集,扩充风险识别范围,提高风险分析的充分性和准确性,也可以为风险评估的人工“风险沟通”环节提供行动方案,在提升稳评的效能中发挥作用。然而,“当算法与纷繁复杂的平台应用相结合,深入且广泛地嵌入到我们的生活中并不断拓展之时,看似理性的算法却引发了一系列算法危机”,算法应用于稳评不可避免地会遇到权利保护和公共利益维护等法律问题。在提升稳评效能的同时,必须在法治的轨道上规制算法的使用。


一、算法应用于重大行政决策社会稳定风险评估的可行性


重大行政决策社会稳定风险评估(下文简称“重大决策稳评”)是行政机关在制定、实施事关人民群众切身利益的重大决策之前,通过调查研究,对可能影响社会稳定的风险进行预测、识别、分析和评判,制定风险应对预案和措施,并将评估结论作为决策依据,在决策事项实施过程中妥善处置社会稳定风险的过程。根据《条例》,稳评结论的作出要经过合法性、合理性、可行性论证,同时要遵循公众参与、专家论证等法律程序,必经的技术流程包括风险信息收集、风险识别、分类、分析等。算法应用的基础是数据处理,实现数据的采集、存储、检索、加工、变换和传输。将算法应用于稳评已经具备了数据基础,在技术和目的上具有可行性。

(一)大数据技术的发展为算法应用于稳评奠定了基础

现代算法是由易于访问的大型和(或)多样化数据集推动的,这些数据集可以有效地聚合和处理(通常称为“大数据”)。这些算法存在于复杂、相互依存的全球数据生态系统中,通过算法产生的输出可以用作其他算法过程的新输入数据。建立在数据之上的算法应用于稳评的基础环节,一是掌握反映社会稳定风险的丰富数据,二是实现社会稳定风险的数据化驱动。在大数据时代,随着智能手机、智能电器等智能设备普及到千家万户,从消费习惯、饮食嗜好、活动轨迹,到身高、体重、心跳、脉搏等丰富的个人信息,随时随刻都会被传送到“云端”,每个人已经成为“物联网”时代的“量化自我”(quantifiedself)或“可测度的自我”(measurableself)。很多个人信息背后隐含着社会稳定风险因子,如学者所言,“自己每一次点击鼠标,包括上传一张照片、转发一则笑话或在短片下面点一个‘赞’,都是在为建立与自己相关的庞大数据库添砖加瓦,而其揭示出的人格特质真实得让人恐惧”。这些信息成为深度分析进而评估社会稳定风险的重要数据。在此基础上,对导致影响社会稳定的风险因素实施的数据化转变,实现风险的可计算化是实现算法应用于稳评的重要环节。“在实现风险因素的数据化转化这一目标过程中,所采用的主要研究手段应当是寻求风险因素与定量数据间的融合点与连接点,将风险因素与数理算法自然地建立联系,从而能实现对风险计算的普遍应用。显然,数字化提高了数据管理的效率。通过数字化,模拟数据被转换成计算机可以读取的数字数据”而“数据体量的指数级增长使得数据处理的环节只有算法能够胜任,而数据处理者的算法能力决定了其数据处理水平能力。”算法已经能够对海量的无结构数据(包括百度搜索记录、淘宝购物记录、手机GPS信息等各种电子痕迹)进行分析和处理,最终实现“完美个人化”,准确识别出某一特定个人的身份、个性、品味、社会属性、偏好和政治倾向。因此,算法应用于稳评的数据资源和技术已经具备。在实践中,算法已经用于协助判决和假释决定、预测犯罪“热点”以分配警察资源、个性化搜索引擎结果、电子新闻源和广告、发现欺诈、确定矿山信用评级、促进招聘、提供医疗和法律服务等事务中,为算法应用于稳评提供了参考和借鉴。

(二)算法可以实现社会稳定风险的数据分析

风险学界的制度主义者认为,“风险社会”中的“风险”是人类活动的反映,是人类社会工业化发展和科学技术迅猛提高的副产品。风险不仅来源于人类社会之外,更来源于我们作为集体或者个人作出的每一个决定,每种选择,以及每次行动。人类学者和文化学者则把风险定义为一个群体对危险的主观认识,认为风险是否客观存在本身并不重要,重要的是谁在认知并强化了风险意识与观念。由于不同文化导致的风险感知不同,对风险的认识是混乱无序的,很难寻求到建立这种等级性秩序的基础。社会稳定风险是未来发生不可控的社会冲突的可能性,是一个动态发展过程,不可能被完全消除,体现了制度主义者所主张的风险的客观存在性。同时,社会稳定风险又具有人类学者和文化学者所主张的主观建构性,最终以决策利益相关方的行为反映出来,而利益相关方的行为受主观思想和认知的支配,往往基于个人主观上对风险的认知、利害分辨和价值判断来决定是否采取影响社会稳定的行动。并且,利益相关方的心理活动不断变化,其态度和价值立场经常是不稳定的。“这些立场的系列光谱包含着强烈反对、温和反对、中立、温和支持,直至强烈支持。通过公共决策过程中信息告知、协商、卷入、谈判、公民主导等方式的不断强化,在决策过程的包容性、开放性、互动性等作用下,相关群体的利益认知、偏好和立场都是可变的。”客观存在性的风险评估标准基于科学的“理性—工具”范式,而主观构建的风险则偏向“商谈—建构”范式。社会稳定风险兼具主观性和客观性的特征增加了风险数据分析的难度,对数据分析工具提出了很高的要求。而建立在数据之上的算法应用于稳评的基础环节是实现社会稳定风险的数据化驱动,体现了“理性—工具”范式的科学性,即“对导致影响社会稳定的风险因素实施的数据化转变,实现风险的可计算化。在实现风险因素的数据化转化这一目标过程中,所采用的主要研究手段应当是寻求风险因素与定量数据间的融合点与连接点,将风险因素与数理算法自然地建立联系,从而能实现对风险计算的普遍应用。显然,数字化提高了数据管理的效率。通过数字化,模拟数据被转换成计算机可以读取的数字数据,使得数据的管理变得既方便又高效。”此外,社会稳定风险的主观性在稳评中表现为“个体的感知和情绪等心理层面的因素必然千差万别且大部分存在这样那样的波动,具有典型的非线性特征,恰恰是这些具有非线性的因素在‘稳评’中是最为重要的评测方向,它们决定了利益相关者对重大行政决策的接受程度,以及采取对抗行动引发风险的可能性。”传统稳评评估指标的静态性特征,数据采集的抽样限制使得这一工具方法在现实中难以避免时效性差、权威度低的局限,降低了对长期趋势和波动幅度的可预测性,无法获取持续的、周期性的观测数据。更为关键的是,偏于线性因果关系指标评估体系往往忽视了对社会行为的文化和集体心理方向的测度。基于大数据的算法为解决稳评中的“非结构化数据”分析提供了重要的工具和方法。随着智能和可移动计算设备的出现,个人的位置、行为,甚至身体生理数据的变化都成为了可被记录和分析的数据,“每一个数据都被视为一个节点,无限次地与网络间关联数据形成裂变式传播路径,其间的关联状态蕴含着风险扩散的无限可能性”。这为在技术上以“数据参与”代表“公众参与”从而为算法应用于稳评实现“商谈—建构”范式要求的民主性提供了空间。通过算法实现对大数据的分析、预测,使海量数据释放出更多的价值,透过大数据探析利益相关者的真实心理、态度和立场,能够充分掌握影响相关利益群体风险感知状况的各种因素,提高稳评结论的科学性和准确度,为重大行政决策提供更可靠的咨询。

(三)算法有助于实现稳评目标

“风险的知识属性决定风险的识别与判断不能仅依靠传统经验法则和社会一般大众的感觉,而需要借助专业化的标准与规范。而这些专业化的标准必然通过专业化的行政机关来设定。”重大行政决策客观上作为引发风险的人为因素,在作出之前进行稳评是政府、社会、个人、制度对社会稳定风险反思性提高的表现。当然,风险是“未来破坏性结果发生的概率”包含两方面的含义:不利结果的严重程度和发生的概率。因此,稳评所针对的核心问题是不确定性,包括“对结果预判的知识方面不足;对风险无法进行定量描述或风险评估的结果不可靠;潜在因素对活动结果的影响上缺乏理解;对结果的空间状态缺乏明确的定义。”“不确定性”分为两种类型:社会稳定风险事件的不确定性——客观上的不确定性;决策者对风险认知是否充分的不确定——主观上的不确定性。对社会稳定风险的感知既受客观不确定性的影响,也受因决策者的认知局限性以及与公众的认知背离的影响。因此,社会稳定风险并不只是秉持实证主义的精神,通过科学技术与数学模型建构的“事实”,也是一种秉持建构主义的精神,探寻公众对风险主观感知的价值判断。因此,稳评是预防社会稳定风险的机制,最终的价值目标应当是动态地构建社会稳定状态——一种相关主体间参与、互动式的社会构建过程。在信息社会,稳评欲实现动态建构社会稳定状态的目标,需要借助算法的力量。算法决策具有专业性、复杂性和动态性特征。结合具体应用,算法主要发挥着优先级配置、分类、关联及过滤四项功能。根据复杂场景和具体需要,自动化决策的达成还可能是四种功能的有机结合。这意味着数据和算法驱动的自动化决策可以将个体的线上、线下数据进行整合,形成对特定主体行为偏好的精准预测和评估,并可依据解析出的数据将其归入到特定的类别和群组中。凭借精心设计的算法和先进的数据抓取技术,能够精准分析并解读利益相关群体的嗜好和利益诉求,从而为利益相关者提供量身定制的风险发生和化解方案,满足了风险沟通的需求。一方面,通过在互联网上自动抓取内容,再运用算法和少量的人工进行识别分析,从而形成风险评估结果;另一方面,算法可以通过社交媒体平台对个人的日常生活产生影响,人们通过搜索引擎获取知识和商业信息,通过微博社交和获取新闻,通过评价类的社交媒体知晓餐馆评价,通过约会类的社交媒体结识伴侣,通过算法可以做到向利益相关者推送法律宣传、政策解释、疏导情绪、化解矛盾等有助于化解风险的信息。同时,通过记录利益相关者点击、阅读选择等行为数据,用算法精准分析用户的兴趣和内容需求,形成针对利益相关者特点和特定风险点特征的风险沟通和防范方案。此外,算法决策过程本身具有动态性。算法运行规则可能为了适应新的数据而加以改变,可以动态监测风险,动态建构社会稳定状态的目标,这一点可以从算法用于风险评估的域外实践得到验证。例如,目前在使用的风险评估工具,如美国的COMPAS或英国的HART,被用于预测个人再次犯罪的可能性等因素。这些算法使用个人数据计算个人的风险因素,如他们的犯罪史和与执法部门的互动,也使用诸如居住地以及他们与其他有犯罪记录的人的联系等变量。这些工具不仅可以用于提供信息,而且可以在判刑、假释或进入康复或转移方案等领域实际作出决定。可以预见,算法可用于就个人是否可能做出引发社会稳定的过激行为作出决定。具体而言,算法与大数据之间的相互作用和相互依赖性使得它们能够部署在风险评估领域,使许多传统上由人工进行的评估变得越来越自动化。例如,基于稳评结果的重大行政决策实施过程亦是动态建构社会稳定状态的过程,如果有关主体在重大行政决策实施阶段作出的“派生性决策”——各种涉及利益相关群体的决策不当,极有可能会激化矛盾,导致原有赞成决策的利益相关方倒戈,破坏先前构建的社会稳定平衡关系。因此,算法的动态分析功能可以帮助实施主体谨慎对待并动态监测“派生性决策”可能引发的社会稳定风险平衡。


二、算法应用于稳评需面临的法律问题

互联网和数字技术的迅猛发展使得算法的使用空间愈加广泛。然而,“信息技术革命带来了新的权力形态,导致了‘算力即权力’的新现象,同时也使传统上用来抗衡国家权力的公民权利面对更隐微、更无所不在、更多元化的权力技术的侵蚀。”算法应用于稳评虽然在数据收集、技术应用和目的达成方面具有可行性,但其在决策过程中的日益普及也引发了一些法律问题。在法治国家,唯有使算法应用符合法治的价值要求,方能确保算法发挥应有的作用。

(一)政府、评估机构与网络平台的关系

算法应用于稳评的一般建模流程是:确定风险评估目标→获取风险信息数据→风险信息数据检验→变量选择(数据清洗)→变量转化→数据输入模型算法→模型评估。可见,“数据是算法运行的宝贵资产和持续优化的源泉;算法是海量数据挖掘和分析的有力工具;平台是提供数据和开发算法的关键基地。”互联网的发展为政府和企业提供了丰富的监视控制个人、收集个人信息的机会。对于政府部门,除了通过日常办理行政事务和利用大数据机构外,还可以利用政府的权力和资源,通过各种渠道,有效控制个人的网上信息和行为,也可以迫使企业遵照政府的要求,利用企业的基础设施和技术,帮助和参与对个人信息和网络的控制。就稳评而言,与社会稳定风险的数据化分析相关的利益相关者的习惯、嗜好、政治倾向等潜在风险信息,很多是通过利益相关者在网络平台的购买、搜索轨迹,通过媒体平台关注利益相关者关注的新闻或话题等特定信息的偏好中反映出来的,单靠政府自身掌握的数据难以满足稳评的需要。目前的主要网络企业多是大型的跨国公司,它们的经营网络可以伸到世界的任一角落。换言之,“个人作为算法与网络的消费者是无处逃遁的。政府的手脚力所不能及的地方,企业却更为有效。”将算法应用于稳评,政府需要利用网络平台企业的数据。然而,“在算法系统的开发与部署中,政府公共部门与平台私营部门之间的界限往往模糊不清。平台作为私营部门不仅自身是算法系统的主要开发者和使用者,同时是政府公共部门使用算法时的主要采购对象。”政府和企业在数据分享中的合作必然是建立在双方利益的基础上,而政府追求公共利益维护的目的和企业追求利润最大化的利益往往并不一致。虽然政府为了实现自己的目的需要借助企业的基础设施和技术力量,但企业与政府合作的目的却可能是为了免于干扰或从政府处获得更多资源。在这种情况下,政府如何从企业合法正当地获得数据帮助就成为算法应用于稳评面临的首要问题。这一问题随着稳评主体的变化而进一步变得复杂。目前,根据多地规范稳评的规范性文件规定,稳评通常实行评估主体委托第三方评估机构评估的方式。在这种情况下,第三方评估机构如何获取充分的数据信息?围绕着数据收集所产生的政府与第三方评估机构的关系、第三方评估机构与企业的关系、第三方评估机构如何从政府获得帮助从企业获取数据等问题,则是算法应用于稳评必须考虑解决的法律问题。

(二)算法对个人权利的影响

算法自动化决策作为一种决策类型,也会涉及相关主体的利益,和风险发生存在着一定的联系。并且,由人作出的决策既要体现一些基础性的底线价值,如人的尊严和平等,也要遵循一些程序性要求,如法定程序或正当程序。与此不同,算法自动化决策趋向于只讲手段不问目的的工具理性,如卢曼所言:“人工智能研究关心的是如何操纵‘符号’,而不是如何形成意义。”算法自动化决策所体现的技术理性有明显的化约主义倾向,它可以用来提高效率,作出价值判断和事关人类权益和福祉的最终决策却并非其所擅长。因此,应用算法不可避免地面临侵犯权利等违法法治精神的问题。特别是“当算法用于支持决策时,如风险评估,它们可能会引入或加剧现有的人权挑战。”

1.侵犯隐私权问题

在动态、立体化的网络环境下,重大行政决策的利益相关者的“异质性”心理与行为表现极为突出,因重大行政决策诱发的风险信息可以通过自媒体快速扩散、交织,短时间内形成数量巨大、形态多样的舆情数据。利益相关者使用互联网产生的数据基本属于个人信息的范畴,“但我们并不拥有这些数据,也无法控制这些数据,数据属于为我们提供各种服务的‘大数据掌控者’。”在一些情况下,互联网企业收集和提取用户私人信息往往未经用户同意,侵犯了利益相关者的信息权利。另外,“涉及利益相关者的图像、视频、音频、点击流等半结构化或非结构化的数据内容背后,往往隐藏着利益相关者的真实态度、诉求及行为趋势特征。”算法应用于稳评势必要分析利益相关者的心理和行为倾向,必然会更多地涉及个人的隐私信息,而搜集和使用个人数据的边界和程度目前并没有具体的规定。更值得一提的是,除了直接非法收集、使用公民个人信息甚至是隐私信息的侵权行为外,算法预测——通过算法对所收集数据的二次利用,将一些表面上不具有个人特征的数据,经过算法的应用之后就可以追溯到特定的个人,成为一种间接、隐蔽的侵权行为。与大数据结合后的算法预测的准确率越来越高。例如,Facebook的算法根据用户提供的种族、职业等少量个人信息就能推断出用户的性取向,且准确率高达80%左右。全美第二大零售企业Target公司曾根据算法分析,向一位已孕未成年少女邮寄婴儿用品手册,其法定监护人却根本不知其已怀孕。如今,日益智能化的算法,同大数据等技术相融合,不断冲击着现有的公民个人信息和隐私保护体系。并且,当管理不严导致算法的数据库被盗或被恶意使用时,反映个人隐私的数据将可能泄露,致使个人信息存在巨大的安全隐患。在稳评中,无论是对拟做出的重大行政决策——“当事性决策”,还是导致同一利益相关群体遭受了利益损失或不公正对待并且问题未得到有效解决的以往的决策——“背景性决策”所可能引发的社会稳定风险,都要进行应评尽评。同时,在涉及风险防控措施和应急预案时,应当充分考虑防止“当事性决策”和“背景性决策”的风险共振和转化。为了运用算法尽可能地分析出各种风险,存在着更多更复杂的诱因,让评估主体对数据尽可能地采集更多、存储更久、分析更彻底,这就会不可避免地涉及个人隐私。“一味追求数据搜集和算法设计而不顾及个人的隐私,或者对个人同意收集的个人数据疏于管理,必然导致个人隐私被侵犯,不仅会导致公众不愿意提交自己的数据信息,而且如果出现大规模侵犯个人隐私的情况,很可能会因为引发民怨,与重大行政决策可能引发的风险叠加而威胁社会稳定。”

2.歧视和不平等问题

数据收集的歧视性和算法本身存在缺陷或瑕疵也会导致不平等或歧视现象的发生。“算法不停的旋转和降维你的数据集,直到它能读懂你、透视你。……算法的高维理解完胜你对自己的了解,但它们并不具备完美的预测能力和公平公正的态度。”虽然算法的设计和运行具有高度的专业性和客观程序性,具有很强的工具理性特征,但算法“是由人设计出来的,这本身就有可能具有偏见性和错误性。”事实上,“中立”与“偏见”的区别本身就存在着价值判断的问题。因此,算法设计者很有可能有意或无意地把个人的偏见和歧视态度编进了程序,“也有可能数据本身就反映了相应的社会偏见。”由此,工具化和技术化的算法决策也难以保证每一次决策结果的公正性和与实质层面的价值理性相一致。“换句话说,算法自身的有用性、有效性常无法保证社会层面所认同的自由、平等、公平、公正等价值理性的达成。”“因此在公共事业领域,对于弱势群体和边缘群体,算法决策看似简化了繁琐的行政流程,但却具有让弱势群体更加边缘化的风险,从而发生‘数字贫民窟’效应。”“算法带来便利,也让人警惕,它们从最冷静、理性的角度分析我们的性格、洞察我们的喜好……它们还放大了偏见和歧视的威力。”如果算法应用产生的偏见和歧视性问题不能很好地解决,将算法应用于稳评,一方面,在算法设计中,哪些人将成为利益相关者、哪些事项构成风险信息,什么是常规、什么是意外等等,程序员将对所有这些因素做出决定,这些因素将嵌入难以更改的软件代码中,代码是秘密的,很难被一般大众所理解,很难被公众质疑或纠正。因此,人类的固有偏见或者歧视在算法建模和系统训练的过程中会被结构化,影响或者损害稳评需要的公众平等参与的民主性,成为引发社会稳定风险的一个潜在源头。例如,英国目前正在实施基于自动匹配算法的社会保障系统,目的是简化社会保障支付系统的成本,提高效率。该系统因对获得社会保障设置数字障碍导致歧视风险,可能会排斥数字识字率较低或无关联性的个人。该系统的可访问性以及风险评估的使用有可能影响到处于社会弱势地位的人的人权生活的关键领域,如食品、住房和工作。预测分析也可用于儿童保护。据报道,伦敦议会与私人供应商合作使用的一种工具,结合多个机构的数据,并应用风险评分来确定忽视或虐待的可能性。这引起了对隐私和数据保护的关注以及与家庭生活权和歧视有关的问题。另一方面,在稳评工作中,利益相关者在争取自身利益的过程中,往往会将自己或被社会公众贴上弱势群体的标签。相对于一般的社会公众,这些正处于与政府博弈争取利益的弱势群体在权利受到侵犯或受到不平等的待遇时,很有可能会不自觉地归咎于政府拟出台的重大行政决策,在“新仇旧恨涌上心头”的心理作用下产生过激反应,成为新的社会稳定风险点。例如,在“征地补偿”决策的稳评中,依据算法决策结果进行的沟通协商可能会使大部分居民满意补偿标准,但如果基于设计上存在偏见的算法决策分配给这些人的安置房的位置不合理,很可能会滋生新的风险引发连锁反应,使先前关于补偿标准的协商成果付之东流。除此之外,大数据驱动算法的操作通常基于相关性和统计概率。算法分析大量数据,以确定特定输入和特定输出之间的关系,并在此基础上进行预测。在这种情况下,更大的数据集提供了更大的样本量,这有助于降低误差幅度和更精确的模型。鉴于大数据驱动算法的这一特点,算法应用于稳评中还会产生这样的问题:(1)稳评结论的得出可能基于群体层面的特征,而不是以个人为中心的特征——一种算法应用于稳评所暴露出的“隐形歧视”。也就是说,这些模型未能考虑到个人的能动性和个人选择的相关性。由于特定于某个人的因素,某个特定的个人可能会以特定的方式采取行动;(2)决策通常基于相关性而非因果关系。这两个问题是相互关联的。它们表明,对未来可能行为的分析只在群体层面有效,而不是在个人层面有效,而且预测对特定个人将如何行动没有决定性作用。这些特征表明,虽然算法可以用作包括稳评结论在内的决策依据,但它们不能为直接影响个人权利的决策提供唯一依据,某种形式的人工参与或监督是必要的。

(三)算法对公共利益的影响

算法可以被政府或企业用以日常管理从而影响公民权利,这一功能尤其表现在社交媒体算法上。社交媒体算法的目标“是获得和保持用户的数量,并且尽量提高用户的参与度。所以,它收集社交媒体用户数据,预测用户的偏好进行推荐,而用户对于推荐内容的刺激和反馈可以为下一步的推荐提供数据。”依据用户的点击率和转发率,算法可以实现社交媒体对用户的新闻投放。如果说算法的新闻投放功能是一枚硬币,硬币的一面是:这一功能应用于稳评的“风险沟通”环节,可以根据利益相关者的个体情况和沟通需要,以新闻投放的形式将重大决策的内容、相关解释和政府举措、相关法律和政策等有助于“化解矛盾,维护稳定”的信息向利益相关者传播,以增强他们对相关事项的正确认识,提高法律意识,避免做出过激行为。然而,硬币的另一面是:在现实生活中,算法“推送标准是用户的点击率和转发率而非新闻的真实性。因此颇具噱头的假新闻被用户高频点击或转发,并进一步被算法推送而广泛传播。”例如美国大选中发生假新闻事件引发了人们对如何进行监管算法的关注和忧虑。因为算法能够主导和控制社交媒体的信息传播,通过社交媒体平台对公众日常生活产生越来越大的影响,学者们担心,“社交媒体的算法过度利用了用户偏好数据推送信息,制造了信息‘过滤泡沫’,造成用户接受的观点越来越极端。”思想是行为的先导,极端的思想必然可能产生极端的行为。稳评的重要目的是通过预先识别和消除社会稳定风险,避免利益相关者采取极端措施引发威胁社会稳定的事件。而在社会稳定风险防范中,影响社会稳定的负面信息的传播也有可能通过算法使其向公众的传播力增强。此外,考虑到社会影响程度,算法未来会越来越多地应用于政府管理的诸多领域,政府在决策中使用算法会引起许多涉及个人权利和公共利益的问题,例如,在算法应用于社会福利、税收制度、环境管理和监管等领域时,如何选择个人进行税务审计?哪些人得不到社会福利?哪些人需受到警察调查?通常,这是因为算法决策的结果。自动信用评分可以影响就业和住房权利;越来越多地使用算法来告知关于获得社会保障的决定,这可能会影响公民的社会权利;使用算法协助识别处于危险中的儿童可能会影响家庭生活;用于批准或拒绝医疗干预的算法可能会影响健康权;而判决中使用的算法会影响公民的自由权。“政府和官僚机构使用数据库、算法和大数据有可能严重出错,给个人和人群带来严重的负面后果。”而每一次应用算法所作出的公共决策,都有引发社会稳定风险的可能。正如丹妮尔·济慈·西特伦(DanielleKeatsCitron)所言,这一发展——基于未知、难以捉摸且往往不可质疑的制度作出有关个人权利和权利的决定——对现代国家的法治提出了严重挑战。因此,如何加强对算法的有效监管,是信息时代算法应用法治化需应对的挑战,也是社会稳定风险治理需要解决的重要问题。


三、问题的解决思路


算法搜集和分析的数据越多,读懂人、改变人的生活和行为方式的概率就越大。在数字信息和通信技术,特别是大数据、机器学习工具和网络设备已被政府部门、企业、个人广泛采用的背景下,个人的数据不仅仅受到政府的监控,同时也受到企业的监控,并且,只要政府或企业愿意,他们的监控无远弗届。规制算力,保护数据主体的权利成为算法应用法治化的应有之意,对于算法应用于稳评也毫不例外。

(一)合理构建政府、网络平台企业、评估机构的法律关系

在传统依据小数据的稳评中,无论是由政府部门亲自负责稳评还是将稳评委托于第三方评估机构,都难免会出现稳评结果唯长官意志的情况。算法具有工具理性,可以一定程度上避免传统稳评中的人为操纵问题。在现实中,第三方稳评机构一般是专门的风险评估机构、律师事务所,虽然通过委托协议负有稳评的法律义务,但就算法设计使用而言,他们既无权也无资源收集广泛的数据,更无法从事复杂的算法设计。网络平台企业虽然掌握着丰富的数据资源和算法设计技术,但他们并不负有维护公共利益的责任,也没有义务为稳评设计算法。相对于第三方评估机构和网络平台企业,政府部门负有维护公共利益、安全和社会稳定的职责,掌握着行政权力和一定的数据资源,但却不得不面对算法设计的技术难题,而且,“自己决策自己评估”也会面临有违正当程序的舆论压力。因此,解决算法应用于稳评的设计、使用主体问题,就要在考虑数据收集、算法设计技术难题和确保稳评结果客观性的基础上,充分利用三方的优势和资源,构建相互间的法律关系。有学者认为,“基本公共服务(包括国防和治安)领域的公、私权力关系是未来法治需要解决的首要问题。以政府为主要规制和防范对象的现有公法体系需要考虑技术革新和权力结构变化所带来的新问题,一方面将透明、公开、程序合法、说明理由等对公权力行使者的要求延伸到实际上行使着‘准公权力’的私人(包括企业和个人),使算法等技术化的监控和决策手段不再是无法被问责的‘黑箱’,另一方面延伸和调整传统的公法概念体系(包括‘公共服务’)和规制手段,以应对现时代公私合作、公私共治的普遍现象。”根据这一思路,可以考虑由政府部门与网络平台企业签订以维护公共利益为目的的行政协议的方式,将稳评的算法设计使用权通过协议委托网络平台企业,并施加必要的保密义务。同时,政府部门与第三方风险评估机构签订委托协议,由第三方实施稳评工作。基于网络平台企业并不精通稳评中涉及的法律和风险管理业务,可以要求网络平台企业与风险评估机构以协议的方式确立双方的法律关系,由风险评估机构为网络平台企业提供算法设计所需的法律和风险管理专业知识,由网络平台企业设计算法,并将算法分析结果交于风险评估机构作公众参与、专家论证、合法性审查等进一步分析,双方根据自己在稳评中承担的法律义务共同对稳评结果向政府承担相应的法律责任。

(二)加强算法应用于稳评的监管

算法的使用是一把“双刃剑”,虽然可以提高稳评的准确性和效率,但是,如果算法设计和使用涉及的侵犯权利和损害公共利益等问题得不到解决,算法的使用可能会适得其反,甚至引发额外的社会稳定风险。随着算法的广泛使用,其应用于稳评是一种必然的趋势。因此,除了规范数据收集、算法设计主体间的关系,必须在法治原则指引下,结合稳评工作的实际,规范算法内容设计,设计算法评估机制。

1.监管算法的内容设计

算法规制已经成为当今理论和实践关注的热点问题。当前关于算法设计的规制模式,以权利或义务主体为标准,主要有赋予数据主体权利的欧洲模式,实施行政机构和公共机构问责的美国模式,以及我国的赋权数据主体和为平台施加义务的模式。按照时间来分,包括以构建算法风险评估机制为代表的事先监管机制,将法律的价值和伦理融入算法设计的事中监管机制,和以建立算法问责制度为典型的事后监管机制。从规制阶段上分,可以分为算法治理、数据治理和平台治理。以监管内容为标准,分为将法律的价值和伦理融入算法设计、算法监管人、算法问责等。当然,无论采用何种监管模式和方式,算法的规范使用都将有利于算法在法治框架内应用于稳评。具体对稳评中的算法应用而言,由于网络技术具有较强的专业性,而算法往往被认为是不应公开的商业秘密,应以风险防范为目的,对算法同时进行事先与事后监管,主体与技术监管。具体而言,对于属于企业商业秘密的算法的监管方式的选择,应当着重于避免行政机关介入算法的设计内容和运行的内部结构,避免行政机关主体陷入司法者并不了解的技术领域,为此,体现结果导向的事后责任追究是较为可取的规制方法。对于行政机关委托设计或可以向行政机关公开的算法的监管,可以考虑采取事先的算法风险评估和将法律的价值和伦理融入算法设计的事中监管方式。事实上,2021年《个人信息保护法》第24条的规定就体现了“事先与事后监管,主体与技术监管”的思路,该条规定,个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。但遗憾地是,该条规定只明确对算法在“交易价格等交易条件上实行不合理的差别待遇”作了禁止性规定,范围远小于算法的适用范围,为日后进一步完善留下了空间。

2.算法评估机制设计

1992年《里约宣言》第15条指出:“在严重的或不可逆转的损害威胁存在的领域,缺乏充分的科学确定性不应成为暂缓采取有成本效益的措施来防止环境恶化的理由。”该条规定引申出一项重要的风险治理原则——“风险预防原则”(PrecautionaryPrinciple),根据该原则,如果一种新技术可能对社会产生负面影响,即便影响的效果上不确定,决策者也应当从预防可能的负面影响的目的出发制定预防风险的制度。对算法的设计和使用也应当具有风险防范意识,贯彻风险预防原则。吊诡地是,算法与风险的关系使得对算法危机的预防也要采取类似预防社会稳定风险的风险评估机制。这一制度已经成为《欧盟通用数据保护条例》第35条规定的“数据保护影响评估”(DataProtectionImpactAssessment)制度,除欧盟外,世界主要国家去年以来均建立了算法评估的相关制度,评估已经在数据与算法治理框架中发挥着重要作用。2021年《个人信息保护法》也建立了该项制度,第55条规定,有“利用个人信息进行自动化决策”等情形的,“个人信息处理者应当事前进行个人信息保护影响评估”。“算法评估制度目的是建立风险适应型的算法监管,使得监管严格程度基于算法可能造成损害的可能性以及损害的严重性,针对不同算法系统的关键模型构建不同监管体系。”面对算法所涉利益的广泛性,有学者甚至提出算法设计部署者应提供“社会影响声明”“歧视影响评估”,甚至“人类影响声明”等。算法评估的目的对于稳评中的算法规制十分必要。算法应用于稳评分别涉及风险信息分析和人工“风险沟通”两个环节的工作,即,将实现风险信息数据化后进行算法分析,根据个体数据分析结果做出风险沟通方案。当然,如果重大行政决策的做出涉及数据分析,也会涉及算法应用问题。因此,算法应用于稳评对算法的风险评估包括重大行政决策算法风险评估、风险数据分析的算法评估和基于数据分析结果做出的风险沟通方案的算法风险评估。算法在稳评中的使用不仅关系稳评结论的准确性、风险沟通方案的科学性和有效性,也关系算法风险可能滋生或引发的社会稳定风险的预防。算法风险评估对于算法应用于稳评的意义,除了关注对个人隐私权、平等权的保护,更注重社会公共利益的维护。算法风险评估不仅是对传统技术的影响评估,而且,由于算法应用于稳评相当于算法已经嵌入了政府、公共部门的决策环节,也是对政府、公共部门的权力的监督,具有算法法治化的重要意义。

3.算法应用与人工“风险沟通”相结合

当然,鉴于算法应用于稳评其固有的“隐形歧视”的操作特征,在稳评中应避免算法成为事实上唯一决策者的风险。美国威斯康星州最高法院最近一项关于在判决中使用算法风险评估的判决强调了这一点。在“威斯康星州诉EricL.Loomis”一案中,法院必须评估使用算法风险评估工具确定被告是否可以在社区内接受监督而不是拘留是否侵犯了被告的正当程序权利。法院认为,“风险评分旨在预测那些有类似犯罪史的人在获释后再次犯罪的可能性较小或更大。然而,COMPAS风险评估并未预测个别罪犯再次犯罪的具体可能性。相反,它提供了一个基于个人信息与类似数据组的比较的预测。”因此,为确保稳评结果的科学性和参考价值,算法应用于稳评的过程应注重大数据分析与人工“风险沟通”的有效结合。如在形成稳评报告环节,应对基于算法分析的结论拟采取的防范措施的有效性进行评估。为弥补算法工具理性的不足,评估时应返回到征求意见环节,听取相关部门、专家和专业机构的看法,发挥人的主观能动性,通过直接和间接沟通了解利益相关方对这些措施的潜在行为反应;评估后应再返回形成报告环节进行校正和完善。


四、结论

算法在当代社会越来越重要的原因是它们的变革潜力。例如,计算能力的进步意味着现代算法可以执行超出人类能力和速度的复杂任务,自我学习以提高性能,并进行复杂分析以预测未来可能的结果。这意味着算法在各个领域的应用成为一种不可逆的趋势。重大决策稳评的核心是通过分析社会稳定风险信息,评估社会稳定风险状况,提出动态建构社会稳定状态的方案,为重大行政决策提供参考。显然,在风险信息分析和风险沟通环节,作为数据处理工具的算法可以发挥作用。然而,和其它领域一样,算法应用于稳评中也不可避免地面临数据收集和算法设计、使用面临的法律问题。算法在提高了稳评效率的和准确性的同时,也增加了预防算法危机的制度成本。同时,诸如“隐形歧视”的操作特征使得算法应用于稳评并不能将算法的评估决策作为唯一依据,人工“风险沟通”仍要发挥其特有的作用。虽然为了风险评估使用算法却又要对算法进行风险评估的逻辑看似多余,但这正是算法在当代社会作为一股变革潜力的具体体现,显示出算法应用于稳评的一个新特点。















《法治研究》热忱欢迎学界朋友的赐稿!

稿件无论采用与否,我们都会在一个月内回复,如未能在限定时间内收到通知,烦请及时联系我们。







·投稿邮箱:

fazhiyanjiu @vip.163.com

·联系电话:

0571-87059288


好看点一下 大家都知道

相关文章· 闫海 王洋:算法规制工具的功能悖论及其法治实现
继续滑动看下一个
法治研究杂志社
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存