查看原文
其他

人工智能法律主体地位再审视及规制路径探讨

青法平台 青苗法鸣 2023-09-28

编者按:人工智能研究在当下我国法学界可谓炙手可热。其中,人工智能的法律主体地位问题争议尤为激烈,学界甚至掀起了“反智化批判”与“伪批判”的讨论。人工智能究竟会对传统法律人格理论造成怎样的挑战?超人类的“物”又为何被拒之于法律主体的门外?相信读完本文,大家会有所启发!


作者简介:林彦佐,西南政法大学民商法学院硕士研究生。


摘  要:以算法为支撑的人工智能的类人化程度渐高,其在便捷生产、生活的同时也带来权利、义务与责任的归属难题,甚至对平等保护的一般性原则构成挑战。鉴于此,有观点提出通过对人工智能赋予法律主体资格的方式进行规制,但无论从哲学层面还是法学层面分析,人工智能都不能成为“人”,且赋予其法律主体资格也难解人工智能行为之规制困境,反不如在以安全为核心、发展为重心的理念下,一方面对算法歧视进行规制使其符合平等保护的一般原则,另一方面则通过课以双重披露义务完善算法公开机制,并在改进行政集中监管的基础上引入第三方社会力量进行配合。


关键词:人工智能;主体性;算法规制;制度构建


目  录

一、人工智能对传统主体制度的挑战

(一)主体制度的理论基础

(二)主体制度受到的冲击

(三)人工智能法律主体地位的论争

二、否定人工智能法律主体地位的必要性

(一)人工智能不是人

(二)为人工智能拟制人格并不恰当

(三)承认人工智能主体资格可能冲击当前社会秩序

三、规制人工智能的实现路径

(一)人工智能规制的基本理念

(二)人工智能规制的主要路径


人工智能的应用已经渗入到社会的各个方面,大大提高了人类生产、生活方面的效率和便捷程度,但许多不可忽视的挑战与问题也随之而来,尤其是人工智能的自主学习与决策等类人行为甚至能够在特定领域超越人类自身,表现出比人类更大的创造力[1],这种特点是即将到来的人工智能时代的核心内容,也是审视人工智能法律主体并寻求规制对策发展的前提,我国《新一代人工智能发展规划》也提出“明确人工智能法律主体以及相关权利、义务和责任”的议题。


一、人工智能对传统主体制度的挑战

(一)主体制度的理论基础

对人工智能法律主体地位的探讨需要在传统法律主体制度的基础上进行,传统法律主体制度的构建以有生命的自然人个体作为前提,而作为一门学科的法学又脱胎于哲学,因此首先需要重申哲学视野下与法学的主体,也即哲学视野下的人与法学视野下的人应当是怎样的。


1.哲学意义上的人

哲学的探讨始终是以人为中心的,亚里士多德提出的“美好生活乃是政治组织的主要目标”[2]中的“美好生活”显然是以人为主体的;即使作为经院哲学代表的托马斯·阿奎那也未在神学-法学思想中剥离对人类自身的思考,对人与宇宙的探讨依然要落脚于人类自身;自文艺复兴与宗教改革后的西方近代世俗文化的宣扬无不以人的权利为主题,当代西方哲学虽然流派众多,探讨人的自由、意义、价值的人本主义哲学仍占据重要地位[3]。而在阿伦·布洛克看来,从古希腊时期的paideia到西塞罗提出的humanitas,人和人性的纯粹品质都是通过教育发扬的,故人文主义者致力将哲学作为人类的学校来解决人类的共同问题。[4]具体而言,哲学意义上的人至少要满足以下特点:


人首先应当是有生命的、有需要的自然存在物。人作为物质的存在首先是一个由细胞到组织到器官再到系统构成的生命机体,马克思认为人这一生命机体既是能动的有欲望的也是受制约的[5]。费尔巴哈在对个人主义或机体的论述中认为人出于纯粹的感觉主义的爱的欲望和对生活的眷恋[6]。有生命是人的自然属性中的基本特征,而有需要则是有生命的人为了更好的生存所必须的动力,更是人类创造力的来源之一。马斯洛更是提出了人的从低级到高级的不同层次的需求,这一理论同时被作为心理学与管理学中的激励理论,体现了这一人的自然属性的重要性。


其次,人应当是社会交往中的人。人作为自然存在物的自然属性主要体现了人的个体独立性,然而人总是生活在群体中的,人的个体行为总有力有不逮之时,一方面在自然状态中,处于群体中的人的安全感高于作为纯粹独立个体的人,自然会对群体产生强烈的归属感,这是人为生存选择需要的必要结果;另一方面,归属于群体中的人之间是相互依赖与需要的,这种需要更应该为内在地“为何”以及“如何”需要[7],马克思就曾提出人的本质是一切社会关系的总和,人的独立应当是在社会中的独立。可以说,人当然的存在于社会交往中,本身是具有社会性的。


最后,人是具有思维能力的存在,能够自主地进行实践活动。是否具有思维能力及是否具有意识是人区别于自然界其他动物的特质,人之所以为人乃是因为人有意识且能够思考,并在思考后通过自己的行为对外界做出改造,即实践。动物也可以通过自身做出行为,但动物做出的行为乃是出于动物的本能,其行为的结果也只能成为自然界的一部分,但人类的实践行为不同,人类的实践行为以意识与思维为前提,思考与行为的结果不是为了成为自然界的一部分而是为了人类更好的生存而改造自然,这种改造的实践行为结果已经不能称为是自然界的一部分。马克思曾用蜜蜂筑蜂巢与人类建筑师对比的例子来说明动物行为与人类实践行为的区别,可以说马克思全部哲学理论的出发点或前提即是“实践批判”地活动[8]。


2.法学意义上的人

法律思想史的演化催生了不同部门法的分工,其中关于人的理论对民法学中的民事主体的发展具有直接和重大的意义,自然人及其行为更是民法的主要关注对象和近现代民事主体制度构建的模型,因此以民法学中的人为例对法学意义上的人进行探讨。民法自封建社会的崩溃与近代国家的建立过程中新生,使个人可以自由进行经济社会活动而不受国家干预,近代民法中的人是具有完全平等的法律人格的人,到了现代民法中民法开始了从“平等”到“不平等”、从“抽象”到“具体”、从“强而智”到“弱而愚”的变迁[9],有学者将其称为由“戴面具的人”变为“穿衣服的人”的变迁[10],但这种变迁只是体现了民法在民事主体内部对民事主体进行保护的倾斜度变化,并没有从根本上影响民事主体之为民事主体的实质性特质,民法上的人应满足以下要求:


首先,民法上的人是具有法律人格的人。人格学说始于罗马法,现代民法上的自然人的人与人格是完全吻合的,“人格”指的是一个生物学意义上的人成为法律上的主体的资格[11],此处“法律人格”即为自然人或组织成为民事主体的资格,也即作为“民事权利、义务之所属”的资格。法律人格不仅应当是平等的,其中还应有意思的存在,要求意思能力应该完全,通过自己的行为取得权利和承担义务。[12]“人格”这一概念除可表达法律人格外,对自然人人格尊严的保护也有着格外重要的意义,各国在民事立法中均予以高度的关注,我国《民法典》亦通过人格权编的形式进行回应。法律人格是成为民事主体的资格,是民法上的人的应有之义。


其次,民法上的人是民法本身的出发点,民法不是为了管理人而存在,而是为了保护人而存在。民法的性质之一为市民社会的基本法,是市民社会的权利典章,自民法产生之始就是为了一个有安全保障的市民社会的有序运行,民法所有的制度都是围绕着人的生存需要与人的发展需要而展开的[13],保障民法上的人在社会生活上的平等地位。民法的首要目的就是要保障作为目的的人能够更有尊严的生活。


再次,民法上的人是以理性人为基本设计的。康德曾指出人之所以不是手段就是因为拥有理性[14]。理性在近代民法中的地位颇高,一定程度上决定了近代民法中民事主体制度的构建:现实生活中的人各具棱角与特色,这种特色是难以为法律上的人所包含的,因此需要理性标准的洗涤使人成为法律上的人,从而使得法律上的民事主体具有抽象性、客观性的特征。[15]人有了理性,成为法律上的理性人才能够去创设权利义务关系,才能够成为归责主体,才能够受到法律规范的约束。


最后,民法上的人成为法律主体应当得到法律的承认。法律是国家意志的表现形式,得到法律的承认也即应当得到国家对该主体进行的确认。国家对主体的确认因时间空间是有所不同的,并不是所有的人在一开始就都纳入民法的庇护之下,罗马法中的能够受到保护、进行民事行为的主体就将奴隶排除出去,奴隶作为一个生物意义上的人,在自然层面与作为奴隶主的民事主体并无不同,然而因当时法律并未对奴隶的民事主体身份进行承认,奴隶即无法成为民法上的人;同时,法律承认法律主体的资格也要以存在国家意志为前提,如不存在国家意志,规范对主体的承认就不存在正当性可言。民法上的人要成为法律层面上有意义的主体,得到法律的承认是必须的正当程序。


(二)主体制度受到的冲击

不少学者已经表达了对人工智能可能带来的负面效应的担忧,人工智能时代要实现总体国家安全观的要求需要对数据安全、算法安全强化规制;[16]人工智能去主体性还可能导致的价值属性的消解、人工智能高度中心化会带来对人类社会基本结构的侵蚀[17]等;就法律与人工智能的关系而言,法律“深度不学习”的核心特征被人工智能的“深度学习”所冲击,可能带来法律的“死亡”[18];民事法律制度中的主体制度、人格权保护、数据财产与知识产权保护以及侵权责任认定等均面临着人工智能的新挑战,其中人工智能在深度学习与分析后表现出的“自我意识”引发了人工智能能不能作为民事主体的讨论,对传统的民事主体制度产生了一定的冲击,具体而言,现有的法律主体制度可能因以下问题受到冲击。


1.人工智能在类人化程度上日渐迫近人类

人工智能的类人化程度越高,人工智能就越高级,不断向人类自身迫近也是目前人工智能技术发展的主要趋向。在物理基础层面实现人工智能迫近人类是最容易的,仿生、类人化外形的实现早已没有技术障碍,无需再谈;在交互交流方面,人工智能也能通过算法实现人与人工智能之间、人工智能与人工智能之间的交流,算法甚至正在充当人类新的语言[19]。在思维层面实现人工智能迫近人类具有技术可行性,仿生神经网络的发展使得模拟人类大脑的信息传输结构成为可能,借助该技术,人工智能可以通过后天的学习不断自我升级,甚至有可能在此基础上实现自我修复与自我突破。人工智能除具有类自然人的特点外,还具有天然的“抽象性”,社会现实中的人要成为法律上的人需要经过法律抽象后进行拟制的过程,人工智能与人工智能之间却不需要此种拟制。


2.人工智能算法可能挑战民法主体的平等原则

平等原则是民法的基本原则,能够保证民事主体平等地以自己的意志参与社会生活而不受其他任何人意志的强迫,然而算法歧视可能在无形中打破平等原则。当设计者设计算法时,这些算法本身就携带有设计者的价值和理念,有可能暗含歧视与偏见,这是算法歧视产生的原因之一,除此之外,即使算法本身不暗含歧视与偏见,也可能在数据不断的输入后算法的运行过程中产生算法歧视,在大数据的背景下难以察觉进而保证输入算法的数据是不带有偏见与歧视的。而持续和加深的算法偏见会进一步形成标签化效应,[20]人工智能本就具有很强的分类筛选与预测的能力,算法很有可能基于这种能力不恰当把风险的标签“贴”到某个个体或群体之上,从而在系统中限制期权利或自由[21]。以上问题,似乎可以通过公开算法使算法透明化来解决,但算法的透明化仍面临两个难题:一是考虑到算法研发与运行的成本投入,算法往往被视为商业秘密进行保护;二是算法的透明仅能做到源代码的透明,但一些复杂的算法自身的自我学习与自我进化能力使得算法运行的结果单纯依靠源代码的公开难以预测,这种不透明性更使得民事主体在进行活动时甚至无法得知民事活动的平等基础已经不复存在。


3.人工智能带来权利、义务、责任的归属难题

由人工智能产生的作品已经广泛的出现在我们的生活中,无论是诗歌、歌曲还是图画都能由人工智能进行生成,而这些作品单从形式或内容上看与人类所产生的的智力成果并无不同,具有极度类似性,这引发了人工智能生成物能否版权化作为智力成果而受到知识产权保护的讨论,有学者通过对黑格尔的“财产人格权说”进行扩展解释来证成人工智能生成物应当受到知识产权保护的正当性[22],如果将人工智能产生的作品通过知识产权进行保护,那么权利的归属者应该是人工智能算法的设计者还是人工智能算法载体的所有者依然会成为待进一步研究的问题。除了人工智能作品权利的归属之外,人工智能产生作品的过程中还有可能侵犯已有的著作权,因人工智能是在分析已有数据的基础上产生作品,其中分析的过程可能会涉及对已有智力成果的复制和使用,这种复制和使用极有可能是非法的,此种侵害著作权的责任由谁来承担亦是另一个主体上的归属难题。随着人工智能的广泛应用,其他人工智能侵权的实例也时有发生,在侵权责任的承担上也有同样的主体归属难题,以自动驾驶汽车致人损害中无人为操作的人工智能自主操作致人损害为例,鉴于算法的自主学习与自主升级的特征,设计者、生产者、销售者对发生损害的结果很难预料,难谓存在过错,难以通过传统的产品责任予以解决,有学者指出可以通过人工智能强制责任保险予以解决[23],但保险的本质在于分担被保险人风险,并不能够解决实质性的责任归属问题。概言之,目前对人工智能的主体性问题并无定论,无论是人工智能作品的知识产权的归属还是人工智能算法或人工智能机器人引起的侵权责任的承担问题,都存在着主体归属难题。


(三)人工智能法律主体地位的论争

目前对人工智能是否具有主体地位的观点可以分为肯定说、否定说与折中说。


1.肯定说。肯定说主张人工智能有高度类人的独立意志,应该具有法律主体地位。自然人并不是唯一的法律主体,近些年来随着人与自然和谐共处理念的深入及对生态环境保护的重视,主张将动物作为法律主体加以保护的呼声也在不断加强,法人更是借助法律拟制人格成为民法上重要的法律主体,在市场经济活动中占据重要地位。有学者以此为论点认为人工智能与法人组织相比,更具有语言思维、学习创作、独立表意等能力,更应当被赋予法律主体的资格[24]。肯定说中比较典型的是代理人说、电子人格说以及人格拟制说。代理人说主要观点是将人工智能机器人作为其所有人的代理人,如同民法代理制度中代理人与本人的关系一般[25],作为代理人的人工智能机器人当然地就具有法律主体地位;电子人格说是将人工智能机器人视为电子人,进而赋予电子人格,有学者从法律主体的演变过程到已有的“电子人”的法例建议[26]分析了电子人在法律制度内的存在空间[27];有限人格说则进行了一定的妥协,注意到了人工智能的法律人格无法与自然人或法人相同,运用刺破“人工智能的面纱”的归责原则以及强制投保责任保险等措施进行规制[28]。


代理人说存在前提性的缺陷,目前代理制度分为法定代理与意定代理,人工智能机器人的代理明显无法纳入法定代理,而意定代理则需要代理人的意思表示为前提,人工智能机器人的意思表示能力如何,通过何种方式进行意思表示,是否会因人工智能算法说设计的功能的不同而影响进行意思表示的行为能力等,都是主张代理人说者需要厘清的前提问题;电子人说中,“电子人格”是作为一个新概念提出的,这个概念本身的内涵还需作为本学说的前提进行界定,同时这样一个新概念的产生不可避免的要在原有法律制度之外另行设计;有限人格说首先不能解释的是“有限”的限度,在何种概念、何种范围上有限,尚待解释。


2.否定说。否定说秉持人工智能仍作为客体存在的观点,否定说较为符合现阶段的法治与人工智能发展现状,主要认为人工智能仍属于工具的范畴,即使拥有某些类人化的特征,最终体现的还是人类自身的意志,人工智能所带来的诸多成果不过是计算机程序进行逻辑推演的结果[29],最多有的是“人工类人格”[30],都要受到人类的控制与支配,本质上不能从工具的范畴中剥离[31]。


3.发展说。持发展说的学者并没有将人工智能的主体地位的认定一概而论,而是主张视人工智能的自主化程度而定,当前阶段的人工智能不足以被授予法律主体资格,未来应根据人工智能在整体社会中的发展状况进行决定是否需要赋予其法律主体地位[32];更有学者明确指出人工智能因其发展阶段的不同会经历从工具论到控制论再到拟制论的阶段,不同的阶段法律对其的态度也是不同的,而目前人工智能发展尚处于工具论的阶段。[33]


二、否定人工智能法律主体地位的必要性

(一)人工智能不是人

首先,人工智能与人的本质不同,人是具有生命的高级存在,有生命是人得以在民事制度中展开一系列活动的前提基础,民法因此确认了人的生命权的至高无上的地位,正是因生命与生命权的存在,才使自然人的存在具有意义[34],马克思就曾指出,人是全部人类活动进和全部人类关系的本质、基础;人工智能则不同,人工智能是技术生成的产物,其所拥有的一切类人化的特征的本质都来源算法,而算法也只是在计算机二进制的编码的基础上的升级,属于可复制的技术的批量产物,是没有生命可言的,没有作为生命的演化过程,不具有人本身所有的自然属性与社会属性,以人为主体的法律规范都隐含人的本质的设定前提,人工智能领域则不可能有这些假定前提的存在,故而人工智能不具有应当作为主体受到法律保护的天然证成。


其次,人工智能与人的目的不同,人的目的是人类本身,而人工智能的目的自诞生之始也确定的是人本身。人自作为活体从母体中分娩之时起,无论是其无意识的行为,如呼吸、觅食等,还是其有意识的行为,如进行劳动、寻求群体合作等,都是为了人类自身能够更好的生存;而设计并发展人工智能的行为本身就是人类有意识做出的行为,初衷就是为了更好的服务人类与解放人类,这在人工智能的应用中多有体现,如人工智能机器人在生产车间流水线上的应用,虽然可能出现替代一部分从事重复劳动的劳动者的工作,减少人类的就业机会, 不能否认的是,人工智能的应用大幅度地提高了生产效率,并在一定程度上降低了生产成本;人工智能算法虽然因存在算法黑箱、制造信息茧房等对人类的自主选择产生一定负面效应,但其确实大大提高了人类在信息检索方面的便捷程度。总之,人工智能是以人为目的的技术手段,而技术手段无论如何变革升级都不能改变其应当有利于全人类生存与发展的本质目的。


最后,人工智能从产生到发展都受到人类的支配和控制。人之所以成为法律关系的主体,且是有尊严的法律关系的主体,很大一部分原因是人的自主性,人类能够自主支配和控制自身的行为,人工智能所做出的行为看似亦是人工智能决策后的“自主行为”,但人类仍是这些行为的幕后“提线者”,人工智能与外界的交互程度如何、可以在何种领域内做出行为、遵循何种原则或规制做出行为均是人工智能的设计者在初始时写入算法赋予人工智能的,即使算法在运行过程中,因对所收集的大数据的分析做出设计者也无法预测的行为,也不能据此否认人工智能仍是处在人类的支配和控制下的,目前积极寻求的对人工智能的规制对策即是对人工智能该特点的积极肯定。至于人工智能所具有类人化与深度学习的特征,亦是人类发展人工智能技术所追求的结果,是当今计算机技术飞速发展的有力佐证,不足以成为将人工智能与人相提并论的理由。


(二)为人工智能拟制人格并不恰当

法律拟制人格的成功典型即法人人格,如前所述,有学者在提出应当认可人工智能主体的法律地位时将法人人格进行类比,目的在于“举重以明轻”证明人工智能法律主体地位的正当性,但法人拟制人格与人工智能拟制人格是不同的。法人的本质特征有二:一是团体性,二是独立人格性,前者区别于自然人,后者用以区别于非法人团体,概言之,法人者,团体人格也。[35]法人在获得法人人格前首先是团体,团体则需要人与财产这两个要素,团体的事务离不开人的参与与执行,团体的财产更离不开人的出资与管理,即使是在人的要素不那么重要的财团法人的中,人也不是不存在的,财团法人的财产的捐助与处分也都需要管理财团法人中的财产的人的意思与行为。故法人虽然具有独立人格,但无论是人的集合还是财产的集合,归根到底还是摆脱不了“人”这一要素,当法人失去其中的“人”,便成为了无本之木,也就失去了将其作为独立法律主体的意义。


主张为人工智能拟制法律人格的主要论点就在于人工智能的自主意识能够与人相媲美甚至在某些领域超越人类本身,故若为人工智能拟制法律人格,这种法律人格在独立后是以脱离人的影响为趋向的,这与法人的拟制人格具有本质上的不同,因此法人的拟制人格并不能作为人工智能拟制人格的论证。若要赋予人工智能独立的法律人格,就必要在自然人人格与团体人格之外创立第三类人格,这种人格以物的形成为基础并以脱离人本身的影响为趋向,这在逻辑上相互矛盾的,不仅缺乏相应的制度演进参考,也会对现有法律制度提出颠覆性的挑战,而法律天然的具有稳定性的要求和自身的传承性特点,因此为人工智能拟制人格是不恰当的。


(三)承认人工智能主体资格可能冲击当前社会秩序

如果承认人工智能的主体地位,首先会对我们现有的伦理秩序产生冲击,如上所述,现有民事制度中民事法律主体要么是人本身,要么以人作为必备要素的团体组织,而人具备道德、良知等内心约束,有遵循法律、道德、习惯甚至宗教教规的自觉行为。人工智能则不存在道德、良心等情感要素,其对规则的遵守乃是出于人工智能设计者对算法的设计,即使可以将道德、良知等约束融入到人工智能算法的设计之中,其与人的差距也是相当明显的:并非所有的道德观念以及良知要求的内容都可以以语言的的形式进行表达,而语言本身又具有局限性,将用语言所表达的道德观念与良知要求通过算法的形式落实下来,还要受到算法设计本身的限制,因此最终能够在人工智能的行为中体现出的道德观念与良知要求寥寥无几。因此将做出行为少有受到道德与良知规制的人工智能作为法律主体必然会导致伦理秩序的混乱。


其次,承认人工智能的主体地位会引发主体识别上的混乱,人工智能是不具有个体差异性的,被设定相同算法的人工智能本质上是相同的,那么赋予人工智能主体资格,究竟是赋予一类人工智能具有同一主体资格还是每一人工智能个体均具有主体资格?如是前者,如何解决同类的人工智能被不同人所使用时的矛盾问题;如是后者,如何解决同类的人工智能在进行社会活动、为法律行为时的简易识别问题。


最后,即使承认人工智能主体资格也不能起到有效规制或矫正人工智能行为的作用。人的行为除可能通过内心的道德与良知进行自我约束外,更多的是通过外在规则予以调整进而矫正,法律在其中占据至关重要的地位,尤其是法律责任制度的构建,具有惩罚功能,以国家强制力为后盾的法律强制力矫正行为人的不法行为,并在全社会形成普遍的教育作用。人工智能如具有法律主体资格,就应作为责任主体承担其行为引起的民事责任、行政责任或刑事责任,但目前的各类法律责任形式均难以对人工智能起到有效的规制或矫正作用,以民事责任为例,民事责任的承担以拥有财产为前提,人工智能的财产能力如何,哪些财产可以作为人工智能的事财产,人工智能的财产在责任承担上是否可以满足同质救济性的要求,这些问题如不解决,是难以对人工智能课以民事责任的,自然也就难以发挥民事责任矫正行为的功能。


三、规制人工智能的实现路径

人工智能仍保持快速发展的态势,算法已经日渐成为重要的生产要素,对整个社会甚至国家安全都至关重要[36],但同时人工智能算法也对现行秩序造成严重的冲击与挑战,因而必须加强对人工智能算法的规制。


(一)人工智能规制的基本理念

1.以安全为核心的规制目标

人工智能的应用是一种重大的科技创新,已经对人类的生产、生活产生了重要的影响,其所带来的的负面效应也在日益凸显,人工智能超越人类本身的可能性、人工智能造成危害后果的严重性以及人工智能本身的不确定性等足以引发维护人类自身安全、防范人工智能风险的必要性[37]。人类发展人工智能的初衷在于解放人类本身,这样的一个价值目的应该贯穿于人工智能规制的始终,确保人工智能的发展始终以人类自身的安全为前提。以安全为核心目标就要求至少对人工智能做到事前与事后两方面的规制。


事前规制主要指的是提高人工智能产业和应用的准用门槛及对人工智能算法的设计者课以更多的自我控制义务。在前者的规制下,将可能违背法律、公序良俗、损害人类自身的人工智能及其产品排除在人工智能的应用市场之外,对设计及生产此类人工智能及其产品的设计者和生产者予以打击,对其中涉及的技术的应用范围予以必要的管制,使其符合人类伦理的基本要求,防止技术失控;在后者的规制下,算法的设计者拥有着无可比拟的技术优势,负责为人工智能注入初始的“灵魂”,算法设计者的自我控制义务就要求其跳出纯粹技术的窠臼,将维护人类自身安全作为不可动摇的底线。


事后规制主要指的是构建一套快速及时反应、分析评估、处理的机制,这对组建专门的人工智能审查与监管机构提出了要求。人工智能做出的行为本身具有不确定性的可能,且囿于现阶段科学技术的水平,一些有重大缺陷的人工智能可能成为事前规制的漏网之鱼,在其安全隐患显露之时需要对其造成安全威胁的程度及时进行评估,并做出后续的处理。


2.以发展为重心的规制要求

创新与创造力是人类社会得以进步的重要原因,科学技术的发展更是人类社会发展的巨大推动力,故而对人工智能的规制在满足保证人类自身安全的基础之上,一定要为人工智能的进一步发展升级留出充足的空间。在以发展为重心的要求之下,首先要充分鼓励科技工作者的创新与创造力,并为其创新与创造力的发挥构建合适的客观条件;其次,对人工智能的规制不宜过于严苛,应当以原则性的规制为主,以防产生人工智能进一步发展的制度障碍。


(二)人工智能规制的主要路径

1.规制人工智能算法歧视的制度构建

预对算法歧视进行规制,需对算法本身进行规制,使算法符合平等保护的一般原则,具体可以通过原则性规制与特定性规制相结合、预防性规制与结果性规制相结合以及自律性规制与他律性规制相结合来进行[38]。


所谓原则性规制即确立禁止歧视的平等原则与公平原则,出于促进人工智能进一步发展的要求,原则性规制是针对整体的人工智能算法而言的,而特定性规制则是根据具体的算法歧视问题提出的,主要是在一些可见的可能发生歧视的领域提出明确的不得歧视的要求,如不得因性别、宗教、肤色、政治信仰等产生歧视。而算法歧视的预防性规制与结果性规制则是指在算法投入运行之前进行算法歧视审查,输入尽可能平等的数据对算法进行试运行,且在算法正式运行的过程中也要保证算法收集数据的平等性;而在算法运行之后,确因存在算法歧视而造成不利后果的,一方面要对该不利后果进行救济,追究算法的控制者以及算法的审查者的法律责任,另一方面也要对算法本身做出升级去歧视化或采取召回人工智能算法产品的处理。最后,将自律性规制与他律性规制相结合,通过行业协会颁布一系列规制算法歧视的普遍性原则作为行业规范的标准,利用行业自律能够大大降低对算法歧视的公权力监管成本。


2.完善人工智能算法公开的制度构建

提高算法的透明度、使算法公开是打破“算法黑箱”的有效规制手段,但算法公开却往往难以落实,算法常常承载着算法控制者的核心竞争力,必须要考量算法控制者的私权与公益的问题[39],另一个阻碍算法公开得以落实的原因是公开的效果不佳,无论是公开算法的源代码还是公开算法的运行逻辑,都具有很强的专业技术性,非一般人工智能使用者所能理解的,根本达不到算法透明所预设的要求。以上问题可以通过算法控制者的双重披露义务得以完善。所谓双重披露义务是指就同一算法同时向不同的主体进行两次程度不同的披露,一次是向具有专业鉴别能力的审核机构,该审核机构对算法控制者披露的内容负有保密义务,因而此次披露是较为完全的,且因该机构具有相应的专业能力,也无需算法控制者对算法进一步解释。另一次是向公众进行的算法披露,因算法公开的范围较大,算法控制者在披露时可以决定将与自身核心竞争力密切相关的部分做隐匿化处理,但不能以“与自身核心竞争力密切相关”为由拒绝披露任何算法;另外,因公众缺乏对所披露算法的专业理解能力,算法控制者在披露相关算法时应附有对该算法的解释,且这种解释应当是通俗的解释,并将算法的所具有的的风险性一并披露。


3.完善人工智能监管体系

目前公权力对人工智能的监管主要采取多头监管的状态,工信部门、网信部门、市场监督管理部门都有职责对人工智能实施监管,这种多头监管的状态不仅对监管效率无益,还有可能因互相推诿造成监管真空,因此对人工智能的监管可以从多头监管转向集中监管,将对人工智能的监管落到实处。国家监管机构还可依靠专业领域的专业人员对人工智能做到实质性监管。人工智能作为专业性极强的领域,单纯依靠行政力量进行监管已经无法实现效用的最大化,需要监管机构与人工智能专业人员形成合力,构建联动机制,实现对内容的实质性审查和监管,提升审查效率。


除依靠行政监管以外,还可引入社会第三方力量的监管,社会第三方力量是在行政监管机构与人工智能算法控制者之外的第三方,可以就算法控制者与用户之间的交互、是否执行数据保护等进行评估,甚至还可以因算法侵权提出申诉。[40]但要注意保持第三方社会力量的独立性,防止被算法控制者进行“同化”而失去监管作用。


参考文献

[1]杨延超:《人工智能对知识产权法的挑战》,《治理研究》2018年第5期,第121页。

[2] 付子堂主编:《法理学初阶》,法律出版社2009年版,第20页。

[3] 韩毅:《当代西方哲学思潮》,《海军出版社》1988年版,第2页。

[4] [英]阿伦·布洛克:《西方人文主义传统》,董乐山译,三联书店1997年版,第3-5页。

[5] 转引自赵万一:《机器人的法律主体地位辨析—兼谈对机器人进行法律规制的基本要求》,《贵州民族大学学报》(哲学社会科学版)2018年第3期,第150页。

[6] [德]路德维希·费尔巴哈:《费尔巴哈哲学著作选集:上卷》,荣震华、李金山等译,商务印书馆1984年版,第458页。

[7] 卜祥记、吴岩:《马克思关于人的社会性本质理论的内在张力分析》,《苏州大学学报(哲学社会科学版)》2020年第3期,第7页。

[8] 黄明娣:《肯定人的主体性是马克思在哲学上实现革命变革的实质》,《求实》2004年第7期,第40页。

[9] [日]星野英一:《私法中的人》,王闯译,中国法制出版社2004版,第50页。

[10] 谢鸿飞:《现代民法中的人》,《北大法律评论》2000年第3卷第2辑,第131到136页。

[11] 谭启平主编:《中国民法学》,《法律出版社》2018年版,第10页。

[12] [日]星野英一:《私法中的人》,王闯译,中国法制出版社2004版,第31-33页。

[13] 赵万一:《机器人的法律主体地位辨析—兼谈对机器人进行法律规制的基本要求》,《贵州民族大学学报》(哲学社会科学版)2018年第3期,第154页。

[14]  [德] 卡尔·拉伦茨:《德国民法通论》 ,王晓晔等译,法律出版社2003 年版,第 56 页。

[15] 李永军:《民法上的人及其理性基础》,《法学研究》2005年第5期,第17页。

[16] 杨蓉:《从信息安全、数据安全到算法安全—总体国家安全观视角下的网络法律治理》,《法学评论》2021年第1期。

[17] 宫楠:《积极预防人工智能负面效应》,《中国社会科学报》2020年4月7日第006版。

[18] 余成峰《法律的“死亡”:人工智能时代的法律功能危机》,《华东政法大学学报》2018年第2期。

[19] 陈姿含:《人工智能算法中的法律主体性危机》,《法律科学》(西北政法大学学报)2019年第4期,第42页。

[20] 郑智航:《人工智能算法的伦理危机与法律规制》,《法律科学(西北政法大学学报)》2021年第1期。

[21] 叶名怡:《个人信息的侵权法保护》,《法学研究》2018年第4期,第88页。

[22] 刘鑫:《人工智能创造物知识产权保护的正当性解释》,《科技与法律》2020年第6期,第41页。

[23] 娄雪洋:《论人工智能致人损害的法律规制》,《上海法学研究集刊》2020年第7卷。

[24] 司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》2017年第5期。

[25] 陈吉栋:《论机器人的法律人格—基于法释义学的讨论》,《上海大学学报(社会科学版)》2018年第3期,第83页。

[26] 《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》第59段建议,当对未来法律文件的影响进行评估时,应探索、分析并考虑所有可能的法律举措的意蕴,其中举措之一就是:从长期着眼为机器人创立特定的法律地位,以至于至少明确最精密的自主机器人拥有“电子人”地位,能够承担弥补其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立于第三方交互的案件。

[27] 郭少飞:《“电子人”法律主体论》,《东方法学》2018年第3期,第38-49页。

[28] 袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期,第53到57页。

[29] 房绍坤 、林广会:《人工智能民事主体适格性之辨思》,《苏州大学学报》(哲学社会科学版)2018年第5期第64页。

[30] 杨立新:《人工类人格:智能机器人的民法地位》,《求是学刊》2018年第4期,第84页。

[31] 龙文懋:《人工智能法律主体地位的法哲学思考》,《法律科学》(西北政法大学学报)2018年第5期,第24页。

[32] 石冠彬:《论智能机器人创作物的著作权保护—以智能机器人的主体资格为视角》,《东方法学》2018年第3期,第140页。

[33] 孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期,第10页。

[34]  赵万一:《机器人的法律主体地位辨析—兼谈对机器人进行法律规制的基本要求》,《贵州民族大学学报》(哲学社会科学版)2018年第3期,第156页。

[35] 江平主编:《法人制度论》,中国政法大学出版社,1996年版,第1页。

[36] 张文显:《构建智能社会的法律秩序》,《东方法学》2020年第5期,第8页。

[37] 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期,第134页。

[38] 郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查》,《比较法研究》2019年第4期,第114-117页。

[39] 袁康:《可信算法的法律规制》,《东方法学》2021年第3期,第14页。

[40] 郑智航:《人工智能算法的伦理危机与法律规制》,《法律科学》(西北政法大学学报)2021年第1期,第26页。


青苗法鸣向全体青年学人征稿:


一、长期征稿

主要推送法学、文学、哲学、政治学、社会学、经济学等人文社会科学学科的学术类、思想类稿件,体裁不限,论文、时评、书评、影评、案例分析、译文等皆可。

以来稿质量为采用之标准,欢迎篇幅适中、论证详实、观点独到的稿件,来稿字数原则上不少于3000字。不对作者身份做要求,鼓励本科生练笔发声、交流进步。

为规范用稿,提高编辑质量和效率,来稿请以Word文档通过附件发至投稿邮箱:qmfmbjb@163.com,并在邮件标题注明“投稿青苗法鸣”,邮件正文中附上150字内的作者简介(内容不限,需包含作者姓名等基本信息,亦可附上照片)。对于所收稿件,我们会尽快安排评审,并在3天内回复审稿结果。


稿酬等详情请点击:稿酬有多好?够买一箱钟薛高!


二、专题征稿

除了给大家提供“传帮带”的平台,针对本次的短期专题征稿,我们将对收稿文章的基础稿酬提高至150元,激励性稿酬不变。请务必在来信标题中注明“专题征稿+主题”。期限为:2022年1月20日-2022年3月31日,超出期限范围内的投稿仍然可收录,但不享受基础稿酬提高的福利。


本次专题征稿聚焦的选题有:

1. 社科著作读书笔记

2. 企业合规法律问题探究

3. 经典案件案例分析

4. 盲盒中的法律问题

5. 个人信息保护相关问题

6. 人工智能法学研究

7. 生态环境损害赔偿诉讼制度研究

8. 电子商务法研究

9. 民法(总则、债编部分)基础理论研究

10. 互联网平台垄断问题研究

11. 公司法修订草案有关问题研究


稿酬等详情请点击:每日一问:我这外溢的才华该如何安放?


本文责编 ✎ 清风

本期编辑 ✎ 双祎



推荐阅读

论人工智能生成内容的可版权性

人工智能主体地位的否定与审视

人工智能能够犯罪吗?

人工智能该不该拥有刑事主体资格呢?

论人工智能法律主体的法哲学基础


联系我们

长期收稿邮箱:qmfmbjb@163.com


社群交流请添加公共微信:

公共微信1:qmfmggwx  

公共微信2:qmfmggwx2


付费咨询与讲座请添加小助手微信:qfxzsggwx


商务合作请添加微信:Fuermodian



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存