文 | 孙良(liáng)国(guó) 大连海事(shì)大学法(fǎ)学院(yuàn)教(jiāo)授
人工智(zhì)能(néng)的治理是一(yī)项复杂的系统(tǒng)工程,也是人类面对的核心问题之(zhī)一。我国人工智能的发(fā)展要(yào)引领世界,就必须设(shè)计能够支撑人工智能可持续发展的治理机制。其中,法律作为治国之重器(qì),应(yīng)当(dāng)在人工(gōng)智能(néng)的治理中发挥重要作用(yòng)。在(zài)人工智能的(de)法律治理(lǐ)中,一(yī)个重要议题是,人工(gōng)智能是否应当成为法律主体。在世(shì)界范围内,此问题引起了巨大的学术(shù)争论和社会争议,不同甚(shèn)或对立(lì)的观点(diǎn)不断登场,远未达(dá)成(chéng)共识。笔者的观点是,人工智能(néng)不应当成为法律主体。
从实证法的角(jiǎo)度看(kàn),立法机关可以通过法(fǎ)律认可任(rèn)何组(zǔ)织、实体或者其他事物(wù)作为法(fǎ)律(lǜ)主(zhǔ)体。任何突(tū)破传统法律制度的(de)新制度,都必须(xū)是经过价(jià)值判断后的恰当结果。人工智能是否(fǒu)应当成为(wéi)法律主体(tǐ),取决于如下价(jià)值判断:既能够促进人工智能的发展,同时(shí)也能够消除人(rén)工智能的不当(dāng)风险。技术变革往往会伴随风险,但只要风险可控且不(bú)会对人(rén)类(lèi)价值产生不(bú)可接受的(de)影响,那么法律就应采取最优措施(shī)来(lái)抑制风险。考虑当下功(gōng)用,兼顾长远影响,总体来看,维持(chí)目前法律制度,不赋予人工智能(néng)以法(fǎ)律主体地位,是人工智能法律(lǜ)治理的(de)最优解。
人工(gōng)智能的发展(zhǎn)并不需要其(qí)成为法律主体
人工智能是概括性术语(yǔ),从机器(qì)学习到大(dà)规模(mó)语(yǔ)言模型等均(jun1)包括在(zài)内。人工智能是否需(xū)要成为法律主体,可以从法律(lǜ)主体的历史演进规律获得启示。
整体而言(yán),法律主体演进的基本(běn)规(guī)律可概括为从“人(rén)可非人”到“非人可(kě)人”。即(jí)使(shǐ)到近代(dài)社会,自然人(rén)(公民)之间的权(quán)利也是有差(chà)别的(de)。只有在现代法(fǎ)治国家,自然人才享有平等的民事(shì)权利。不仅如此,法律主体也已经不再(zài)限于(yú)生物学意义上的人,公司(sī)等实(shí)体也获得(dé)了(le)法(fǎ)律的明确承(chéng)认,同时附之以股东(dōng)或(huò)者出资人以自己对公司的(de)出资为限(xiàn)承(chéng)担责任。此种(zhǒng)承认促进了现代科学(xué)技术和组织形式(shì)的跨越式(shì)变革,推进了人类(lèi)的文明(míng)进步(bù)。尽管部分(fèn)学者列(liè)举(jǔ)或者设想了目前(qián)人工智(zhì)能应(yīng)当作(zuò)为(wéi)法律主体的具体场(chǎng)景,然而(ér)经过仔细分析,这些场景都没有显示出人工智能(néng)需要作为法律主体的真正客观需求,也没(méi)有显示出既有的法律制(zhì)度(如代理(lǐ)、公(gōng)司法等)阻碍了人工(gōng)智能的(de)发展而通过使人工智能成为法(fǎ)律(lǜ)主(zhǔ)体(tǐ)会扫清(qīng)该障(zhàng)碍。
有(yǒu)学(xué)者认为,对社会生活的参与是(shì)判断是否设定(dìng)法律主体的(de)重要因素。这一说法值得商榷。因(yīn)为参与社会生活的身(shēn)份有主体和客体之分,人工智能是作为客体如(rú)机器、软(ruǎn)件、程(chéng)序或系统而参与的。即使客体很智能,甚至可以在既有技术设(shè)计下做(zuò)出独立判(pàn)断(duàn),但此(cǐ)种独立判断所归责的主体仍旧(jiù)是设置、控制或(huò)使用该(gāi)机(jī)器的主(zhǔ)体,所代表(biǎo)的依然是(shì)设置(zhì)、控(kòng)制或使用该(gāi)客体的主体的意志。事物很重要与(yǔ)法律赋予(yǔ)其法律主体资(zī)格是两个完全(quán)不同的问题。例如,对很多人(rén)来说(shuō),宠物已经成(chéng)为社会生活的重要(yào)部分,其中部分人对宠(chǒng)物的依(yī)赖性要远(yuǎn)高于其他事物,但这并不能证成宠物成为法律主体。同理,虽(suī)然人工智能非常重要,但法律仍然没有使之(zhī)成为法律(lǜ)主体的内在(zài)需求。
从(cóng)责(zé)任能力视(shì)角看,人工智能(néng)不能(néng)成为法律主体
在民(mín)法上赋予法律主体资格的一个重要条件是责任能力。承担责任意味着(zhe),法律主体承受不利的财产负(fù)担,而且该法律主(zhǔ)体通常应当是(shì)最终(zhōng)的责任承担者(zhě)。责(zé)任能力的一(yī)个前提条件是,法律主体(tǐ)必须(xū)有独立的财产。如(rú)果没有独立的(de)财产,那么使人(rén)工智(zhì)能(néng)承担责任就没(méi)有实质意义。到(dào)目前为止甚(shèn)或是在相当长的未来,我们都很难设想人(rén)工智能需要或者能够拥有独立财产。由(yóu)于这一前提条件(jiàn)并不具(jù)备(bèi),那么人工智能成为法律主(zhǔ)体也就没有必要或者可(kě)能。从既有的媒体公开报(bào)道的人(rén)工智能导致人身或(huò)者财产损害的案件中,我(wǒ)们均可以根据(jù)既有法律规定找到需要承担责(zé)任的主体——开发人、设(shè)计者(zhě)、所有者或使用者等。换言之,既(jì)有的法律制度能够解(jiě)决目前(qián)人工智能所引发的人身或财产损害问题。
进一步说(shuō),人(rén)工智能成为法律主(zhǔ)体甚至有潜在的不可预计的风险(xiǎn)。人工智能成(chéng)为法(fǎ)律主(zhǔ)体的一个自然(rán)推论是,它能够独立(lì)承担(dān)责任(rèn)。由(yóu)于(yú)人工智能的确会导致伤害甚(shèn)或大规(guī)模伤害,如隐私泄露、数(shù)据毁坏、人身损(sǔn)害等——到目前为止,即使是专家也很难完全了解大(dà)规(guī)模模(mó)型的内在运行机制,并准(zhǔn)确预测未(wèi)来可(kě)能发生的伤害及其规模(mó),而且对如何抑(yì)制(zhì)未来的大模型伤害尚未形(xíng)成共识。不仅如此,更(gèng)危险的情(qíng)形可能是,人工智(zhì)能会有意或无意(yì)生成(chéng)执行危险行(háng)为的能力,甚至“学习(xí)掌(zhǎng)握”如何影响(xiǎng)人类(lèi)使用(yòng)者(zhě),进而鼓动特(tè)定群体以破坏性甚(shèn)或毁灭式方式行动。此时(shí),人工智能承担责任就(jiù)意味着开发、设计、运行、使用人工智能的主体将可(kě)以逃避法律制裁(cái),这是极不(bú)可取的(de)结(jié)果,必须予以避免。尽管“刺穿人(rén)工智能面纱(shā)”制度可以减缓上(shàng)述不利后(hòu)果,但是该(gāi)制度应当有(yǒu)严(yán)格的适用要(yào)件(jiàn),不可常规性地使用,否则就有(yǒu)违人工智(zhì)能(néng)作(zuò)为法律主体的(de)设计初衷。
情(qíng)感、理性、意志不证成人工(gōng)智能成为法律主体
情感、理性(xìng)、意志与人工智能的法律(lǜ)主体问题(tí)有内在关联。一种观(guān)点认为,赋予法律主体的一个传统要(yào)素是,其必须能够有情感、理性(xìng)、意志。尽管人(rén)工智能是以深(shēn)度(dù)学(xué)习为基础,然而(ér),既有的人工智能大都不存在情感。尽(jìn)管有些人工智能的技术领导者认为,人工智能很快就向有情感的方向(xiàng)发展。然而,即使有情(qíng)感,甚或是自主(zhǔ)情感,人工智能也不应当成为法(fǎ)律主体(tǐ)。因为(wéi)相(xiàng)比很(hěn)多人工(gōng)智能而(ér)言,很(hěn)多动物已经具有丰富(fù)的(de)情感甚至一定的自我意识。尽管动物可以获得(dé)某些权利(lì),然而从主导价(jià)值观(guān)审视(shì),动物依然(rán)不(bú)能获(huò)得和人(rén)一(yī)样(yàng)完(wán)全相(xiàng)同或者高度相似的法律主(zhǔ)体身(shēn)份。我(wǒ)国民法典(diǎn)也采纳了此种(zhǒng)立场。从规范意义上(shàng)评价(jià),情感、理性、意志并非赋予法律主(zhǔ)体的必备要(yào)素。与此(cǐ)相(xiàng)关的是,即使人工智能的(de)推理(lǐ)能力已经超过了(le)人类,也(yě)无法证(zhèng)成赋予其法律主体(tǐ)地(dì)位是一种必备或者最优的(de)解决方案。
在比较法上,的确有一些事物尤其是自然资源被赋予了法律主体(tǐ)资格,如部分国家通过立(lì)法赋予了珊瑚礁、河流或(huò)机器人以法律(lǜ)主体资格。然而(ér)我们(men)发现,这些特殊事物都没(méi)有在民事法律中成为法(fǎ)律(lǜ)主(zhǔ)体,更没有在民(mín)事基础性法律——民(mín)法典中成(chéng)为法律主体。2017年新(xīn)西兰通过(guò)立法(fǎ)赋予了(le)旺格努(nǔ)伊河的法(fǎ)律主体(tǐ)资格,该法是与旺格努(nǔ)伊河毛利人妥协的一部分,是因为毛利人一直认为该河有生(shēng)命力,该法的通过能够给毛(máo)利(lì)人带来希望。在特别的法律中赋予其某些特殊利益或者权利(lì),并不能在一般意(yì)义上证(zhèng)成其应当成为法律主体。
人工智能不作为法律主体并不(bú)影响人(rén)工智能法律制度的变革
可以预(yù)见(jiàn)的是,人工智(zhì)能已经或(huò)者在未来可能会经(jīng)受伤(shāng)害。基于人类的价值判(pàn)断以及现代法治(zhì)文明(míng),法律制度(dù)也不应故步自封,一个可能的预备解决方案是,尽管人工智能不应(yīng)当成为或者不是(shì)法律主体,但(dàn)是有情感的人工(gōng)智能机器人(rén)或者其他(tā)产品未来(lái)可能会受到法律的特殊规制,以保(bǎo)护人类对(duì)它们的某些情感利益和其他利益(yì)。
人工智(zhì)能的复杂(zá)性也(yě)会产生(shēng)一些现(xiàn)行(háng)法很难有效解决的(de)问题。例如,大多数人工智能系统都是诸多开(kāi)发(fā)人(rén)、设(shè)计者(zhě)、所有(yǒu)人、经(jīng)营者、用户之间通过(guò)复杂的跨国协议产生的产品(pǐn),在这一相互独立的关系的国际化网络中,确定某个或者某几个(gè)主体来承担责(zé)任几(jǐ)乎不可能。不仅如此,基于不透明性(xìng)以及一些(xiē)人工智(zhì)能系统(tǒng)的自我学(xué)习性,伤害的风险(xiǎn)可能是以一种负责(zé)开(kāi)发的(de)主(zhǔ)体所不可预见的方(fāng)式导(dǎo)致的(de),确定特定实体(tǐ)来承担责(zé)任更是难上(shàng)加难。这就(jiù)需(xū)要人工智能法律制度的(de)持续变(biàn)革。更好拥抱人(rén)工(gōng)智能的方(fāng)式(shì)是设定适应(yīng)性(xìng)的治理框(kuàng)架,以保护(hù)人(rén)类的文明成果(guǒ)。人工(gōng)智能促(cù)进人类(lèi)向好的方向发展,就需(xū)要通(tōng)过多层次制度为基础(chǔ)的有效治理来促(cù)使其具(jù)有可(kě)解释性、可预测性、可信赖(lài)性。