人工智能不應(yīng)成為法律主體
文 | 孫良國(guó) 大連海事大學(xué)法學(xué)院教授
人工智能的治理是一項(xiàng)復(fù)雜的系統(tǒng)工程,也是人類面對(duì)的核心問題之一。我國(guó)人工智能的發(fā)展要引領(lǐng)世界,就必須設(shè)計(jì)能夠支撐人工智能可持續(xù)發(fā)展的治理機(jī)制。其中,法律作為治國(guó)之重器,應(yīng)當(dāng)在人工智能的治理中發(fā)揮重要作用。在人工智能的法律治理中,一個(gè)重要議題是,人工智能是否應(yīng)當(dāng)成為法律主體。在世界范圍內(nèi),此問題引起了巨大的學(xué)術(shù)爭(zhēng)論和社會(huì)爭(zhēng)議,不同甚或?qū)α⒌挠^點(diǎn)不斷登場(chǎng),遠(yuǎn)未達(dá)成共識(shí)。筆者的觀點(diǎn)是,人工智能不應(yīng)當(dāng)成為法律主體。
從實(shí)證法的角度看,立法機(jī)關(guān)可以通過法律認(rèn)可任何組織、實(shí)體或者其他事物作為法律主體。任何突破傳統(tǒng)法律制度的新制度,都必須是經(jīng)過價(jià)值判斷后的恰當(dāng)結(jié)果。人工智能是否應(yīng)當(dāng)成為法律主體,取決于如下價(jià)值判斷:既能夠促進(jìn)人工智能的發(fā)展,同時(shí)也能夠消除人工智能的不當(dāng)風(fēng)險(xiǎn)。技術(shù)變革往往會(huì)伴隨風(fēng)險(xiǎn),但只要風(fēng)險(xiǎn)可控且不會(huì)對(duì)人類價(jià)值產(chǎn)生不可接受的影響,那么法律就應(yīng)采取最優(yōu)措施來抑制風(fēng)險(xiǎn)??紤]當(dāng)下功用,兼顧長(zhǎng)遠(yuǎn)影響,總體來看,維持目前法律制度,不賦予人工智能以法律主體地位,是人工智能法律治理的最優(yōu)解。
人工智能的發(fā)展并不需要其成為法律主體
人工智能是概括性術(shù)語(yǔ),從機(jī)器學(xué)習(xí)到大規(guī)模語(yǔ)言模型等均包括在內(nèi)。人工智能是否需要成為法律主體,可以從法律主體的歷史演進(jìn)規(guī)律獲得啟示。
整體而言,法律主體演進(jìn)的基本規(guī)律可概括為從“人可非人”到“非人可人”。即使到近代社會(huì),自然人(公民)之間的權(quán)利也是有差別的。只有在現(xiàn)代法治國(guó)家,自然人才享有平等的民事權(quán)利。不僅如此,法律主體也已經(jīng)不再限于生物學(xué)意義上的人,公司等實(shí)體也獲得了法律的明確承認(rèn),同時(shí)附之以股東或者出資人以自己對(duì)公司的出資為限承擔(dān)責(zé)任。此種承認(rèn)促進(jìn)了現(xiàn)代科學(xué)技術(shù)和組織形式的跨越式變革,推進(jìn)了人類的文明進(jìn)步。盡管部分學(xué)者列舉或者設(shè)想了目前人工智能應(yīng)當(dāng)作為法律主體的具體場(chǎng)景,然而經(jīng)過仔細(xì)分析,這些場(chǎng)景都沒有顯示出人工智能需要作為法律主體的真正客觀需求,也沒有顯示出既有的法律制度(如代理、公司法等)阻礙了人工智能的發(fā)展而通過使人工智能成為法律主體會(huì)掃清該障礙。
有學(xué)者認(rèn)為,對(duì)社會(huì)生活的參與是判斷是否設(shè)定法律主體的重要因素。這一說法值得商榷。因?yàn)閰⑴c社會(huì)生活的身份有主體和客體之分,人工智能是作為客體如機(jī)器、軟件、程序或系統(tǒng)而參與的。即使客體很智能,甚至可以在既有技術(shù)設(shè)計(jì)下做出獨(dú)立判斷,但此種獨(dú)立判斷所歸責(zé)的主體仍舊是設(shè)置、控制或使用該機(jī)器的主體,所代表的依然是設(shè)置、控制或使用該客體的主體的意志。事物很重要與法律賦予其法律主體資格是兩個(gè)完全不同的問題。例如,對(duì)很多人來說,寵物已經(jīng)成為社會(huì)生活的重要部分,其中部分人對(duì)寵物的依賴性要遠(yuǎn)高于其他事物,但這并不能證成寵物成為法律主體。同理,雖然人工智能非常重要,但法律仍然沒有使之成為法律主體的內(nèi)在需求。
從責(zé)任能力視角看,人工智能不能成為法律主體
在民法上賦予法律主體資格的一個(gè)重要條件是責(zé)任能力。承擔(dān)責(zé)任意味著,法律主體承受不利的財(cái)產(chǎn)負(fù)擔(dān),而且該法律主體通常應(yīng)當(dāng)是最終的責(zé)任承擔(dān)者。責(zé)任能力的一個(gè)前提條件是,法律主體必須有獨(dú)立的財(cái)產(chǎn)。如果沒有獨(dú)立的財(cái)產(chǎn),那么使人工智能承擔(dān)責(zé)任就沒有實(shí)質(zhì)意義。到目前為止甚或是在相當(dāng)長(zhǎng)的未來,我們都很難設(shè)想人工智能需要或者能夠擁有獨(dú)立財(cái)產(chǎn)。由于這一前提條件并不具備,那么人工智能成為法律主體也就沒有必要或者可能。從既有的媒體公開報(bào)道的人工智能導(dǎo)致人身或者財(cái)產(chǎn)損害的案件中,我們均可以根據(jù)既有法律規(guī)定找到需要承擔(dān)責(zé)任的主體——開發(fā)人、設(shè)計(jì)者、所有者或使用者等。換言之,既有的法律制度能夠解決目前人工智能所引發(fā)的人身或財(cái)產(chǎn)損害問題。
進(jìn)一步說,人工智能成為法律主體甚至有潛在的不可預(yù)計(jì)的風(fēng)險(xiǎn)。人工智能成為法律主體的一個(gè)自然推論是,它能夠獨(dú)立承擔(dān)責(zé)任。由于人工智能的確會(huì)導(dǎo)致傷害甚或大規(guī)模傷害,如隱私泄露、數(shù)據(jù)毀壞、人身?yè)p害等——到目前為止,即使是專家也很難完全了解大規(guī)模模型的內(nèi)在運(yùn)行機(jī)制,并準(zhǔn)確預(yù)測(cè)未來可能發(fā)生的傷害及其規(guī)模,而且對(duì)如何抑制未來的大模型傷害尚未形成共識(shí)。不僅如此,更危險(xiǎn)的情形可能是,人工智能會(huì)有意或無(wú)意生成執(zhí)行危險(xiǎn)行為的能力,甚至“學(xué)習(xí)掌握”如何影響人類使用者,進(jìn)而鼓動(dòng)特定群體以破壞性甚或毀滅式方式行動(dòng)。此時(shí),人工智能承擔(dān)責(zé)任就意味著開發(fā)、設(shè)計(jì)、運(yùn)行、使用人工智能的主體將可以逃避法律制裁,這是極不可取的結(jié)果,必須予以避免。盡管“刺穿人工智能面紗”制度可以減緩上述不利后果,但是該制度應(yīng)當(dāng)有嚴(yán)格的適用要件,不可常規(guī)性地使用,否則就有違人工智能作為法律主體的設(shè)計(jì)初衷。
情感、理性、意志不證成人工智能成為法律主體
情感、理性、意志與人工智能的法律主體問題有內(nèi)在關(guān)聯(lián)。一種觀點(diǎn)認(rèn)為,賦予法律主體的一個(gè)傳統(tǒng)要素是,其必須能夠有情感、理性、意志。盡管人工智能是以深度學(xué)習(xí)為基礎(chǔ),然而,既有的人工智能大都不存在情感。盡管有些人工智能的技術(shù)領(lǐng)導(dǎo)者認(rèn)為,人工智能很快就向有情感的方向發(fā)展。然而,即使有情感,甚或是自主情感,人工智能也不應(yīng)當(dāng)成為法律主體。因?yàn)橄啾群芏嗳斯ぶ悄芏?,很多?dòng)物已經(jīng)具有豐富的情感甚至一定的自我意識(shí)。盡管動(dòng)物可以獲得某些權(quán)利,然而從主導(dǎo)價(jià)值觀審視,動(dòng)物依然不能獲得和人一樣完全相同或者高度相似的法律主體身份。我國(guó)民法典也采納了此種立場(chǎng)。從規(guī)范意義上評(píng)價(jià),情感、理性、意志并非賦予法律主體的必備要素。與此相關(guān)的是,即使人工智能的推理能力已經(jīng)超過了人類,也無(wú)法證成賦予其法律主體地位是一種必備或者最優(yōu)的解決方案。
在比較法上,的確有一些事物尤其是自然資源被賦予了法律主體資格,如部分國(guó)家通過立法賦予了珊瑚礁、河流或機(jī)器人以法律主體資格。然而我們發(fā)現(xiàn),這些特殊事物都沒有在民事法律中成為法律主體,更沒有在民事基礎(chǔ)性法律——民法典中成為法律主體。2017年新西蘭通過立法賦予了旺格努伊河的法律主體資格,該法是與旺格努伊河毛利人妥協(xié)的一部分,是因?yàn)槊艘恢闭J(rèn)為該河有生命力,該法的通過能夠給毛利人帶來希望。在特別的法律中賦予其某些特殊利益或者權(quán)利,并不能在一般意義上證成其應(yīng)當(dāng)成為法律主體。
人工智能不作為法律主體并不影響人工智能法律制度的變革
可以預(yù)見的是,人工智能已經(jīng)或者在未來可能會(huì)經(jīng)受傷害。基于人類的價(jià)值判斷以及現(xiàn)代法治文明,法律制度也不應(yīng)故步自封,一個(gè)可能的預(yù)備解決方案是,盡管人工智能不應(yīng)當(dāng)成為或者不是法律主體,但是有情感的人工智能機(jī)器人或者其他產(chǎn)品未來可能會(huì)受到法律的特殊規(guī)制,以保護(hù)人類對(duì)它們的某些情感利益和其他利益。
人工智能的復(fù)雜性也會(huì)產(chǎn)生一些現(xiàn)行法很難有效解決的問題。例如,大多數(shù)人工智能系統(tǒng)都是諸多開發(fā)人、設(shè)計(jì)者、所有人、經(jīng)營(yíng)者、用戶之間通過復(fù)雜的跨國(guó)協(xié)議產(chǎn)生的產(chǎn)品,在這一相互獨(dú)立的關(guān)系的國(guó)際化網(wǎng)絡(luò)中,確定某個(gè)或者某幾個(gè)主體來承擔(dān)責(zé)任幾乎不可能。不僅如此,基于不透明性以及一些人工智能系統(tǒng)的自我學(xué)習(xí)性,傷害的風(fēng)險(xiǎn)可能是以一種負(fù)責(zé)開發(fā)的主體所不可預(yù)見的方式導(dǎo)致的,確定特定實(shí)體來承擔(dān)責(zé)任更是難上加難。這就需要人工智能法律制度的持續(xù)變革。更好擁抱人工智能的方式是設(shè)定適應(yīng)性的治理框架,以保護(hù)人類的文明成果。人工智能促進(jìn)人類向好的方向發(fā)展,就需要通過多層次制度為基礎(chǔ)的有效治理來促使其具有可解釋性、可預(yù)測(cè)性、可信賴性。