有限法律主體:人工智能法律地位的合理選擇
8月16日、23日,本報(bào)理論版圍繞“人工智能是否應(yīng)具有法律主體地位”刊發(fā)的系列爭(zhēng)鳴文章。資料圖片
8月16日、23日,本報(bào)理論版圍繞“人工智能是否應(yīng)具有法律主體地位”刊發(fā)的系列爭(zhēng)鳴文章。資料圖片
【學(xué)術(shù)爭(zhēng)鳴】
當(dāng)前,人工智能正以前所未有的速度迅猛發(fā)展,深刻影響著人類(lèi)的生活和社會(huì)結(jié)構(gòu)?,F(xiàn)有民法體系將人工智能納入客體制度進(jìn)行規(guī)制,使得在規(guī)制人工智能損害時(shí)面臨諸多難題,特別是權(quán)利義務(wù)認(rèn)定的模糊性和法律責(zé)任的分散性導(dǎo)致對(duì)受害人的保護(hù)不周延,影響人工智能技術(shù)的進(jìn)一步發(fā)展。由此,“人工智能是否應(yīng)當(dāng)成為法律主體”的議題引起了諸多學(xué)術(shù)討論與社會(huì)爭(zhēng)議。光明日?qǐng)?bào)理論版近期刊發(fā)的《人工智能不應(yīng)成為法律主體》和《破除人工智能成為法律主體的臆想》兩篇文章,提出不應(yīng)當(dāng)賦予人工智能法律主體地位,筆者對(duì)此持不同觀點(diǎn)。筆者認(rèn)為,主體制度是權(quán)利、行為、責(zé)任制度的基礎(chǔ),人工智能成為有限法律主體,有助于實(shí)現(xiàn)權(quán)利和責(zé)任的清晰劃分,推動(dòng)科技創(chuàng)新健康發(fā)展。
人工智能作為客體的弊端
其一,人工智能作為客體在侵權(quán)責(zé)任中存在構(gòu)造不當(dāng)問(wèn)題。傳統(tǒng)民法責(zé)任制度建立在個(gè)人過(guò)錯(cuò)基礎(chǔ)之上,對(duì)于普通機(jī)器適用客體制度能夠解決問(wèn)題,但在具有高感知力與高決策力的人工智能語(yǔ)境下,則難以通過(guò)客體制度保障受害人權(quán)利。具言之,在過(guò)錯(cuò)責(zé)任中,合理預(yù)見(jiàn)是確立責(zé)任的基礎(chǔ),預(yù)見(jiàn)性確定了責(zé)任的性質(zhì)與責(zé)任的內(nèi)容,但由于人工智能能夠獨(dú)立思考和作出決策,其自我決策的存在削弱了參與主體(使用者)的過(guò)錯(cuò)程度,因此需要重新審視和調(diào)整民事責(zé)任的分配機(jī)制。對(duì)此,學(xué)界試圖以嚴(yán)格責(zé)任來(lái)解決致人損害的問(wèn)題,但沉重的責(zé)任負(fù)擔(dān)將嚴(yán)重影響人工智能的開(kāi)發(fā)與利用。
其二,人工智能作為客體在產(chǎn)品缺陷認(rèn)定中存在困難。人工智能系統(tǒng)的復(fù)雜性意味著人類(lèi)對(duì)其行為無(wú)法完全掌控。例如,高階自動(dòng)駕駛汽車(chē)在發(fā)生事故時(shí),在其客體定位下只能極力探尋是因產(chǎn)品缺陷還是操作不當(dāng)導(dǎo)致事故發(fā)生,而人工智能的“算法黑箱”導(dǎo)致缺陷認(rèn)定困難。即使在確定產(chǎn)品存在缺陷后,最終硬件制造商、軟件開(kāi)發(fā)商、算法設(shè)計(jì)師、數(shù)據(jù)提供商等參與主體分別承擔(dān)何種責(zé)任,依然無(wú)法準(zhǔn)確認(rèn)定。這種責(zé)任分散且因果關(guān)系中斷的情況加大了責(zé)任歸屬認(rèn)定的難度,導(dǎo)致責(zé)任認(rèn)定的無(wú)限遞歸,不利于保護(hù)受害人的權(quán)益。對(duì)此,《人工智能不應(yīng)成為法律主體》與《破除人工智能成為法律主體的臆想》等提出否定觀點(diǎn),均認(rèn)為人工智能所引發(fā)的問(wèn)題完全可以由既有法律體系調(diào)整而解決。這確實(shí)能夠在一定程度上解決當(dāng)前的擔(dān)責(zé)困境。但這種應(yīng)對(duì)之策,與認(rèn)可人工智能能夠成為法律主體一樣,均屬解決人工智能發(fā)展所帶來(lái)的法律挑戰(zhàn)的備選方案,二者并無(wú)本質(zhì)區(qū)別。
其三,人工智能作為客體不利于科學(xué)技術(shù)的發(fā)展創(chuàng)新。正如美國(guó)學(xué)者博登海默所言,法律必須服從社會(huì)進(jìn)步所提出的正當(dāng)要求。在快速發(fā)展的智能時(shí)代,法律應(yīng)當(dāng)促進(jìn)而非阻礙技術(shù)創(chuàng)新與應(yīng)用。若將人工智能僅視為客體,那么在面對(duì)技術(shù)迭代與應(yīng)用場(chǎng)景擴(kuò)展時(shí),現(xiàn)行法律框架可能無(wú)法提供足夠的激勵(lì)機(jī)制和安全保障,進(jìn)而抑制了潛在的社會(huì)經(jīng)濟(jì)效益與科技進(jìn)步。
值得強(qiáng)調(diào)的是,主體制度是權(quán)利制度的基礎(chǔ),權(quán)利是定分止?fàn)幍幕A(chǔ)。人工智能被視為法律主體后能使權(quán)利義務(wù)更加清晰。例如,當(dāng)前關(guān)于人工智能創(chuàng)造物的歸屬爭(zhēng)議,即是因人工智能的客體定位導(dǎo)致了正當(dāng)權(quán)利主體的“虛無(wú)”,這何嘗不是人類(lèi)的一種“自負(fù)”?而將人工智能作為主體則能夠使權(quán)利更加明確地被界定和分配——?jiǎng)?chuàng)作物屬于人工智能與使用者共同所有。此外,《人工智能不應(yīng)成為法律主體》一文提出,人工智能成為法律主體有潛在的不可預(yù)計(jì)的風(fēng)險(xiǎn)。但正是基于此種風(fēng)險(xiǎn),才更需要“刺穿人工智能面紗”,從而增加一種可選擇的直接規(guī)制其致害的路徑。這種做法不僅能有效解決責(zé)任歸屬問(wèn)題,還能通過(guò)設(shè)定合理的責(zé)任限制和保險(xiǎn)機(jī)制來(lái)平衡技術(shù)進(jìn)步帶來(lái)的潛在利益與可能的危害,確保受害者能夠獲得適當(dāng)?shù)馁r償,同時(shí)避免過(guò)度懲罰技術(shù)創(chuàng)新者,從而保持技術(shù)發(fā)展的活力。
人工智能成為有限法律主體的可行性
其一,民事主體是法律承認(rèn)的結(jié)果,法律人格在社會(huì)需求中不斷擴(kuò)張。從“人可非人”到“非人可人”的歷史演變,闡釋了民事主體只是社會(huì)需要的法律形式。例如,法人制度的出現(xiàn)純粹是經(jīng)濟(jì)發(fā)展的需求導(dǎo)致法律技術(shù)進(jìn)步的結(jié)果,是一種經(jīng)濟(jì)生活的客觀現(xiàn)實(shí)與法律技術(shù)運(yùn)用相結(jié)合的產(chǎn)物。即使是法國(guó)民法典編纂之時(shí),立法者因害怕波旁王朝借“法人制度”進(jìn)行復(fù)辟而予以拒斥,卻依然無(wú)法違背“法律須適應(yīng)社會(huì)發(fā)展需求”這一客觀規(guī)律,最終法人具有擬制主體地位。又如,法律為了保護(hù)胎兒利益,在繼承、接受贈(zèng)與等情況下被視為已出生,胎兒在此種情形下具有民事主體地位。人格制度的演變直接反映了整個(gè)民法觀念、價(jià)值的發(fā)展變化,逐漸出現(xiàn)了“沒(méi)有臉龐”的權(quán)利主體。法律對(duì)民事主體的承認(rèn)是基于現(xiàn)實(shí)需要,根基在于實(shí)現(xiàn)人的利益,生命和倫理并非成為民事主體的必然要求。
其二,賦予人工智能有限人格不會(huì)損害以人為中心的主體制度,反而以工具性人格來(lái)定位人工智能可以更好貫徹以人為本的理念。《破除人工智能成為法律主體的臆想》一文認(rèn)為,“賦予人工智能主體地位會(huì)挑戰(zhàn)以人類(lèi)為中心的傳統(tǒng)觀念”。但在有限的工具性人格主張下,此種憂慮可以得到解決。對(duì)人工智能有限人格的承認(rèn),其實(shí)是以人類(lèi)為中心建立相應(yīng)的制度體系,避免具體人格的缺乏導(dǎo)致規(guī)則的無(wú)所依存。事實(shí)上,我國(guó)民事主體可分為支配性主體(自然人)與工具性主體(法人、非法人組織),后者系為了服務(wù)人類(lèi)社會(huì)發(fā)展,實(shí)現(xiàn)責(zé)任有限的目的而人為擬制的一種工具,但并不具有與人類(lèi)完全相同的權(quán)利義務(wù)。同樣,賦予人工智能民事主體資格,也可使人工智能更好地發(fā)展以服務(wù)人類(lèi)社會(huì)。
其三,賦予人工智能有限人格不會(huì)違反現(xiàn)行民事財(cái)產(chǎn)制度。財(cái)產(chǎn)制度作為一種社會(huì)分擔(dān)制度,其核心在于通過(guò)法律手段合理分配社會(huì)資源,以實(shí)現(xiàn)公平與效率的雙重目標(biāo)。從這個(gè)角度看,賦予人工智能有限的法律人格不僅不會(huì)與現(xiàn)有財(cái)產(chǎn)制度相沖突,反而能更好地發(fā)揮財(cái)產(chǎn)制度的社會(huì)分擔(dān)功能。一方面,人工智能所涉及的財(cái)產(chǎn)關(guān)系本質(zhì)上是對(duì)既有財(cái)產(chǎn)制度的補(bǔ)充和完善。例如,當(dāng)人工智能作為投資受托人參與經(jīng)濟(jì)活動(dòng)時(shí),其獲取的財(cái)產(chǎn)收益可以被規(guī)定為歸委托人所有,或者按照事先約定的比例分配給委托人和機(jī)器人本身。這種安排既尊重了財(cái)產(chǎn)所有權(quán)的基本原則,又為新型經(jīng)濟(jì)活動(dòng)提供了法律上的支持,確保了財(cái)產(chǎn)分配的公平性和合理性。另一方面,財(cái)產(chǎn)制度的一個(gè)重要功能是通過(guò)法律規(guī)范來(lái)實(shí)現(xiàn)資源的有效配置和社會(huì)風(fēng)險(xiǎn)的合理分散。通過(guò)賦予人工智能有限法律人格,可以明確其在特定情形下的財(cái)產(chǎn)持有權(quán)和使用權(quán)。例如,商用無(wú)人駕駛汽車(chē)因出租或共享而獲取的收益,可以歸屬汽車(chē)所有,這些收益可以用來(lái)彌補(bǔ)潛在的風(fēng)險(xiǎn)損失,或用于補(bǔ)償受害者的損失。由此,財(cái)產(chǎn)制度不僅促進(jìn)了資源的有效利用,還實(shí)現(xiàn)了社會(huì)風(fēng)險(xiǎn)的合理分擔(dān)?;谠撝贫?,《破除人工智能成為法律主體的臆想》一文提出人工智能沒(méi)有獨(dú)立財(cái)產(chǎn)承擔(dān)責(zé)任的說(shuō)法亦不攻而破。
對(duì)有限法律主體之“有限性”的理解
具有自主性與決策力的人工智能具有一定程度的創(chuàng)造性:創(chuàng)造出相應(yīng)在法律上無(wú)從依歸的權(quán)利,創(chuàng)造出相應(yīng)無(wú)法確定的責(zé)任?;诖?,為解決相應(yīng)問(wèn)題,人工智能應(yīng)該成為有限法律主體,其“有限性”主要表現(xiàn)為以下幾個(gè)方面:
其一,權(quán)利能力的有限性。人工智能作為工具性主體并不享有倫理性的人格權(quán)或身份權(quán),而是享有經(jīng)濟(jì)性的財(cái)產(chǎn)權(quán)利。這意味著人工智能可以通過(guò)自己的“勞動(dòng)”擁有特定的財(cái)產(chǎn)權(quán),但它們并不享有與自然人相同的身份權(quán)或人格權(quán),比如名譽(yù)權(quán)、隱私權(quán)等。需要注意的是,在肯定人工智能擁有財(cái)產(chǎn)權(quán)的基礎(chǔ)上,也不妨礙其作為人類(lèi)“所有物”的屬性。這一點(diǎn)可以類(lèi)比于實(shí)控股東對(duì)法人的“所有權(quán)”,而法人也具有自己的財(cái)產(chǎn)。簡(jiǎn)言之,法律在肯定人工智能可以享有民事財(cái)產(chǎn)權(quán)的同時(shí),并不改變?nèi)斯ぶ悄鼙旧硐鄬?duì)于人類(lèi)而言的客體屬性。
其二,行為能力的有限性。人工智能的行為能力同樣受限于其設(shè)計(jì)和技術(shù)。盡管人工智能能在一定范圍內(nèi)自主決策和執(zhí)行任務(wù),但這些行為始終受制于其編程邏輯及法律規(guī)范。設(shè)計(jì)者、使用者或所有者通過(guò)編程等方式設(shè)定了人工智能的行為邊界,以保障其行為不會(huì)超出法律和社會(huì)可接受的范圍。亦即,盡管人工智能具備一定的自主性,但其行動(dòng)仍需遵循預(yù)設(shè)的規(guī)則體系,且最終應(yīng)由人類(lèi)負(fù)責(zé)監(jiān)督和控制。簡(jiǎn)言之,人類(lèi)不可因人工智能有限主體地位而逃避自身的責(zé)任。由此,可回應(yīng)《破除人工智能成為法律主體的臆想》一文提出“誘發(fā)道德風(fēng)險(xiǎn)”的擔(dān)憂。
其三,責(zé)任能力的有限性。人工智能的責(zé)任能力與自然人的責(zé)任能力不同,其承擔(dān)責(zé)任是有限的?!度斯ぶ悄懿粦?yīng)成為法律主體》一文認(rèn)為人工智能無(wú)法獨(dú)立承擔(dān)責(zé)任。在有限人格的制度定位下,法律應(yīng)當(dāng)為人工智能創(chuàng)設(shè)特殊的責(zé)任承擔(dān)的機(jī)制,在一定限度內(nèi)以自己的財(cái)產(chǎn)獨(dú)立對(duì)受害人承擔(dān)責(zé)任,以減輕相關(guān)參與人的責(zé)任負(fù)擔(dān)。例如,通過(guò)統(tǒng)一為人工智能開(kāi)設(shè)相應(yīng)信托賬戶、購(gòu)買(mǎi)保險(xiǎn)等方式,當(dāng)其對(duì)他人造成損害時(shí),優(yōu)先以該賬戶資金進(jìn)行賠付;同時(shí),還可以通過(guò)登記確立人工智能與占有人的代理關(guān)系,從而確定代理人與被代理人之間的責(zé)任承擔(dān)機(jī)制。以上述多元財(cái)產(chǎn)—責(zé)任制度的設(shè)計(jì)來(lái)完成對(duì)責(zé)任的承擔(dān)。
隨著時(shí)代的發(fā)展,尤其是人工智能技術(shù)的迅速發(fā)展,法律制度的革新變得尤為迫切。人工智能不僅在改變著我們的生活方式,還在影響著既有法律框架,推動(dòng)著法律理論的創(chuàng)新。將人工智能視為有限法律主體,不僅是應(yīng)對(duì)當(dāng)前法律挑戰(zhàn)的迫切需求,也是促進(jìn)社會(huì)科技進(jìn)步和創(chuàng)新的必要之舉。雖然這一路徑面臨諸多爭(zhēng)議,但面對(duì)快速變化的社會(huì)和科技環(huán)境時(shí),簡(jiǎn)單劃定界限、固守成規(guī),往往會(huì)限制創(chuàng)新與進(jìn)步。法律制度不應(yīng)僅僅停留在將人工智能視為客體進(jìn)行規(guī)制的傳統(tǒng)思維模式中,而應(yīng)積極探索并承認(rèn)其在特定條件下作為有限法律主體的可能性,在促進(jìn)技術(shù)創(chuàng)新與應(yīng)用的同時(shí)確保法律制度能夠更好地服務(wù)于社會(huì)發(fā)展。
(作者:許中緣,系中南大學(xué)法學(xué)院院長(zhǎng)、教授)