破除人工智能成為法律主體的臆想
【學(xué)術(shù)爭鳴】
人工智能作為現(xiàn)代科技的前沿領(lǐng)域,正在迅速改變我們生活的方方面面。從智能家居到自動駕駛汽車,從智能助手到人形機器人,技術(shù)的進步和應(yīng)用場景的拓展,激發(fā)了各界對人工智能的追捧。伴隨對人工智能生成作品著作權(quán)歸屬的爭論以及具身智能的發(fā)展,關(guān)于人工智能是否應(yīng)當(dāng)被賦予主體地位的問題越來越受到關(guān)注。2024年8月16日,光明日報理論版刊發(fā)的《人工智能成為法律主體不存在理論障礙》一文,提出若干觀點支持賦予人工智能以法律主體地位。對此,筆者有不同認(rèn)識。筆者認(rèn)為,“不存在理論障礙”并不意味著就具備正當(dāng)性、合理性和必要性,如若承認(rèn)人工智能法律主體地位,那么人工智能就將被視為具有獨立權(quán)利義務(wù)和責(zé)任的法律實體,這將構(gòu)成對現(xiàn)有法律倫理秩序和傳統(tǒng)的極大沖擊。
理性是成為法律主體的基礎(chǔ),但人工智能不具備獨立理性
理性不僅是道德判斷的基礎(chǔ),也是對行為后果承擔(dān)責(zé)任的前提。只有具備理性和自主性的個體才能被視為道德主體,具備承擔(dān)道德責(zé)任的能力。理性通常被定義為一種能夠進行邏輯思維和合理決策的能力,它涉及對復(fù)雜問題的分析、判斷和選擇。理性不僅僅是計算能力的體現(xiàn),更包括對自身行為的反思和對環(huán)境的理解。自主性則是指個體能夠在沒有外部干預(yù)的情況下,自主做出決策,并承擔(dān)決策帶來的后果。理性使得個體能夠進行自我反思和理性決策,從而對其行為和結(jié)果負(fù)責(zé)。法律是最低程度的道德,法律主體地位的取得也需要主體具備理性,以便對其行為進行合理的法律評價。在某種意義上,理性是成為法律主體的基礎(chǔ)。《人工智能成為法律主體不存在理論障礙》一文認(rèn)為,“法律調(diào)整人工智能產(chǎn)生的相應(yīng)法律關(guān)系,本質(zhì)上仍然是調(diào)整人與人之間的法律關(guān)系,仍以人的理性為基礎(chǔ)”;既如此,人工智能又有何種可能性和必要性成為法律主體呢?
進言之,人工智能雖然能“理性”地作出決策行為,但這種“理性”實際上是擬制的,源于人類編制的算法和數(shù)據(jù)訓(xùn)練。人工智能系統(tǒng)的“決策”基于大量的數(shù)據(jù)處理和模式識別,但這些“決策”并不涉及自主的理性判斷。易言之,人工智能的學(xué)習(xí)過程是通過對歷史數(shù)據(jù)進行優(yōu)化和調(diào)整,而不是通過自主思考或反省形成的。例如,深度學(xué)習(xí)算法可以通過對海量圖像進行分析來識別物體,但這種識別能力基于統(tǒng)計模型,而不是基于對圖像內(nèi)容的理解。一般而言,理性標(biāo)準(zhǔn)要求主體能夠進行自主的道德判斷,并對其行為后果負(fù)責(zé)。然而,人工智能系統(tǒng)并不具備這種自主性,它們的行為是由人類設(shè)計和預(yù)設(shè)的規(guī)則驅(qū)動的,并沒有真正的自我意識。真正的理性不僅僅是邏輯思維和計算能力的表現(xiàn),更包括對自我意識的控制能力。人工智能系統(tǒng)的“理性”僅僅是程序設(shè)計和數(shù)據(jù)處理的結(jié)果,其“思考”過程實際上是對輸入數(shù)據(jù)的統(tǒng)計分析和優(yōu)化處理,缺乏真正獨立的自我意識和自主決策能力,只是工具意義上完成人類所設(shè)定的任務(wù),不能因其是人類活動的延續(xù)就將人工智能視為具有與人具有同等理性和地位的獨立主體。
從技術(shù)實質(zhì)來看,人工智能的決策高度依賴預(yù)設(shè)算法、訓(xùn)練數(shù)據(jù)以及算力支撐,其系統(tǒng)運行的本質(zhì)仍然是數(shù)學(xué)處理的過程和結(jié)果,難言自我意識和獨立理性。即便是進入所謂的“強人工智能”階段,人工智能的思考和決策過程仍然是在預(yù)設(shè)的算法和程序的框架之內(nèi),其“理性”也只是體現(xiàn)為一種工具意義上的計算和處理能力,而非真正意義上的自主決策或理性思考。在這層意義上,賦予人工智能獨立的法律主體地位顯然缺乏足夠的倫理基礎(chǔ)。
承擔(dān)責(zé)任是成為法律主體的客觀要求,但人工智能無法獨立承擔(dān)責(zé)任
責(zé)任涉及對行為結(jié)果的承擔(dān)和對錯誤行為的補救。法律和倫理中的責(zé)任要求主體能夠?qū)ζ湫袨檫M行控制,并承擔(dān)相應(yīng)的后果。承擔(dān)責(zé)任需要主體具備對其行為的理解和控制能力,以及對后果進行補償?shù)哪芰?。?zé)任的歸屬不僅需要明確的法律框架,還需要具備承擔(dān)責(zé)任的能力和條件。然而,從人工智能系統(tǒng)的技術(shù)運行邏輯來看,其難以獨立地承擔(dān)法律責(zé)任,賦予人工智能法律主體地位缺乏應(yīng)有的法律基礎(chǔ)。
一方面,人工智能并不能真正理解和控制其行為的法律后果。法律責(zé)任的核心在于主體能夠意識到其行為對他人的影響,并且具備彌補或糾正錯誤的能力。然而人工智能的行為完全依賴于其算法和程序,且受到訓(xùn)練數(shù)據(jù)投喂的顯著影響,即使這些系統(tǒng)能夠在特定任務(wù)中表現(xiàn)出高效的處理能力,也只是脫離人工的自動化處理而并非真正意義上的自主決策。因此,人工智能系統(tǒng)無法獨立控制其行為,也不能自主預(yù)測其行為的后果和責(zé)任,自然也無法對其行為后果承擔(dān)責(zé)任。
另一方面,人工智能不具備承擔(dān)責(zé)任的財產(chǎn)條件。法律主體獨立的責(zé)任能力通常以具有獨立財產(chǎn)為基礎(chǔ)。然而不同于法人通過股東出資等方式獲得獨立財產(chǎn),人工智能的運行并不以財產(chǎn)作為支撐,其設(shè)計和部署雖然會耗費大量資金投入,但也并不要求儲備相應(yīng)財產(chǎn)以承擔(dān)可能之責(zé)任。這就導(dǎo)致了一旦人工智能因其決策行為侵權(quán)或違法,也沒有相應(yīng)的財產(chǎn)承擔(dān)相應(yīng)的賠償責(zé)任。即便是按照《人工智能成為法律主體不存在理論障礙》一文的設(shè)計,從制度和實踐上允許人工智能系統(tǒng)取得獨立財產(chǎn),或者為其設(shè)計強制責(zé)任保險制度,其也只能承擔(dān)賠償損失、罰金等以金錢為內(nèi)容的法律責(zé)任,而不能承擔(dān)諸如資格罰或自由罰等其他類型的法律責(zé)任,由此法律對其約束和威懾作用會顯著不足。
更重要的是,人工智能獨立承擔(dān)責(zé)任可能會誘致道德風(fēng)險。人工智能系統(tǒng)的決策和行為是由預(yù)先設(shè)定的算法和數(shù)據(jù)所驅(qū)動的,在很大程度上人工智能的行為控制權(quán)實際上是掌握在設(shè)計者和應(yīng)用者手中的,而不是系統(tǒng)本身能夠獨立控制的。設(shè)計者和應(yīng)用者在設(shè)計和部署人工智能系統(tǒng)的過程中,可能會因其故意或過失造成人工智能系統(tǒng)的先天缺陷,進而導(dǎo)致他人利益損害甚至利用人工智能實施違法犯罪行為。如果賦予人工智能獨立主體地位并由其獨立承擔(dān)責(zé)任,很有可能導(dǎo)致人工智能的設(shè)計者和應(yīng)用者利用這種安排逃避其實際應(yīng)承擔(dān)的法律責(zé)任。當(dāng)獨立承擔(dān)責(zé)任的人工智能可以成為設(shè)計者和應(yīng)用者的“防火墻”或“避風(fēng)港”,那么濫用人工智能的道德風(fēng)險則難以避免,甚至造成災(zāi)難性后果。
現(xiàn)有法律和倫理秩序足以應(yīng)對人工智能帶來的新變化,賦予人工智能法律主體地位無現(xiàn)實必要
賦予人工智能法律主體地位并非僅僅對技術(shù)進步的簡單回應(yīng),其涉及深刻的法律、倫理和社會秩序問題。法律因時而變固然是制度進化的內(nèi)在要求,但確保法制的穩(wěn)定和可預(yù)期、維護倫理秩序應(yīng)當(dāng)是法制變革的底線。一旦人工智能取得法律主體地位,勢必會導(dǎo)致現(xiàn)有法律秩序和倫理秩序所根植的社會關(guān)系結(jié)構(gòu)發(fā)生變化,人工智能作為與自然人、法人和其他組織等既有主體并列的新興主體,其主張權(quán)利或承擔(dān)義務(wù)與責(zé)任,都會造成對現(xiàn)有秩序的沖擊。
從倫理的角度來看,賦予人工智能主體地位將挑戰(zhàn)以人類為中心的傳統(tǒng)觀念。這種觀念認(rèn)為,人類在倫理上處于中心地位,擁有特殊的道德和法律地位。這種觀念支撐著現(xiàn)代法律和倫理體系的發(fā)展,也構(gòu)成了法律倫理秩序的基礎(chǔ)。賦予人工智能主體地位將會削弱這一倫理基礎(chǔ),弱化人在法律與倫理秩序中的主導(dǎo)地位。事實上,法律主體地位的背后隱含著人類社會對個體的尊重和承認(rèn),賦予某一主體以法律地位不僅僅是賦予其權(quán)利,更意味著承認(rèn)其具有道德和倫理上的意義。人工智能雖然具備高效處理數(shù)據(jù)的能力,但并不具備人類所獨有的倫理感和道德價值觀。若賦予人工智能法律主體地位,將會產(chǎn)生許多倫理難題。例如,人工智能是否應(yīng)當(dāng)擁有像人類一樣的權(quán)利?人工智能的“權(quán)利”與人類權(quán)利之間的沖突如何解決?我國發(fā)布的《全球人工智能治理倡議》主張,發(fā)展人工智能應(yīng)堅持“以人為本”理念,強調(diào)以尊重人類權(quán)益為前提。人工智能的存在與發(fā)展應(yīng)當(dāng)服務(wù)于人類社會的進步與福祉,而不是創(chuàng)造出與人類平等甚至可能存在競爭關(guān)系的主體。
從法律的角度來看,賦予人工智能主體地位會導(dǎo)致法律規(guī)則體系的復(fù)雜化。當(dāng)前的法律體系是以人類為中心設(shè)計的,各類法律、法規(guī)、判例都基于人類的行為邏輯和社會關(guān)系結(jié)構(gòu)。如果人工智能被視為法律主體,現(xiàn)有法律體系勢必難以應(yīng)對人工智能作為獨立主體參與社會活動所帶來的復(fù)雜情況。人工智能權(quán)利義務(wù)的內(nèi)容與邊界、人工智能主觀過錯的認(rèn)定和責(zé)任形式等問題,都超出了現(xiàn)行法律框架的預(yù)設(shè)。近年來,歐盟以及其他法域都陸續(xù)出臺人工智能相關(guān)法律,試圖為人工智能的使用制定法律框架。但這些立法嘗試仍然主要關(guān)注人工智能的應(yīng)用和監(jiān)管,即將人工智能作為工具或客體予以規(guī)制,而非將人工智能本身視為法律主體。在現(xiàn)有法律體系下解釋和完善法律,合理分配人工智能所有者、使用者等相關(guān)主體的權(quán)利義務(wù)和責(zé)任,亦能因應(yīng)人工智能時代的法律挑戰(zhàn),完全沒有必要賦予人工智能法律主體地位。
人工智能的飛速發(fā)展使得當(dāng)前社會不得不認(rèn)真審視人工智能的角色和地位。人工智能作為一種工具,其作用在于輔助和增強人類能力,而不是取代或成為法律和道德主體。法律回應(yīng)人工智能革命,不應(yīng)被科幻主義的盲目和狂熱所遮蔽,沉溺于賦予人工智能法律主體地位的臆想,而是應(yīng)當(dāng)回歸科學(xué)主義的理性與客觀,將人工智能作為一種工具客體予以有效法律規(guī)制,在促進其服務(wù)人類社會發(fā)展的同時保持對技術(shù)的審慎和警惕,以確保技術(shù)的安全和有效應(yīng)用。
(作者:袁康,系武漢大學(xué)網(wǎng)絡(luò)治理研究院副院長、教授,湖北省中國特色社會主義理論體系研究中心研究員)