“人工智能是否應具有法律主體地位”的倫理審思
近期,本報理論版圍繞“人工智能是否應具有法律主體地位”刊發(fā)的系列爭鳴文章。資料圖片
【學術(shù)爭鳴】
隨著大語言模型的應用普及,生成式人工智能表現(xiàn)出越來越強的自主性,不僅讓人們看到強人工智能的可能性,而且再次激發(fā)人們對這一人類創(chuàng)造物的主體地位的探討。近期,光明日報理論版刊發(fā)多篇文章,對人工智能是否應該成為法律主體進行探討,較為全面展現(xiàn)出學界主要觀點。其中,《人工智能成為法律主體不存在理論障礙》與《有限法律主體:人工智能法律地位的合理選擇》兩篇文章,從哲學與倫理學角度進行論證,提出人工智能成為法律主體與哲學領(lǐng)域?qū)θ酥黧w性要素的認識不矛盾、不會貶低人的主體地位、不會損害以人為中心的主體制度等觀點。對此,筆者認為:這些論證并未把握主體何以是主體、人格何以為人格的本體論要旨。即使從最底線的人文主義而論,作為萬物靈長的人類也有著不同于萬物的人格尊嚴與主體地位。賦予人工智能主體地位,不僅有損人類的人格尊嚴和主體地位,而且并不利于現(xiàn)實的責任歸因與承擔。
人的在場是構(gòu)成“主體”的根本條件,而人工智能只能作為客體
討論人工智能是否應具有法律主體地位的前提要件,是人工智能能否構(gòu)成主體或者說人工智能是否具有主體性。主體是個具有特定指稱的哲學概念,倘若人工智能無法從哲學上證成主體,那么也難以從法律關(guān)系上賦予其主體資格。
然而,即使是具有較強自主性和獨立性、表現(xiàn)出一定情感意識的生成式人工智能,離具備主體地位也相差甚遠。雖說在不同哲學家那里,主體及主體性具有不同內(nèi)涵界定:亞里士多德將主體視為承受者,笛卡爾將主體視為具有自我意識的思考者,康德將主體界定為理性存在者——但都不外乎與單數(shù)或復數(shù)的人相關(guān)。馬克思更是直接指出:主體是人,客體是自然,“人始終是主體”??梢?,只有人,并且是有目的、有意識地認識或者改造世界的人,才構(gòu)成主體。由人而來的主體,既可以是個體,也可以是群體、組織機構(gòu),乃至整個社會,但必須有具體的、實踐的人的存在與在場。
人作為主體最本質(zhì)的規(guī)定性是主體性,主體性最重要的內(nèi)容是人的創(chuàng)造性與實踐性,即主觀能動性或者說自我意識。這是人之為人、人為主體最根本的特征。到目前為止,人工智能包括生成式人工智能雖然表現(xiàn)出日益強大的學習能力和一定的自主行為能力,但其所解決的問題仍只是封閉場景下的計算求解問題,無法對外界環(huán)境自行設(shè)定目標或計劃,進行自主能動的反饋,遠遠沒有“進化”出自我意識或者說能動性,因此人工智能并不具備人所特有的那種主體性,也就無法構(gòu)成主體。
更進一步,人工智能也不能構(gòu)成法律主體或有限法律主體。《有限法律主體:人工智能法律地位的合理選擇》提出,民事主體從“人可非人”到“非人可人”的歷史演變,反映民事主體去臉龐化與去倫理化的特征。但任何擬制主體的根基都可以追溯到人的存在或在場。這非但沒有與唯有人作為主體的理論相違背,反而強化唯有人才可作為主體的理念。一方面,公司、社團等法人的建構(gòu),可以視為復數(shù)人的集合,法人作為法律主體的核心要素仍是享有權(quán)利義務(wù)并承擔一定責任的人;另一方面,非人組織構(gòu)成法律主體的哲學根基,并非主張一種強的人類中心主義,而只是在強調(diào)最底線的人文主義,即有人的存在或在場。對完全自動化、脫離或獨立于人而存在的人工智能賦予法律主體地位,在根本上背離了這一哲學宗旨。
人工智能本質(zhì)上是服務(wù)人類的工具,“人格”概念從根本上拒斥工具價值
相比于主體論層面的論證或反駁,圍繞人工智能是否具有法律主體地位的爭論更多集中在人格論層面。持肯定說的學者主要通過提出法律人格擴展論、電子人格論、工具類人格論、有限人格論等觀點,為人工智能建構(gòu)新的人格類型,以此證成人工智能的法律主體地位。但是,與“主體”一樣,“人格”也是具有特殊內(nèi)涵和價值的概念。人工智能并不享有人格尊嚴,賦予人工智能相應人格,反而有可能威脅人類人格尊嚴的保護與實現(xiàn)。
人格及其尊嚴的概念是啟蒙運動以來高揚人性、追求文明進步的現(xiàn)代產(chǎn)物,其從先驗、抽象和普遍的角度標示出人之為人不同于動物或其他事物的獨特之處。正如康德所言,有些存在者,它們的存在雖然不基于我們的意志而是基于自然,但如果它們是無理性的存在者,它們就只具有作為手段的相對價值,因此叫做事物,與此相反,理性存在者就被稱之為人格;人以及一般而言每一個理性存在者,都作為目的而實存,其存在自身就具有一種絕對的價值。人格及其尊嚴的概念,彰顯出人類作為目的本身而非其他目的的手段或工具而存在的內(nèi)在價值與絕對價值,因而不僅成為人類社會最重要的價值源泉,而且構(gòu)成人權(quán)的重要基礎(chǔ),成為《聯(lián)合國憲章》及世界各國憲法的立法基礎(chǔ)。
然而,作為人類創(chuàng)造物的人工智能不僅不享有作為目的本身和內(nèi)在價值而存在的人格性,而且由于錯誤或不當?shù)氖褂瞄_始出現(xiàn)威脅或損害人類人格尊嚴的現(xiàn)象。一方面,人工智能本質(zhì)是人類發(fā)明創(chuàng)造出來用以拓展人類自由、提高人類能力與效率的復雜工具,它從誕生到運行再到消亡的全生命周期都是服務(wù)于人的,因而自始至終都只具有工具性的相對價值,而不可能具備像人類這般的絕對價值,也就不享有人格尊嚴,即使以后出現(xiàn)擁有自我意識的強人工智能,仍不能摒棄工具價值的定位;另一方面,人工智能的無節(jié)制發(fā)展,通過對人的身體、身份和行為數(shù)據(jù)進行大規(guī)模的采集和運算,導致侵犯隱私、控制精神、誘導消費、造假欺騙等道德失范問題,已經(jīng)在一定程度上威脅到人的主體地位及人格尊嚴。
由于“人格”從根本上拒斥工具價值,因此如《有限法律主體:人工智能法律地位的合理選擇》一文提出有限的工具性人格主張,將人格與工具、有限等詞匯捆綁起來的構(gòu)詞法既不嚴謹也無益處,只不過是后人類主義通過類比、隱喻等文學機制進行的過度想象,它本質(zhì)上只是賦予人工智能經(jīng)濟性的財產(chǎn)權(quán)利,與真正的人格權(quán)相差甚遠。人格尊嚴彰顯了人之為人的獨特性,對人工智能賦予人格尊嚴,將非人實體或存在轉(zhuǎn)化為與人類同等重要的存在,既不利于人權(quán)保護也無助于人工智能向善發(fā)展,最終結(jié)果是不斷消解人之為人的獨特性以及在此基礎(chǔ)上形成的人格尊嚴。
成為法律主體無助于解決人工智能的歸責困境,反而制造更復雜局面
賦予人工智能主體地位的另一種具有較強辯護性的理由來自現(xiàn)實發(fā)展需要說,即由于人工智能的大規(guī)模應用和自主性、智能化程度的日益提高,導致了現(xiàn)有法律框架在實施過程中出現(xiàn)找不到法律主體、無法責任歸因或無法追究責任等現(xiàn)實困境。例如在合同法領(lǐng)域,智能機器人代替人簽訂合同已經(jīng)司空見慣,但是依托智能程序訂立的買賣合同究竟表達了誰的“意思自治”,法律機制尚不明確。再如在侵權(quán)責任法領(lǐng)域,如果自動駕駛汽車在行駛過程中發(fā)生事故,造成傷害或侵權(quán)行為,如何進行責任歸因成為棘手難題,究竟是由智能程序設(shè)計者、汽車制造者還是使用者抑或受害者承擔責任,現(xiàn)行法律制度已難以作出有效判定。還比如,生成式人工智能將會導致顯著的知識產(chǎn)權(quán)問題,但是賦予機器人知識產(chǎn)權(quán),從根本上違背了保護創(chuàng)新的立法初衷。
因此有學者從實踐需要的角度提出,賦予人工智能主體地位或法律人格迫在眉睫,明確并建立人工智能的責任分擔機制?!度斯ぶ悄艹蔀榉芍黧w不存在理論障礙》提出,“可以參照公司法人的資本制度,通過出廠設(shè)定強制責任保險的方式保障人工智能的責任財產(chǎn)”,《有限法律主體:人工智能法律地位的合理選擇》一文也提出“統(tǒng)一為人工智能開設(shè)相應信托賬戶、購買保險等方式”,使人工智能以特殊的權(quán)利義務(wù)承擔者身份參與到民事法律關(guān)系中,解決實踐需要的責任歸因與歸責困境。但是這些財產(chǎn)權(quán)利的設(shè)計無須上升到賦予人工智能主體地位或人格權(quán)的高度,只需要適當補充調(diào)整與人工智能有關(guān)的自然人或法人的財產(chǎn)制度。
賦予人工智能法律主體地位不僅無助于走出人工智能產(chǎn)生的歸責困境,反而會由于引入新的不必要的“法律主體”造成更為復雜的歸責局面。的確,人工智能技術(shù)早已不是農(nóng)業(yè)時代的工具或工業(yè)時代的機器那么簡單,而是疊床架屋為如美國學者芒福德所說的“巨機器”或海德格爾所說的“座架”那樣與人深度耦合的復雜系統(tǒng),人們以不同身份在不同環(huán)節(jié)以不同機制發(fā)揮作用并促成人工智能技術(shù)功能的實現(xiàn),形成多個責任主體與復雜交互行為的“分布式責任”局面。不過,分布式責任只是拉長了行為之間的因果鏈條,加大歸責的難度,并不會導致責任的消失或轉(zhuǎn)移。作為人工智能的創(chuàng)造者或使用者,人們有責任將復雜系統(tǒng)各個環(huán)節(jié)各種機制的責任分布梳理清楚,并且進行明確的責任歸因。即使由于“算法黑箱”導致的不透明或者生成式人工智能以意想不到的方式作出的帶有一定自主性的行為,仍然可以采取共同責任或嚴格責任的方式予以歸責。無論如何,人工智能都是人們?yōu)榱四骋荒康膭?chuàng)造出來的,因此必須為其創(chuàng)造或使用的整體行為承擔責任,而不是將責任轉(zhuǎn)移到?jīng)]有主體地位和人格資質(zhì)的非人存在。否則,讓人工智能代替人類承擔部分或完全責任,難免產(chǎn)生相互推諉、李代桃僵等更為復雜的局面,甚至因無人擔責而導致責任的消失。
嚴格來說,人工智能的各種自主或智能行為,仍只是依據(jù)人類以往經(jīng)驗或者數(shù)據(jù)作出的概率論選擇,本身是人類意志與價值的延伸與投射,因此我們必須將責任明確歸結(jié)到創(chuàng)造或使用這一人工物的具體的單數(shù)或復數(shù)的人,讓更多人為這些難以控制的復雜集體行為承擔責任,以更加謹慎合理地運用人工智能。
(作者:李凌,系復旦大學馬克思主義研究院副研究員)