公務(wù)員期刊網(wǎng) 論文中心 正文

實(shí)際應(yīng)用人工智能主體資格研究

前言:想要寫出一篇引人入勝的文章?我們特意為您整理了實(shí)際應(yīng)用人工智能主體資格研究范文,希望能給你帶來靈感和參考,敬請閱讀。

實(shí)際應(yīng)用人工智能主體資格研究

摘要:隨著時(shí)代的發(fā)展,人工智能產(chǎn)業(yè)也逐漸進(jìn)入高速發(fā)展的階段,但是現(xiàn)行的法律規(guī)制卻不能夠滿足人工智能發(fā)展的速度,使得人工智能在實(shí)際應(yīng)用中缺乏有效規(guī)范。人工智能是具有智慧工具屬性并且可以做出獨(dú)立意思表示的特殊主體,但其法律人格是有限的,因此應(yīng)當(dāng)適用特殊的法律規(guī)制,在這一點(diǎn)可以借鑒國外立法實(shí)踐,同時(shí)應(yīng)當(dāng)通過投保責(zé)任險(xiǎn)來促進(jìn)人工智能的長遠(yuǎn)發(fā)展。

關(guān)鍵詞:人工智能;主體資格;法律規(guī)制

一、研究的背景

現(xiàn)代人工智能的快速爆發(fā)主要源于三個(gè)重要發(fā)展趨勢的快速匯聚:摩爾定律所明確描述的具有計(jì)算機(jī)能力的指數(shù)快速增長、互聯(lián)網(wǎng)和移動物聯(lián)網(wǎng)的快速爆發(fā)所直接產(chǎn)生的海量大數(shù)據(jù)、智能算法的快速積累和發(fā)展。當(dāng)前世界人工智能尚未成熟和處于早期,現(xiàn)階段幾十年來人工智能在世界大規(guī)模推廣應(yīng)用的重要性和發(fā)展的態(tài)勢已清晰地顯現(xiàn),正在逐漸成為引領(lǐng)和推動世界科技工業(yè)革命的重要推動力量,如今現(xiàn)代的人工智能已經(jīng)逐漸成為國際競爭的新技術(shù)焦點(diǎn)、經(jīng)濟(jì)和社會發(fā)展的新技術(shù)引擎,社會文明建設(shè)的熱點(diǎn)和新機(jī)遇。

二、人工智能的基本概念和定義

現(xiàn)代世界,人工智能技術(shù)和發(fā)展的進(jìn)程已經(jīng)取得了很大的技術(shù)突破。那么,什么類型的才是人工智能?仁者見仁智者見智,但總的來說,大概都從四個(gè)基本方面對于人工智能的概念進(jìn)行了界定:包括人類的基本思考方式、行為和思維模式、理性化的獨(dú)立思考以及建立理性化的智力行為管理模式[1]。阿蘭•圖靈認(rèn)為機(jī)器以及人能否獨(dú)立思考這樣的問題其實(shí)不值得需要人們花時(shí)間來深入討論,原因之一就是對獨(dú)立思考的方式進(jìn)行定義其實(shí)是很困難的,由此圖靈提出了圖靈測試,其中的核心問題在于“機(jī)器能否在智力行為上表現(xiàn)得和人無法區(qū)分”。[2]目前人工智能的發(fā)展可以大致歸納表現(xiàn)出8個(gè)基本特征[3]:第一,創(chuàng)新性。利用人工的智能技術(shù)可以根據(jù)其現(xiàn)有的技術(shù)產(chǎn)品以及現(xiàn)有的方法對系統(tǒng)進(jìn)行實(shí)際的設(shè)計(jì)調(diào)整或者改變,并可以創(chuàng)造新的方法以及產(chǎn)品。第二,產(chǎn)生的結(jié)果不是具有不可預(yù)知性,不是事前已經(jīng)可以確定的。根據(jù)一定的技術(shù)目的來控制系統(tǒng)運(yùn)行的人工智能在一定的數(shù)據(jù)分析的理論基礎(chǔ)之上可以進(jìn)行隨機(jī)的變化,通過隨機(jī)的數(shù)據(jù)分析方式可以得出最有利的解決方式與其結(jié)果。第三,人工智能可以使系統(tǒng)能夠獨(dú)立的運(yùn)行。雖然目前人可以通過自己設(shè)立系統(tǒng)運(yùn)行的目標(biāo)、固定的參數(shù)值等諸多方面來達(dá)到對系統(tǒng)的運(yùn)行進(jìn)行干預(yù),但是人工智能擁有在人為干預(yù)方面之外的對數(shù)據(jù)以及其自身的認(rèn)知功能。第四,理性化思維的能力。人工智能系統(tǒng)的實(shí)時(shí)運(yùn)行能力可以使設(shè)計(jì)者依托系統(tǒng)提供的實(shí)時(shí)數(shù)據(jù)來為確定運(yùn)行目標(biāo)的系統(tǒng)能否實(shí)現(xiàn)提供參考。第五,不斷更新的能力。系統(tǒng)可以通過自身設(shè)定來快速獲取實(shí)時(shí)的設(shè)計(jì)數(shù)據(jù)而快速地產(chǎn)生在自己預(yù)期的設(shè)想中沒有發(fā)生或出現(xiàn)過的想法和結(jié)果。第六,從自身的設(shè)定之外可以獲得學(xué)習(xí),分析,傳播設(shè)計(jì)數(shù)據(jù)的能力。第七,效率高,精準(zhǔn)度高。第八,可以自行地選擇系統(tǒng)運(yùn)行的目標(biāo)。

三、人工智能的基本分類

(一)弱人工智能弱人工智能(artificialnarrowintelligence)人工智能簡稱縮寫為anani,是一種泛指最早在世界上出現(xiàn),主要是擅長于單個(gè)計(jì)算機(jī)方面的一類人工智能。其中比如曾經(jīng)戰(zhàn)勝了象棋世界冠軍的阿爾法狗、超級計(jì)算機(jī)"深藍(lán)"、在線廣告等。弱人工智能在創(chuàng)造強(qiáng)人工智能的體系中實(shí)際上是較低級的人類發(fā)明,不能夠直接作出人類預(yù)定范圍外的智能操作。

(二)強(qiáng)人工智能強(qiáng)人工智能(artificialgeneralintelligence),簡稱agi,是一種本質(zhì)上類似于人類大腦級別的人工智能。強(qiáng)人工智能實(shí)際上是指一種在各方面都能和其他人類大腦相比肩的仿真人工智能,通過一定的計(jì)算和編程,可以直接使這種仿真人類大腦的系統(tǒng)能夠進(jìn)行獨(dú)立的邏輯思考,智能的運(yùn)作。強(qiáng)人工智能實(shí)際上指的是一種寬泛的人類大腦心理能力,能夠進(jìn)行獨(dú)立思考、計(jì)劃、解決復(fù)雜的問題、抽象思維、理解復(fù)雜的理念、快速地學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)等各種智能操作。創(chuàng)造強(qiáng)人工的智能比創(chuàng)造弱的強(qiáng)人工智能艱難許多,我們現(xiàn)在還遠(yuǎn)遠(yuǎn)達(dá)不到此種的水平。

(三)超人工智能超人工智能(artificialsuperintelligence),簡稱asi,科學(xué)家把超人工智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學(xué)創(chuàng)新、通識和社交技能。”我們可以清楚地看出,超人工智能已經(jīng)完全可以取代人類來完成原來只能由人類才能夠獨(dú)立做的某些工作。甚至在某些領(lǐng)域超人工智能可以完成人類所不能完成的工作,可以完全取代人類。它是在人工智能體系中的頂端,由于它的能力已遠(yuǎn)超于人類,所以這種超人工智能的出現(xiàn)極有可能給未來的人類社會帶了巨大的風(fēng)險(xiǎn)以及挑戰(zhàn)。

四、人工智能的主體資格

(一)人工智能是特殊性質(zhì)的法律行為主體目前學(xué)術(shù)界對于這種人工智能的特殊性質(zhì)和定義一直都是眾說紛紜。比較流行的人工智能定義主要有工具說、電子奴隸說等等[4]。這種工具奴隸說的定義和觀點(diǎn)主要認(rèn)為這種人工智能的定義是一種基于為了人類的活動和生產(chǎn)服務(wù)的技術(shù)目的,為了人工智能更好地實(shí)現(xiàn)和服務(wù)于人類的生產(chǎn)和生活而被創(chuàng)造和開發(fā)出來的一種智能工具[5]。工具奴隸說的觀點(diǎn)認(rèn)為這種人工智能既沒有獨(dú)立的法律性質(zhì)和人格,也沒有獨(dú)立的意思和表示的能力。所以電子奴隸說的觀點(diǎn)認(rèn)可其具有人工智能的法律行為能力,但是不等于認(rèn)可其本身具有自己的法律權(quán)利能力。這種觀點(diǎn)的定義認(rèn)為現(xiàn)代人工智能就是沒有疲憊感的現(xiàn)代機(jī)器,沒有和現(xiàn)代機(jī)器人相似的感情和機(jī)體的特征。但是以上所說的工具主義觀點(diǎn)都有不完善的地方,工具學(xué)說將現(xiàn)代的人工智能都定義在了傳統(tǒng)的不能進(jìn)行自主意識表示的"工具",忽略了現(xiàn)代的人工智能的現(xiàn)代化發(fā)展和工業(yè)化進(jìn)程,比如所屬于美國特斯拉公司的第一代電動汽車就已經(jīng)基本實(shí)現(xiàn)了無人駕駛,并且可以通過對人工智能的意識進(jìn)行自主判斷和選擇來控制和排除影響人類活動的障礙操作。電子奴隸學(xué)說雖然通過對現(xiàn)代人工智能法律權(quán)利能力的否認(rèn)解決了現(xiàn)代人工智能的法律責(zé)任承擔(dān)能力的獨(dú)立主體問題,但是也只是直接延伸了現(xiàn)代工具論所說的觀點(diǎn),并沒有直接承認(rèn)現(xiàn)代人工智能的法律主體獨(dú)立性。現(xiàn)代人工智能的發(fā)展是人類文明的發(fā)展和進(jìn)步到了現(xiàn)代的一個(gè)必然結(jié)果,是推動人類經(jīng)濟(jì)社會文明發(fā)展的重要助力,并且將向更大范圍的人工智能應(yīng)用和技術(shù)方面進(jìn)一步發(fā)展,可以準(zhǔn)確預(yù)測,在不遠(yuǎn)的未來,人工智能的普及和運(yùn)用將更為廣泛,所以當(dāng)務(wù)之急,應(yīng)該是規(guī)范人工智能在其法律上的地位和性質(zhì)。因?yàn)槿斯ぶ悄鼙旧砭哂兄鴺O高的智慧性以及獨(dú)立作出意思表示和決斷的能力,與以往的智慧工具性質(zhì)相比有很大的區(qū)別。在其現(xiàn)有的條件基礎(chǔ)上,人工智能在法律上應(yīng)該被明確定義為一個(gè)既具有機(jī)器人智慧工具的性質(zhì)又能夠作出獨(dú)立的意思表示的特殊主體。

(二)法律保護(hù)人工智能應(yīng)當(dāng)使機(jī)器人享有法律權(quán)利“機(jī)器人不得傷害人類;機(jī)器人必須服從人類的命令,除非這條命令與第一條原則相矛盾;機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條原則相矛盾。”這也就是“機(jī)器人之父”科幻作家阿西莫夫提出的“機(jī)器人三原則”。而其中的第三條原則禁止機(jī)器人傷害自己就是在賦予人工智能法律權(quán)利來讓機(jī)器人保護(hù)自己。人工智能如果需要獲得獨(dú)立的法律人格就必須具備兩個(gè)根本的條件:社會存在和法律認(rèn)可,就是說人工智能能夠通過自身做出獨(dú)立的意思表示并且還要獲得法律的認(rèn)可。從目前的人工智能技術(shù)水平來看,雖然人工智能做出獨(dú)立意思表示的能力還沒有得到法律的明確認(rèn)可,但是人工智能已經(jīng)完全可以通過自身現(xiàn)有條件來對公司進(jìn)行管理,處理事務(wù),滿足了社會存在的要件[5]。那么在現(xiàn)有情況下,人工智能是否可以向法律要求認(rèn)可其做出獨(dú)立意思表示的權(quán)利?根據(jù)斯通納的觀點(diǎn),某一主體要想擁有法律上的權(quán)利就必須滿足以下三個(gè)條件:第一、該主題可以根據(jù)其自身要求提起相應(yīng)的訴訟;第二、法院在決定進(jìn)行法律救濟(jì)的時(shí)候應(yīng)當(dāng)將損害納入考慮范圍之中;第三、法院所進(jìn)行的法律救濟(jì)應(yīng)當(dāng)滿足其利益需求。對于第一點(diǎn),人工智能已經(jīng)在司法裁決領(lǐng)域應(yīng)用開來,對于獨(dú)立提出訴訟要求沒有任何實(shí)踐問題。而第二點(diǎn),法院在決定進(jìn)行法律救濟(jì)的時(shí)候應(yīng)當(dāng)將損害納入考慮范圍之中。人工智能雖然是考慮到了工具屬性的本質(zhì),但是由于考慮到了人工智能切割機(jī)器的設(shè)計(jì)造價(jià)成本高并且可能作為人類表達(dá)感情的一種載體,例如當(dāng)作為對老人或者孩童的陪伴機(jī)器人的獨(dú)特記憶存儲元件被完全刪除時(shí),使得該切割機(jī)器人的獨(dú)特存儲的記憶將不能被完全恢復(fù),從而可能會對機(jī)器人產(chǎn)生嚴(yán)重的社會精神經(jīng)濟(jì)損害。第三點(diǎn)、法院所進(jìn)行的人工智能法律權(quán)利救濟(jì)滿足其法律利益需求是應(yīng)當(dāng)有可能的。無論是停止侵害、排除或者停止妨害都是可以有效地運(yùn)用到對于擁有人工智能的法律權(quán)利救濟(jì)當(dāng)中。綜上而言,人工智能已經(jīng)滿足了擁有人工智能法律上權(quán)利所需的三個(gè)基本條件,應(yīng)當(dāng)能夠享有人工智能法律上的權(quán)利。

(三)人工智能應(yīng)當(dāng)作為人工智能法律責(zé)任承擔(dān)的主體1978年世界上發(fā)生了第一起機(jī)器人切割殺人事件,日本世界上一家機(jī)械工廠的切割機(jī)器人"轉(zhuǎn)身"將切割機(jī)工人的身體抓住并對其進(jìn)行了切割。1989年被一位前蘇聯(lián)國際象棋世界冠軍打敗的切割機(jī)器人突然釋放出極高強(qiáng)度的電流導(dǎo)致了冠軍的死亡,該起殺人事件發(fā)生后,全球轟動。人工智能侵權(quán)事件其實(shí)并不少見。所以人工智能作為可以做出獨(dú)立意思表示的特殊主體必須同人類一樣為自己的行為承擔(dān)責(zé)任,并且人工智能還在發(fā)展,其不可預(yù)測的行為可能會帶來顯性或者隱形的危險(xiǎn),不能夠因?yàn)槿斯ぶ悄懿皇侨祟惥涂梢蕴颖芊傻闹撇谩H斯ぶ悄茈S著時(shí)代的發(fā)展將會面臨更加嚴(yán)峻的倫理安全問題,谷歌創(chuàng)立的深度思考等研究機(jī)構(gòu)已經(jīng)設(shè)立了由一批具有不同的專業(yè)知識技術(shù)背景和豐富實(shí)踐經(jīng)驗(yàn)的人工智能專家組成的人工智能倫理安全審查會來思考解決這個(gè)問題。法律對于人工智能這一特殊法律主體更應(yīng)該地向前一步發(fā)展,而人工智能也應(yīng)當(dāng)相應(yīng)地保留人工智能設(shè)計(jì)前的數(shù)據(jù)以及推廣使用前的數(shù)據(jù)備份,盡可能地?cái)U(kuò)大對人工智能設(shè)計(jì)數(shù)據(jù)的使用可披露范圍,在推廣使用前進(jìn)行測試并告知相關(guān)的使用程序風(fēng)險(xiǎn),由此使得人工智能企業(yè)可以通過數(shù)據(jù)復(fù)查以及應(yīng)用程序告知等方式來判斷是否承擔(dān)人工智能相關(guān)的風(fēng)險(xiǎn),并盡可能地減小其危害可能性以及法律責(zé)任。

五、人工智能主體資格的法律規(guī)制

(一)明確人工智能的侵權(quán)責(zé)任和承擔(dān)的主體明確界定人工智能是服務(wù)于國家和社會發(fā)展的法律工具的屬性,人工智能僅僅是擁有有限的民事法律人格,并不完全可以等同與任何自然人和公司,不具有完全承擔(dān)責(zé)任的能力和法律資格,所能夠由人工智能主體承擔(dān)的法律責(zé)任也只是部分。依據(jù)實(shí)際的情況,人工智能主體造成的侵權(quán)法律責(zé)任或者其刑事責(zé)任分擔(dān)應(yīng)當(dāng)由其產(chǎn)品設(shè)計(jì)開發(fā)者以及其制造商共同承擔(dān)。在人工智能侵權(quán)責(zé)任方面,要促進(jìn)人工智能的發(fā)展的主要因素就是要確定為人工智能的行為承擔(dān)責(zé)任的主體。聯(lián)合國教科文組織《關(guān)于機(jī)器人倫理的初步草案報(bào)告》明確提出了讓所有參與人工智能發(fā)明、授權(quán)和使用的人員作為主要主體來承擔(dān)責(zé)任和分擔(dān)的機(jī)制的解決方式,這種人工智能責(zé)任分擔(dān)的機(jī)制主要是給予了所有人工智能的產(chǎn)品設(shè)計(jì)者和生產(chǎn)者一定的壓力,幫助來促使他們達(dá)到自覺地履行對自身參與的產(chǎn)品環(huán)節(jié)的安全保障義務(wù),能夠通過責(zé)任杠桿讓人工智能侵權(quán)成本在內(nèi)部得到消化,也能夠有效地保障一旦發(fā)生意外后,被侵權(quán)人可以及時(shí)找到相應(yīng)的人工智能負(fù)責(zé)主體并按照要求得到補(bǔ)償。對于具有獨(dú)立意志能力的人工智能,不能完全將其行為責(zé)任歸結(jié)于創(chuàng)造者[6]。因?yàn)槿斯ぶ悄艽嬖?黑箱",即使在系統(tǒng)運(yùn)作之前對人工智能的參數(shù)以及分析數(shù)據(jù)進(jìn)行人為干涉,也不能保證人工智能系統(tǒng)在運(yùn)作之后產(chǎn)生什么樣的結(jié)果,加上由于外部環(huán)境的干涉,僅僅只歸責(zé)于技術(shù)創(chuàng)造者是極其不合理的。在刑法方面,因?yàn)槿斯ぶ悄艿挠邢奕烁褚约安淮嬖谂c人類相同的生理特征,所以人工智能與公司的法律地位并沒有什么差別[7]。根據(jù)公司相關(guān)的刑法理論中重要的“實(shí)際控制人說”,應(yīng)當(dāng)由人工智能這一表面操作看到實(shí)際上的責(zé)任主體。以美國無人駕駛汽車領(lǐng)域?yàn)槔?2013年美國了《自動駕駛汽車的基本政策》,對人工智能測試過程中無人駕駛汽車的責(zé)任風(fēng)險(xiǎn)承擔(dān)的主體進(jìn)行了明確規(guī)定,除非第三方有足夠的證據(jù)可以證明無人駕駛車輛在被第三方人工智能改造之前已經(jīng)存在了缺陷,并且有可能導(dǎo)致在其測試過程中對用戶造成了嚴(yán)重的財(cái)產(chǎn)損失或者是人身的傷害,否則無人駕駛車輛的初始設(shè)計(jì)者和制造商不需要承擔(dān)其相關(guān)的責(zé)任。同樣德國《道路交通法》也明確規(guī)定機(jī)動車駕駛員不得在車輛行駛的過程中放松警惕以及雙手不得離開方向盤,否則駕駛員需要自行承擔(dān)在駕駛車輛發(fā)生交通事故中,人工智能應(yīng)用所造成的經(jīng)濟(jì)損失。所以,在利用人工智能有限人格的前提下,其所可能造成的經(jīng)濟(jì)損失由人工智能的主要責(zé)任人承擔(dān)風(fēng)險(xiǎn)來說是可行的。

(二)為人工智能應(yīng)用投保強(qiáng)制駕駛責(zé)任險(xiǎn)在高速發(fā)展的人工智能的語境下,如果對于人工智能的利用不當(dāng)將有可能會給任何個(gè)人乃至于社會各個(gè)群體帶來嚴(yán)重的經(jīng)濟(jì)風(fēng)險(xiǎn)以及危害[8]。從人工智能的研究開發(fā)、制造到產(chǎn)品投入使用來看,整個(gè)產(chǎn)業(yè)的環(huán)節(jié)是分散的,在信息網(wǎng)絡(luò)發(fā)達(dá)且網(wǎng)絡(luò)使用門檻偏低的時(shí)代,任何人都極有可能獲得參與人工智能產(chǎn)品制造的機(jī)會。事前的人工智能監(jiān)管和防范措施難以在危險(xiǎn)結(jié)果發(fā)生之前有效發(fā)現(xiàn)某一風(fēng)險(xiǎn),但是人工智能投入使用帶來的責(zé)任風(fēng)險(xiǎn)很顯然不能夠由特定單一的政府部門或個(gè)人來進(jìn)行有效應(yīng)對,必須通過采取一種社會化的強(qiáng)制經(jīng)濟(jì)保險(xiǎn)投入措施來有效規(guī)則和防范人工智能投入使用帶來的強(qiáng)制責(zé)任風(fēng)險(xiǎn)。在人工智能產(chǎn)品投入使用前,為其投保了強(qiáng)制責(zé)任險(xiǎn),通過相對較小的經(jīng)濟(jì)保險(xiǎn)投入費(fèi)用來有效減少了當(dāng)發(fā)生人工智能產(chǎn)品侵權(quán)事件發(fā)生之時(shí)可能產(chǎn)生的經(jīng)濟(jì)賠償相關(guān)法律糾紛,促進(jìn)了人工智能的更長遠(yuǎn)健康發(fā)展[9]。

六、結(jié)語

人工智能時(shí)代必將到來,而在法律領(lǐng)域,急迫且重要的問題是對人工智能機(jī)器人法律地位認(rèn)定、法律責(zé)任歸屬等問題作出回應(yīng),并妥當(dāng)設(shè)置相應(yīng)規(guī)則、制度,在有效規(guī)范人工智能技術(shù)的同時(shí),為新興技術(shù)的發(fā)育預(yù)留必要的制度空間。人工智能隨著現(xiàn)代科技的進(jìn)步而高速發(fā)展,并應(yīng)用于人類的生產(chǎn)與生活,逐漸改變著人們的生活方式與認(rèn)知方式。盡管人工智能對當(dāng)前社會帶來一系列挑戰(zhàn),但其仍有很高價(jià)值的追求。

參考文獻(xiàn):

[1]馬修U.謝勒,曹建峰,李金磊.監(jiān)管人工智能系統(tǒng):風(fēng)險(xiǎn)、挑戰(zhàn)、能力和策略[J].信息安全與通信保密,2017,(3):45-71.

[3]梁志文.論人工智能創(chuàng)造物的法律保護(hù)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017,35(05):156-165.

[4]葉欣.私法上自然人法律人格之解析[J].武漢大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2011,64(6):125-129.

[5]PhilMcNally,SohaiInayatullay,邵水浩.機(jī)器人的權(quán)利———二十一世紀(jì)的技術(shù)、文化和法律(上)[J].世界科學(xué),1989,(6):47-50.

[7]袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017,(5):50-57.

[9]宋云霞,李承奕,王鐵鋼.海上絲綢之路安全保障法律問題研究[J].中國海商法研究,2015,26(2):11-16,23.

作者:吳萍萍 劉丹 伍嘉慶 吳欣雨 裴湘琴 吳玥 陳天賜 單位:湖北經(jīng)濟(jì)學(xué)院