前言:想要寫出一篇引人入勝的文章?我們特意為您整理了實際應用人工智能主體資格研究范文,希望能給你帶來靈感和參考,敬請閱讀。
摘要:隨著時代的發(fā)展,人工智能產(chǎn)業(yè)也逐漸進入高速發(fā)展的階段,但是現(xiàn)行的法律規(guī)制卻不能夠滿足人工智能發(fā)展的速度,使得人工智能在實際應用中缺乏有效規(guī)范。人工智能是具有智慧工具屬性并且可以做出獨立意思表示的特殊主體,但其法律人格是有限的,因此應當適用特殊的法律規(guī)制,在這一點可以借鑒國外立法實踐,同時應當通過投保責任險來促進人工智能的長遠發(fā)展。
關(guān)鍵詞:人工智能;主體資格;法律規(guī)制
一、研究的背景
現(xiàn)代人工智能的快速爆發(fā)主要源于三個重要發(fā)展趨勢的快速匯聚:摩爾定律所明確描述的具有計算機能力的指數(shù)快速增長、互聯(lián)網(wǎng)和移動物聯(lián)網(wǎng)的快速爆發(fā)所直接產(chǎn)生的海量大數(shù)據(jù)、智能算法的快速積累和發(fā)展。當前世界人工智能尚未成熟和處于早期,現(xiàn)階段幾十年來人工智能在世界大規(guī)模推廣應用的重要性和發(fā)展的態(tài)勢已清晰地顯現(xiàn),正在逐漸成為引領(lǐng)和推動世界科技工業(yè)革命的重要推動力量,如今現(xiàn)代的人工智能已經(jīng)逐漸成為國際競爭的新技術(shù)焦點、經(jīng)濟和社會發(fā)展的新技術(shù)引擎,社會文明建設(shè)的熱點和新機遇。
二、人工智能的基本概念和定義
現(xiàn)代世界,人工智能技術(shù)和發(fā)展的進程已經(jīng)取得了很大的技術(shù)突破。那么,什么類型的才是人工智能?仁者見仁智者見智,但總的來說,大概都從四個基本方面對于人工智能的概念進行了界定:包括人類的基本思考方式、行為和思維模式、理性化的獨立思考以及建立理性化的智力行為管理模式[1]。阿蘭•圖靈認為機器以及人能否獨立思考這樣的問題其實不值得需要人們花時間來深入討論,原因之一就是對獨立思考的方式進行定義其實是很困難的,由此圖靈提出了圖靈測試,其中的核心問題在于“機器能否在智力行為上表現(xiàn)得和人無法區(qū)分”。[2]目前人工智能的發(fā)展可以大致歸納表現(xiàn)出8個基本特征[3]:第一,創(chuàng)新性。利用人工的智能技術(shù)可以根據(jù)其現(xiàn)有的技術(shù)產(chǎn)品以及現(xiàn)有的方法對系統(tǒng)進行實際的設(shè)計調(diào)整或者改變,并可以創(chuàng)造新的方法以及產(chǎn)品。第二,產(chǎn)生的結(jié)果不是具有不可預知性,不是事前已經(jīng)可以確定的。根據(jù)一定的技術(shù)目的來控制系統(tǒng)運行的人工智能在一定的數(shù)據(jù)分析的理論基礎(chǔ)之上可以進行隨機的變化,通過隨機的數(shù)據(jù)分析方式可以得出最有利的解決方式與其結(jié)果。第三,人工智能可以使系統(tǒng)能夠獨立的運行。雖然目前人可以通過自己設(shè)立系統(tǒng)運行的目標、固定的參數(shù)值等諸多方面來達到對系統(tǒng)的運行進行干預,但是人工智能擁有在人為干預方面之外的對數(shù)據(jù)以及其自身的認知功能。第四,理性化思維的能力。人工智能系統(tǒng)的實時運行能力可以使設(shè)計者依托系統(tǒng)提供的實時數(shù)據(jù)來為確定運行目標的系統(tǒng)能否實現(xiàn)提供參考。第五,不斷更新的能力。系統(tǒng)可以通過自身設(shè)定來快速獲取實時的設(shè)計數(shù)據(jù)而快速地產(chǎn)生在自己預期的設(shè)想中沒有發(fā)生或出現(xiàn)過的想法和結(jié)果。第六,從自身的設(shè)定之外可以獲得學習,分析,傳播設(shè)計數(shù)據(jù)的能力。第七,效率高,精準度高。第八,可以自行地選擇系統(tǒng)運行的目標。
三、人工智能的基本分類
(一)弱人工智能弱人工智能(artificialnarrowintelligence)人工智能簡稱縮寫為anani,是一種泛指最早在世界上出現(xiàn),主要是擅長于單個計算機方面的一類人工智能。其中比如曾經(jīng)戰(zhàn)勝了象棋世界冠軍的阿爾法狗、超級計算機"深藍"、在線廣告等。弱人工智能在創(chuàng)造強人工智能的體系中實際上是較低級的人類發(fā)明,不能夠直接作出人類預定范圍外的智能操作。
(二)強人工智能強人工智能(artificialgeneralintelligence),簡稱agi,是一種本質(zhì)上類似于人類大腦級別的人工智能。強人工智能實際上是指一種在各方面都能和其他人類大腦相比肩的仿真人工智能,通過一定的計算和編程,可以直接使這種仿真人類大腦的系統(tǒng)能夠進行獨立的邏輯思考,智能的運作。強人工智能實際上指的是一種寬泛的人類大腦心理能力,能夠進行獨立思考、計劃、解決復雜的問題、抽象思維、理解復雜的理念、快速地學習和從經(jīng)驗中學習等各種智能操作。創(chuàng)造強人工的智能比創(chuàng)造弱的強人工智能艱難許多,我們現(xiàn)在還遠遠達不到此種的水平。
(三)超人工智能超人工智能(artificialsuperintelligence),簡稱asi,科學家把超人工智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學創(chuàng)新、通識和社交技能。”我們可以清楚地看出,超人工智能已經(jīng)完全可以取代人類來完成原來只能由人類才能夠獨立做的某些工作。甚至在某些領(lǐng)域超人工智能可以完成人類所不能完成的工作,可以完全取代人類。它是在人工智能體系中的頂端,由于它的能力已遠超于人類,所以這種超人工智能的出現(xiàn)極有可能給未來的人類社會帶了巨大的風險以及挑戰(zhàn)。
四、人工智能的主體資格
(一)人工智能是特殊性質(zhì)的法律行為主體目前學術(shù)界對于這種人工智能的特殊性質(zhì)和定義一直都是眾說紛紜。比較流行的人工智能定義主要有工具說、電子奴隸說等等[4]。這種工具奴隸說的定義和觀點主要認為這種人工智能的定義是一種基于為了人類的活動和生產(chǎn)服務的技術(shù)目的,為了人工智能更好地實現(xiàn)和服務于人類的生產(chǎn)和生活而被創(chuàng)造和開發(fā)出來的一種智能工具[5]。工具奴隸說的觀點認為這種人工智能既沒有獨立的法律性質(zhì)和人格,也沒有獨立的意思和表示的能力。所以電子奴隸說的觀點認可其具有人工智能的法律行為能力,但是不等于認可其本身具有自己的法律權(quán)利能力。這種觀點的定義認為現(xiàn)代人工智能就是沒有疲憊感的現(xiàn)代機器,沒有和現(xiàn)代機器人相似的感情和機體的特征。但是以上所說的工具主義觀點都有不完善的地方,工具學說將現(xiàn)代的人工智能都定義在了傳統(tǒng)的不能進行自主意識表示的"工具",忽略了現(xiàn)代的人工智能的現(xiàn)代化發(fā)展和工業(yè)化進程,比如所屬于美國特斯拉公司的第一代電動汽車就已經(jīng)基本實現(xiàn)了無人駕駛,并且可以通過對人工智能的意識進行自主判斷和選擇來控制和排除影響人類活動的障礙操作。電子奴隸學說雖然通過對現(xiàn)代人工智能法律權(quán)利能力的否認解決了現(xiàn)代人工智能的法律責任承擔能力的獨立主體問題,但是也只是直接延伸了現(xiàn)代工具論所說的觀點,并沒有直接承認現(xiàn)代人工智能的法律主體獨立性?,F(xiàn)代人工智能的發(fā)展是人類文明的發(fā)展和進步到了現(xiàn)代的一個必然結(jié)果,是推動人類經(jīng)濟社會文明發(fā)展的重要助力,并且將向更大范圍的人工智能應用和技術(shù)方面進一步發(fā)展,可以準確預測,在不遠的未來,人工智能的普及和運用將更為廣泛,所以當務之急,應該是規(guī)范人工智能在其法律上的地位和性質(zhì)。因為人工智能本身具有著極高的智慧性以及獨立作出意思表示和決斷的能力,與以往的智慧工具性質(zhì)相比有很大的區(qū)別。在其現(xiàn)有的條件基礎(chǔ)上,人工智能在法律上應該被明確定義為一個既具有機器人智慧工具的性質(zhì)又能夠作出獨立的意思表示的特殊主體。
(二)法律保護人工智能應當使機器人享有法律權(quán)利“機器人不得傷害人類;機器人必須服從人類的命令,除非這條命令與第一條原則相矛盾;機器人必須保護自己,除非這種保護與以上兩條原則相矛盾。”這也就是“機器人之父”科幻作家阿西莫夫提出的“機器人三原則”。而其中的第三條原則禁止機器人傷害自己就是在賦予人工智能法律權(quán)利來讓機器人保護自己。人工智能如果需要獲得獨立的法律人格就必須具備兩個根本的條件:社會存在和法律認可,就是說人工智能能夠通過自身做出獨立的意思表示并且還要獲得法律的認可。從目前的人工智能技術(shù)水平來看,雖然人工智能做出獨立意思表示的能力還沒有得到法律的明確認可,但是人工智能已經(jīng)完全可以通過自身現(xiàn)有條件來對公司進行管理,處理事務,滿足了社會存在的要件[5]。那么在現(xiàn)有情況下,人工智能是否可以向法律要求認可其做出獨立意思表示的權(quán)利?根據(jù)斯通納的觀點,某一主體要想擁有法律上的權(quán)利就必須滿足以下三個條件:第一、該主題可以根據(jù)其自身要求提起相應的訴訟;第二、法院在決定進行法律救濟的時候應當將損害納入考慮范圍之中;第三、法院所進行的法律救濟應當滿足其利益需求。對于第一點,人工智能已經(jīng)在司法裁決領(lǐng)域應用開來,對于獨立提出訴訟要求沒有任何實踐問題。而第二點,法院在決定進行法律救濟的時候應當將損害納入考慮范圍之中。人工智能雖然是考慮到了工具屬性的本質(zhì),但是由于考慮到了人工智能切割機器的設(shè)計造價成本高并且可能作為人類表達感情的一種載體,例如當作為對老人或者孩童的陪伴機器人的獨特記憶存儲元件被完全刪除時,使得該切割機器人的獨特存儲的記憶將不能被完全恢復,從而可能會對機器人產(chǎn)生嚴重的社會精神經(jīng)濟損害。第三點、法院所進行的人工智能法律權(quán)利救濟滿足其法律利益需求是應當有可能的。無論是停止侵害、排除或者停止妨害都是可以有效地運用到對于擁有人工智能的法律權(quán)利救濟當中。綜上而言,人工智能已經(jīng)滿足了擁有人工智能法律上權(quán)利所需的三個基本條件,應當能夠享有人工智能法律上的權(quán)利。
(三)人工智能應當作為人工智能法律責任承擔的主體1978年世界上發(fā)生了第一起機器人切割殺人事件,日本世界上一家機械工廠的切割機器人"轉(zhuǎn)身"將切割機工人的身體抓住并對其進行了切割。1989年被一位前蘇聯(lián)國際象棋世界冠軍打敗的切割機器人突然釋放出極高強度的電流導致了冠軍的死亡,該起殺人事件發(fā)生后,全球轟動。人工智能侵權(quán)事件其實并不少見。所以人工智能作為可以做出獨立意思表示的特殊主體必須同人類一樣為自己的行為承擔責任,并且人工智能還在發(fā)展,其不可預測的行為可能會帶來顯性或者隱形的危險,不能夠因為人工智能不是人類就可以逃避法律的制裁。人工智能隨著時代的發(fā)展將會面臨更加嚴峻的倫理安全問題,谷歌創(chuàng)立的深度思考等研究機構(gòu)已經(jīng)設(shè)立了由一批具有不同的專業(yè)知識技術(shù)背景和豐富實踐經(jīng)驗的人工智能專家組成的人工智能倫理安全審查會來思考解決這個問題。法律對于人工智能這一特殊法律主體更應該地向前一步發(fā)展,而人工智能也應當相應地保留人工智能設(shè)計前的數(shù)據(jù)以及推廣使用前的數(shù)據(jù)備份,盡可能地擴大對人工智能設(shè)計數(shù)據(jù)的使用可披露范圍,在推廣使用前進行測試并告知相關(guān)的使用程序風險,由此使得人工智能企業(yè)可以通過數(shù)據(jù)復查以及應用程序告知等方式來判斷是否承擔人工智能相關(guān)的風險,并盡可能地減小其危害可能性以及法律責任。
五、人工智能主體資格的法律規(guī)制
(一)明確人工智能的侵權(quán)責任和承擔的主體明確界定人工智能是服務于國家和社會發(fā)展的法律工具的屬性,人工智能僅僅是擁有有限的民事法律人格,并不完全可以等同與任何自然人和公司,不具有完全承擔責任的能力和法律資格,所能夠由人工智能主體承擔的法律責任也只是部分。依據(jù)實際的情況,人工智能主體造成的侵權(quán)法律責任或者其刑事責任分擔應當由其產(chǎn)品設(shè)計開發(fā)者以及其制造商共同承擔。在人工智能侵權(quán)責任方面,要促進人工智能的發(fā)展的主要因素就是要確定為人工智能的行為承擔責任的主體。聯(lián)合國教科文組織《關(guān)于機器人倫理的初步草案報告》明確提出了讓所有參與人工智能發(fā)明、授權(quán)和使用的人員作為主要主體來承擔責任和分擔的機制的解決方式,這種人工智能責任分擔的機制主要是給予了所有人工智能的產(chǎn)品設(shè)計者和生產(chǎn)者一定的壓力,幫助來促使他們達到自覺地履行對自身參與的產(chǎn)品環(huán)節(jié)的安全保障義務,能夠通過責任杠桿讓人工智能侵權(quán)成本在內(nèi)部得到消化,也能夠有效地保障一旦發(fā)生意外后,被侵權(quán)人可以及時找到相應的人工智能負責主體并按照要求得到補償。對于具有獨立意志能力的人工智能,不能完全將其行為責任歸結(jié)于創(chuàng)造者[6]。因為人工智能存在"黑箱",即使在系統(tǒng)運作之前對人工智能的參數(shù)以及分析數(shù)據(jù)進行人為干涉,也不能保證人工智能系統(tǒng)在運作之后產(chǎn)生什么樣的結(jié)果,加上由于外部環(huán)境的干涉,僅僅只歸責于技術(shù)創(chuàng)造者是極其不合理的。在刑法方面,因為人工智能的有限人格以及不存在與人類相同的生理特征,所以人工智能與公司的法律地位并沒有什么差別[7]。根據(jù)公司相關(guān)的刑法理論中重要的“實際控制人說”,應當由人工智能這一表面操作看到實際上的責任主體。以美國無人駕駛汽車領(lǐng)域為例,2013年美國了《自動駕駛汽車的基本政策》,對人工智能測試過程中無人駕駛汽車的責任風險承擔的主體進行了明確規(guī)定,除非第三方有足夠的證據(jù)可以證明無人駕駛車輛在被第三方人工智能改造之前已經(jīng)存在了缺陷,并且有可能導致在其測試過程中對用戶造成了嚴重的財產(chǎn)損失或者是人身的傷害,否則無人駕駛車輛的初始設(shè)計者和制造商不需要承擔其相關(guān)的責任。同樣德國《道路交通法》也明確規(guī)定機動車駕駛員不得在車輛行駛的過程中放松警惕以及雙手不得離開方向盤,否則駕駛員需要自行承擔在駕駛車輛發(fā)生交通事故中,人工智能應用所造成的經(jīng)濟損失。所以,在利用人工智能有限人格的前提下,其所可能造成的經(jīng)濟損失由人工智能的主要責任人承擔風險來說是可行的。
(二)為人工智能應用投保強制駕駛責任險在高速發(fā)展的人工智能的語境下,如果對于人工智能的利用不當將有可能會給任何個人乃至于社會各個群體帶來嚴重的經(jīng)濟風險以及危害[8]。從人工智能的研究開發(fā)、制造到產(chǎn)品投入使用來看,整個產(chǎn)業(yè)的環(huán)節(jié)是分散的,在信息網(wǎng)絡(luò)發(fā)達且網(wǎng)絡(luò)使用門檻偏低的時代,任何人都極有可能獲得參與人工智能產(chǎn)品制造的機會。事前的人工智能監(jiān)管和防范措施難以在危險結(jié)果發(fā)生之前有效發(fā)現(xiàn)某一風險,但是人工智能投入使用帶來的責任風險很顯然不能夠由特定單一的政府部門或個人來進行有效應對,必須通過采取一種社會化的強制經(jīng)濟保險投入措施來有效規(guī)則和防范人工智能投入使用帶來的強制責任風險。在人工智能產(chǎn)品投入使用前,為其投保了強制責任險,通過相對較小的經(jīng)濟保險投入費用來有效減少了當發(fā)生人工智能產(chǎn)品侵權(quán)事件發(fā)生之時可能產(chǎn)生的經(jīng)濟賠償相關(guān)法律糾紛,促進了人工智能的更長遠健康發(fā)展[9]。
六、結(jié)語
人工智能時代必將到來,而在法律領(lǐng)域,急迫且重要的問題是對人工智能機器人法律地位認定、法律責任歸屬等問題作出回應,并妥當設(shè)置相應規(guī)則、制度,在有效規(guī)范人工智能技術(shù)的同時,為新興技術(shù)的發(fā)育預留必要的制度空間。人工智能隨著現(xiàn)代科技的進步而高速發(fā)展,并應用于人類的生產(chǎn)與生活,逐漸改變著人們的生活方式與認知方式。盡管人工智能對當前社會帶來一系列挑戰(zhàn),但其仍有很高價值的追求。
參考文獻:
[1]馬修U.謝勒,曹建峰,李金磊.監(jiān)管人工智能系統(tǒng):風險、挑戰(zhàn)、能力和策略[J].信息安全與通信保密,2017,(3):45-71.
[3]梁志文.論人工智能創(chuàng)造物的法律保護[J].法律科學(西北政法大學學報),2017,35(05):156-165.
[4]葉欣.私法上自然人法律人格之解析[J].武漢大學學報(哲學社會科學版),2011,64(6):125-129.
[5]PhilMcNally,SohaiInayatullay,邵水浩.機器人的權(quán)利———二十一世紀的技術(shù)、文化和法律(上)[J].世界科學,1989,(6):47-50.
[7]袁曾.人工智能有限法律人格審視[J].東方法學,2017,(5):50-57.
[9]宋云霞,李承奕,王鐵鋼.海上絲綢之路安全保障法律問題研究[J].中國海商法研究,2015,26(2):11-16,23.
作者:吳萍萍 劉丹 伍嘉慶 吳欣雨 裴湘琴 吳玥 陳天賜 單位:湖北經(jīng)濟學院