近18年時間里已經有近100家上市公司,1000家企業和近10000名管理者成為THLDL大課堂學習型社區中的一員。

管理資訊|領導力首頁 > 管理資訊 > 資本 > 金融 > 互聯網金融法律研究院李愛君:人工智能法律行為論

互聯網金融法律研究院李愛君:人工智能法律行為論

時間:2019-06-11 09:28:15 來源:網絡

摘 要: 人工智能的法律性質受到了法學界的關注和研究,探討人工智能法律地位,就是厘定人類與人工智能之間的關系。人類與人工智能之間的關系的厘定是以人類保證自身生存秩序和發展為終極目標。從法律價值層面,人工智能的法律性質應首先從實踐中觀察和研究人工智能對現有的法律關系有什么影響,并從影響中以保證人類的生存秩序和發展為終極目標,以防范人工智能在應用中對人類社會所產生的風險為核心,以服務于人類的幸福和發展為目的總結和抽象出人工智能的法律性質; 從法的結構層面,法是調整社會關系的規范,法的基本結構是主體、客體和行為。人工智能在法的基本結構中是主體、客體或是行為決定其法律的性質。學術界對人工智能的法律性質有主體說和工具說。筆者的觀點,人工智能是研發者、制造者和使用者的法律行為。


【來源】本文來源于《政法論壇》2019年第3期。轉引轉載請注明出處。







引言

  “人工智能”是當下社會最熱的詞匯,然而無論其定義還是其法律關系中的性質,至今都沒有形成共識。但人類社會正走向人工智能時代已是不爭的事實,人工智能的迅速發展正在社會的政治、文化、經濟等各個領域深刻改變著人類生活,同時改變著社會關系的結構,尤其對現行法律帶來了沖擊和挑戰。例如人工智能的著作權問題、無人駕駛汽車的“交通權”和“責任”問題、人工智能律師權利問題等都需要從法律層面予以解決。艾倫·圖靈等計算機大師曾提出,人工智能遲早會威脅到人類生存,必須在問題積重難返前,對人工智能的發展作出妥善的法律制度安排,以引導實踐的發展。

  2017年7月20日,國務院印發《關于新一代人工智能發展規劃的通知》(以下簡稱《通知》)[1],明確把人工智能的發展列入國家戰略層面進行系統布局。同時提出加強人工智能相關法律、倫理和社會問題研究,建立保障人工智能健康發展的法律法規和倫理到的框架。現法學界對人工智能的法律地位、法律責任、權利義務等進行了研究,其中對人工智能法律地位的主體性研究尤為熱烈。人工智能法律地位的研究是建立保障人工智能健康發展與維護人類生存秩序和幸福發展的法律法規、倫理道德框架的基礎,因此,此項研究要慎之又慎。賦予人工智能法律主體、客體或是行為地位都不是目的,而是為了保障法律系統能夠服務于人類社會的自由、安全和幸福發展。人工智能法律地位的研究應以實現法律價值為理論基礎,以服務人類社會為目標,以防范人工智能所帶來的社會風險為目的。只有這樣才能真正實現《通知》的國家戰略和防范人工智能對人類生存的威脅。

  一、人工智能非法律主體

  (一)人工智能法律主體的觀點評析

  人工智能主體的觀點主要有:一是電子代理人說。“電子代理人”最早見于1999年《統一計算機信息交易法》[2]。在美國統一州法全國委員會于1999年8月通過的《統一電子交易法》(修訂稿)第2條對“電子代理人”進行了定義:“系指非經人的行為或審核,全部或部分獨立地發起某種行為或應對電子記錄或履行的計算機程序、電子手段或其他自動化手段。”{1}加拿大1999年通過的《統一電子商務法》中同樣使用了“電子代理人”一詞。二是電子人說。“2016年5月31日,歐盟委員會法律事務委員會提交一項動議,要求歐盟委員會把正在自動化智能機器工人的身份界定為電子人的身份,并賦予這些機器人依法享有著作權等特殊的權利與義務。”{1};三是有限法律人格說。有限法律人格說主要闡述了雖然人工智能能夠具有行為能力、權利能力、責任能力,但承擔責任能力有限,因此用已成立的《侵權法》進行調整并不完全適用,應重新構建一套適合人工智能有限法律人格的侵權責任的制度安排。四是獨立的法律人格說。獨立的法律人格說其本質是對人工智能的主體地位與自然人或與擬制的法律主體具有同樣的地位,是對人工智能具有權利能力、行為能力和責任能力的全面肯定。其認為人工智能有獨立的意識,能夠進行獨立的判斷,已經擺脫了人的控制。

  (二)人工智能科學決定其非法律主體

  首先,人工智能是技能。在人工智能科學領域對人工智能的定義主要取決于“智能(智力)”。“智力理論的流派雖多,但一致的觀點認為,智力是一種具有生物學物質基礎的心理潛能,而不是一種熟練掌握的技能。智力是被個人的經驗和學習(源于生活)塑造過的中樞神經系統(源于遺傳)的功能活動,是一個先天遺傳和后天學習的混合物”{2}(P.392)。目前人工智能都是處于能夠熟練掌握技能的層面。技能是個體運用已有的知識、經驗并通過訓練形成一定的“行為方式”或“智力活動”。“行為方式”或“智力活動”應屬于行為范疇,而不是主體范疇。不是主體就不可能成為法律主體。

  其次,人工智能是算法而非人類認知神經科學。算法是計算機通過計算機程序來處理信息的一種方式,通常通過此方式來控制和執行計算機的行為來完成人類所需求的一定任務。算法是以信息為基礎的計算機處理信息的技術,1988年,明斯基借其著作《感知機:計算幾何導論》擴充再版之機指出:“我們認為,由于缺少基本理論,研究已經基本處于停滯狀態……”,對人工智能研究而言,這個結論到現在依然成立{3}(P.85)。“不僅指導人工智能走向未來的理論尚未建立,最佳實踐也沒有達到,這是有人憂慮人工智能進入再一個冬天的原因。有人指出,無論是IBM的‘危險邊緣’,還是谷歌的AlphaGo,數據的作用及經驗性知識沒有得到恰當的評價;還有人指出,人工智能的神經網絡研究進展,并沒有跟上認知神經科學最新研究的成果,深度學習的算法與人腦的工作機制幾乎沒有共同之處。”{3}(P.85)目前的人工智能都是深度學習的算法來進行解決問題的,并不是運用人類認知神經科學來完成的,因此人工智能的“智能”不能與人的“智能”相提并論。如人工智能的“智能”不是人的“智能”,而法律又以人的“智能”為標準作為主體,那么人工智能就不能構成法律的主體。

  再其次,人工智能不符合自然科學主體性的構成要素。自然科學“主體性包括三個核心要素:擁有自我和意識、擁有資源、擁有自身行為的控制力。成為主體必須將自己的生存作為第一要務,必須有自己的意識和目的;作為智能主體,必須擁有與承擔的智能任務相匹配的資源;作為智能主體,必須擁有控制自身行為的能力。盡管失控的行為,從功能看也是智能行為,但不符合主體的價值和意志。控制能力是主體性的必要構成部分。目前的人工智能在自我和意識層面都是人賦予的。”{3}(P.141)構成主體意識有三個基本要素:一是響應。能對外部事件與事物主動響應,能被喚醒或保持感知;二是自我體現。受到侵害時啟動保護,始終將資源的獲取和擴展置于行為的優先位置;三是學習。將學習作為主體生存和發展、完成智能任務的前提。所有的生物都具有響應能力。人工智能目前對外部有一定的響應能力,但人工智能的響應能力都是人賦予的,無論對什么響應、如何響應都是人賦予的。所以人工智能不擁有自我和意識{3}(P.142)。資源是人類生存的基本需要,如學習資源,維持生命資源和實現行為能力的資源。人工智能自身不占有資源,一是不占有維持生命的資源;二是不占有學習的資源(人工智能學習的資源是人類給的信息數據);三是不具有行為能力的資源。“主體性的控制力是指對非正常及非理性行為的約束,減少或不發生與主體意愿相違背的行為,或者說防止失控。”{3}(P.143)人工智能的實踐并不能夠實現自身控制力,一是人工智能的意識是人賦予的,不是自身控制自己的行為;二是人工智能在實踐應用中所出現的風險事件也足以說明自身不具有理性的控制力。如“1978年日本廣島的摩托車廠機器人突然轉身將其后的工人抓住并切割,1989年全蘇國際象棋冠軍擊敗人工智能機器人,但機器人自主釋放強電流致使冠軍身亡。”{4}

  最后,人工智能法律主體地位不是人工智能科學的價值目標。人工智能的發展“可以通過賦予的方式形成智能、邏輯功能和物理功能,但并不意味著必須像人一樣具備廣泛領域的能力,而是可以根據承擔的智能任務類型分別形成不同的行為功能”{3}(P.85),以此為人類的生存、秩序、幸福和發展服務。既然人工智能科學的價值目標不是為了制造一個必須像人的物種,只是為了承擔的智能任務類型分別形成不同的“行為”功能,那么人工智能就僅僅是人類的工具,從而是人類行為的延伸而不是法律主體。

  綜上所述,人工智能無論是從人工智能科學的價值目標、智能的程度、智能的本質、智能的方式,還是自然科學的主體性構成都不具備法律主體性,而僅僅是技術工具或技術行為。

  (三)法律的價值決定了人工智能不具有法律主體性質

  法是人類在漫長的發展過程中創造的,其目的是作為服務人類所需的工具,而不是為了法的自身的存在和發展,因此法律價值的本質是法律如何服從和服務于人,是為人類能夠更好地生活和生存發展服務的。法是“我的目的構成規定我的行為的內容”{5}(P.207)。“法律價值是指法律的存在、作用及其發展變化對一定主體需要及其發展的適合、接近或一致。”{6}(P.3)這里的“主體”是“人類”,因此法律價值的存在、作用及其發展變化是要與人類的發展適合、接近或一致。無論是法律的社會價值、法律的群體價值和法律的個人價值實質上都是服從和服務于人,因為社會是由群體構成的,群體是由自然人的個體組成的,歸根結底社會和群體都是由個人構成的。所以法律的社會價值和群體價值都是由自然人的個體價值決定的,如果一味的脫離現實去把社會價值界定為高于社會和群體的價值就會使得法律價值走向異化之途,也就是說背離了法律的價值服務于人類的發展的需要,而成為人類為法律價值的需要存在。目前,人工智能是法律主體的觀點已背離了法律價值的本質,如斯坦福大學教授克利福德·納斯的觀點:“生命是特別的,我們不應該像破壞法律那樣去虐待那些機器、動物等非人類生命,非人類生命也應該有相應的‘人權’。”{7}縱觀人權的發展歷史,人權的主體隨著人權理論的發展,不斷擴大都是圍繞人類的發展和幸福及更為尊重人性展開的,如從本國公民到外國公民,甚至發展為地球的其他物種。法律關系是法律的基本概念,法律就是處理和解決法律關系的,因此法律關系的構成要素,法律關系是實現為人類服務的法律價值的重要方式,主體是法律關系的構成要素,法律關系主體構成應實現法律服從和服務于人的價值。人工智能的法律地位的法律技術設計也同樣應以人類為核心,既要控制人工智能給人類帶來的風險,又要充分發揮人工智能為人類更好地服務。依據法律價值思考是否應賦予人工智能法律主體地位應從防范風險的兩個維度為出發點:第一個維度是人工智能給人類帶來的風險是否賦予了人工智能法律主體地位就能消解,否則就沒有必要賦予其法律主體地位。因為一旦賦予了人工智能法律主體地位,會帶來對法律體系的巨大沖擊;第二個維度是賦予了人工智能的法律主體地位會給人類帶來什么風險,此風險是否可控,如不可控就沒必要賦予其主體地位。第一個維度人工智能給人類帶來的風險是人工智能科技研發、設計、制造和使用過程中產生的風險。如英格蘭麥格納科學中心的捕食者機器人從科學中心逃脫根據自身的決策到達高速公路而造成交通事故和對他人損害。還有2016年3月,微軟人工智能聊天機器人Tay在不到24小時就違背了設計者的倫理價值,到處散布種族主義、性別歧視和攻擊同性戀的言論。上述這些風險主要是來自科技研發、設計、制造和使用本身的原因,而且這些風險不是人工智能能夠防范和控制的,尤其是事前防范(人工智能的研發、設計、制造出來之前)。但這些風險恰恰是人工智能的研發者、設計者、制造者或使用者能夠防范和控制的。因此科技研發、設計、制造和使用過程中所產生的風險是不能通過賦予人工智能法律主體地位格就能夠消解和防范的,所以無需賦予人工智能法律主體地位;第二個維度賦予了人工智能法律主體地位產生的風險。賦予了人工智能法律主體地位就會導致人工智能不僅具有義務,還具有權利。由于人工智能是技術的產物,某些能力遠遠超越了人類,這已是不言自明的,而且在科技研發、設計、制造和使用中還會出現技術風險、操作風險及道德風險。如一旦賦予了人工智能權利,進而有可能對人類的安全和秩序產生威脅,甚至產生控制人類的風險。此風險是來自法律制度的技術設計,因此法律制度技術設計不應賦予人工智能法律主體地位,而是從防范人工智能技術對社會關系中的人類造成的風險來規范人工智能的科技研發、設計、制造和使用行為,而不是將人工智能本身納入法律主體的范圍來規范。人工智能的法律性質應以科學合理開發人工智能為目標,堅守安全的法律價值,以技術、法律為主導的規制模式,最終體現人的主體性{8}






  (四)人工智能不具有法律關系主體資格

  哲學理論中的主體是具有自我意識和認識客觀世界能力的自然人。法學理論中的主體與哲學理論中的主體不同,法學理論中的主體不僅有自然人,還有、組織(法人)和國家(在特殊情況下)。法學理論中的主體是指“法律關系的參加者,即在法律關系中一定權利的享有者和一定義務的承擔者。”{9}(P.135)民事主體結構有“二元論”和“三元論”。“二元論”的民事主體有自然人和法人;“三元論”的民事主體有自然人、法人和合伙等團體。無論是“二元論”,還是“三元論”,對法律主體資格的界定都是能否獨立享有權利、承擔義務能力和責任能力。法律關系主體的資格條件是具有權利和行為能力。人工智能如成為法律關系的主體也應具有權利能力、行為能力和責任能力。

  首先,人工智能不能賦予其權利能力。“權利能力概念是一種法律建構,權利能力全稱應是權利義務能力,即參與法律關系的能力,所以,權利能力的實質是法律主體的資格,能力即資格。”{10}“權利能力是指能夠參與一定法律關系,依法享有一定權利和承擔一定義務的法律資格。”{9}(P.136)“自然人作為義務與權利的主體并非因其行為是這些義務與權利的客體的那個人,自然人僅僅是這些義務與權利的人格化。更準確地講,自然人是這些法律規范的人格化,這些法律規范由于構成了包含這同一個人行為與權利而調整著個人的行為。”{11}(P.107)“法律上的人是法律或者戲劇偽飾的創造物和制度的產物。”{12}(P.18)法人的權利能力同樣是法律賦予的結果,而使其具有人格。權利能力是人類為自身的幸福和發展而通過法律制度賦予的,是否賦予人工智能權利能力應根據人類需要的價值取向。人類需要的“價值”應是要體現人工智能能夠更好地服務人類,不能對人類產生損害和威脅,其行為能夠為人類所控制。而賦予人工智能權利能力的價值是為了實現其生命權并保護其不會遭受到侵害,是一種人類價值取向的異化。

  其次,人工智能不具有行為能力。“行為能力是指法律關系主體能夠通過自己的行為實際取得權利和履行義務的能力。”{9}(P.137)[3]目前,自然人是否具有行為能力的判斷標準主要是自身是否對自己的行為后果有一定的認知和判斷,即獨立意識;是否能夠對自己的行為后果能夠承擔責任,即責任能力。因此自然人的行為能力的獨立意識是與年齡和精神健康情況有關。自然人“是否達到一定年齡、精神健康情況是否正常是成為公民享有行為能力的標志。”{9}(P.137)各國對自然人的具有行為能力的年齡、精神健康情況都由法律予以規定。“法人組織行為能力是由其成立宗旨和業務范圍決定的。法人依法成立之日就具有權利能力和行為能力,一旦依法撤銷,其權利能力和行為能力就同時消滅。”{9}(P.138)但法人的獨立意識歸根結底來自自然人。法人本身不能思考也不能表達。其意思表示是通過法律上的歸屬規范將本質上人的意思表示歸屬于法人。因此,法人的意思表示是由其法人機關或者說由人組成的法人組織機構實現的。凡有人格者必有思維{13}(P.6)。從人工智能的科學技術的性質分析人工智能是不具有人類的獨立意識,人工智能的意識是以事先被輸入必要的數據、設定目的的程序實現的。人工智能的“智”是一種決策方法,是人類智力通過數據技術和數學技術的體現,是受人類的智力和倫理道德所決定的,因此人工智能不具有獨立的意識。如機器人的相關三定律規定的內容:“機器人不得以作為和不作為對人類產生傷害和對人類的命令的服從。”從“機器人必須服從人類對它的行使指令”可得知機器人是沒有獨立的意識。縱觀人類的法律制度設計出的各類法律主體,都是實現法律價值的產物及以人類為本的理念,也充分發揮了人類自身的獨立意識與可控性。如現存法律關系中的主體除自然人以外,機構、組織(法人)和國家(在特殊情況下)主體的意識都是產生于自然人,只是不同的法律主體所形成的意識的程序和規則不同而已。隨著民事主體制度的發展,主體從自然人到法人,但無論是自然人,還是法人的意思表示歸根結底都是產生于自然人。如法人作為法律的產物其本身不能作出意思表示,其意思表示是通過法律的規定或約定由組成法人機關或法人組織的自然人實現的,因此其意思表示的本質還是來自自然人。但人工智能技術決定其意識不是來自自然人,而是來自自然人研發的算法、數據和搜索。這些人類研發的算法、數據和搜索產生的意識存在不確定性、不可控制性,進而會產生對人類利益的侵害和控制。

  再其次,人工智能不具有責任能力。法律責任“是指人們對違法行為所應承擔的那種帶有強制性的法律上的責任”{14}(P.429)。“某人在法律上應對某事負責,等于某人因其行為或傷害在法律上應受到懲罰或被迫賠償。”[4]法律責任包括:刑事責任、民事責任和行政責任等。法律責任的價值目標是實現法律價值,即維護人類社會秩序與促進社會發展。“承擔法律責任的具體形式有懲罰、補償、強制等三種。”{9}(P.149)本文主要是通過懲罰來討論人工智能的法律責任能力。“懲罰是國家通過強制對責任主體的人身、財產和精神實施的責任方式。”{9}(P.149)主要是通過民事制裁、行政制裁和刑事制裁等維護社會關系的安全與秩序,進而維護人類社會的公平與正義。“民事制裁主要是對責任主體的財產進行制裁”{9}(P.149)。行政制裁“是指依照行政法律規定對責任主體依其所應承擔的行政責任而實施的強制措施,包括行政處罰、行政處分。”{9}(P.149)刑事制裁“是指依照刑事法律規定對責任主體依其所應承擔的刑事責任實施的刑罰,包括自由刑、生命刑、資格刑和財產刑。”{9}(P.149)此三種制裁包含了對責任主體的財產、人身和名譽方面的懲罰。

  對人工智能如能發揮民事制裁、行政制裁和刑事制裁對財產制裁的效用,那么人工智能就需要擁有財產基礎,就像法人擁有獨立的財產一樣。法人設立需有財產基礎。財產是法人對外活動的責任保障。如《公司法》3條[5]這是對公司法人關于財產的規定。實踐中人工智能并沒有財產,不具有獨立承擔民事制裁的民事責任能力,也因此無法實現民事制裁對規范人工智能的法律效用;對人工智能如能發揮民事制裁、行政制裁和刑事制裁中對生命、自由、資格進行的制裁,那么就需要人工智能具有人的自然屬性,如生命、尊嚴、名譽和活動自由。但人工智能并不具有生命、尊嚴、名譽和活動自由的屬性,而且人工有限責任公司的股東以其認繳的出資額為限對公司承擔責任;股份有限公司的股東以其認購的股份為限對公司承擔責任。”

  智能的科學價值和目標并不是要創造與人一樣的物種,僅僅是要創造一個能夠代替人工作與為人類服務的技術工具。因此無論實踐中的人工智能,還是未來的人工智能都不具有責任能力。

  綜上所述,“人工智能是人控制下的、人能力的延伸物,它本身沒有內源性的行為能力,也沒有內源性的權利能力。”{1}從意識、行為能力和責任能力方面都無法成為法律關系中的主體,因為其不具有人類的意識、行為能力和責任能力。

  二、人工智能是主體(人工智能的設計者、制造者以及使用者等)的法律行為

  首先,人工智能是行為。行為是主體“受思想支配而表現在外面的活動”{15}(P.1291)。

  從人工智能的定義分析,人工智能是某種能力,能力是屬于行為范疇,是與活動(行為)聯系在一起的,是對活動的水平的呈現。如在《不列顛百科全書》中對其解釋為:“一種心理品質,它體現了一個人通過經驗學習的能力,對新環境適應的能力,理解和運用抽象概念的能力”{16};《現代漢語詞典》對智能(智力)的定義是:指人認識、理解客觀事物并運用知識、經驗等解決問題的能力,包括記憶、觀察、想像、思考判斷等{17}(P.1479);“梅斯泰爾認為智能是一個系統在不確定環境中實施合適動作的能力;《麻省理工學院認知科學百科全書》對智能或智力的定義及注解是:智能可以定義為適應、影響和選擇環境的能力。”{3}(P.129)能力是完成一項目標或者任務所體現出來的綜合素質。能力是與人完成一定的社會實踐活動和任務緊密聯系在一起。如把能力與具體實踐活動相分離就無法表現人的能力,更不可能發展人的能力。因此,人工智能是行為。

  從人工智能是工具的角度分析,人工智能是主體行為的延伸或行為的方式和方法。人工智能屬于科學技術的范疇,科學是基于實驗觀察并以系統地發現因果關系為目的的實踐活動,技術是人類改變客觀世界的手段或工具{18}。約翰·麥卡錫(John McCarthy)于1956年達特茅斯夏季討論會上提出“從掰折的木棍、摩擦石塊取火、用石塊獵物到數控車床、計算機系統、航天器、人工智能系統等,每個歷史階段的工具都體現了這個階段人類的認知水平”……“工具始終與科學技術的進步連接在一起,是科技進步最主要的標記,是人類智能的最直接的表達”{3}(P.60)。“人工智能也同樣是代表了人類認知水平的工具”。“人工智能不能自行掌握能量的,都從屬于人,是人的工具。”{3}(P.142)英國專門負責國內科技領域調整的國家機構“工程與科學研究委員會”(EPSRC,即Engineering and Physical Sciences Research Council)”與2011年提出了五條方案:(1)不得專為毀滅或者傷害人們的目的而研發機器人;(2)承擔責任的人是人,而不是機器人。機器人是達到人類目的的工具;(3)應當根據使用的安全性研發機器人;(4)機器人是人工造物,它們不應當在有感覺的人類情感中發揮作用。機器人必須與人類相區別;(5)任何時候都應當可以找出在法律上為該機器人承擔責任的人{19}。2016年微軟公司負責人也提出了六項發展人工智能的規則,其中第一項就是:“人工智能應當是為了幫助人類而建造。”從阿西莫夫機器人學三法則,以及之后相關規則都是圍繞不傷害人類、服從人類和自我保護原則展開的,其目的通過這些科學技術的規則力圖確保人工智能能夠增進人類福祉,而不是給人類帶來傷害。“工具是人制造出來的,但一旦制造出來,它就是一個獨立的客體,一個將人的智能固化在工具中的知識載體。這個載體外在于人的大腦。”{3}(P.63)根據法律行為構成的客觀要件,外在的行動(行為)、行為方式和具有法律意義的結果中的“行為方式是指行為人為達到預設的目的而在實施行為過程中所采取的各種方式和方法。方式和方法包括:行動的計劃、方案和措施;行動的程式、步驟和階段;行動的技術和技巧;行動所借助的工具和器械等”{9}(P.125)。人工智能是行為人為達到所需求的目標而通過計算機程序所設定的算法實施一定行為的方式和方法。

  其次,人工智能行為構成了其主體(人工智能的研發者、制造者以及使用者等)的法律行為要件。人工智能是主體行為借助的工具,因此是主體的行為的一種方式,是主體行為的延伸。此行為如符合法律行為客觀要件、主觀要件和法律行為的確認就構成了人工智能主體的法律行為。

  法律行為客觀要件包括外在的行為、手段和結果。“行動是法律行為構成的最基本的要素,它是法律行為主體作用于對象的中介方式。”{9}(P.124)從前面人工智能分析得出其是行為,同時也是一種行為方式。因此人工智能是其主體“人工智能的研發者、制造者以及使用者”的行動和行為方式;人工智能具有法律意義的結果。判斷法律行為結果主要有兩個標準:一是行為給社會造成的影響;二是該結果具有法律意義。。這里主要從人工智能造成一定的社會影響來論述,因為結果應當從法律角度進行評價,是構建人工智能法律性質之后的評價。影響是對其他主體和社會的有益或者是有害。人工智能目前已造成一定的社會影響,“工具之所以被制造出來,是人為了適應環境、改變環境,是為了自身的生存和發展需要,是為了協助人類解決面臨的各種問題,協助人類完成需要承擔的各項任務。工具服務于人的生存和發展是一個不證自明的結論”{3}(P.63)。因此對其他主體和社會造成了一定的影響。綜上分析,人工智能主體的法律行為符合法律行為的客觀要件。

  人工智能的主體(人工智能的設計者、制造者以及使用者等)行為構成法律行為的主觀要件。“法律行為的主觀要件包括行為意思和行為認知。”{9}(P.126)人工智能的主體的法律行為意思指人們基于需要、受動機支配、為達到目的而實施行為的心理狀態。人工智能是主體的法律行為,其行為意思是主體的行為意思,是主體基于需要、受動機支配、為達到目的而實施行為的心理狀態。人工智能本身不能實施行為意思,因為人工智能是由人類賦予它的算法和信息來決定的。人工智能本身沒有行為認知,其行為認知是人工智能的設計者、制造者以及使用者對自己行為的法律意義和后果的認識。因此人工智能主體行為意思和行為認知決定了人工智能行為是法律行為。實踐中人工智能主體是自然人或是法人,而且自然人或法人具有行為意思和行為認知,所以人工智能的主體行為構成法律行為的主觀要件。

  再其次,人工智能是其設計者、制造者和使用者的法律行為法律價值的實現。認定人工智能是其設計者、制造者和使用者的法律行為有利于實現法律的價值,因為通過人工智能行為形成的法律關系是其主體的設計者、制造者和使用者與其相對人形成的;客體是設計者、制造者和使用者及其相對人的權利和義務共同指向的對象;人工智能行為的責任主體是設計者、制造者和使用者。此法律關系的模式可以促使人工智能的設計者、制造者和使用者對人工智能的研發、測試、質量評估等過程中降低道德風險,盡到最大的謹慎義務堅守倫理底線意識,以此保障人工智能研發的安全和更好地服務于人類的發展。因為,人工智能的“智”是設計者以事先輸入必要的數據、設定目的的程序來實現的,人工智能的“智”是受人類的智力和倫理道德所決定的決策方法和人類智力通過數據技術和數學技術的體現,人性中的惡與人類道德和能力上的缺陷是人工智能本身所不能克服的,只能對設計者、制造者和使用者通過法律進行規范,來防范人性中的惡與人類道德和能力上的缺陷所產生的對人類秩序與生存的風險。

  三、結語

  “法律是人類社會天性中的一項主要制度,若無法律,人類將成為一種截然不同的生物。”{20}(P.1)法律的價值是為人類的生存和發展服務,任何時代的法學理論、法律體系、法律規則都應以實現法律的價值為終極目標。另外人工智能是科學技術的產物,科學技術的價值同樣服務于人類,這一目標與法律價值目標是相輔相成的。因此圍繞著實現法律價值和人工智能技術價值的目標,在充分尊重人工智能技術客觀規律的前提下,人工智能的法律地位不應界定為法律主體,而是人工智能研發者、制造者和使用者的法律行為,此法律行為決定了法律關系的形成、變更與消滅。人工智能法律行為論不僅能夠保證法律理論的穩定、法律體系的持續運轉和法律規范的最大效用發揮,還能夠防范人工智能給人類帶來的風險,使其在促進人類進步和發展的同時保障自身的健康發展。

電話:400-658-1599

郵箱:[email protected]

地址:北京市海淀區中關村東路18號財智國際大廈C座803-805號
郵編:100083

聯系電話:400-658-1599 李老師:18911530278 力老師:13331039289

Copyright 2000 - 2019 www.pmgduw.tw All rights reserved. THLDL大課堂 管理培訓 企業培訓 管理培訓網 企業管理培訓 版權所有. 京ICP備12035889號-5

山东群英会开奖结果