首頁 >> 環球學訊
歐洲學者探討人工智能民事責任
2021年07月23日 15:00 來源:中國社會科學網-中國社會科學報 作者:姚曉丹 字號
2021年07月23日 15:00
來源:中國社會科學網-中國社會科學報 作者:姚曉丹

內容摘要:

關鍵詞:

作者簡介:

  近年來,以信息技術為核心的人工智能技術日益受到廣泛關注。它不僅成為引領新一輪科技革命的技術之一,而且正在逐漸融入人們的生活,在交通、醫療、金融等領域得到了廣泛應用。許多相關領域的專家和機構都在思考,應該如何在促進人工智能技術發展的同時,對其進行監管并降低與之相關的風險。在此背景下,民法學者也對與人工智能有關的民事責任問題進行了熱烈探討。英國比較法協會官方網站7月2日發文表示,該協會不久前舉辦了“侵權責任比較:與新興技術相關的民事責任”網絡研討會,并介紹了與會專家的主要觀點。本報記者就此采訪了有關學者。

  各國人工智能民事責任立法趨勢不同

  文章表示,在此次網絡研討會上,來自德國、法國和英國的學者共同探討了與新興技術相關的侵權責任問題,對歐盟、德國、法國和英國法律中的相關規定進行了分析和比較,并探討了新的數字技術給侵權責任法乃至整個民事責任體系帶來的影響。

  德國柏林洪堡大學法學院教授格哈德·瓦格納(Gerhard Wagner)和德國漢堡大學法律系教授烏爾里希·馬格努斯(Ulrich Magnus)介紹,目前德國在立法上和實踐中,主要通過謹慎適用現有特殊責任制度來規制與新興技術有關的民事責任問題。例如,在對與自動駕駛汽車相關的責任問題上,將半自動駕駛車輛與完全自動駕駛車輛區分開來,適用不同的責任制度。所謂半自動駕駛車輛,是指有駕駛員的、可以通過軟件程序與駕駛員進行現場交互的車輛。在德國,與此類車輛有關的交通事故及相關民事責任問題,主要適用道路交通安全責任制度,責任的主要承擔者是駕駛車輛的人。在完全自動駕駛汽車相關的問題上,則更為強調車輛制造者的責任,認為在這種情況下主要的行為人是制造商,而車輛的所有者或侵權行為發生時,坐在駕駛席上的人實際上已經變成了乘客。根據德國現行法規,駕駛員必須充分了解自動駕駛汽車的情況,并且道路交通安全責任是以強制保險為背景的。

  英國倫敦國王學院法學院講師科爾姆·麥格拉思(Colm McGrath)表示,目前英國司法機構對處理與人工智能相關的問題,在價值觀上強調以信任和透明度為先,但其在不同領域內適用的責任制度仍有一定的差異。例如在自動駕駛領域,由于英國在判斷道路交通安全事故的過錯責任方面,傳統上較為重視駕駛員個人行為的影響,且多以保險賠償作為相關責任問題的主要解決方案,而不是基于產品缺陷責任,所以在處理自動駕駛相關責任問題時,仍采用了以受害人為中心,強調保險作用的方法。雖然沒有排除產品責任,但產品責任的觸發條件較為嚴格,主要強調的還是保險公司的責任。而在醫療領域,英國將存在過失作為涉及人工智能的醫療損害責任的前提,認為雖然有越來越多的具有自學習系統的設備被應用于醫療保健領域,甚至一些家庭使用的保健設備也具有這種系統,但它始終只是為醫療決策提供支持,而不是代替人們做出決策,所以不應當由設計系統或制造包含此類系統的廠家來承擔責任,而應由做出醫療決策的人來承擔責任,但設計者和制造者應該很好地履行信息披露義務。

  相關問題關鍵且復雜

  法國巴黎第二大學法學院教授讓-塞巴斯蒂安·博爾蓋蒂(Jean-Sébastien Borghetti)表示,法國長期以來對于與產品缺陷有關的責任問題有著嚴格的規定,且這些規定往往更側重于保護消費者或者說使用者的權益。與德國的趨勢相反,新技術的發展似乎正在引發運營商責任在法國法律中的回歸。但長期來看,“一刀切”的解決方案可能并不太適合于新興技術,需要用不同的制度來分別規制由自動駕駛汽車、無人機、醫療機器人等引發的問題。同時還要注意因果關系規則在與新技術有關的問題上的應用以及合同責任等。

  博爾蓋蒂在接受本報記者采訪時表示,人工智能在當代話語和集體想象中無處不在,難以定義;或者可以將其理解為數字計算機或由計算機控制的機器人執行通常與智能生物相關的任務的能力。民事責任是與人工智能使用相關的關鍵而又復雜的法律問題之一。在研究與人工智能相關的民事責任問題時,需要將重點放在引發這些問題的關鍵因素上。這些因素可以是人的行為,前提是責任是基于過錯產生的;也可以是某種類型的事件或事物的特定特征,這多發生于責任是基于產品缺陷而產生的情況,其確定取決于適用的責任制度。因此,需要知道,在因使用人工智能造成或存在與使用人工智能相關的損害時,可能或應該適用何種責任制度。

  各個國家都有自己的責任制度體系,根據具體情況和法律制度可能使用不同的責任制度,但可以在使用特定責任制度和非特定責任制度之間進行一定的區分。如果人工智能被用于由特定責任制度涵蓋的領域,則可以適用特定責任制度,例如在許多國家,如果自動駕駛汽車或其他交通工具發生交通事故,將適用旨在涵蓋此類事故的特定責任制度。而與人工智能相關的非特定責任制度主要涉及兩個方面,即產品責任和過失責任。如果能夠證明有人在設計算法時存在疏忽或過錯,那么要求他對因其過錯或疏忽造成的任何損害承擔責任是無可厚非的,但人們很難證明這種疏忽或過錯的存在。此外,軟件程序或算法本身是否可以構成一個過失或過錯,也是人們需要思考的問題。我們對過失的評估,通常是基于責任人行為與標準人物行為的差距進行的,如果一個機器人的行為不夠標準,很有可能是因為自身存在著缺陷。為了確定這種缺陷會帶來產品責任還是過失責任,應初步區分軟件程序或算法中的缺陷,以及由算法控制或激活對象中的“物理”缺陷,后者只是普通的產品缺陷,因此,應當使用產品責任中的普通規則。

  此外,如果機器人被授予某種法律人格或被視為代理人,那么這可能會激發人們認識到“機器人過錯”的概念,進而可能成為機器人個人責任的基礎。但無疑又涉及了機器人的民事主體地位、人格權等問題,這些都是亟待研究的非常有趣的領域。

作者簡介

姓名:姚曉丹 工作單位:

轉載請注明來源:中國社會科學網 (責編:李想)
W020180116412817190956.jpg

回到頻道首頁
中國社會科學院概況|中國社會科學雜志社簡介|關于我們|法律顧問|廣告服務|網站聲明|聯系我們
中國社會科學院概況|中國社會科學雜志社簡介|關于我們|法律顧問|廣告服務|網站聲明|聯系我們
色窝窝色蝌蚪在线视频网站免费看