這本書探討了機器人技術(shù)的設計、制造和使用如何影響今天的法律制度,尤其是在刑法、合同法和侵權(quán)法領(lǐng)域的責任和代理問題。通過區(qū)分機器人作為人類互動工具的行為和機器人作為法律領(lǐng)域的適當代理人,法學家們將不得不解決新一代的難題。一般的分歧可能涉及刑法上的豁免(例如在戰(zhàn)斗中雇傭機器人士兵),合同中某些機器人的個人責任(例如,機器人交易員),以及嚴格責任條款和基于非契約責任的條款(例如侵權(quán)法中的服務機器人)。既然機器人將繼續(xù)存在,法律的目標應該是明智地管理我們和機器人之間的關(guān)系。
當機器人從科幻走向現(xiàn)實,當機器人操作造成損害,人類是否自食惡果?本書作者從刑法、合同法、侵權(quán)法領(lǐng)域分別對機器人行為造成損害的責任如何承擔給出了明確的觀點。
主編序
一
無論生物學意義上的自然人類(以下簡稱人類)是否做好準備,人工智能時代正逐步走來,而這恰恰是由人類自身所引起。
初級的人工智能或許能為人類帶來便捷,在我國,或許還能帶來規(guī)則意識,甚至法治理念的真正普及。這是因為,人工智能的本質(zhì)就是算法,任何算法必然建立在對某項事物認識的共性與常識之上。也正是在此意義上,人工智能能為人類服務,能代替自然人為人類服務。初級的人工智能,如果還沒有深度學習能力,或者深度學習能力尚不充分,它就難以進行諸如自然人價值判斷與情感判斷的活動,比如包含愛的交流與體驗,難以對疑難案件作出理性裁判,對案件的漏洞填補與價值補充等。在此意義上,人工智能產(chǎn)品還主要表現(xiàn)為人工智能物,僅在有限的意義上具有自然人的屬性。但即便是初級的人工智能,在我國也具有非常重要的意義,主要表現(xiàn)為規(guī)則意識與誠信觀念的建立。人工智能最核心的大腦就是算法,算法本身便是規(guī)則。初級人工智能對人類的服務就是規(guī)則服務;而人類要接受人工智能的服務,就必須接受算法設定的各種規(guī)則。人工智能,尤其是結(jié)合網(wǎng)絡運用的人工智能,會促使與提升自然人的規(guī)則意識,因為無論自然人在線下是否遵守規(guī)則,也無論規(guī)則在線下如何難以推行與實現(xiàn),只要自然人接受線上服務,就必須遵守線上規(guī)則;無論自然人在線下如何不守信,他在線上也必須誠實,否則他就進入不了虛擬世界,便也無從獲得特定人工智能的服務。在初級的人工智能時代,人類仍是核心,是世界的主宰,畢竟自然人仍是規(guī)則的制定者,是人工智能的服務對象。
而到了高級人工智能時代,即,當人工智能能夠進入深度學習與感情交流,可以進行團體合作與共同行動時,換句話說,當人工智能可以改變甚至完全脫離自然人為其設計好的初始算法而創(chuàng)制新的算法時,那時的人工智能物便實實在在地變成了人工智能人。人工智能人如何改變自然社會,甚至如何引導與影響整個自然社會走向,已非自然人所能完全掌控與想象,恐怕也為人工智能人本身所不知。尤其是,當人工智能人可以在虛擬世界制定規(guī)則(創(chuàng)制新的算法),而這種規(guī)則又必然會影響到自然世界時,那時自然世界的主宰到底是人工智能人,還是自然人,或許現(xiàn)在的我們(人類)已經(jīng)難以給出確定答案。那時的人類在自然世界或虛擬世界中處于何種主體地位,現(xiàn)在的我們也不得而知。當人工智能人有了情感交流能力并具有生物生成功能后,在自然人與自然人、人工智能人與人工智能人以及自然人與人工智能人之間的多元關(guān)系中,誰來制定規(guī)則,為誰制定規(guī)則,誰是自然世界或者虛擬世界的主宰或規(guī)則主體,以及各種形態(tài)主體之間具體的生活樣態(tài)如何等問題,可能都遠遠超出了我們當下的想象,或許那時的社會狀態(tài)本身就不可想象!
正是為了認真面對這些問題,警惕與體味這些問題,以便未來更好地深入研究或應對這些問題,上海人民出版社曹培雷副總編輯、法律與社會讀物編輯中心蘇貽鳴總監(jiān)、秦堃編輯等及本人一起探討決定編譯人工智能叢書,幫助我國讀者了解既有的人工智能研究,并以此為切入口對人工智能進行深度了解與學習。我們篩選并翻譯了國外有關(guān)人工智能研究的較有影響力的三部經(jīng)典著作,推介給中國讀者。這三部著作便是意大利學者烏戈·帕加羅所著的《誰為機器人的行為負責?》、美國律師約翰·弗蘭克·韋弗所著的《機器人是人嗎?》以及美國學者瑞恩·卡洛、邁克爾·弗魯姆金和加拿大學者伊恩·克爾編輯的文集《人工智能與法律的對話》。
二
《誰為機器人的行為負責?》一書,由張卉林、王黎黎和筆者共同翻譯。該書通篇都在試圖回答一個問題:誰來承擔責任(Who Pays)。作者建構(gòu)了一種分析法律責任模型。他在刑法、合同法和侵權(quán)法的框架下討論了27種假設情況,例如刑法中的機器人士兵、合同法中的外科手術(shù)機器人以及侵權(quán)法中的人工智能雇員等,目的是分析在不同的情況下設計者、生產(chǎn)者、使用者和機器人之間應當如何分配責任。作者還討論了機器人對現(xiàn)代法學體系中的若干重要內(nèi)容帶來的挑戰(zhàn),比如刑法中的正義戰(zhàn)爭理論、合同法中的代理資格以及侵權(quán)法中的責任承擔。上述問題的討論建立在作者對法律責任和義務的概念的分析基礎上,討論法律基礎是否會受到機器人技術(shù)的影響。最后,作者討論了作為元技術(shù)的法律,即如何通過法律實現(xiàn)對技術(shù)發(fā)展的控制。
《機器人是人嗎?》一書由劉海安、徐鐵英和向秦翻譯。該書認為,人工智能可以達到如同與真人一樣進行語音交流的程度,并自主學習知識和判斷問題。作者討論了人工智能的知識產(chǎn)權(quán)享有和責任承擔問題。作者認為,面對人工智能承擔法律責任,可以通過人工智能保險或儲備基金支付賠償費用。如何規(guī)范人工智能?作者以美國各州對自動駕駛汽車的相關(guān)立法為例,對未來人工智能統(tǒng)一立法作出合理預測:(1)當產(chǎn)品制造商、開發(fā)商和人類都沒有過錯時,不同體系的機構(gòu)將會為涉及人工智能的事故受損者建立賠償或補償基金;(2)至少在初期,很多形式的人工智能產(chǎn)品的使用將被要求獲得執(zhí)照許可背書;(3)在初期,往往需要對人工智能進行人為監(jiān)督,但是最終,只有那些主要用于改善人類表現(xiàn)的人工智能才需要人為監(jiān)督;(4)盡管最初的立法將會經(jīng)常把人類作為操作者(行為人),即使這種標簽不適用于人工智能的類型,但最終立法會在以確定操作者責任為目的時變得更加細分;(5)立法將始終區(qū)分用于測試目的的人工智能和向消費者提供的人工智能;(6)立法將始終要求這樣一個機制,允許人類脫離人工智能但很容易重新控制人工智能;(7)立法將始終要求在自動化技術(shù)失敗時,人工智能產(chǎn)品能向周圍的人發(fā)出警告;(9)對采集個人信息的擔憂將會迫使法律要求披露人工智能運作時所收集的信息。
《人工智能與法律的對話》由陳吉棟、董惠敏和杭穎穎翻譯。本書共分討論起點、責任、社會和道德意義、執(zhí)法和機器人戰(zhàn)爭5個部分,共14篇論文。其中,大部分是首次在We Robot這一跨學科會議上發(fā)布的最新論文。這些論文探討了機器人的日益復雜化以及它們在各個領(lǐng)域的廣泛部署,重新思考了它所帶來的各種哲學和公共政策問題、與現(xiàn)有法律制度不兼容之處,以及因此可能引發(fā)的政策和法律上的變化。整本書為我們生動地展現(xiàn)了一場內(nèi)容廣泛、啟發(fā)深遠的對話,如本書第二部分有關(guān)機器人行為責任的講述:F.帕特里克·哈伯德教授《精密機器人所致人身損害的風險分配》一文對普通法應對技術(shù)變革的能力提供了一種樂觀的評估:普通法系統(tǒng)包含了內(nèi)部機制,能夠為應對機器人化的世界作出必要的相對較小的變化;而柯蒂斯·E.A.卡諾法官在《運用傳統(tǒng)侵權(quán)法理論迎接機器人智能》一文中則提出了截然相反的觀點:傳統(tǒng)的過失和嚴格責任理論不足以應對真正自主性機器人的挑戰(zhàn)。
需要說明的一點是,我們從2017年9月確定翻譯書目,10月組建翻譯團隊,到12月后陸續(xù)落實版權(quán)并著手翻譯,翻譯時間可謂十分緊張。叢書譯者多為高;蛘哐芯繖C構(gòu)的青年科研教學人員,需要克服繁重的教學和科研壓力;加之,所譯著作內(nèi)容涉及法律、計算機和倫理等多元且交叉的學科知識,遠遠超出了多數(shù)譯者所在的法學學科領(lǐng)域,翻譯不當甚至錯誤恐在所難免,在此我們衷心懇請并接受各位讀者、專家批評指正。
三
2017年7月中華人民共和國國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,強調(diào)建立保障人工智能健康發(fā)展的法律法規(guī),妥善應對人工智能可能帶來的挑戰(zhàn),形成適應人工智能發(fā)展的制度安排。《規(guī)劃》為此要求開展與人工智能應用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權(quán)保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務和責任等。但正如弗魯姆金(Froomkin)指出的,也可能是本譯叢三本書的作者們皆認可的:(1)對于機器人和監(jiān)管問題,現(xiàn)在還為時尚早;(2)技術(shù)問題遠比律師想象的復雜,法律、倫理和哲學問題比工程師想象的更有爭議(有時也更復雜);(3)我們要徹底解決這些問題的唯一辦法就是擴大和深化我們跨學科的努力。讓世界為機器人做好準備的同時,使機器人也為世界做好準備,這必須是一個團隊項目否則它可能會變得很糟糕。由此揭示出,對于人工智能的探討與研究,即便是對于人工智能的規(guī)范性研究,并非法學一個學科所能勝任。人工智能本身就是一個具有綜合性、復雜性、前沿性的知識、智識與科學,它需要幾乎所有的理工與人文社會科學學科進行交叉性研究,也需要研究者、實體技術(shù)者與產(chǎn)業(yè)者等各個領(lǐng)域的人配合與對話。法律人在人工智能的研究、開發(fā)、規(guī)則制定等各個環(huán)節(jié)中是不可缺少的一環(huán),但也僅僅是一個環(huán)節(jié),他只有加入人工智能的整體研究與發(fā)展中去,才會發(fā)揮更大的價值。我們期待這套譯叢的出版有助于人工智能在法學及其他領(lǐng)域展開深入討論,為跨學科的對話甚至團隊合作提供一定程度的助益。
無論未來人工智能時代的社會生活樣態(tài)如何,無論人工智能時代的社會主體如何多元,多元的主體依然會形成他們自己的存在哲學,也許依然需要他們自己的情感系統(tǒng)。無論未來的人工智能時代多么不可預測,問題的關(guān)鍵還是在于人類的自我與社會認知。就像蘋果公司首席執(zhí)行官蒂姆·庫克(Tim Cook)在麻省理工學院(MIT)2017屆畢業(yè)典禮演講中指出的,我并不擔心人工智能能夠像人一樣思考,我更關(guān)心的是人們像計算機一樣思考,沒有價值觀,沒有同情心,沒有對結(jié)果的敬畏之心。這就是為什么我們需要你們這樣的畢業(yè)生,來幫助我們控制技術(shù)。是的,我們或許不知未來的人工智能是否會產(chǎn)生包含同情與敬畏的情感,但我們能夠確信的是,即便在人工智能時代,我們最需要的依然是人類飽含同情與敬畏的愛!未來的人工智能時代無論是初級樣態(tài)還是高級學習樣態(tài),能夠讓多元的主體存在并和諧相處的,能夠把多元主體維系在一起的或許唯有愛。這個從古至今在自然世界難以找到確定含義的概念,在虛擬與現(xiàn)實共處的世界中更是難以獲得其固定內(nèi)涵,但我們唯一知道并可以確信的是,如果沒有愛,那么未來的人工智能時代就真的進入了一個混沌而混亂的世界!
上海交通大學凱原法學院2018年7月10日
作者烏戈帕加羅,意大利都靈大學法學院教授。出版著作十部,發(fā)表多篇論文,主要研究領(lǐng)域為人工智能與法律、網(wǎng)絡理論、機器人學和信息技術(shù)法(特別是數(shù)據(jù)保護法和版權(quán))。曾任歐洲區(qū)域規(guī)劃指導小組(European RPAS Steering Group)成員(20112012)、歐洲委員會發(fā)起的Onlife倡議專家組成員(20122013)、由研究和技術(shù)發(fā)展第七框架項目資助的CAPER項目倫理委員會委員(20132014),以及地平線2020機器人項目方案評估專家(2015)。還擔任設在英國倫敦的跨國法律研究中心研究員、意大利法律信息學協(xié)會副主席、都靈理工大學互聯(lián)網(wǎng)與社會中心研究員。