關于我們
書單推薦
新書推薦
|
人工智能與法律的對話
隨著人工智能的逐步發(fā)展,人工智能中出現(xiàn)的種種問題對現(xiàn)有法律提出了一定的挑戰(zhàn)。本書匯聚了不同專業(yè)背景的學者的探討,在機器人技術發(fā)展的起步時期,他們以各自不同的方式嘗試突破機器人法目前遭遇的發(fā)展障礙。通過闡釋充滿爭議的法律、倫理和哲學問題,本書揭示了圍繞機器人及其調控產生的問題遠比人們預計的復雜,尚有大量關于機器人界定和適用的問題等待解決
本書以多方位的視角,針對人工智能的不同方向,對人工智能和法律提出了獨特的專業(yè)的見解。
無論生物學意義上的自然人類(以下簡稱人類)是否做好準備,人工智能時代正逐步走來,而這恰恰是由人類自身所引起。 初級的人工智能或許能為人類帶來便捷,在我國,或許還能帶來規(guī)則意識,甚至法治理念的真正普及。這是因為,人工智能的本質就是算法,任何算法必然建立在對某項事物認識的共性與常識之上。也正是在此意義上,人工智能能為人類服務,能代替自然人為人類服務。初級的人工智能,如果還沒有深度學習能力,或者深度學習能力尚不充分,它就難以進行諸如自然人價值判斷與情感判斷的活動,比如包含愛的交流與體驗,難以對疑難案件作出理性裁判,對案件的漏洞填補與價值補充等。在此意義上,人工智能產品還主要表現(xiàn)為人工智能物,僅在有限的意義上具有自然人的屬性。但即便是初級的人工智能,在我國也具有非常重要的意義,主要表現(xiàn)為規(guī)則意識與誠信觀念的建立。人工智能最核心的大腦就是算法,算法本身便是規(guī)則。初級人工智能對人類的服務就是規(guī)則服務;而人類要接受人工智能的服務,就必須接受算法設定的各種規(guī)則。人工智能,尤其是結合網(wǎng)絡運用的人工智能,會促使與提升自然人的規(guī)則意識,因為無論自然人在線下是否遵守規(guī)則,也無論規(guī)則在線下如何難以推行與實現(xiàn),只要自然人接受線上服務,就必須遵守線上規(guī)則;無論自然人在線下如何不守信,他在線上也必須誠實,否則他就進入不了虛擬世界,便也無從獲得特定人工智能的服務。在初級的人工智能時代,人類仍是核心,是世界的主宰,畢竟自然人仍是規(guī)則的制定者,是人工智能的服務對象。 而到了高級人工智能時代,即,當人工智能能夠進入深度學習與感情交流,可以進行團體合作與共同行動時,換句話說,當人工智能可以改變甚至完全脫離自然人為其設計好的初始算法而創(chuàng)制新的算法時,那時的人工智能物便實實在在地變成了人工智能人。人工智能人如何改變自然社會,甚至如何引導與影響整個自然社會走向,已非自然人所能完全掌控與想象,恐怕也為人工智能人本身所不知。尤其是,當人工智能人可以在虛擬世界制定規(guī)則(創(chuàng)制新的算法),而這種規(guī)則又必然會影響到自然世界時,那時自然世界的主宰到底是人工智能人,還是自然人,或許現(xiàn)在的我們(人類)已經(jīng)難以給出確定答案。那時的人類在自然世界或虛擬世界中處于何種主體地位,現(xiàn)在的我們也不得而知。當人工智能人有了情感交流能力并具有生物生成功能后,在自然人與自然人、人工智能人與人工智能人以及自然人與人工智能人之間的多元關系中,誰來制定規(guī)則,為誰制定規(guī)則,誰是自然世界或者虛擬世界的主宰或規(guī)則主體,以及各種形態(tài)主體之間具體的生活樣態(tài)如何等問題,可能都遠遠超出了我們當下的想象,或許那時的社會狀態(tài)本身就不可想象! 正是為了認真面對這些問題,警惕與體味這些問題,以便未來更好地深入研究或應對這些問題,上海人民出版社曹培雷副總編輯、法律與社會讀物編輯中心蘇貽鳴總監(jiān)、秦堃編輯等及本人一起探討決定編譯人工智能叢書,幫助我國讀者了解既有的人工智能研究,并以此為切入口對人工智能進行深度了解與學習。我們篩選并翻譯了國外有關人工智能研究的較有影響力的三部經(jīng)典著作,推介給中國讀者。這三部著作便是意大利學者烏戈·帕加羅所著的《誰為機器人的行為負責?》、美國律師約翰·弗蘭克·韋弗所著的《機器人是人嗎?》以及美國學者瑞恩·卡洛、邁克爾·弗魯姆金和加拿大學者伊恩·克爾編輯的文集《人工智能與法律的對話》。 二 《誰為機器人的行為負責?》一書,由張卉林、王黎黎和筆者共同翻譯。該書通篇都在試圖回答一個問題:誰來承擔責任(Who Pays)。作者建構了一種分析法律責任模型。他在刑法、合同法和侵權法的框架下討論了27種假設情況,例如刑法中的機器人士兵、合同法中的外科手術機器人以及侵權法中的人工智能雇員等,目的是分析在不同的情況下設計者、生產者、使用者和機器人之間應當如何分配責任。作者還討論了機器人對現(xiàn)代法學體系中的若干重要內容帶來的挑戰(zhàn),比如刑法中的正義戰(zhàn)爭理論、合同法中的代理資格以及侵權法中的責任承擔。上述問題的討論建立在作者對法律責任和義務的概念的分析基礎上,討論法律基礎是否會受到機器人技術的影響。最后,作者討論了作為元技術的法律,即如何通過法律實現(xiàn)對技術發(fā)展的控制。 《機器人是人嗎?》一書由劉海安、徐鐵英和向秦翻譯。該書認為,人工智能可以達到如同與真人一樣進行語音交流的程度,并自主學習知識和判斷問題。作者討論了人工智能的知識產權享有和責任承擔問題。作者認為,面對人工智能承擔法律責任,可以通過人工智能保險或儲備基金支付賠償費用。如何規(guī)范人工智能?作者以美國各州對自動駕駛汽車的相關立法為例,對未來人工智能統(tǒng)一立法作出合理預測:(1)當產品制造商、開發(fā)商和人類都沒有過錯時,不同體系的機構將會為涉及人工智能的事故受損者建立賠償或補償基金;(2)至少在初期,很多形式的人工智能產品的使用將被要求獲得執(zhí)照許可背書;(3)在初期,往往需要對人工智能進行人為監(jiān)督,但是最終,只有那些主要用于改善人類表現(xiàn)的人工智能才需要人為監(jiān)督;(4)盡管最初的立法將會經(jīng)常把人類作為操作者(行為人),即使這種標簽不適用于人工智能的類型,但最終立法會在以確定操作者責任為目的時變得更加細分;(5)立法將始終區(qū)分用于測試目的的人工智能和向消費者提供的人工智能;(6)立法將始終要求這樣一個機制,允許人類脫離人工智能但很容易重新控制人工智能;(7)立法將始終要求在自動化技術失敗時,人工智能產品能向周圍的人發(fā)出警告;(9)對采集個人信息的擔憂將會迫使法律要求披露人工智能運作時所收集的信息。 《人工智能與法律的對話》由陳吉棟、董惠敏和杭穎穎翻譯。本書共分討論起點、責任、社會和道德意義、執(zhí)法和機器人戰(zhàn)爭5個部分,共14篇論文。其中,大部分是首次在We Robot這一跨學科會議上發(fā)布的最新論文。這些論文探討了機器人的日益復雜化以及它們在各個領域的廣泛部署,重新思考了它所帶來的各種哲學和公共政策問題、與現(xiàn)有法律制度不兼容之處,以及因此可能引發(fā)的政策和法律上的變化。整本書為我們生動地展現(xiàn)了一場內容廣泛、啟發(fā)深遠的對話,如本書第二部分有關機器人行為責任的講述:F.帕特里克·哈伯德教授《精密機器人所致人身損害的風險分配》一文對普通法應對技術變革的能力提供了一種樂觀的評估:普通法系統(tǒng)包含了內部機制,能夠為應對機器人化的世界作出必要的相對較小的變化;而柯蒂斯·E.A.卡諾法官在《運用傳統(tǒng)侵權法理論迎接機器人智能》一文中則提出了截然相反的觀點:傳統(tǒng)的過失和嚴格責任理論不足以應對真正自主性機器人的挑戰(zhàn)。 需要說明的一點是,我們從2017年9月確定翻譯書目,10月組建翻譯團隊,到12月后陸續(xù)落實版權并著手翻譯,翻譯時間可謂十分緊張。叢書譯者多為高校或者研究機構的青年科研教學人員,需要克服繁重的教學和科研壓力;加之,所譯著作內容涉及法律、計算機和倫理等多元且交叉的學科知識,遠遠超出了多數(shù)譯者所在的法學學科領域,翻譯不當甚至錯誤恐在所難免,在此我們衷心懇請并接受各位讀者、專家批評指正。 三 2017年7月中華人民共和國國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,強調建立保障人工智能健康發(fā)展的法律法規(guī),妥善應對人工智能可能帶來的挑戰(zhàn),形成適應人工智能發(fā)展的制度安排。《規(guī)劃》為此要求開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等。但正如弗魯姆金(Froomkin)指出的,也可能是本譯叢三本書的作者們皆認可的:(1)對于機器人和監(jiān)管問題,現(xiàn)在還為時尚早;(2)技術問題遠比律師想象的復雜,法律、倫理和哲學問題比工程師想象的更有爭議(有時也更復雜);(3)我們要徹底解決這些問題的唯一辦法就是擴大和深化我們跨學科的努力。讓世界為機器人做好準備的同時,使機器人也為世界做好準備,這必須是一個團隊項目否則它可能會變得很糟糕。由此揭示出,對于人工智能的探討與研究,即便是對于人工智能的規(guī)范性研究,并非法學一個學科所能勝任。人工智能本身就是一個具有綜合性、復雜性、前沿性的知識、智識與科學,它需要幾乎所有的理工與人文社會科學學科進行交叉性研究,也需要研究者、實體技術者與產業(yè)者等各個領域的人配合與對話。法律人在人工智能的研究、開發(fā)、規(guī)則制定等各個環(huán)節(jié)中是不可缺少的一環(huán),但也僅僅是一個環(huán)節(jié),他只有加入人工智能的整體研究與發(fā)展中去,才會發(fā)揮更大的價值。我們期待這套譯叢的出版有助于人工智能在法學及其他領域展開深入討論,為跨學科的對話甚至團隊合作提供一定程度的助益。 無論未來人工智能時代的社會生活樣態(tài)如何,無論人工智能時代的社會主體如何多元,多元的主體依然會形成他們自己的存在哲學,也許依然需要他們自己的情感系統(tǒng)。無論未來的人工智能時代多么不可預測,問題的關鍵還是在于人類的自我與社會認知。就像蘋果公司首席執(zhí)行官蒂姆·庫克(Tim Cook)在麻省理工學院(MIT)2017屆畢業(yè)典禮演講中指出的,我并不擔心人工智能能夠像人一樣思考,我更關心的是人們像計算機一樣思考,沒有價值觀,沒有同情心,沒有對結果的敬畏之心。這就是為什么我們需要你們這樣的畢業(yè)生,來幫助我們控制技術。是的,我們或許不知未來的人工智能是否會產生包含同情與敬畏的情感,但我們能夠確信的是,即便在人工智能時代,我們最需要的依然是人類飽含同情與敬畏的愛!未來的人工智能時代無論是初級樣態(tài)還是高級學習樣態(tài),能夠讓多元的主體存在并和諧相處的,能夠把多元主體維系在一起的或許唯有愛。這個從古至今在自然世界難以找到確定含義的概念,在虛擬與現(xiàn)實共處的世界中更是難以獲得其固定內涵,但我們唯一知道并可以確信的是,如果沒有愛,那么未來的人工智能時代就真的進入了一個混沌而混亂的世界! 上海交通大學凱原法學院2018年7月10日人工智能與法律的對話前言前言xA.邁克爾·弗魯姆金A.邁克爾·弗魯姆金,美國邁阿密大學法學院法學杰出教授。就像互聯(lián)網(wǎng)一樣,機器人技術是一種社會和經(jīng)濟上的變革性技術。接下來幾個章節(jié)將探討機器人的日益復雜化以及它們在各個領域的廣泛部署,如從家庭到醫(yī)院、公共場所以及戰(zhàn)場,同時需要重新思考它們所帶來的各種哲學和公共政策問題、與現(xiàn)有法律制度不兼容之處,以及因此可能引發(fā)的政策和法律上的變化。 這些討論是必要且及時的。當今與機器人技術有關的法律和政策問題類似于學者和決策者在萬維網(wǎng)之前對互聯(lián)網(wǎng)的處理。想象一下,如果在互聯(lián)網(wǎng)開始發(fā)展的1980年(第一個互聯(lián)網(wǎng)標準文件RFC 1出現(xiàn)的十多年后),或者在第一個網(wǎng)站上線的1992年,一些跨學科的學者試圖研究互聯(lián)網(wǎng)有關的政策和法律問題。毫無疑問,研究者無法預見今天我們享受到的互聯(lián)網(wǎng)的所有產物,無論其是好是壞。然而,他們很可能會發(fā)現(xiàn)與域名、商標、信息安全、殘疾人使用以及隱私等相關的重大困難。事實上,當意識到這些問題很重要的時候,機器人的應用基礎已經(jīng)強大到足以改變相關協(xié)議和應用中存在的爭議(例如IPSEC),包括在某些情況下(例如域名)是不切實際的爭議。 正如后面的章節(jié)所描述的那樣,盡管在考慮機器人的社會和法律效應方面我們仍然處于早期階段,但我們已經(jīng)可以確定機器人在社會中廣泛應用所帶來的一系列問題。機器人引發(fā)的問題涉及廣泛的學科領域,可能不僅影響日常生活和商業(yè)生活的各個方面,而且還會影響戰(zhàn)爭。除此之外,正是問題識別的這一過程揭示了還有多少定義和應用工作仍有待完成。以一種有序的方式處理這些問題是一項重大的任務,它需要一種延伸的對話,必須跨越學科,才能使其真實有效。 xi關于什么應該算作機器人,目前仍然沒有定論,這說明我們處于一個十分早期的階段,大多數(shù)人包括本書的所有參與者都會同意,能夠對外部刺激作出反應并且不需要直接的或持續(xù)的人類控制就可以采取行動的人造物體就是一個機器人,盡管有些人可能會爭論并要求一個更廣泛的定義。這種相對狹窄的、可能涵蓋不足的工作定義的三個關鍵要素是:(1)某種傳感器或輸入機制,沒有這種機制就不會有刺激反應;(2)一些控制算法或其他系統(tǒng)將管理對感測數(shù)據(jù)的響應;(3)對外部世界產生顯著影響的能力(我最喜歡的定義是一個范圍更窄的版本,因其尖銳性而非準確性受到重視,它說一個機器人是帶著電鋸的iPhone)。 這個工作定義允許很大的兼容性。機器人的尺寸可以是任意大小,從納米機器人到巨人機器人,但除了納米機械可能引發(fā)的特殊問題之外,并不是尺寸讓機器人變得有趣和存在潛在問題。 機器人實例化及其獨立性有更大的變量,也更為重要。機器人可以是有形的,也可以是純軟件產品,只要它們從外部世界接收信息輸入,能夠以對主機程序之外的世界進行響應;軟件當然是由算法控制的。機器人的功能范圍比較靈活;它們的行動和決策自由范圍可能非常狹窄,也可能非常寬泛,甚至可能是無限的。在極端的情況下,人們可以在機器人裝配線上找到自動機器。在某些情況下,這些機器重復著同樣的事情,并不算作機器人。但在其他情況下,即使是只能小范圍運動或識別范圍較窄的機器,在技術上也可能符合上述工作定義:例如,機器人手臂可能設計為檢測某一部件流下傳送帶的不同位置,并且可以抓住并固定它。根據(jù)我們的說法,這可能足以將其定性為機器人,盡管這不是一件很有趣的事情。 在物理性和不可測性方面的另一個極端是米勒(Millar)和克爾(Kerr)所著章節(jié)中所描述的一個運行在超級計算機上的醫(yī)療診斷機器人程序。它可能收集患者身上的傳感器信息,或者它可能根本沒有傳感器,只是對診斷人員輸入的數(shù)據(jù)作出響應。在任何一種情況下,其反應都只是文字和數(shù)字,除了建議之外,xii它沒做任何其他的事情,所以它對世界的直接影響盡管廣泛,但是有限的。但它非常獨立,并且它在巨大數(shù)據(jù)集中發(fā)現(xiàn)相關性的方法非常難懂,我們可能永遠無法理解為什么它會作出某種選擇。相反,我們只能衡量它的成功率,將它與人類醫(yī)生進行比較,并開始認真思考如果或者更確切地說當機器人醫(yī)生開始表現(xiàn)出更高成功率時意味著什么。 盡管如此,人們通常所稱的機器人超出了上面的工作定義,也超出了這個項目的范圍。被排除在這個工作定義之外的是許多在大眾意識中大量出現(xiàn)的自動機器。機器完全由人類遠程監(jiān)控操作如沃爾多斯(Waldos)包括我們所知的目前部署在戰(zhàn)場的所有軍用無人機(與繪圖板上的以及可能正在測試的那些不同),它們在某種意義上不是機器人,因為它們不會對刺激作出反應。它們無非是沒有機器人駕駛的傳統(tǒng)機動車。它們也不是那種能產生我們關心的有趣問題的機器人。相反,所謂的半機器人,即那些通過使用或植入某些技術而增強身體的人,并不是機器人,因為他們仍然是人,因為同樣的原因,駕駛傳統(tǒng)的汽車不能使駕駛員成為機器人。 盡管如此,即使在最狹隘的意義上,這些設備可能不被稱為機器人,但其中一些部分的增強(如機械義肢),也會引發(fā)與機器人類似的問題。舉個例子,考慮一下,一條機械腿被設計來響應甚至是預見與機械相連接的人類神經(jīng)的命令。在理想情況下,從用戶的角度來看,行走所需要的有意識的意向對于機械肢體和正常的肢體來說是沒有區(qū)別的。然而,人們只需要想象一下,如果假體沒有完全調試好,會發(fā)生什么:肢體的主人被困在一個雞尾酒會上,聽著一次特別無聊和不愉快談話,想象著有人踢他一腳。無意識的沖動沿著神經(jīng)傳遞,遇到機器人控制器,突然,聚會變得更有趣了。 玩笑歸玩笑,這種半機器人意外的結局突出了由具有任何自主度的(至少是非軟件的)機器人引發(fā)的法律和社會問題與互聯(lián)網(wǎng)所帶來的不同:因為它們存在于現(xiàn)實世界中,機器人可以對世界造成直接的影響。通過設計,無論是意外還是軍事機器人,都可能造成實質性損害,傷害甚至殺害人類。xiii機器人有很大的潛力來承擔不愉快、困難或無聊的任務,但它們也存在真正的風險,需要設計者和決策者仔細規(guī)劃。 關于新技術在社會、政治、道德和法律方面作用的研究,往往會在該技術尚處于萌芽階段時遭遇不同尋常的障礙。部署尖端技術的工業(yè)科學家傾向于關注使機器人工作、將它們推向市場并獲利。他們認為,社會政策及法律問題可以忽略或克服。學術科學家可能考慮更廣泛的問題,但他們并不總是接受有關學科的訓練,無論是社會科學、哲學或法律。相反,在這些領域接受過訓練的學者往往缺乏相關技術的必要背景,并且往往對相關文獻不熟悉;可能會發(fā)現(xiàn)自己無法理解。隨著技術的推廣和普及,這些問題往往會得到解決:當該技術成為主流,會吸引更多人。更重要的是,隨著技術的發(fā)展,新技術帶來的新問題變得明顯但到那時圍繞問題改變技術設計已經(jīng)太遲了。同樣,潛在的贏家和輸家可能會使政策或技術的調整實施變得比以前更困難。 本書匯集了不同學者的努力,他們每個人都努力克服這些早期障礙,進入并試圖解決機器人普及所帶來的后果。本書中的大部分貢獻是首次在我們機器人(We Robot)上發(fā)布的最新論文,我們機器人始于2012年,是一年一度的跨學科會議,曾在邁阿密大學(兩次)、斯坦福大學和華盛頓大學舉辦。就像下面章節(jié)的作者一樣,We Robot的參與者們相信,如果要制造出能夠適應一切環(huán)境的機器人,我們還有很多工作要做。如果我們要建造這樣一種法律環(huán)境:一方面,正確平衡需要鼓勵實驗技術和投資的目的,保護公共安全,另一方面,平衡機器人行業(yè)的競爭經(jīng)濟參與者的需求更不用說考慮工業(yè)機器人承諾的利益增強或取代,我們面臨著更加艱巨的任務。 第一部分:起點xiv 本書第一部分是律師尼爾·M.理查茲和機器人專家威廉·D.斯馬特合作的《法律如何看待機器人?》,面對越來越多的機器人在公共空間、家庭、辦公室和醫(yī)院的使用以及面臨的挑戰(zhàn),法律體系將需要決定如何處理相關問題。目前,我們的法律傾向于認為機器人的行為是由設計決定的,并把機器視為使用者的合法延伸。當機器發(fā)生故障時,我們嘗試將責任分配給適當?shù)闹圃焐、設計者、維護者或修改者。這些方法都不容易轉移到復雜的機器人世界,特別是具有任何自動性的機器人。當遇到能夠采取突現(xiàn)行為的機器人時,對錯誤和產品責任界定的傳統(tǒng)法律方法也會搖擺不定。制造商、程序員、所有者、用戶和其他可能有意或以其他方式訓練機器人的人之間復雜的相互關系,帶來了錯綜復雜的證據(jù)和理論問題。理查茲教授和斯馬特教授認為,我們如何將機器人概念化,即我們用來理解并與之關聯(lián)的隱喻將會塑造出工程師設計機器人的方式,以及社會(尤其是律師)將如何管理機器人。作者認為,問題在于想象力特別是設計師和監(jiān)管者的想象力,以及如何更好地將這兩種截然不同的思維方式融合在一起。無論把機器人看作工具、寵物、仆人還是家庭成員,都會影響對它們的開發(fā)方式以及法律如何認識它們。 第二部分:責任 第二部分講述的主題是機器人行為的責任問題。從兩位律師開始,關于侵權體系能夠有效應對由機器人引起的法律和社會干擾問題,他們觀點截然相反。一方面,F(xiàn).帕特里克·哈伯德的《精密機器人所致人身損害的風險分配:效率、公平與創(chuàng)新》對普通法應對技術變革的能力提供了一種樂觀的評估。他首先展示了當前的學說如何應用于機器人汽車等各種機器人的實用情形,并且表明根據(jù)當前學說,結果不會偏離我們想要達到的目標。此外,哈伯德教授提醒我們,今天的侵權法本身就是不斷演變的產物,他認為,xv普通法系統(tǒng)包含了內部機制,能夠為應對機器人化的世界作出必要的相對較小的變化。因此,他對大多數(shù)旨在促進復雜機器人創(chuàng)新的當代法律改革建議持懷疑態(tài)度。他總結說,要對一個在企業(yè)家和新設備支持者以及有權從傷害中獲得賠償?shù)钠胀癖娭g的沖突利益中已經(jīng)取得平衡的系統(tǒng)做出重大改變,我們必須非常謹慎。 柯蒂斯·E.A.卡諾法官在《運用傳統(tǒng)侵權法理論迎接機器人智能》中提出了截然相反的觀點,部分原因是他專注于最難的案例真正的自動機器人。在卡諾法官看來,傳統(tǒng)的過失和嚴格責任理論和嚴格賠償責任不足以應對它們的挑戰(zhàn)。卡諾法官首先提出了一個關于機器人自動意味著什么的工作定義這正是本章最重要的特征。根據(jù)這一定義以及美國侵權法對可預見性的定義,卡諾法官認定法律制度在假定線性因果關系方面存在不足之處,可能會導致線性因果關系,但會遇到更復雜的與更大環(huán)境相互作用的機器。他認為,機器人的行為將是非線性的,實際上是不可預測的,侵權制度被用來將大部分責任分配給那些被認為應當承擔責任的人,這是一個旨在將大部分責任推給那些由于存在合理機會來控制或預見風險而被認為應該承擔責任的人的侵權制度,但卻無法勝任這項任務。侵權制度需要改變,我們的期望需要改變,并且根據(jù)該章在第一部分引入的一個主題的結論,機器人設計將需要找到一種方法來構建具有常識的機器人,以使他們的行為不會偏離我們的期望。 布萊恩特·沃克史密斯的《律師與工程師應當使用相同的機器人語言》也解決了有關法律與機器人相遇的概念性主題,這次伴隨著從為無人駕駛汽車制定規(guī)則和標準的新嘗試中得到的經(jīng)驗。概念部分認為,對于工程師或律師而言,將機器人與其所屬的較大系統(tǒng)隔離開來是錯誤的。許多機器人正在或將要被設計為與其他機器、云以及最主要的人類進行交互。設計和規(guī)則必須考慮到這種嵌入性。然而,認識到機器人是系統(tǒng)的一部分,反過來又產生了一個新問題,即定義相關系統(tǒng)邊界。使問題適當復雜化后,史密斯教授向我們展示了實際行業(yè)標準以及與自主機動車有關的擬議或實際規(guī)范性文件,特別是從系統(tǒng)分析的角度來看,發(fā)現(xiàn)了嚴重的概念和術語不一致性。他總結說,xvi避免這種混淆及對駕駛者和第三方造成的實際風險的最好方法是工程師和律師更多地交流,以便他們能夠建立關于機器人的共同語言。 我們對責任問題的討論以杰森·米勒和伊恩·克爾的《委托、讓渡與法律責任:專家機器人的前景》作為結束。這里的問題是什么時候依賴機器人專家才是恰當合理的。作者首先關注IBM的沃森[這是深度問題解答機器人,擊敗了兩位歷史上的《危機邊緣》(Jeopardy)冠軍],這個系統(tǒng)現(xiàn)在正在作為機器人診斷專家接受測試。如果研究表明這些機器人基于大數(shù)據(jù)相關性診斷的方法比面對同一患者基于邏輯的人類診斷表現(xiàn)更好,那么會發(fā)生什么?機器人可能會成為首選專家,這迫使我們質疑人類是否有責任將諸如醫(yī)療診斷和駕駛等任務授權給專家機器人。通過探索專業(yè)知識和基于證據(jù)的決策的觀點,即認為產生最有利結果的行動是最合理的觀點,作者提出了各種法律和道德方法來確定這些先進系統(tǒng)出現(xiàn)錯誤時,以及當人們不能像他們想象的那樣依賴機器人時的責任。 第三部分:社會倫理意義
彭誠信,2002年獲吉林大學法學院法律學博士學位。1994年7月起在吉林大學法學院任教,1998年12月任講師;2001年9月任副教授,2004年12月任教授;2005年9月起任民商法學博士生導師,F(xiàn)任民法學教研部主任。2007年起,受聘為寧波大學"甬江學者"特聘教授。
主編序/1 前言/1 第一部分起點 第一章法律如何看待機器人 一、 什么是機器人/5 二、 機器人可以做什么?/7 三、 機器人法和網(wǎng)絡法/11 四、 隱喻的重要性/15 五、 人形機器人(android)陷阱/17 六、 并發(fā)癥:解圍之神/20 七、 結論與最后的思考/20 第二部分責任 第二章精密機器人所致人身損害的風險分配: 效率、公平與創(chuàng)新 一、 精密機器人/30 二、 責任和產品安全/31 三、 產品責任和精密機器人汽車/41 四、 關于基本變化的建議/43 五、 結論/48 第三章運用傳統(tǒng)侵權法理論迎接機器人智能 一、 引言/54 二、 機器人與自動性/55 三、 法律/61 四、 未來人與機器智能間的互惠適應/70 第四章律師與工程師應當使用 相同的機器人語言 一、 引言/82 二、 系統(tǒng)/83 三、 語言/86 四、 使用/90 五、 使用者/95 六、 結論/99 第五章委托、讓渡與法律責任: 專家機器人的前景 一、 引言/107 二、 機器人有哪些類型?/110 三、 設計的不可預測性/112 四、 專家機器人?/113 五、 將機器人稱為專家能獲得什么?/117 六、 規(guī)范性的證據(jù)推理/119 七、 人類與機器人的分歧/120 八、 機器人人類專家分歧的案例/122 九、 法律責任/126 十、 結論/128 第三部分社會倫理意義 第六章開放式機器人倫理倡議與 乘坐電梯的機器人 一、 背景/137 二、 開放式機器人倫理倡議/144 三、 坐電梯的機器人/150 四、 結語/158 致謝/159 第七章以充分的和具有選擇性的開放式許可限制與 開放式機器人相關的責任和道德問題的應用 一、 采用具有充分開放性模型的障礙:架構, 可預見性和責任矩陣/169 二、 克服障礙的潛在解決方案/170 三、 從關于機器人的憂慮中得到的道德許可/173 四、 建議的許可框架/178 五、 結語/183 第八章同意的機器人化 一、 從神話到Gynoid/190 二、 從gynoid到性機器人/193 三、 社會危害與淫穢色情/196 四、 對同意的侵蝕/200 五、 未來的考慮/205 六、 結論/207 第九章擴大對社會機器人的法律保護: 擬人化,移情和暴力行為對機器人對象的影響 一、 社會機器人是什么?/218 二、 機器人VS.烤面包機:投射我們的情緒/219 三、 關于機器人情感依戀的問題/222 四、 擴大對機器人對象的法律保護/226 五、 對財產權的說明/229 六、 我們應該從什么時候開始保護機器人?/230 第四部分執(zhí)法 第十章迎接自動化執(zhí)法 一、 自動化執(zhí)法的概念化/241 二、 自動化功能的分類/243 三、 迎接自動化執(zhí)法時的必要問題/252 四、 小結/265 第十一章機器人歡迎電子法嗎?一個法律內部的算法實驗 一、 背景/278 二、 法律編碼化實驗/280 三、 小結和未來工作/301 附錄A法律編碼任務/303 附錄B設計說明書/304 第十二章機器人審訊的合憲性審查 一、 何謂機器人審訊員?/312 二、 潛在的法律影響/317 三、 建議和小結/323 第五部分戰(zhàn)爭 第十三章玩忽職守?殺手機器人如何成為軍事力量的倍增器 一、 機器人戰(zhàn)爭/337 二、 關于致命性自主機器人的案例/339 三、 國際人道法的規(guī)范/340 四、 技術中立/344 五、 自殺式機器人與《國際人道法》/351 六、 國際人道主義夢游?/358 第十四章生存權(Jus nascendi)、機器人武器和馬爾頓斯條款 一、 生存權在國際人道法中的地位/372 二、 馬爾頓斯條款/373 三、 一個新興原則有意義的人類控制/376 四、 結論/384 索引/389 譯后記/403
你還可能感興趣
我要評論
|