本書是以色列奧諾學(xué)院法學(xué)院哈列維教授探索人工智能刑事責(zé)任的蕞新力作,并且是用中文在全球首*。哈列維教授是國際社會中較早關(guān)注人工智能刑法問題的法學(xué)專家,他的系列文章和相關(guān)著作在全球?qū)W術(shù)界已經(jīng)產(chǎn)生非常廣泛的影響。本書試圖解決的問題是,隨著人工智能在商業(yè)、工業(yè)、軍事、醫(yī)療和個人領(lǐng)域的使用日益增多,如果人工智能系統(tǒng)對人類社會造成損害,現(xiàn)有的刑法制度該如何應(yīng)對?哈列維教授的答案十分明確:在世界各國現(xiàn)有的刑法體系中,追究刑事責(zé)任都要求事實要素和心理要素;對于這兩種要素的要求,人工智能都能夠符合,因此其可以承擔(dān)刑事責(zé)任。對人工智能的刑事處罰,也與自然人一樣,涵蓋死刑、自由刑、財產(chǎn)刑、社區(qū)服務(wù)、緩刑。他同時強調(diào),人工智能實體承擔(dān)刑事責(zé)任,并不減少涉案自然人或法人的刑事責(zé)任,根據(jù)不同情況,可以通過間接正犯、可能的后果責(zé)任機制等對其予以追責(zé)。據(jù)此,哈列維教授闡述了一個關(guān)于人工智能刑事責(zé)任的綜合性法學(xué)成熟理論,從現(xiàn)有刑法中識別并選擇出類似原則,提出針對多元情形下各種自主技術(shù)的刑事責(zé)任的具體思考模式,并通過例舉人工智能現(xiàn)實應(yīng)用場景中可能發(fā)生的犯罪案例,據(jù)其理論做出了相應(yīng)解答。
在絕大多數(shù)現(xiàn)代國家,自動駕駛汽車、手術(shù)機器人、工業(yè)機器人、交易算法、個人機器人和其他人工智能實體正在被普遍使用。這些用途可以是個人的、醫(yī)療的、軍事的、商業(yè)的或工業(yè)的。當(dāng)自動駕駛汽車涉及交通事故罪、手術(shù)機器人涉及醫(yī)療事故罪、交易算法涉及欺詐罪等情況發(fā)生之時,就會產(chǎn)生刑事責(zé)任問題。那么,誰應(yīng)對這些罪行承擔(dān)刑事責(zé)任:制造商、程序員、用戶或人工智能實體本身?
技術(shù)世界瞬息萬變。在從事簡單活動方面,機器人和計算機正更加頻繁地取代人類。只要人類僅僅將計算機當(dāng)作工具,計算機和螺絲刀、汽車或電話之間就沒有任何顯著區(qū)別。但是,隨著計算機變得越來越復(fù)雜,我們開始認(rèn)為,它們?yōu)槲覀兯伎。?dāng)計算機從思考機器(thinking machine)(被編程來執(zhí)行計算等特定思考過程的設(shè)備)進化成不加引號的思考機器(換言之,人工智能)之時,問題開始出現(xiàn)。人工智能就是機器模仿智能行為的能力。
人工智能是在計算機上模擬人類行為和認(rèn)知的過程。因此,它是對整個智能思維領(lǐng)域本質(zhì)的研究。人工智能研究開始于20世紀(jì)40年代和50年代初。從那時起,人工智能實體已經(jīng)成為現(xiàn)代人類生活不可或缺的一部分,它的運行方式比其他普通工具復(fù)雜得多。這些實體會變成危險嗎?事實上,正如上述事件所證明的那樣,它們已經(jīng)成為危險。
人工智能和機器人正在進入日,F(xiàn)代生活。目前,法院或監(jiān)管部門正面臨上述某些問題。但是,很少有文獻全面地分析并評估具有不同程度自主權(quán)的機器人、機器或軟件的責(zé)任。
涉及人工智能系統(tǒng)犯罪的責(zé)任概念尚未得到廣泛研究。先進的技術(shù)使社會面臨全新的挑戰(zhàn),不僅包括技術(shù)挑戰(zhàn),也包括法律挑戰(zhàn)。特定情況下,人工智能系統(tǒng)的刑事責(zé)任理念正是這些挑戰(zhàn)之一,應(yīng)當(dāng)予以深入探討。其中的主要問題是,誰應(yīng)該對涉及人工智能系統(tǒng)的犯罪承擔(dān)刑事責(zé)任。答案可能包括程序員、制造商、用戶,或許還有人工智能系統(tǒng)本身。
2009年,我在美國和澳大利亞發(fā)表了幾篇具體探討該問題的文章。這些文章探討的具體內(nèi)容似乎對開啟該問題的學(xué)術(shù)討論發(fā)揮了重要作用。這些文章的主要思想是,刑法不應(yīng)該改變技術(shù),而是應(yīng)該主動適應(yīng)現(xiàn)代技術(shù)的發(fā)展。我的文章還呼吁思考并反思對機器和軟件賦予刑事責(zé)任的理念。也許,并不應(yīng)該對機器賦予刑事責(zé)任,但是,如果刑法的基本定義沒有改變,那么這一怪異的結(jié)果卻是不可避免的。
我的每篇文章都獲得了許多評論,對此,我需要對這一理念進行限制性概括。該理念的第一個概括是,它僅限于有形機器人,這些機器人配有人工智能軟件,實施殺人罪的具體犯罪,而且并非衍生性刑事責(zé)任(derivative criminal liability)!2013年,拙著《當(dāng)機器人殺人之時》(When Robots Kill)由新英格蘭大學(xué)出版社(UPNE)和東北大學(xué)出版社在美國合作出版。盡管該書是一本學(xué)術(shù)性書籍,但它的目標(biāo)受眾卻旨在涵蓋法律學(xué)者之外的廣大讀者。
這本書被認(rèn)為是具有創(chuàng)新性的。《華盛頓郵報》(Washington Post)、《波士頓環(huán)球報》(Boston Globe)、《紀(jì)事評論》(the Chronicle Review)譯者注:《紀(jì)事評論》(the Chronicle Review)是《高等教育紀(jì)事報》(the Chronicle of Higher Education)的下屬雜志,涵蓋文化、學(xué)術(shù)趨勢、出版、高等教育政策和學(xué)術(shù)生活等領(lǐng)域。和《喧囂》(the Hustle)譯者注:《喧囂》(the Hustle)是美國同名公司為政治、高等教育和非營利組織等領(lǐng)域提供的一款點對點文本消息平臺。等媒體均發(fā)表過相關(guān)書評。相關(guān)評論更是不勝枚舉。其中,一些評論呼吁對這一問題進行最終的、全面的學(xué)術(shù)概括,不局限于有形機器人,亦不局限于殺人罪,應(yīng)涉及衍生刑事責(zé)任問題。
但是,隨著機器人的使用與日俱增,更多的問題不斷涌現(xiàn)。雖然《當(dāng)機器人殺人之時》已經(jīng)給出明確答案,但法律界之外的同事和科學(xué)家邀請我撰寫一部新的專著。這次是關(guān)于人工智能系統(tǒng)。于是,拙著《涉人工智能系統(tǒng)犯罪的責(zé)任》(Liability for Crimes Involving Artificial Intelligence Systems)于2015年由斯普林格(Springer)出版社在歐洲出版。
10人工智能技術(shù)界對法律問題的認(rèn)識也相應(yīng)有所提高。很多學(xué)術(shù)論壇(文章和學(xué)術(shù)講座)以及學(xué)術(shù)論壇之外的其他場合(包括高科技產(chǎn)業(yè)和志同道合之士),都邀請我解釋如何實施這些理念。現(xiàn)在的情況似乎是,學(xué)術(shù)界之外的公眾所要求的答案,確實是官方法律系統(tǒng)無法提供的。
2016年和2017年,匈牙利布達佩斯腦吧(Brain Bar)譯者注:腦吧節(jié)創(chuàng)立于2015年,融合技術(shù)會議和音樂節(jié)的年度盛大節(jié)日,專注于自由交換思想而非單向溝通,鼓勵觀眾直接與演講者溝通,旨在創(chuàng)造一個具有挑戰(zhàn)性、智力性和包容性的環(huán)境。2018年,該活動吸引來自世界各地的10000多名參會者以及超過38000人的直播觀眾。公開節(jié)兩次邀請我就相關(guān)問題發(fā)表演講(2016年:涉及殺人罪的機器人;2017年:與機器人的愛與性)。2018年,鑒于超級智能和后生物學(xué)(post biology)的發(fā)展,羅馬尼亞布加勒斯特的特德克斯(TEDx)邀請我就思考的未來發(fā)表演講。當(dāng)然,我還接受了很多其他邀請。每次,我都能感覺到人們對答案的渴望。這種渴望如此真實,它與我在美國和歐洲關(guān)于這個問題的學(xué)術(shù)講座中所感受到的學(xué)術(shù)界對答案的渴望毫無差別。
2019年,上海人民出版社邀請我向中國讀者介紹這些理念。不過,在此期間,人工智能已經(jīng)出現(xiàn)了全新的發(fā)展,它們應(yīng)當(dāng)納入新的專著之中。于是,本書應(yīng)運而生。
我們所需要的是一本專業(yè)的學(xué)術(shù)教科書來解決這個問題,盡管它可能不太適合廣大公眾閱讀。這本書是對這一問題最終的、全面的學(xué)術(shù)概括。這本書表達的整體理念涉及所有類型的先進人工智能系統(tǒng)(自主運行的系統(tǒng)和遵循計劃的系統(tǒng))的所有類型的犯罪的所有刑事責(zé)任模式(直接責(zé)任和衍生責(zé)任)。涉及這些犯罪的人工智能系統(tǒng)可能是主犯、共犯,也可能僅僅是犯罪工具。本書的主要觀點之一是,或許至少目前尚不應(yīng)當(dāng)賦予技術(shù)系統(tǒng)刑事責(zé)任。但是,如果刑法的基本定義沒有改變,那么這種怪異的結(jié)果則是不可避免的。
本書的目的是發(fā)展出關(guān)于人工智能和機器人刑事責(zé)任的綜合的、一般的和復(fù)雜的法學(xué)理論。除了人工智能實體本身之外,該理論還涵蓋制造商、程序員、用戶和所有其他相關(guān)實體。通過對現(xiàn)有刑法原則的確認(rèn)和類比,11該理論提出在各種合理狀況下由各種自主技術(shù)承擔(dān)刑事責(zé)任的具體思維方式。
第一章包括一些基本概念的探索,本書展開的后續(xù)章節(jié)均以這些概念為基礎(chǔ)予以構(gòu)建。本書討論兩個主要問題:(1)什么可以被認(rèn)為是人工智能實體?(2)追究刑事責(zé)任的必要條件是什么?
因為刑法并不依賴于道德(moral accountability),所以關(guān)于機器道德責(zé)任的爭論與這些問題無關(guān)。雖然,有時刑事責(zé)任、某些類型的道德責(zé)任和某些類型的倫理責(zé)任之間存在重疊,但對于追究刑事責(zé)任而言,這只是巧合,而非必要。
刑法適用于機器的問題還涉及兩個相互關(guān)聯(lián)的次要問題:(1)刑事責(zé)任是否適用于機器?(2)刑事處罰是否適用于機器?
第一個問題是刑法的核心問題,是否追究刑事責(zé)任取決于是否滿足刑事責(zé)任的要求。只有滿足刑事責(zé)任的要求,懲罰即人類社會如何懲罰機器的問題才會出現(xiàn)。本書中提出的答案對這兩個問題都是肯定的。第二章至第五章研究第一個問題,第六章研究第二個問題。如果接受本書中的肯定答案,那么事實上,我們已創(chuàng)造了一個全新的社會實體,即機械犯罪人(machina sapiens criminalis)。譯者注:machina sapiens criminalis是作者原創(chuàng)詞匯,源自machina sapiens(可譯作機器智人、機械智人)。因一般在生物史學(xué)中多嚴(yán)格使用智人(sapiens),通常語境亦可譯作人(sapiens),另與robot(機器人)相區(qū)別,并借鑒電影《機械姬》(Ex Machina)的內(nèi)容和譯法,machina sapiens在本書中譯作機械人。machina sapiens criminalis是machina sapiens中的特殊主體,對應(yīng)于犯罪人與人,故machina sapiens criminalis在本書中譯作機械犯罪人。第一章研究機械犯罪人的出現(xiàn)。最后,本書的研究回答以下問題,即人工智能實體是否可以被認(rèn)為應(yīng)對犯罪行為承擔(dān)法律責(zé)任(如果不是道德責(zé)任的話),并應(yīng)受到刑事處罰。
本書聚焦于人工智能實體的法律責(zé)任,故而并未正式涉足倫理(包括機器人倫理)和道德的相關(guān)領(lǐng)域。然而,本書中關(guān)于刑事責(zé)任的討論為深入考慮相關(guān)倫理問題奠定了基礎(chǔ)。鑒于日常生活中人工智能實體數(shù)量不斷增加,這些探討將是必要的。對此,本書構(gòu)建了一個應(yīng)有的框架,有助于對這些問題進行具體性和功能性的探討。
我非常感謝上海人民出版社邀請我向中國讀者介紹這些理念。另外,我非常感謝陳萍博士將書稿翻譯成中文。最后,我非常感謝我的女兒們哈蕾爾和阿里爾,感謝她們一直以來與我展開碩果累累的探討。
以色列奧諾學(xué)院(Ono Academic College)法學(xué)院教授加布里埃爾·哈列維 推薦序 非常高興看到《審判機器人》的中文翻譯能夠成功出版。人工智能的刑事責(zé)任問題是我最早關(guān)注并將其作為重點研究主題的。近年來,本人的相關(guān)論作在國內(nèi)外學(xué)術(shù)界業(yè)已形成一定規(guī)模、特色和影響。本書作者哈列維教授的很多論證和觀點與我不謀而合,閱讀本書時,頗有惺惺相惜、相見恨晚之感。
第一,關(guān)于人工智能社會風(fēng)險的刑法應(yīng)對。我的主要觀點是,面對人工智能技術(shù)現(xiàn)在已經(jīng)帶來和將來可能產(chǎn)生的風(fēng)險,刑法應(yīng)發(fā)揮為社會穩(wěn)定健康發(fā)展保駕護航的作用。對于智能機器人的研發(fā)者和使用者的行為,以及智能機器人產(chǎn)生獨立意識和意志之后自主決定并實施的嚴(yán)重危害社會的行為,刑法的干預(yù)和刑罰的設(shè)置應(yīng)保持適當(dāng)?shù)南薅龋炔荒茏尀E用人工智能技術(shù)的行為破壞社會的穩(wěn)定發(fā)展,又不能讓刑法的過度干預(yù)阻滯人工智能技術(shù)的創(chuàng)新。哈列維教授也持相似觀點,他在書中表達的整體理念涉及所有類型的先進人工智能系統(tǒng)(自主運行的系統(tǒng)和遵循計劃的系統(tǒng))的所有類型犯罪的所有刑事責(zé)任模式(直接責(zé)任和衍生責(zé)任)。書中的核心觀點是也許目前尚不應(yīng)當(dāng)賦予人工智能實體獨立的刑事責(zé)任,但隨著人工智能技術(shù)的突飛猛進,將來讓人工智能實體獨立承擔(dān)刑事責(zé)任這一結(jié)果是不可避免的。
第二,關(guān)于智能機器人的刑事責(zé)任主體地位。我的主要觀點是,在弱人工智能時代,智能機器人在設(shè)計和編制的程序范圍內(nèi)實施嚴(yán)重危害社會的行為,實際上是研發(fā)者或使用者行為的延伸,應(yīng)當(dāng)由研發(fā)者或使用者承擔(dān)刑事責(zé)任。與傳統(tǒng)犯罪相比,研發(fā)者或使用者之間的刑事責(zé)任分配會隨著智能機器人智能的增長而有所不同。智能機器人智能的增長還會影響對行為人量刑的輕重,甚至可能影響對行為人行為的性質(zhì)判斷。智能機器人在自主意識和意志的支配下超出設(shè)計和編制的程序范圍實施嚴(yán)重危害社會的行為時,應(yīng)將其作為刑事責(zé)任主體進行刑罰處罰。對此,哈列維教授從犯罪事實要素和心理要素要求的角度,分別論證(1)強人工智能實體(即自主運行的人工智能系統(tǒng))不但能夠符合犯罪事實要素(行為、情節(jié)、后果)的要求,同時也能夠符合心理要素(故意、過失、嚴(yán)格責(zé)任)的要求,應(yīng)當(dāng)獨立承擔(dān)刑事責(zé)任。在此基礎(chǔ)上,哈列維教授還進一步探討了一般抗辯對人工智能系統(tǒng)的適用性問題。(2)弱人工智能實體(即不能自主運行的人工智能系統(tǒng))由于不具有犯罪所要求的形成心理要素的能力,不能獨立承擔(dān)刑事責(zé)任。對此,人工智能實體和自然人共同犯罪時的責(zé)任分配,哈列維教授認(rèn)為可以適用間接正犯、可能的后果責(zé)任等理論。
第三,關(guān)于智能機器人刑罰處罰的機制配置。我的主要觀點是,我國現(xiàn)有刑罰體系是由生命刑、自由刑、財產(chǎn)刑和權(quán)利刑構(gòu)成,刑罰處罰對象及刑罰處罰方式均無法也不能涵括智能機器人。重構(gòu)我國刑罰體系并將智能機器人納入刑罰處罰的范圍符合刑罰的目的,同時也符合人工智能時代發(fā)展的需要且并未違背基本法理。建議增設(shè)能夠適用于智能機器人的刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰處罰方式,并在條件成熟時增設(shè)適用于智能機器人的財產(chǎn)刑或者權(quán)利刑等刑罰處罰方式。哈列維教授則是從現(xiàn)有的死刑、監(jiān)禁、緩刑、公共服務(wù)和罰金等刑罰制度出發(fā),論證這些刑罰適用于人工智能實體的可行性。
本書中,哈列維教授對每章的論述都契入了人工智能現(xiàn)實應(yīng)用場景中可能發(fā)生的犯罪案例,并提供了各個案例的理論解答。這種論證方式使得原本稍顯晦澀的教科書類學(xué)術(shù)書籍,更加活潑生動,更加便于理解,也更加適合非專業(yè)的廣大讀者。
總體而言,本書的整體論證全面而系統(tǒng),理論構(gòu)建深入而細致,引用案例豐富而經(jīng)典。我相信,這本譯著的出版十分有助于推動國內(nèi)學(xué)者對哈列維教授理論的認(rèn)知,十分有助于拓寬國內(nèi)學(xué)者對人工智能與刑法關(guān)系問題的研究視野,十分有助于促進國內(nèi)外有識之士學(xué)術(shù)互動的進一步深入。人類社會正處于承舊時代在前、啟新時代于后的弱人工智能時代,回顧、梳理、展望人工智能與刑事責(zé)任的昨天、今天與明天,不僅可能,且意義重大。
本書譯者陳萍博士在南京大學(xué)法學(xué)院連續(xù)接受法學(xué)本科、碩士和博士教育,具有牢固的法學(xué)理論基礎(chǔ),同時,兩次赴法深造,精通英語和法語,能夠潛心鉆研學(xué)術(shù)。我是陳萍博士的博士后合作導(dǎo)師,經(jīng)過這兩年的師生交流,我對她的學(xué)術(shù)能力和學(xué)術(shù)態(tài)度非常肯定。她的翻譯行文流暢、邏輯分明,顯示出良好的遣詞造句功力,我深以為可。期待她能以本次翻譯為契機,繼續(xù)深度拓展人工智能與刑法關(guān)系問題的研究。
是為序。
劉憲權(quán)華東政法大學(xué)刑事法學(xué)研究院院長,教授,博士生導(dǎo)師2019年5月20日于上海
主編序/1
中文版序/1
推薦序/1
第一章機械犯罪人的起源
第一節(jié)對機械人的無盡探索/1
一、 人工智能的歷史和史前史/1
二、 定義人工智能以及對機械人的無盡探索/5
三、 化劣為優(yōu):人工智能的工業(yè)化和私人化/12
第二節(jié)進化與退化:機械犯罪人/14
一、 服務(wù)與保護:人類對人機共處的恐懼/15
二、 進化與退化:作為副產(chǎn)品的機械犯罪人/18
三、 動物法律模式不適用于人工智能技術(shù)/23
四、 事故可能引發(fā)的技術(shù)進化/26
五、 思考的未來:超級智能與后生物學(xué)/27
第三節(jié)現(xiàn)代犯罪人/29
一、 特定犯罪的基本要求/30
二、 特定犯罪的要求:現(xiàn)代刑事責(zé)任的極簡主義矩陣圖/33
三、 非人類的公司法人案例(第一回合)/38
第二章故意犯罪中人工智能的刑事責(zé)任
第一節(jié)事實要素要求/52
一、 行為/52
二、 情節(jié)/55
三、 結(jié)果和因果關(guān)系/56
第二節(jié)心理要素要求/57
一、 故意要求的結(jié)構(gòu)/58
二、 滿足認(rèn)識方面要求/62
三、 滿足意志方面要求/69
第三節(jié)人工智能故意犯罪的刑事責(zé)任實體/77
一、 人工智能實體的責(zé)任/77
二、 自然人責(zé)任:間接正犯/82
三、 自然人和人工智能實體的共同責(zé)任:可能的后果責(zé)任/87
總結(jié)開篇事例:故意殺人機器人/94
第三章過失犯罪中人工智能的刑事責(zé)任
第一節(jié)事實要素要求/106
第二節(jié)心理要素要求/106
一、 過失要求的結(jié)構(gòu)/106
二、 滿足過失要求:客觀性是主觀的嗎?/110
第三節(jié)人工智能過失犯罪的刑事責(zé)任實體/116
一、 人工智能實體責(zé)任/116
二、 自然人責(zé)任:間接正犯和部分無罪的代理人/118
三、 自然人和人工智能實體的共同責(zé)任:可能的后果責(zé)任/120
總結(jié)開篇事例:過失殺人的機器人/122
第四章嚴(yán)格責(zé)任犯罪中人工智能的刑事責(zé)任
第一節(jié)事實要素要求/128
第二節(jié)心理要素要求/129
一、 嚴(yán)格責(zé)任要求的結(jié)構(gòu)/129
二、 滿足嚴(yán)格責(zé)任:使事實成為心理/132
第三節(jié)人工智能嚴(yán)格責(zé)任犯罪的刑事責(zé)任實體/135
一、 人工智能實體責(zé)任/135
二、 自然人責(zé)任:間接正犯/137
三、 自然人和人工智能實體的共同責(zé)任:可能的后果責(zé)任/139
總結(jié)開篇事例:殺人機器人的嚴(yán)格責(zé)任/140
第五章一般抗辯對人工智能刑事責(zé)任的適用性
第一節(jié)刑法中一般抗辯的功能/147
第二節(jié)免責(zé)化抗辯/150
一、 未達法定年齡/150
二、 失去自控(自動癥)/152
三、 精神疾病/155
四、 麻醉狀態(tài)/157
五、 事實錯誤/160
六、 法律錯誤/163
七、 實質(zhì)豁免/165
第三節(jié)正當(dāng)化抗辯/166
一、 正當(dāng)防衛(wèi)/167
二、 緊急避險/171
三、 脅迫/173
四、 上級命令/176
五、 輕微不計/179
總結(jié)開篇事例:機器人正當(dāng)防衛(wèi)殺人/180
第六章人工智能實體的量刑
第一節(jié)對人工智能實體施以刑事處罰的概念適用性/195
一、 人工智能量刑的目的:修復(fù)和能力剝奪相結(jié)合/195
二、 轉(zhuǎn)化的法律技術(shù):公司法人案例(第二回合)/200
第二節(jié)對人工智能實體施以刑事處罰的可適用性/203
一、 死刑/203
二、 監(jiān)禁和暫緩監(jiān)禁/205
三、 緩刑/207
四、 公共服務(wù)/209
五、 罰金/211
總結(jié)開篇事例:殺人機器人的量刑/213
結(jié)語/221
參考文獻/223
案例/239
索引/253
譯后記/261
表1事實要素要件的目標(biāo)問題/34
表2心理要素要求形式的比較/36
表3滿足心理要素要求形式的比較/37
表4故意的一般結(jié)構(gòu)/61
表5過失的一般結(jié)構(gòu)/109
表6嚴(yán)格責(zé)任的一般結(jié)構(gòu)/132
表7間接正犯中他人的犯罪心理狀態(tài)所反映的法律狀態(tài)/138審判機器人第一章機械犯罪人的起源第一章14機械犯罪人的起源