如同其他新興技術(shù)成果,人工智能在推動人類社會向智能化發(fā)展的同時,也伴隨著侵害人類利益的風險。無論從最大限度發(fā)揮人工智能推動社會進步的積極功能出發(fā),還是就促進人工智能技術(shù)自身穩(wěn)健可持續(xù)發(fā)展來看,都有必要精準識別人工智能可能存在的各類風險,并以此為前提,根據(jù)各類風險的生成特性以及風險應(yīng)對措施的作用機制,合理地組織對人工智能的風險應(yīng)對。毋庸諱言,在人工智能潛在的各類風險中,人工智能被濫用于實施犯罪活動、作為犯罪對象被不法攻擊以及人工智能基于自主運行而損害人類法益的刑事風險,最為引人關(guān)注,包括刑法在內(nèi)的社會治理機制究竟應(yīng)當如何“智能”地應(yīng)對“人工智能”,如何恰如其分、行之有效地治理人工智能刑事風險,已成為重要的時代課題。正是在人工智能技術(shù)研發(fā)以及法律治理需求的推動下,國內(nèi)外法學理論和法律實務(wù)界對人工智能表現(xiàn)出強烈的興趣,刑法領(lǐng)域的研究成果也呈現(xiàn)爆炸式增長的態(tài)勢,關(guān)于人工智能體能否成為刑事責任主體、其刑事責任應(yīng)采取何種歸責方式,甚至對人工智能體應(yīng)當適用何種“刑罰”等迅速成為熱門話題。近期,貴州大學法學院曹波副教授的新作《人工智能刑事風險治理邏輯與刑法應(yīng)對研究》出版面世,該書圍繞人工智能刑事風險科學化解及責任分配的研究主題,通過廓清當前理論研究不當理解人工智能刑事風險的偏誤,精準識別人工智能涉刑法的真問題,主動調(diào)適刑法的理念、制度與規(guī)則,合理組織對人工智能可能嚴重侵害人類法益風險的刑事反應(yīng),形塑人工智能研發(fā)和應(yīng)用所須堅持的底線規(guī)則,可以說,既有時代意義,又有自己的主體性。通讀書稿,我認為本書具有以下幾個特點:
一是基于求真立場,證成人工智能刑事風險的客觀存在。作為研究人工智能刑事風險治理的邏輯起點,首先需要證成人工智能在研發(fā)和應(yīng)用中確確實實存在侵害人類法益并且應(yīng)當進行刑事歸責的風險內(nèi)容。若人工智能缺乏此種刑事風險,抑或所潛在的風險不值得刑法介入或者刑法難以介入,人工智能刑事風險的應(yīng)對或治理便是一個偽命題。從既有研究來看,確有學者否定人工智能刑事風險的客觀真實性,認為法學界對人工智能的研究是“偽問題”;也有學者以人工智能尚處于不能自主運行的弱人工智能階段為由,提出人工智能刑事風險治理(或刑法規(guī)制)是“偽命題”。本書依靠人工智能技術(shù)專家的專業(yè)判斷,以及搜集人工智能運行中產(chǎn)生刑事風險的真實案例,令人信服地證成人工智能內(nèi)在之刑事風險具有不容否認的客觀真實性。作者同時指出,如何妥善應(yīng)對人工智能刑事風險,科學分配人工智能刑事風險所涉及的法律責任,是包括刑法在內(nèi)的法規(guī)范體系必須給予認真對待的“真問題”,至于采取何種刑法措施,如是否賦予人工智能獨立刑事責任主體地位,是否采用刑罰或保安處分處置“犯罪”人工智能等,則是刑法關(guān)于人工智能刑事風險應(yīng)對的措施之爭,屬于解決問題的具體方式。
二是運用類型化分析方法,闡釋人工智能刑事風險的具體內(nèi)容。類型化分析方法是一種長期被忽視但卻對刑法學研究至關(guān)重要的研究方法。本書在總結(jié)人工智能刑事風險主要類型的基礎(chǔ)上,充分運用類型化分析方法,根據(jù)刑事風險指向?qū)ο蠛椭饕獌?nèi)容的差異,將人工智能刑事風險分為對象性風險、純正工具性風險以及不純正工具性風險三類,即人工智能系統(tǒng)成為犯罪對象被不法攻擊或操縱的“對象性風險”,人工智能被濫用于實施犯罪的“純正工具性風險”,以及人工智能脫離人類控制而嚴重侵害人類法益的“不純正工具性風險”。不同類型的人工智能刑事風險,在生成機制以及治理邏輯等方面也存在相應(yīng)差異,自然需要以不同的治理規(guī)則予以應(yīng)對。這種類型化分析方法向讀者較為清晰而系統(tǒng)地展現(xiàn)了人工智能刑事風險之所在,更為人工智能刑事風險的刑法應(yīng)對提供了基本框架。
三是立足刑法的任務(wù)和屬性,妥當組織對人工智能刑事風險的刑法反應(yīng),F(xiàn)代刑法在專注自由與權(quán)利保障的基礎(chǔ)上,也將包括降低風險、保衛(wèi)安全在內(nèi)的法益保護作為基本任務(wù)。由于刑法是最具嚴厲性且成本最高的治理機制之一,理應(yīng)堅守謙抑性的內(nèi)在屬性,在民事侵權(quán)責任機制及行政處罰機制難以達到治理效果時,才選用刑法治理機制介入。本書在認同這一公理的同時,也進一步指出:“刑法謙抑性的要旨在于規(guī)范國家刑罰權(quán)的行使,防止國家刑罰權(quán)過分或不當侵入公民社會生活,強調(diào)合理劃分不同法律部門在調(diào)整特定行為的具體分工,實現(xiàn)特定行為法律規(guī)制系統(tǒng)內(nèi)部的協(xié)調(diào)性與互補性,而限定刑法規(guī)制范圍卻非刑法謙抑性的必然要求,刑法規(guī)制范圍也并非越窄越好!卑凑兆髡叩睦斫猓热蝗斯ぶ悄軒Ыo人類社會的刑事風險客觀存在,運用刑法給予應(yīng)對必定是刑法切實承擔保護法益任務(wù)的表現(xiàn),不會與刑法的謙抑性相抵觸。雖然對刑法謙抑性內(nèi)涵的此種詮釋是否完全科學合理還可進一步討論,卻也彰顯出刑法不應(yīng)停滯固化,需隨著社會的發(fā)展和變遷而適時調(diào)整其任務(wù)。當然,作者也深刻認識到單純靠刑法應(yīng)對的嚴重不足,充分重視行業(yè)規(guī)范、行政規(guī)制等非刑機制在應(yīng)對人工智能刑事風險中的應(yīng)有價值,并通過刑法中的“容許性危險”等教義學出罪原理,以實現(xiàn)刑法與其他治理手段的融會貫通。
四是秉承科學治理理念,建構(gòu)人工智能刑事風險的刑法應(yīng)對方案。正如對犯罪的治理必須厘清誘發(fā)犯罪的各種因素以及各種因素相互作用的致罪機制,人工智能刑事風險的有效應(yīng)對也要求明晰人工智能刑事風險的產(chǎn)生機制和內(nèi)在規(guī)律,進行有針對性的治理。據(jù)此,本書分別提出了對人工智能工具性刑事風險的應(yīng)對治理方案:針對人工智能被濫用于實施犯罪的“純正工具性風險”,提出應(yīng)當運用刑法教義學分析范式,根據(jù)現(xiàn)有刑事歸責原理,對故意設(shè)計、制造邪惡人工智能,懈怠注意義務(wù)設(shè)計、制造嚴重瑕疵的人工智能,濫用人工智能實施犯罪或者未盡合理監(jiān)管義務(wù)導(dǎo)致嚴重危害后果等,分別追究人工智能背后相關(guān)人員的刑事責任;針對人工智能脫離人類控制侵害法益的“不純正工具性風險”,提出在有的情況下需要借鑒“科技社會防衛(wèi)論”,運用保安處分予以應(yīng)對,但在另一些情況下則可以援引“容許性危險”作為法理依據(jù)來排除刑事歸責,通過商業(yè)保險等社會性風險分攤機制予以應(yīng)對,以期盡量為人工智能技術(shù)的發(fā)展預(yù)留必要的法律空間。
本文摘自作者給《人工智能刑事風險治理邏輯與刑法應(yīng)對研究》(曹波著,經(jīng)濟管理出版社2024年版)一書所撰序言。
作者:劉仁文,中國社會科學院法學研究所研究員,中國刑法學研究會副會長。
來源:《民主與法制時報》2024年12月19日。
