無論人們歡欣抑或踟躕,人工智能時代正悄悄向我們走來,人類即將甚至已經開始進入一個全新的時代。時下,智能機器人被廣泛應用于社會生活,并且在某種程度上扮演著替代人類工作乃至超越人類能力的“人”的角色。
一、人工智能時代的階段劃分反映歷史進化
根據智能機器人的“智能”程度,我們可以將人工智能時代劃分為三個階段——普通智能機器人時代、弱人工智能時代和強人工智能時代。普通智能機器人、弱智能機器人和強智能機器人都可以在一定程度上實現對人類大腦功能的替代。其中,普通智能機器人與弱智能機器人的區別在于是否具有深度學習能力,弱智能機器人與強智能機器人的區別在于是否具有獨立的辨認能力和控制能力,即是否能夠在自主意識和意志的支配下實施行為。簡言之,從普通智能機器人到弱智能機器人再到強智能機器人的“進化”史,其實就是一部機器人的辨認能力與控制能力逐漸增強的歷史,是機器人中“機器”的因素逐漸減少而“人”的因素逐漸增多的歷史,是機器人從“機器”向“類人”乃至“超人”進化的歷史,也是機器的“智能”(只有人才具有)逐漸增強并對自己的行為達到自控的歷史。隨著智能機器人的不斷進化,人與智能機器人在對“行為”的控制與決定能力上存在著此消彼長的關系。
二、人工智能時代的刑事風險需要予以關注
人工智能技術在為人類帶來福祉的同時,也為人類帶來了諸多刑事風險,如危害國家安全和公共安全、侵犯公民人身權利和財產權利、破壞經濟秩序和社會秩序等。不同類型的智能機器人為人類社會帶來的刑事風險存在本質區別。就普通智能機器人而言,普通智能機器人作為犯罪工具時,與一般工具無異;普通智能機器人作為犯罪對象時,可能會因普通智能機器人的特性而影響犯罪的性質。就弱智能機器人而言,弱智能機器人仍然只能在人類設計和編制的程序范圍內實施行為,其行為本質上是智能機器人的研發者或者使用者行為的延伸,實現的是研發者或使用者的意志,行為所產生的后果也應全部歸責于研發者或使用者。對于其中的絕大部分刑事風險所涉及的犯罪行為,刑法及相關司法解釋可以進行有效的規制。但是,我們也應看到,人工智能技術的井噴式發展和法律的滯后性也形成了不和諧的局面,“無法可依”的危害在某些領域已顯露端倪。應為弱智能機器人的研發者和使用者設定相應義務,并明晰二者的刑事責任承擔路徑。就強智能機器人而言,當強智能機器人超出設計和編制的程序,在自主意識和意志的支配下實施行為時,其已經完全超出工具的范疇。因為此時的強智能機器人已具有獨立的意識和意志,其行為不再是研發者或使用者行為的延伸,甚至從根本上違背研發者或使用者的目的,行為所產生的后果也不能當然地歸責于研發者或使用者。在此狀態下,強智能機器人完全可能在自主意識和意志的支配下獨立作出決策并實施人類無法控制的嚴重危害社會的行為。盡管現行刑法尚未有規制,但是在應然層面,應將其作為刑事責任主體,并針對其特點增設特殊的刑罰處罰方式。
三、人工智能時代對現行刑法理論沖擊不可避免
對于人工智能時代不同階段的刑事風險應采取不同的刑法規制策略。
在認定涉普通智能機器人犯罪的刑事責任時,需明確其與傳統工具的不同,即人的意志通過程序在普通智能機器人身上得以體現,普通智能機器人所體現的意志就是人的意志,因此普通智能機器人可以成為詐騙類犯罪的對象。以ATM機為例,ATM機與真正意義上的業務人員相比,除了能完成一些簡單的業務操作外,并不具有人腦的其他思維、辨別能力。就此而言,如果ATM機出現了機械故障,我們最多只能說這類似于人的精神出了問題,而決不能將此理解為是人的認識或理解錯誤。此觀點最主要解決的是,如果行為人利用ATM機等普通智能機器人被電腦賦予的識別功能獲取錢財,則應構成詐騙類的犯罪,人的意志通過程序在普通智能機器人身上得以體現,普通智能機器人所體現的意志就是人的意志,因此普通智能機器人可以成為詐騙類犯罪的對象。而行為人如果利用普通智能機器人本身所具有的機械故障獲取錢財,就相當于從精神病人處獲取錢財,則應構成盜竊類犯罪。
對于弱智能機器人而言,一方面,要為弱智能機器人的研發者和使用者設立相應的風險防范義務。相關人員違反了相應的法律規范并對社會造成嚴重危害的,可以追究其刑事責任;另一方面,在將弱智能機器人當成犯罪工具,利用弱智能機器人進行犯罪的情況下,如果研發者與使用者并非同一人,且研發者與使用者之間沒有通謀時,需要細分不同情況來明晰研發者與使用者之間的刑事責任分擔方式。具體而言,其一,研發者故意設計并制造出專門實施犯罪行為的弱智能機器人。在這種情況下,如果使用者明知該弱智能機器人只能被用于實施犯罪行為而仍然使用,則可以認為,使用者也有利用該弱智能機器人實施犯罪的故意,也即應分別追究研發者和使用者利用弱智能機器人故意犯罪的刑事責任。如果使用者誤以為該弱智能機器人是實施合法行為的工具而使用,則使用者對該弱智能機器人造成的損害不具有故意,不能追究使用者故意犯罪的刑事責任,而應根據使用者是否有預見到該弱智能機器人可能造成損害的義務,將使用者的行為認定為過失犯罪或意外事件。其二,研發者設計弱智能機器人時,僅具有讓智能機器人實施合法行為的目的。在這種情況下,如果由于使用者的不當使用,使得弱智能機器人造成對社會或個人的嚴重損害,則應根據使用者是否存在造成損害的主觀故意,追究使用者的故意或過失的刑事責任。如果研發者在設計過程中由于過失使得指導弱智能機器人實施行為的算法或編程存在缺陷,使用者明知這種缺陷的存在仍然故意利用弱智能機器人實施犯罪行為,可能構成間接正犯,研發者則構成過失犯罪。如果使用者在使用中也存在過失而使得弱智能機器人致損,應當分別追究研發者和使用者過失犯罪的刑事責任。其三,受制于技術發展的限制和難以預見的原因,出現了弱智能機器人致損的情況,研發者和使用者不應承擔任何刑事責任。這種情況應被認定為意外事件。
四、人工智能時代重構刑法理論體系應當未雨綢繆
對于強智能機器人而言,將在設計和編制的程序范圍外實施行為的強智能機器人作為行為主體與社會成員來看待,對其實施的嚴重危害社會的行為予以刑罰處罰,是強人工智能時代規制強智能機器人行為的必由之路。既然強智能機器人可能在自主意識和意志的支配下實施行為,就應該用刑法理論重新“審視”強智能機器人的本質,如果其具備刑事責任主體相關的各種必備要件,就應賦予其刑事責任主體的地位。應當看到,“智能”只有自然人才具有,其他任何動物和物品均不具有“智能”,智能機器人與一般機器的區別就在于其具有自然人才具有的“智能”,也即人工智能實際上就是自然人創造了只有自然人才具有的“智能”。而建立在“智能”基礎之上的“自由意志”又決定了獨立的辨認能力和控制能力的存在,那么智能機器人的“智能”一旦全面達到甚至超過自然人的智能,其具有自由意志似乎就是一個不言而喻的結論。強智能機器人具有自由意志,也就具有了獨立的辨認能力和控制能力,應當被認定為刑事責任主體。
應當看到,在人工智能時代,需要完善對涉人工智能犯罪的刑法規制的策略并逐漸重構刑法理論體系,而刑法理論的完善可以說是“任重而道遠”。在促進人工智能技術發展,當好技術的“護航者”的同時,又時刻警惕人工智能技術可能對人類社會帶來的威脅,從源頭上遏止技術風險,既是刑法在人工智能這個“最好的時代”也是“最壞的時代”體現功能的應有趨向,也是發揮人工智能技術的最大效用、促進人類文明進步的必由之路。
責任編輯:YYX
-
人工智能
+關注
關注
1791文章
46867瀏覽量
237590
發布評論請先 登錄
相關推薦
評論