人類(lèi)中的犯罪者,有法律的嚴(yán)懲,但如果侵害者是機(jī)器人呢?
全國(guó)人大代表、致公黨上海市委專(zhuān)職副主委邵志清認(rèn)為,一旦有侵害發(fā)生,智能機(jī)器人的使用者、制造者、機(jī)器人本身都應(yīng)承擔(dān)責(zé)任,但這些法律責(zé)任應(yīng)進(jìn)行嚴(yán)格的區(qū)分。
邵志清表示,在造福人類(lèi)的同時(shí),人工智能所帶來(lái)的社會(huì)問(wèn)題也逐漸顯現(xiàn),開(kāi)始從技術(shù)領(lǐng)域、民事領(lǐng)域向刑事領(lǐng)域轉(zhuǎn)變。
比如,2015年7月英國(guó)《金融時(shí)報(bào)》曾報(bào)道了德國(guó)大眾公司的機(jī)器人“殺人事件”,一名工作人員被正在安裝的機(jī)器人突然抓起重重摔向金屬板而不治身亡。
他表示,傳統(tǒng)刑法領(lǐng)域只有自然人才是刑法規(guī)制的主體,在人工智能應(yīng)用場(chǎng)景下,很多機(jī)器成為了主體。另外,機(jī)器的主觀意愿的認(rèn)定也帶來(lái)了困難。對(duì)于這類(lèi)問(wèn)題,現(xiàn)有的法律難以規(guī)范。
他表示,社會(huì)對(duì)人工智能的認(rèn)識(shí)也還處于初步階段,目前進(jìn)行綜合立法的條件還不具備,但為了防范重大風(fēng)險(xiǎn),需針對(duì)人工智能的具體應(yīng)用進(jìn)行立法。
他進(jìn)一步建議,人工智能應(yīng)用的管理應(yīng)該重點(diǎn)圍繞倫理道德、資源獲取、主體認(rèn)定、行為認(rèn)定、責(zé)任劃分等方面進(jìn)行立法。
倫理道德上,他特別提出,應(yīng)在基因工程、生命科學(xué)、情感意識(shí)等方面用法律為智能社會(huì)劃出倫理道德的邊界,讓人工智能服務(wù)造福而不是困擾危害人類(lèi)社會(huì)。
他建議,需明確具有自主學(xué)習(xí)、思考、行動(dòng)能力的機(jī)器人成為適格主體的應(yīng)用場(chǎng)景和應(yīng)用前提等。
同時(shí),明確認(rèn)定機(jī)器人意圖的原則,特別是要解決機(jī)器人基于人工智能進(jìn)行獨(dú)立判斷和決定所實(shí)施侵害的主觀方面認(rèn)定問(wèn)題。
-
機(jī)器人
+關(guān)注
關(guān)注
210文章
28212瀏覽量
206559 -
人工智能
+關(guān)注
關(guān)注
1791文章
46872瀏覽量
237599
原文標(biāo)題:人大代表邵志清:要立法制約人工智能
文章出處:【微信號(hào):tjrobot,微信公眾號(hào):天津機(jī)器人】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論