查看原文
其他

上政学报| 陈京春 对人工智能的科学判断与刑法的理性应对

上海政法学院学报 上海政法学院学报 2023-10-09


(本文刊登在《上海政法学院学报》2020年第6期)

 

                陈京春,西北政法大学教授。       



【摘要】

习近平总书记指出,要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究。围绕人工智能科技法治的研究基础是对人工智能的科学认识和判断。强人工智能(通用人工智能)的实现具有不确定性。研究强人工智能的刑法挑战问题固然必要,但是,在今后相当长一段时期内,研究的重点应聚焦于人工智能产业发展的安全保障与刑法应对问题。面对着人工智能的发展,刑法应坚守二次调整法的属性,紧密围绕人工智能产业的核心要素进行保护与规制。人工智能的研发与生产者的责任主要是产品责任,制定行业安全标准是进行刑事追责的前提。人工智能相关权益应纳入法益保护的范围,同时,对人工智能的滥用,可构成普通刑事犯罪,亦可构成危害公共安全犯罪。


【关键词】

科技法治;人工智能;风险控制;刑法规制;公共安全



人工智能是新一轮科技革命和产业变革的重要驱动力量。习近平总书记高度重视我国新一代人工智能发展,多次对人工智能的重要性和发展前景作出重要论述。他指出,“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应。”“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手”。同时,习近平总书记特别指出,“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究”,以保障人工智能的应用安全和健康发展,让技术造福人类。国务院在《新一代人工智能发展规划》当中提到,到 2030 年我国人工智能理论、技术与应用总体要达到世界领先水平,成为世界主要人工智能创新中心。为了这一战略发展目标的实现,我们要“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。基于国家战略规划的重大需求,人工智能法学已经成为理论研究的重点和热点。作为人工智能法学研究的主要命题,人工智能社会风险防控成为网络治理法律制度顶层设计中心环节之一 ,不仅法理学、民法学界对人工智能的法律问题给予了高度关注,刑法学界也对人工智能相关的刑事责任、大数据财产权、过失犯罪等问题进行了初步研究。围绕人工智能科技法治的研究基础是对人工智能的科学认识和判断。综观现有的刑法学研究,还处于起步阶段,存在诸多认识上的混淆和误区,反映出学界对人工智能科技的认识还不够深入,对于如何保护和规制人工智能技术的应用,缺乏现实、整体性思考,值得深入系统研究。



一、对人工智能及其风险的科学判断


(一)从弱人工智能到强(通用)人工智能

人工智能就是指由人类所制造的机器智能。人工智能的原型是自然智能,特别是人类的智能。人工智能科学技术是脑科学、认知科学与信息科学技术的交叉产物,是信息时代的“头脑”科学技术。人工智能从发展阶段来看,可以作弱人工智能、强人工智能和超级人工智能(通用人工智能)的分类。弱人工智能只是按照程序设计对特定的信息作出相应的反应,作为人类实现预期目的的工具。而强人工智能是超越工具型智能而达到第一人称主体世界内容的涌现,还包括意向性、命题态度,乃至自由意志的发生,具有与人类对等的人格结构。


所谓超级人工智能则进一步发展出具有发明语言和反思自身整个系统的关键能力。当前人工智能尚处于弱人工智能阶段。对于人类是否可以创造出强人工智能、超级人工智能,存在截然不同的两种观点。计算主义(物理主义)认为,人工智能如果“获得足够的大脑的计算机功能属性”,就能最终使仿真大脑进行智能工作。以库兹韦尔为代表的学者认为,人工智能会以超出预想的速度超越人类智能。但是,也有学者认为,建设超人类水平的通用人工智能需要数百年的时间。目前,理论界对于人类智能,尤其是“隐性智能”至今还没有系统性的研究成果。 鉴于在生物意义上众多奥秘还远未揭开,相关科学领域与人工智能研究的交叉存在不足,尚不能奢望机器完全模拟人类的智能和情感。


而且,人不光有智性,还有心性(感情、情绪、感觉的发源地)和灵性(精神世界、崇拜及信仰),现在尚看不到机器人在此方面的潜力。可以说,在没有揭示人类智能的奥秘之前,所有的人工智能(人造机器),仍属于“弱人工智能”的范畴。这种“弱人工智能”有可能通过图灵测试,但与人的意向性及主体感受内容不相干,没有自我意识(自由意志)。即便是弱人工智能的科技进步,也并非易事。但是,法学界(包括刑法学界)似乎比科技界更急不可待,纷纷将研究的重点放在强人工智能实现背景下的未来法学,以未雨绸缪,而对与国家人工智能发展规划所列明的发展要点相关的法学问题的研究关注不足。并且,有学者在论证过程中飘忽于弱人工智能与强人工智能之间,迷失了理论研究的基础和对象。基于人工智能技术和产业发展的现状,以及对下一个时期发展进程的展望,当下法学研究应聚焦于如何保障和促进人工智能产业健康发展,并随着科技的发展开展前瞻性研究。


(二)人工智能带来的风险与控制

备受关注的人工智能的风险挑战,主要聚焦于强人工智能。由于人工智能深度学习的应用,智能机器人的行为将是非线性的,实际上是不可预测的 ,人类存在失去对人工智能控制的可能性。也有反对的观点,认为对人工智能的过度期待或深度忧虑,大多缘于缺乏学理根据的科幻想象或人们对自身身份认同前景的恐慌。人工智能所带来的现实风险是对社会和法律制度的挑战。人工智能不是简单地应用人类设计的算法,而是产生它自己的算法,模拟人类大脑的可塑性。同时,人工智能不一定需要机器人的躯壳,可能只是游走于网络间的“超级算法”。人工智能不再是传统意义上的物、工具,而是呈现出游离于人类掌控外的多变性和“自主性”。由此而产生的一系列的控制与责任的新问题。


相应的,传统法律风险向非传统法律风险转化。人工智能使人类面临着包括算法偏差、算法黑箱、机器歧视在内的新型法律风险。面对人工智能,人们的思想观念滞后,政策取向不清晰,伦理规制缺失,法律法规不健全,人类正处于巨大的不确定性和风险之中。


“人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。”安全问题是人工智能的核心问题,安全成为人工智能时代的核心价值。如果我们将诸如自动驾驶、杀手机器人等应用中,有关生和死的关键道德决策委托给那些相对有限的软件算法,而不再依赖于人的智慧,甚至于人类任由人工智能失去最终的控制,安全无从谈起。


人类对人工智能的控制是避免风险的前提和基础。这种控制包括两个方面。其一,设定人工智能的目标,保障其目标符合人类的利益和价值取向。这也是设定人工智能伦理规范的基本要求;其二,人类虽然不能完全预测人工智能算法的演进和迭代,但是对深度学习的风险应有预测、评估和监控,不能放任自流;其三,对于投入使用的人工智能应设置安全标准和准入规则。正如传统汽车没有得到批准不能进入交通领域一样,具有智能的产品更应在进入使用领域前进行安全评估和认定。自动系统的具体行动无法预测,取决于后天的学习和信息的处理,但是这并不意味着这些系统的风险在事前无法被认识到。“相反,汽车生产商事实上认识到并且接受了自动驾驶汽车的安全风险,因为它们是由算法控制的。”而最终自动驾驶汽车是否投入市场,决定权在于相关管理部门的认证和许可。所谓“人工智能自主的行为”由人工智能负责的观点,是值得商榷的。


(三)从作为工具的人工智能到作为人类伙伴的人工智能现实意义上看,人工智能安全性问题的根源在于人类是否对其拥有充分的控制权。尽管随着人工智能的发展进步,展现出在图像、语言识别等专项能力上的优势,但是当下及以后很长的一段时间内,人工智能更多地呈现出工具性的特征,它可以是人类的辅助性的工具,甚或替代人类完成特定的事务,但最终的决定权仍在人类。人工智能是可以由人类控制的,除非人类主动放弃了控制权。人工智能生成的共性核心机制,就是在给定的“待求问题、先验知识和预设目标”的约束下“获取信息、提炼知识、生成智能”的过程 ,即便是具有深度学习能力的更“自主性”的人工智能也是如此。人们对人工智能的无限遐想,更多是基于人类的创新意识和冲动。人类往往主观上将人工智能拟人化,尤其是对于智能机器人。本质上,工业机器人所造成的严重后果,并非出于“恶意”,而是因为它们做出了无效的假设:那里没有人,或者那个人是一个汽车零部件。


它们没有自我意识、自由意志,所实施的“行为”取决于设计者的目标设定。即便对于超级人工智能,理论上也有控制方法,包括能力控制方法(旨在控制超级智能能够做什么)和动机选择方法(旨在控制超级智能想要做什么)。弱人工智能向强人工智能演进是科技进步的必然趋势,但人工智能在人类的风险管控下,始终应当是对人类“友好”的“伙伴”。在梦想中的具有自主意识的强(超级)人工智能实现并得到人类赋予“人权”之前,这里所言的“友好”“伙伴”只是比喻。将越来越具有“自主性”的人工智能,尤其是人工智能机器人拟人化为人类的“伙伴”是可以理解的,因为人类在人机互动的过程中自然而然会对人工智能赋予情感,正如人类对于动物权利的关注。如何对待动物或人工智能(尤其是服务型人工智能机器人),关乎人类的情感和伦理。


随着人工智能的进化,人类的智慧和文化也必将随之而动。是否将人工智能当作拟制的人,取决于人类。但在人类与人工智能共同进化的进程中,只要人类没有失去对人工智能的控制,即便人工智能(智能机器人)变得足够复杂,它们既不是人类的仆人,也不是人类的主人,而是人类的伙伴。




二、人工智能相关刑法理论研究的误区


(一)关于智能机器人的刑事责任与权利

有学者提出,一旦智能机器人产生自主意识和意志,并在其支配下实施超出设计和编程范围内的犯罪行为,那么智能机器人可能就需要面临刑事责任的承担问题。这一观点建立在人工智能未来产生自主意识和意志的基础之上,同时,又设定了智能机器人在设计和编制的程序范围之外实施行为的情形,似乎脱离了与研发者的关系,这与人工智能的基本原理是不相符的。并不是说探讨具有自主意识和意志的人工智能没有必要,但是,就人工智能科技的发展而言主张人工智能具有刑事责任能力的理由是不成立的。其一,行为与对行为承担责任的主体是人,而非物。行为和不行为只能是人的行为和不行为,当有人说到法人的行为和不行为时,一定是有关人的行为和不行为。


其二,人工智能是否具备自由意志、自主意识是尚没有解决的科学问题,如何创造尚不可知,更谈不上如何将其认定为法律意义上的“人”;其三,所谓的刑事责任能力,要求行为人具有法律规范意识,“虽然人工智能的目标在于使机器像人一样思考并获得独立自主学习的能力,但其行为不论是依照预先设定的程序运行还是脱离程序设计的自主运行,欠缺法规范遵从能力的意志性,即使客观上造成法益侵害后果,同样不具有刑法上的可归责性”;其四,无刑罚则无犯罪是罪刑法定的基本内核。人工智能尚不明确是否具有自由意志,何谈刑罚目的的实现;其五,用单位犯罪主体的逻辑来说明人工智能可以作为刑事责任主体,从逻辑上讲是不合理的。单位犯罪主体的基础是自然人,其目的是解决单位归责问题。而人工智能作为独立的存在,并非依托于自然人的自由意志,因此,两种情形存在根本不同。很难想象,将没有具体物质载体(包括没有人型躯壳)的人工智能(此类人工智能可能只是运行于云平台)作为刑事责任主体认定,有何法

律意义?对其侵害行为的处置,完全可以通过构建另外一套应对措施来应对,而不是混淆人工智能与人的差异性,导致“非人化”的误区。西方学者指出,要警惕陷入过度地将人形机器人拟人化的陷阱。


当我们一想到机器人,我们总是习惯性地把它们想象成人的形象。即便当一个机器人并未被赋予人类的形象,我们也很难不把人类的特征、意志和动机加诸到机器人身上。当我们尝试为机器人立法时,这种将人类特征投射到机器人身上的做法是危险的。机器人在很长的时期内,仍将只是工具。同样,将人工智能作为刑事被害人同样令人匪夷所思。有观点认为,如果赋予了智能机器人民事主体资格,行为人应当承担故意伤害罪或者故意杀人罪的刑事责任,因为此时刑法保护的“人”不再局限于单一的从母体中出生并拥有独立呼吸的主体。


对此,反对的观点指出,机器人的权利是荒谬的。我们已经把权利赋予了动物,但动物却从不要求有权利。直到现在,动物权利的保护尚处于边缘状态,虐待动物的行为还未纳入刑法保护,同样,将人工智能机器人作为人来保护,当下还不会被认可。但是,这并不否定将一定智能水平和人机交互应用的人工智能机器人作为特殊的财产予以刑法保护,应有别于一般财物。


(二)关于人工智能制造者和使用者的严格责任

有学者提出,人工智能是在设计和编程范围内进行操作体现的还是人类的意志。可以考虑在刑法中确立人工智能产品研发者和使用者的严格责任,增设人工智能产品事故罪。这一观点也是值得商榷的。其一,由于人工智能深度学习的应用,何谓人工智能在人类设计和编制的程序范围之内或之外进行操作,这样的表述本身是不周延的。人工智能的研发者对于人工智能算法在深度学习的情况下如何改进、迭代不好预判,似乎人工智能在人类设计和编制的程序范围之外有了所谓的“行为”,但是,研发者对于自主学习和算法迭代所可能造成的后果,应当具有抽象的认识。更为重要的是,是研发者设定了人工智能的目标,而且有义务监控人工智能是否脱离了目标的指向;其二,要追究研发者人、使用者过失犯罪的刑事责任,甚至确立严格责任,义务前提是关键。研发者、使用者在违背特定义务的情况下,可以构成故意犯罪,也可能构成过失犯罪,而且所构成的特定犯罪首先应当考虑是否可以适用已有的罪名,还非急于创设新罪,造成不必要的法条竞合问题;其三,对研发者、使用者适用严格责任,虽然规避了“算法黑箱”所导致的司法认定困难的问题,但是却对研发者、使用者过于严苛,可能严重影响到人工智能研发和使用的创新性和积极性,不利于产业发展。


(三)忽视人工智能核心要素的刑法保护

人工智能科技之所以能够迅猛发展,并在实践中予以有效运用,离不开大数据、算法、云计算、基础支撑平台(包括未来的 5G 网络)等基础要素的发展。由于现有的刑法学理论研究侧重于未来时的人工智能的刑事责任和传统思维下的研发者、使用者的刑事责任的确定,所以对于刑法在法律体系中如何与其它部门法协作,保障人工智能科技和产业发展基础核心要素的问题往往被忽视了。尽管在大数据时代的刑法问题上,学者们已经进行了一些开创性的研究,但是,还没有与人工智能的刑法问题打通。


之所以此方面的研究过于冷清,还有其他原因。一方面,民法、行政法等领域的研究也刚刚起步,诸多问题还未有定论,刑法理论自然只有“静等其变”;另一方面,相关的行业规则和法律法规尚没有确立,刑法学的研究缺少研究基础和对象。但是,刑法理论研究已经热衷于未来可能实现的具有自主意识意志的人工智能的刑法问题的研究,没有理由对保障人工智能健康发展的现实问题袖手旁观。




三、人工智能时代刑法应对的应然策略

(一)对人工智能发展与安全挑战的理性认识

尽管人工智能将带来诸多不确定性的风险,但是,保障人工智能科技进步和产业发展是重中之重。随着科技进步,包括人工智能、转基因、量子科技等给人类社会带来无限发展可能的同时,也造成了诸多当下无法预判、无法验证的“风险”。客观上,这些“风险”具有不确定性,主观上人们存在畏惧感。但是,科技进步的步伐并不会因“风险”而止步。以人工智能为例,新的产业发展和各领域的产业升级,对于国家综合国力和国际竞争力的提升是至关重要的。在新一轮的工业革命中,科技进步决定了国运的兴衰。因此,首先要在确保人工智能产业发展的前提下,考虑人工智能的安全问题及其控制策略,而不能因噎废食;或者要求人工智能的研发者、使用者因承担过重的法律责任(包括刑事责任),而严重影响或阻碍人工智能的产业发展。


对人工智能的风险高度警觉是理性的选择。风险理论中“风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情,通过有意采取的预防性行动及相应的制度化的措施战胜种种副作用。”


面对人工智能从弱人工智能向强人工智能的发展进化,对人工智能所带来的风险制定预防性措施,进行有效的防控是必然的选择。对人工智能风险的控制首先是技术上的控制。鉴于人工智能的演化能力,有学者担心人类注定会进入技术全面控制人的时代。这种观点过于悲观,也不符合科技界的主张。目前,全球有许多团队正在进行人工智能安全性的研究,研究的焦点是如何保障人工智能的目标与人类的一致性,以及具体的控制方法。研究如何运用法律对人工智能进行控制,法学界存在天然的短板。深入了解人工智能机理的学者少,能够进行跨界研究的更少。面对法学控制的冲动,科技产业的领军人物马斯克指出,当下我们需要政府做的不是监督,而是洞察。具体来说,就是让具备技术能力的人在政府内担任职位,监控人工智能的进展,并在未来需要的时候插手控制。


刑法对于人工智能的研究,应在发展与安全之间寻求平衡。一方面是要推进技术进步,不能因风险的存在而禁锢思想,夸大风险,并使刑法过多地介入人工智能的风险控制,导致社会发展的停滞;另一方面,对于新科技的发展应用,刑法应维护人的主体地位、人类的安全与秩序。具有技术优势的个人和组织,应承担起相应的义务,而非肆意生长,导致风险的失控。在这样的矛盾紧张关系中,传统的、紧密结合大数据运用和算法机理的刑法规范分析,不利于科技进步,容易导致人工智能从业者畏手畏脚;而且完全回溯性的归责,对于人工智能而言也是不合适的,因为深度学习导致人工智能系统产生自己的算法,这不是人工智能设计者可以完全掌控和预测的。留给人类的具有可行性的方案,只能是预防性的、对不确定性结果容忍的策略。


(二)坚持为了人类福祉的刑法应对

“人工智能刑事法治的目标应当是人类的安全和福祉。”尽管人类中心主义受到批判,但是,放弃人类福祉的核心地位,强调人工智能享有平等的权益,还为时尚早。在当下和未来相当长的时间内,人工智能没有独立于人类的利益,也没有这样的利益诉求。正如动物权益保护常常成为民众关注的热点,但是,动物的权益还没有可能上升为刑法保护的利益,更何况模拟生物智能的人工智能。


从公众的角度看,人们仅希望将人工智能作为工具,而非令其接近甚至超越人类。因此,运用控制论,将人工智能的自主程度和智能水平限定在人类能够决定的范围内,建立人工智能安全标准、伦理规范和法律制度是当务之急。这就需要使算法进入法律,法律进入算法,使人工智能的基础操作系统符合人类的伦理和法律。


刑法将哪些与人工智能相关的危害行为纳入犯罪圈,取决于该行为是否严重侵犯或者威胁到国家、社会和个人的法益。在判断人工智能相关行为是否威胁到法益时,需要首先进行科技判断,以克服人们基于对新生事物的恐惧感而带来的主观性偏差;其次,在人类与人工智能的互动关系中,以发展的眼光看待人工智能是否带来了严重的危险,毕竟,人类对安全问题的研究水平和控制能力的提升,是与人工智能的发展同步的;再者,法益保护早期化的措施运用,如抽象危险犯的立法、具有实质危害性的行政犯的立法,对于人类的福祉不受典型的风险社会的风险行为的威胁具有合理性。因此,将没有达到安全标准的人工智能投入使用或进行商业运行可能具有刑事违法性,应不被允许。


(三)契合人工智能核心科技的刑法应对

人工智能的发展不仅提出了新的法律问题,也推动了法律的变革。人工智能科技的核心是算法的自主性与网络的连接性等特征,在进行刑法研究中,需要契合人工智能的核心技术,才能正确地理解和界定犯罪论的基本问题。人工智能算法的自主性、复杂性,导致深入结合算法去认定危害行为、因果关系、罪过等概念是极为困难的。其一,由于深度学习,人工智能的算法也将是不断改进和迭代的,当初的算法可能已经被修正。行为人将人工智能作为犯罪工具的情况下,其利用的可能不是最初的算法和逻辑;其二,行为人对于算法如何变化不可预测,没有具体的认识,而只是基于设定的人工智能的目标,对于危害社会结果的可能性有一定的认识。在这样的情况下,客观的超过要素理论应当受到重视;其三,尽管人工智能的自主性导致了危害结果的发生,但是,并不能因此而否定危害结果与利用人工智能的危害行为之间的因果关系,只有在人工智能的算法已经脱离了既定目标的情形下所造成的危害结果,才不可归因于行为人的利用行为。


人工智能将越来越多地界入人与人的交往,人工智能作为人类的辅助者,将替代人类完成诸多的人际交互行为。人与人之间的联系,往往由人工智能系统(机器人)作为沟通和互动的媒介。这导致未来的共同犯罪行为,可能存在共同犯罪人只是通过人工智能进行意思沟通和实施共同犯罪行为,与传统共同犯罪的最大不同是共同犯罪故意和共同犯罪行为中加入了人工智能的“意思”和“行为”。


“算法黑箱”可能导致犯罪故意认定的困境。如何判定行为人明知自己利用人工智能行为具有可能造成危害社会的结果,并且希望或者放任这种危害结果发生?按照传统的刑法理论,需要认定行为人明知自己利用的人工智能(算法)会产生对法益的侵害或者对规范的违反。但是,这依赖于对算法内在机理的客观认定和对行为人认识能力的判断。这一判断对于从事刑事法律工作的专业人士而言,几乎是不可能完成的任务。由此,犯罪认定必将越来越依赖于鉴定结论,法律认定顺从于科技层面的判断。对于行为人主观认识的判断往往与人工智能算法迭代的不可预测性相冲突。因此,刑法对于行为人主观认识的判断,更多地还是落脚于对人工智能功能和人工智能目标的认识,而不应深陷于对算法的认知问题。


(四)坚持二次调整法属性的刑法应对

由于人工智能科技突飞猛进的发展,法律相比较而言呈现出滞后性。当行为标准和伦理规则尚没有形成,法学研究也往往流于肤浅。但是,完善的法律体系是人工智能产业健康发展的基本保障,各法律部门在人工智能时代必须迎难而上,做出适当的应对。


有学者指出,法律应当对人工智能持一种开放态度,本着“最小化干预原则”推动技术与社会的创新。法律应对人工智能持其固有的保守主义立场,调整法律权利功能观和权利保障模式,实现对不确定性和风险的有效控制。这是构建人工智能法律体系应有的立场,更是对刑法应对和人工智能刑法体系建构的要求。对于人工智能的不确定性和风险的控制包括诸多层次。首先,依赖行业自律。毕竟人工智能行业的研发群体更了解人工智能的风险和安全问题。但是值得注意的是,人工智能行业利益可能导致研发者为了产业发展而低估或者隐瞒人工智能的风险。因此,行政管理机关有责任组织专家尽快制定人工智能的安全标准和市场准入标准,以保障对风险的有效控制。其次,侵权责任法、产品责任法、知识产权法、行政法等法律部门应及时研判人工智能相关问题的特殊性,以保障矛盾纠纷的及时化解和权益的确认与保护。同时,还应辅之于相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。


刑法作为二次调整法,应当保持其谦抑性,能够通过其它风险控制手段的,尽量不运用刑事手段,以保障人工智能产业的创新发展。对于能够通过刑法解释解决的问题,应坚持客观解释论予以化解,只有在人工智能应用相关危害行为无法通过其它部门法予以遏制的情形下,或者法益保护存在明显漏洞的情况下,再适用刑法或创设新罪。


目前,刑法理论界对于创设新罪的建议,往往脱离了人工智能的发展阶段,在强人工智能的实现尚不明朗的情况下,基于人工智能自主意识和行为的考量而创设新罪的想法是不切实际的。同时,对于利用人工智能实施犯罪的情形,可以适用现有罪名进行充分、合理评价认定的,没有

必要创设新罪。例如,对于将人工智能作为犯罪工具使用的犯罪行为,首先要考虑坚持客观解释论,适用诸如重大责任事故罪、生产销售不符合安全标准的产品罪,或者以危险方法危害公共安全罪等予以认定。




四、人工智能产业

基本要素安全的刑法保护


(一)大数据安全的刑法保护

人工智能在近年之所以焕发活力,呈爆发式的发展态势,大数据的收集与挖掘是重要的前提条件。大数据为人工智能深度自主学习提供了信息基础,如语音识别正是得益于网络累积的大数据资源,在深度学习算法的深度挖掘下,提高了识别的准确度。大数据的深度挖掘越来越成为经济发展的基础条件和财富之源,给社会带来了巨大价值。同时,由于大数据技术通过智能终端、物联网、云计算等技术手段来“量化世界”,同时也带来从未遇到过的伦理与责任问题 ,其中最为突出的问题是数据的权益与安全。在动态的数据收集、数据处理、数据使用过程中,均存在数据安全的问题。现行刑法对计算机信息系统计算能力和技术资源的保护是静态的,而大数据是围绕数据动态处理模式的革新,作为对象的数据的范围发生了巨大变化,因而,在刑法层面应当进行相应的范式转变。

 

刑法应将结构化和非结构化数据、线上和线下的大数据、系统存储的和人工智能与支撑平台间传输中的数据均纳入保护的范围。为了实现对大数据的全面保护,刑法应对相关概念做扩张解释。首先,对刑法第 285 条、第 286 条中的“数据”概念作出扩张解释十分必要。能够被人工智能所利用的大数据不仅包括传统的结构化数据,更多的是图像、声音、位置等非结构化数据。诸如网页浏览痕迹、下载记录、关键词搜索记录等信息数据,是“大数据”最核心的组成部分,因此,它们应成为法律所保护的对象 ;其次,现有计算机犯罪的罪名重点保护的是计算机信息系统正常运行的秩序,数据被作为计算机信息系统的有机组成部分予以保护。但是,“大数据的核心就是挖掘出庞大数据库独有的价值”,大数据的收集、处理、存储,都需要付出成本,大数据日益呈现出使用价值和交换价值,它与网络空间中的游戏装备、QQ 号等虚拟财产一样,具备了独立的财产权益,应当视为一种财产权,可以将刑法第 92 条的“其他财产”解释为包括了“数据信息”。


非法获取计算机信息系统数据罪、破坏计算机信息系统罪也应将数据的财产利益作为法益。做如上解释之后,可能出现以大数据为犯罪对象的网络盗窃、诈骗、故意毁坏财物等侵犯财产犯罪,将与非法获取计算机信息系统数据罪、破坏计算机信息系统罪产生竞合关系。


此外,大数据收集、存储和应用关系到国家安全和国家重大利益。因此,《网络安全法》第37 条规定,关键信息基础设施的运营者在中华人民共和国境内运营中收集和产生的个人信息和重要数据应当在境内存储。因业务需要,确需向境外提供的,应当按照国家网信部门会同国务院有关部门制定的办法进行安全评估。如果违反国家规定,未经许可将关系国计民生、国家安全的大数据出卖或者转移至国境外,或者在国境外存储,存在危害国家安全的现实危险。从表面上看,大数据可能不包含敏感信息,但是通过数据挖掘和综合分析,完全有可能得到包括威胁国家安全的信息在内的敏感信息。由于关键信息基础设施在运营中收集和产生的重要数据涉及国家安全,有学者提出,“应当将这一部分‘网络数据’更具体地细化为‘国家秘密、情报’,实现更到位的刑法保护。”同时,对关键信息基础设施的运营者在境外非法存储大数据的行为犯罪化,也是非常必要的。


(二)算法的刑法保护

人工智能知识产权的保护,不仅在人工智能规划中得到强调,理论界也已经形成了共识。尽管关于算法是否属于著作权中的计算机软件,在知识产权学界还有不同认识。但是,从技术的角度看,具有自主学习能力的算法,以及通过深度学习而改进迭代的算法,依然可以视为计算机软件的组成部分,是算法设计者的智力劳动成果,理应受到法律保护。当人工智能算法申请取得专利权,理应受到刑法保护;同时,可以对著作权作适应人工智能科技发展的扩大解释,适用侵犯著作权罪惩处复制发行等侵犯人工智能算法所有者合法权益的犯罪行为。


另外,对于算法的恶意修改,可能造成严重的危险与损害。如果人工智能产品的算法因恶意的篡改而偏离了设计之初的目标,那么,人工智能的运行也就脱离了控制,存在现实的危险。这类似于破坏车辆的电脑系统,可能造成车辆倾覆、毁坏的危险。对此,应当结合具体的情形,适用破坏交通工具罪、破坏计算机信息系统罪等罪名,或者在特定情况下适用以危险方法危害公共安全罪。


(三)人工智能基础支撑平台安全的刑法保护

人工智能产业升级之后的产品与服务,其突出的优势就在于网络平台的信息支撑与链接。由于并不是封闭的产品,人工智能即时通过云服务平台接收和发送信息,并构成万物互联的一部分。在这种情况下,破坏人工智能(产品)只是对个体的侵害,但是,如果破坏了智能服务平台(云服务平台),就会造成大量的、与其联接的人工智能(产品)失去数据支撑和信息指令,其危害性是不言而喻的。因此,针对人工智能基础支撑平台安全的危害行为,应是刑法惩治的重中之重。


目前,我国刑法中现有破坏计算机信息系统罪、非法侵入计算机信息系统罪等罪名,重点在于保护计算机信息系统的安全,不足以对破坏人工智能基础支撑平台所造成对公共安全严重侵害或威胁的行为予以评价。因此,依据现有的罪名体系,对于具有严重危害公共安全的此类行为,可以认定为以危险方法危害公共安全罪,或过失以危险方法危害公共安全罪予以惩处。


(四)云计算利益的刑法保护

现有的计算机犯罪立法侧重对侵入、控制行为的惩治,对于计算机的非法使用行为缺乏规制,而且在云服务平台成为人工智能基础支撑平台的情况下,对云计算能力和利益的保护就显得尤为必要。云计算利益是人工智能时代重大的利益。由于云服务提供了个人终端不能匹敌的运算服务,所以,云计算具有的应用价值,具有财产属性。如果以往这种利益的刑法保护尚没有引起关注,那么,随着人工智能产业发展,对于云计算利益不能置之不理。


我国学者已经意识到要把云计算资源纳入刑法保护的必要性。于志刚教授指出,在大数据时代,网络犯罪基于对网络资源的侵害,而对计算能力和服务能力造成侵害,故刑法应侧重保护云计算资源。而非法利用云计算能力,损害云计算资源的行为,主要体现在对财产权益的损害,而不仅仅是传统网络犯罪中对网络系统的安全性、完整性的损害。


(五)人工智能相关利益的刑法保护

1. 服务型智能机器人的刑法保护

在智能机器人享有“人”的主体地位之前,人工智能(尤其是服务型智能机器人)作为财物可能成为犯罪对象,存在与普通财物有所不同的财产属性。当人工智能被赋予了越来越多的个人信息和情感价值,人工智能对于使用者的利益便不仅仅局限于客观载体和程序的价值,同时应当包含所收集的数据、处理的个性化信息处理过程和结果的价值。例如人工智能工作助理的价值,不仅仅是交付给使用者之初的物质载体和程序、算法,随着个性化服务的持续,对于使用者而言其收集的使用者的个人信息,和通过数据分析所产生的对使用者个人思维方式和个人偏好的结果,亦是需要保护的重要利益。


由于人工智能具有自主学习的能力,因此,在投入使用一段时间后基于自主学习,越来越具有个性化特征,在人机交往过程中智能机器人对于使用人承载了更多的个人精神利益,无论是有形的服务性智能机器人,还是无形的在网络平台上运行的人工智能,都存在这样的问题。当服务型智能机器人成为侵财犯罪的犯罪对象,在对行为人量刑时,应当考虑到其特殊性。虽然在物价鉴定中难以体现其特殊性,但是,可以考虑对以服务型智能机器人为犯罪对象的犯罪案件中,因智能机器人对于财产所有者的特殊情感利益,可以酌情从重处罚。但是,如果服务型智能机器人的算法和数据在云端,没有受到实质上的损害,量刑时只需考虑物理意义上的侵害。


2. 人工智能作品财产权的刑法保护

随着人工智能在各个领域中的应用,人工智能作品成为创造价值和满足消费者需求的重要形式。人工智能已经能够作诗、绘画、设计,或者制作新闻报导,未来基于神经网络的深度学习所形成的人工智能作品的形式和内容将进一步丰富。人工智能作品的权利归属,知识产权法学界尚存在争议。有观点认为,“作为遵循人工智能软件设计者意志创作的产物,人工智能生成内容的结果不但仍可由独创性判定标准来认定,权利归属也应借鉴早已存在且运作成熟的法人作品制度安排,将人工智能的所有者视为著作权人。”


在我国《著作权法》上设立一项由产生数据的程序或设备的使用权人享有的对数据成果的“数据处理者权”。也有观点认为,“目前的‘人工智能’本质上是应用‘人’的‘智能’,其生成内容的过程并不涉及创作所需的‘智能’,因此,并不能成为受著作权法保护的作品。”


无论最终人工智能作品的著作权归属于人工智能的研发者、使用者,还是归属于人工智能(这种可能性不大),人工智能作品都将具有广阔的应用空间。为了保障创新性,促进人工智能作品的开发和利用,法律应当维护人工智能作品的权益。在人工智能作品权益得到确认后,如果以营利为目的,未经著作权人许可,复制发行人工智能作品,存在构成侵犯著作权罪的可能性。



五、人工智能研发与应用的刑法应对

(一)安全标准与制造者(设计者)的刑事责任

人工智能无论如何发展,都必须保证对人类的安全和友好,这是一切研发和应用的前提条件。随着越来越强大的技术被开发,我们不可避免地会到达一个临界点:即使只发生一次事故,也可能导致巨大的破坏,足以抹杀所有的裨益。随着技术变得越来越强大,我们应当越来越少地依赖试错法来保障工程的安全。面对越来越复杂和自主的人工智能,人类要通过技术控制和社会控制,牢牢地把握人工智能的发展进化方向,以保证人工智能的目标符合人类的福祉,必须清醒地认识到,系统不会考虑更为丰富的人性价值,而完全是从功利的角度进行决策,因此将决策权给予系统是危险的。


保障人工智能的安全性和对人类的“友好”是可以通过技术实现的。人类目前主要通过四个领域进行人工智能安全性的研究,分别是:验证、确认、安全和控制。我们可以继续控制它,即使它会变得复杂到让我们难以理解。人类就是要确保智能机器人做了人类所要求做的事,那种因人工智能算法改进迭代具有不确定性,因此无法预判的托辞是不能被接受的。最了解人工智能安全风险的非制造者(设计者)莫属,他们是技术专业人士,因此,从法律规制的角度看,试图通过追究不负责任的制造者(设计者)的刑事责任,达到威慑功能,似乎是本能的反应。但是,如果这样进行安全控制,制造者(设计者)必然人人自危、裹足不前,人工智能科技的创新性受到遏制,不利于科技进步和产业发展。


可行的方案是为人工智能设定安全标准,只有人工智能产品达到安全标准,才能够被商业推广和使用。在国家标准、行业标准确立后,“既然对于产品投入流通时的科学技术水平无法发现缺陷的‘缺陷产品’尚不能追究其生产者的民事责任,那么,更无从追究其生产者的刑事责任”。也就是说,对于制造者(设计者)达到安全标准的,即便人工智能造成了危害结果,也不应追究制造者(设计者)的刑事责任,而是通过民事途径予以弥补损失,还可以建立强制保险制度。对于不符合安全标准的生产、销售人工智能产品的行为,可以按照生产、销售不符合安全标准的产品罪或生产、销售伪劣产品罪予以惩治。


此外,人工智能的制造者将人工智能产品交付给使用者时,往往还要通过网络和人工智能产品进行数据沟通或者控制。以自动驾驶汽车为例,“随着自动驾驶汽车的制造商和设计者等对于车辆控制能力的不断提高,他们有可能获得车辆保有人的身份,并最终实现机动车道路交通事故责任和产品责任在自动驾驶领域的合流”。在此情况下,与自动驾驶相适应,交通运输管理法规将发生变化,相应的交通肇事罪的犯罪构成也将进行适当的修正。不排除会有制造者(设计者)基于反社会的动机,或者基于对社会安全持冷漠的态度制造(设计)危及公共安全的人工智能(包括各类人工智能软件、人工智能机器人),此种情况对于社会安全是极其有害的,应纳入刑法惩治的范围。制造(设计)危及公共安全的人工智能,不同于以

往制作恶性计算机病毒的情形,虽然从某种意义上讲,计算机病毒也可以被认为是一种初级的人工智能。但是,在人工智能越来越强大的今天,人为地制造这种可能危害公共安全的人工智能,其可能造成的危害与放火、决水等危险行为具有相当的危害性,应纳入危害公共安全犯罪,适用以危险方法危害公共安全罪,而不是依据计算机犯罪予以处罚。


(二)人工智能应用的目的与单纯使用者的责任问题

人工智能的应用是为了让使用者得到更好的消费体验,而不是让使用者承担更大的责任风险。以自动驾驶汽车为例,其最终目标是完全的自动驾驶,以便于乘客可以处理其它事务。如果要求乘客在特定的情况下接管车辆的驾驶(往往这种情况下是非常紧急的情形),那么,乘客便承担了过份的义务,如果履行义务不当,可能被追究刑事责任。这显然违背了自动驾驶汽车的使用目的,损害了乘客的利益,阻碍自动驾驶汽车的推广。


而且,要求乘客承担紧急情况下接管汽车的义务,从技术上来讲也是极为困难的。目前的科技发展表明,人工智能在特定情况下不能做出适应的判断,转而由使用者接管控制权的模式是有困难的。越来越多的研究人员就这一观点达成了一致:自动驾驶汽车在紧急情况下返回人类驾驶模式的问题也许根本无法解决。


在保障安全前提下的人工智能应用,应当增加使用者(消费者)的利益,而不是通过责任分配的方式,把人工智能的缺陷所带来的风险,转嫁为使用者(消费者)的责任。因此,对于单纯(没有分担安全防控责任)的人工智能使用者,不应要求其承担避险义务并承担可能的刑事责任。 


(三)人工智能的特殊性与滥用人工智能的犯罪认定

当人工智能作为犯罪工具,其与传统犯罪工具的差异性将导致对危害行为和犯罪故意概念的全新解释。如果人工智能只是按照行为人具体的意思行事,此种情况下与使用刀具并没有太大的区别。但是,当人工智能具有深度学习的能力,并对算法进行改进或更新,那么,就不能将此种情况与投放毒蛇杀人行为进行类比。毒蛇并不会“意识”到行为人的目标和目的,只是根据具体的情形做出本能反应。对于毒杀犯罪对象的情形,行为人是有明确认知的。而具有自主学习能力的人工智能根据行为人设定的目标,依据其所收集的“信息”,判断具体的情形,进而采取相应的行动实现预设的目标,行为人无法预测和掌控人工智能采取何种具体的算法和行动去实现目标。


因此,在滥用具有自主学习能力的人工智能的情形下,危害行为的内容重点在于行为人给人工智能设定了行动目标的行为,而犯罪故意的内涵则是行为人明知自己给人工智能设定目标的行为,会通过人工智能的行动造成危害社会的结果,希望或者放任这种结果发生的心理态度。由于人工智能具有了自主学习和算法迭代的能力,因此,滥用人工智能所造成的危害性可能超出行为人的预期。在这种情况下,客观的超过要素理论具有指导意义。对于可能造成的危害结果,应当由滥用者承担刑事责任。当然,在滥用者设定了危害公共安全的目标,或者其设定的目标通过人工智能予以实现时可能危及到公共安全,应以危害公共安全罪的个罪予以处罚。当然,如果滥用者没有危害公共安全的故意(过失),其行为通过人工智能并没有危及公共安全,则滥用者只不过是将人工智能作为犯罪工具,成立普通的刑事犯罪,如故意杀人罪、诈骗罪等。


在人工智能存在安全标准并符合该标准的情况下,人工智能一般情况下不会按照滥用者所设定的目标行事,此种情形下成立工具不能犯的未遂(如何处理视情况而定)。但是,不排除滥用者利用人工智能的漏洞,或者恶意修改人工智能的算法,以达到不法目的。


(四)人工智能作为犯罪对象

虽然在人工智能取得人的主体地位之前,人工智能(包括智能机器人)还只能被界定为物,但是,此物相比一般意义上作为犯罪对象的物,承载了更多的价值,包括人的情感上的价值。当人们在日常工作和生活中越来越信赖于人工智能,或者将更多的个人情感寄托于人工智能,那么,人工智能作为犯罪对象会成为常态,对人工智能的价值评判将成为无法回避的特殊性问题。


有学者指出:“机器人伴侣已经出现,在虐待、侵害机器人伴侣的情形下,行为人是否应当承担侵害人格权以及精神损害赔偿责任呢?但这样一来,是不是需要先考虑赋予人工智能机器人主体资格,或者至少具有部分权利能力呢?”


此种观点是将机器人伴侣作为权利主体的考量。但是,即便机器人伴侣依然还是“物”,他人不法损害机器人伴侣,给所有者(占有者)所带来的财产利益的损害和精神利益的损害,按照传统的认定规则和标准,已经不能充分体现危害行为的违法性程度。可能的方案是,当机器人伴侣作为犯罪对象时,危害结果的判断,不仅应当包括物质性的损害,还应当包括精神性的损害,而且在某种情况下,可能精神性损害才是主要的。当人工智能作为侵财犯罪的犯罪对象,具有与自然人犯罪对象不同的特殊性。“既然诈骗罪中的处分意思是构成要件中的必备要件,而行为人在利用人工智能实施侵财行为过程中,人工智能没有处分意思,那么这种行为就不完全契合传统诈骗罪的构成要件。”


当人工智能(包括类人机器人)尚未达到人所具有的人格时,所谓的处分的意思、被害,均是主观的想象。但是,这并不妨碍将此类行为纳入诈骗犯罪的范畴。这样的逻辑在信用卡诈骗罪中已经有所呈现。如果将ATM 机视为弱人工智能,那么,对于比 ATM 机更为智慧的人工智能而言,成立特殊形态的诈骗犯罪已有立法例。


(五)以人工智能作为媒介的共同犯罪的认定

在人工智能时代,自然人之间的共同犯罪越来越呈现出间接性的特点,人工智能(平台、软件、机器人等)将成为共同犯罪意思联络的媒介,甚至成为共同犯罪故意达成的重要辅助者。以人工智能助理软件为例,许多事务性的工作将由人工智能助理完成,并给予自然人以选择、决策的自由,

可能自然人之间的意思沟通,部分或者全部由人工智能助理完成。在这样的情况下,共同犯罪故意的内涵与传统的形态迥然有别。共同犯罪人或许不能确定,与其沟通的人工智能背后的自然人是何人,但是,这并不妨碍对共同犯罪的认定。


当人工智能按照设计的目标,自主选择共同犯罪人(或者共同犯罪人的人工智能代理),并进而实施共同犯罪行为,自然人共同犯罪人可能从未与其它共同犯罪人谋面或者直接沟通。此种情形下,人工智能成为自然人的犯罪工具和意思联络的工具。当人工智能尚没有被赋予人的主体地位时,自然人的意志通过人工智能予以体现,并协力加工导致结果的发生。按照传统的共同犯罪理论,此种情形下,自然人之间缺乏意思沟通与联络,因此,不成立共同犯罪故意。但是,如果不成立共同犯罪,结果的归因(归责)便会出现障碍。因此,基于人工智能作为共同犯罪媒介的特殊性,有必要将此类行为作为特殊形态的共同犯罪予以认定,尽管自然人之间的意思沟通和联络常常是抽象的、间接的。



六、余论:未来超级人工智能

与刑法变革的瞻望

关注当前和下一个时期人工智能发展所带来的现实法律问题,对保障人工智能的健康发展十分必要。展望人工智能未来可能的突破性进展,提前进行刑法的理论应对研究同样意义重大。当人工智能发展到具有自由意志(自主意识)的超级人工智能阶段,可能被赋予“人”的法律地位,以往的刑法理论将会因此而发生根本性的变革。如果按照当下的刑法理论,可以遥想当超级人工智能机器人被赋予人的法律地位,智能机器人当然具有刑事责任能力,可以承担相应的刑法责任,人工智能机器人也可以与自然人构成共同犯罪,可以创设新的刑罚或非刑罚处罚方式对智能机器人予以处罚。这样的推理似乎合乎逻辑,但是却存在诸多漏洞。如果超级人工智能在未来能够在人类的掌控之下,并成为人类的伙伴,那么,人类有必要通过更为强大的人工智能去掌控人工智能,以保障其对人类保持友好。虽然对未来人工智能时代的社会控制依赖于人工智能,甚或人工智能将成为执法和司法的有机组成部分,但是,最终的评价和决策依然取决于自然人,人类没有可能(也无必要)将命运托付给人工智能。在这样的情况下,或许对人工智能适用不同于人类的法律制度才是合理的,而不是改变作为法律人的评价标准。


而且,人工智能未必是具有外在载体的,人工智能机器人并非就是未来超级人工智能的主要存在形式。赋予智能机器人法律主体地位,似乎只是人类的“移情”。对那些运行了云端的超级人工智能,作为犯罪主体适用刑罚,似乎过于“矫情”。或许,当科技取得新的突破,只有那些运用生物科技和人工智能科技“转移”了自然人记忆、意志,具有机器人载体的“人”,是否可以具有自然人的法律地位,并适用刑法,才是一个真命题,需要认真研究。面对可能实现的超级人工智能将带来的风险,人类需要的是有效的安全控制,正如人类利用核能的前提是能够有效地控制核裂变与核聚变。只要人类还没有否定自身存在的意义,那么“文化和更大的大脑共同进化,与此类似,我们会与自己的创造物一起进展”。


(本文完)




关于我刊


《上海政法学院学报》原名《法治论丛》,是由上海市教育委员会主管、上海政法学院主办的法学专业学术期刊,创刊于 1986 年,国内外公开发行 , 设有“上合组织法治”“专题研讨”“立法研究”“人工智能法律问题”“法学前沿”“司法改革专论”“党内法规研究”“域外借鉴”等栏目。

创刊 30 余年来,本刊始终践行“以法为基,寻社会治理之策;以文为器,求兴国安邦之道”的理念,坚持特色化、专业化发展道路,不断总结办刊经验,更新办刊思路,在社会上形成了较好的反响。

本刊在上海市高等学校学报评优活动中连续五届获得“上海市优秀学报”奖、在教育部社科学报评优活动中连续三届获得“全国高校优秀社科期刊”荣誉称号。其中,“法治上海”多次被评为上海市高校学报优秀栏目,以及“全国高校社科期刊特色栏目”的荣誉称号。在上海市期刊编校质量检查中,于 2012 年、2015 年连续两届获得优秀期刊的称号。2018年11月入选中国人文社会科学期刊AMI综合评价报告核心期刊(扩展版)。

为突出刊物特色,进一步提高办刊质量,本刊从 2016 年底开始加强编辑队伍建设,着手完善审稿机制,制定新的稿酬标准,调整栏目,促进期刊的数字化发展,期刊质量和学术影响力明显提升。在迈向“专、精、特、新”的发展之路上,真诚欢迎国内外学者向本刊赐稿。



_

投稿邮箱:xuebao@shupl.edu.cn

微信公众号:law-review1986

网址:http://www.shupl.edu.cn/html/xbbjb

学习通邀请码:ve9886

电话:021-39227617  39227619


_


扫描二维码,欢迎关注!

微信号 : law-review1986


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存