传统刑事责任建立在罪责理论的基础上,需要意志自由的行为人认识到自己行为的危害后果,如果行为人在能够选择善的行为时选择了恶的行为,就具备刑事可责性。人工智能机器人通常按照预先的编程实施行为,其是否具备法律意义上的认识能力和判断能力,如何对其进行道德可责性认定,是刑事归责面临的重大挑战。除了罪责理论外,人工智能技术对其他刑法理论也带来了不少冲击。
(一)理论冲击
1.刑法上“主体”概念的更新
犯罪主体是具备刑事责任能力,实施危害行为的自然人或单位。智能机器人如无人驾驶汽车或管家机器人,具有识别、分析能力,能够模拟人类进行判断,但其在法律性质上并不属于自然人或单位。欧洲曾出现机器人在工作场所杀人事件,美国也曾出现无人驾驶汽车撞伤行人的事故。如果机器人的设计者、使用者均无过错,能否让实施危害行为的机器人承担刑事责任?
刑事责任主体的根本问题是刑法上的“人”意味着什么,这是哲学家们一直争论的问题。例如,约翰·洛克认为刑法上的人具有“自我反省能力为基础的人格”,一个“智能的代理人”必须“有法律能力,觉察到幸福和痛苦,且有他自己的意识:只有通过意识,它才会为自己的行为负责。”伊曼努尔·康德同样强调自我意识的重要性:“只有人意识到自己,他才能理解自己的自由,遵循自己的意志是他每一行为的原因。”[4]因此,一个人知道他可以克制自己的行为却实施了恶的行为时,他才对自己的行为负责。显然,智能机器人不符合理想人格的要求:机器人虽然可以学习和决策,但仍然没有自由的意识,无法理解自己行为的社会意义,无法反思自己行为的好坏,更无法理解权利和义务的概念。因此,人工智能机器人虽然能够根据指令实施行为,但其仅是“自由意志”的代理人,难以认定为自然人或单位。如果让人工智能机器人为危害结果负责,势必要扩充犯罪主体的范围。
2.罪过理论的动摇
罪过是指行为人实施危害行为时的主观心理状态,主要包括故意和过失。主观擅断曾是封建刑法的重要标志,现代刑法根植于意志自由理论,如果行为人能够选择实施合法行为时,却选择实施对社会具有严重危害性的违法行为,则这种恶的心理态度应当被惩罚。人工智能机器人按照编程来实施行为,法律难以对其自主判断能力进行测量和掌控,难以认定其具有意志自由。例如,生产机器人将因病昏倒的工人视为妨碍生产效率的“障碍”予以清除时,并未意识到自己行为的社会危害性,难以认定其具有犯罪故意。对于无罪过的行为主体施加刑事责任不但过于苛刻,而且难以达到预防犯罪的效果。规范责任论要求行为人具备道德自决能力,智能机器人显然不符合这一要求。如果将智能机器人执行编程的分析、判断认定为刑法上的罪过,心理责任论或规范责任论将不得不吸纳机械责任论的成分,罪过理论似乎又倒退到封建刑法时代。
3.因果关系判断困难
因果关系是指实行行为和危害结果之间引起和被引起的关系。例如,当自动驾驶汽车突然转弯撞伤行人,是否该汽车的设计者、使用者与被害人受伤之间具有因果关系?在对人工智能的危害结果溯因过程中,很多因素阻碍因果关系的认定。例如,智能系统的自主学习性很强,它的开发者可能无法预测将来会出现什么危害后果,则设计、研发行为难以认定为危害后果的原因;智能系统的深度学习是典型的“黑箱”算法,无法判断算法如何决策,技术上也难以发现系统中决策偏差的根源,故编程行为与危害结果之间的因果关系也难以认定。很多情况下,人工智能的编程失误、使用者的操作错误,程序与使用者互动过程中的某个代码出现错误共同导致危害结果发生,更加剧了因果关系判断的困难。例如,达芬奇手术系统扩大了手术的切割面积,护士对病人疏于照顾,最终导致病人死亡时,应适用什么标准来认定因果关系?社会相当性说、近因说、高度可能性说等观点都难以对因果关系进行充分阐释,其结果不但影响罪名既遂与否,而且影响量刑轻重,故因果关系判断困难是认定人工智能刑事责任不容忽视的问题。
4.行为概念的反思
刑法上的行为概念经历了因果行为论、社会行为论、目的行为论、人格行为论等发展历程,而智能机器人的行为难以完全符合上述观点。从物理角度看,智能机器人行为致人伤害具备因果行为论的特征;从机器人按照编程目标实施行为的角度看,符合目的行为论的特点;但机器人无法认识自己行为的社会意义,很难将其行为认定为“自由意志支配下的行为”,即刑法上的行为。客观来看,智能机器人具备自主性、学习性、互动性等特征,一定程度上能够主宰自己的行为。但机器人缺乏完全的自由意志,无法摆脱其与生俱来的“工具性”特点。在智能机器人致人伤亡的情况下,实行行为究竟应认定为机器人的行为,还是其背后使用者的间接正犯行为,颇有疑义。如果强行将机器人的行为认定为实行行为,刑法又回到了对动物审判的远古时代,这是现代刑法理论所无法认同的。