后果防患
1.责任缺失
人工智能具有提高生产力的优点,也可能带来个人生命、财产的重大损失,亟需刑法进行规制。当前国务院《新一代人工智能发展规划》仅大致勾勒了人工智能发展的政策框架,具体的制度设计、责任建构等问题仍未考虑。所以,人工智能肇事问题面临无法可依的困境,不但不利于人工智能技术的健康发展,而且漠视公共利益。目前美国只有少数几个州对无人驾驶车辆和无人驾驶飞机进行立法,几乎没有任何法律规定谁对危害结果应负法律责任的问题。[5]从犯罪构成的角度看,智能机器人的法律属性、行为性质尚无明确的法律定位,其在自主学习的过程中实施超出预测之外的行为是否充足罪过要求等问题,仍然悬而未决。目前也没有任何规范为人工智能的软件开发人员、供应商或使用者提供指导。如果漠视人工智能发展过程中的责任问题、任由人工智能技术恣意发展,将不可避免地带来伦理危机和社会灾难,机器人控制人类的科幻情节可能变成现实。
2.伦理危机
机器人缺乏承担刑事责任的先决条件,如自我意识、自由意志和道德自律,法律置之不理的结果,不但有违公平正义,而且将引发伦理危机。例如,管家机器人为了完成做菜的任务可能杀死宠物狗,它不认为自己的行为是在“故意毁坏财物”甚至“杀死家庭成员”;医疗看护机器人在“减轻病人痛苦”的目标下,可能终结癌症晚期病人的痛苦以帮助其“永远地告别痛苦”。伦理危机主要由于深度学习的局限性所致,因为深度学习算法如何决策并不为人所知,其中可能潜藏着歧视、偏见、不公平等问题。谷歌公司的数码相册软件曾将深色皮肤的人标记为大猩猩,表明技术错误很容易导致社会不安与仇恨。当前人工智能决策在贷款、金融、犯罪调查、人脸识别等诸多领域中的歧视和不公平问题越来越突出,使得人工智能的伦理问题尤其值得关注。如果没有机构或规则指导人工智能伦理规范的建构和应用,智能机器人很容易偏离其最初设定的目标方向,引发道德崩塌和伦理危机。
3.监管真空
在人工智能技术发展中,风险是固有的,也是必须的。人工智能系统及应用作为一种产品,政府不可避免地要考虑其准入、质量和检验标准。由于人工智能的学习能力、适应能力不断提高,现有的规则无法统一适用于不断进化发展的人工智能系统,未来需要进一步对人工智能的准入和监管方案进行制度化,以确保人工智能健康发展。智能机器人建立在后天学习基础上的行为,已经超出了最初设计师、编程者的预测范围,故在科技蓬勃发展和事前预测不足的情况下,难以对人工智能技术进行事前监管;而事故发生之后再制定监管措施则难以挽回损失,所以人工智能监管需要全局考虑,统筹兼顾。美国《国家人工智能研究和发展战略规划》提出构建良性研发的环境基础,要求开发用于人工智能训练、测试的公共数据集和环境,制定用于测量、评估人工智能的标准和基准,了解学界、政府和行业中人工智能从业人员的要求,从而制定教育和培训计划。[6]目前我国人工智能技术基本上是在监管真空中发展,即便政府出台监管规则,在实际执行中也面临事前监管不足和事后监管失效的问题。故如何在技术发展与公共利益、法律规制之间探索出一条适度监管的道路,是当务之急。