原标题:人工智能犯罪:先行预防还是事后严惩
人工智能犯罪:先行预防还是事后严惩
冀洋
◇刑法规定了多种生产不符合标准的产品的犯罪,只要责任主体仍然是人,人在设计人工智能产品过程中就仍然受到刑罚威慑效果的影响。然而,当AI致人损害而由其自负刑事责任时,人类的上述责任便被转移,为机器人研发者、使用者推卸责任提供了绝佳的借口。
◇以风险防控为由造就的人工智能犯罪主体,实际上加剧了源头风险;刑事责任体系表面上因新犯罪主体的加入而更严密,事实上宽纵了人类义务,得不偿失。
自然科学的发展不断影响着法学的思考对象与思考方式,人工智能技术的勃兴如今唤起了更多法律人的热情。在刑法领域,以“将机器人纳入刑事责任主体”为代表的研究自2018年以来呈现急速增长,其基本看法是:人工智能可与人类一样接受独立的处罚,并可承担删除数据、修改程序、永久销毁等刑罚种类(肯定论)。然而,承认人工智能的犯罪主体地位,将面临五大悖论。
第一,“技术失控—技术可控”之悖论。人工智能刑法研究的忧患意识来源于“人工智能的失控”:智能机器人将来具有辨认和控制能力,能够超越设计程序实施行为。然而,肯定论又提出了针对人工智能的专有刑罚种类,除了永久销毁或许可以仅通过蛮力完成之外,其余两种刑罚均只能借助于高超的计算机技术以改造人工智能的“大脑”。那么,这里的问题就很明显了:既然刑罚技术能够对人工智能的犯罪能力做出有效限制、能够通过这种先进技术刑罚将其框定在安全轨道,为何还会存在人工智能超脱人类控制的情形?上述刑罚设计表明的不正是人类可以实现对人工智能的控制?若此,人工智能就永远不会失控。若能够从数据程序上消灭人工智能的犯罪能力,为何人类不在研发阶段就做出这种技术干预?若没有这种技术,这种技术刑罚又有何用?肯定论既断言存在人工智能不可控的情况,又在刑罚上主张人工智能的运行程序能够被操纵,这存在先承认“技术设计失败”又承认“技术设计可靠”的悖论。
第二,“特殊预防无效—特殊预防有效”之悖论。肯定论主张赋予人工智能犯罪主体身份,是为了给予其一定的刑罚,从前述三种刑罚种类可以看出,他们最看重的刑罚目的不是报应、不是一般预防而是特殊预防:通过删除数据、修改程序等技术手段剥夺其实施犯罪行为的可能性;若人工智能无法被矫正,那么就可以直接永久消灭之。概言之,这完全属于李斯特式的预防论:矫正可以矫正的罪犯,不能矫正的罪犯不使为害。但是,智能机器的运行不像人类那样具有先天的、自然的行动力,它是通过精密的程序计算来实现的,因而一个可能的技术操作便是,直接在设计阶段对人工智能的“大脑”预设危险避免措施、消除犯罪条件。可为何要等到犯罪之后再介入?如果设计编程可以实现特殊预防,那么在研发过程中植入这样的控制程序才是最可靠的;如果人类没有这种编程,那么设定这种刑罚又有何用,在犯罪后修改数据也同样是不可实现的。因此,在“技术失控—技术可控”的悖论之后,肯定论在刑罚目的及其实现路径上面临又一悖论:以消除犯罪能力为目的,在能够采取特殊预防措施的情况下,故意不采取措施而坐等犯罪之后才大谈矫治之道。
第三,“刑罚设计—非刑罚性”之悖论。虽然刑罚能够实现报应功能和预防功能,但这些功能却并非刑罚所专属,具有上述功能的处罚措施并非都可以被称为刑罚,其他法律中的行政处分、民事赔偿等措施也分担着这些功能,如吊销营业许可证、吊销驾驶证、损害赔偿等。刑罚与行政处分、民事赔偿在本质上是完全不同的:刑罚的本质是从国家立场对犯罪进行的非难,行政处分是行政取缔上的保安处置,民事赔偿则是损失的公平分配。吊销证照、损害赔偿等都不是刑罚种类,即便这些措施被规定在刑法典中,它们也只能被称为“非刑罚措施”,如刑法第37条规定的“训诫、责令具结悔过、赔礼道歉、赔偿损失”“禁止从事相关职业”等。肯定论设计的删除数据等所谓的“刑罚种类”,在当前阶段甚至几百年前就是机器设备出现故障时的最普通的修理方式,通过删除拆解零部件、修改某项设计甚至直接将之报废,根本不需要什么法律甚至刑法上的正当化根据以及司法程序,而只需要一本“使用说明”“检修指南”而已。这无异于将刑法贬低为技术管理法甚至“机器维修手册”:能修就修,不能修就报废。
第四,“AI主体性—AI工具性”之悖论。人们本来是为了生活的便利化而研制AI,但赋予其刑事主体地位就等于必须承认其拥有一定的平等权利空间,那么就对人类权利的行使提出更多限制,这实际上为人类设立了一个新的竞争物种,结局是:人类必须时刻为保障人工智能的权利、为人工智能的健康运转而服务,这加重了个人生活负担,最终消解了前述便捷性。因此,不少肯定论者不承认AI与人类在法律面前平等。但法律的强大之处就在于将事实上的不平等以法律拟制的方式强行弥合,如果人类与AI在法律上都不平等,那么二者将在任何时空都不会平等,二者就不可能并存于某一法律主体系统内,而只能区分为“主体—工具”。此外,不少肯定论主张建构强制保险制度、建立赔偿基金等以弥补机器人造成的损害,可如果AI是法律主体,那么为何需要另一个主体(人类)为之缴纳保险费或基金?AI连独立的财产权都没有,其在致人损害时如何承担义务?最终而言,这些责任还是要被推到人类自身,这与当下的产品致损责任、汽车交强险制度并无不同。
第五,“消减风险(追求责任体系严密化)—加剧风险(转移人类责任)”之悖论。如果人类在制造这些机器人时设定的是“与人无害”模式,但在后期运行中机器人在编程外实施法益侵害行为,这难道不正表明人类的技术依然不成熟?人类为机器人设定的框架很容易被突破,继而在失控之后发生法益侵害,被非难对象难道不正是人类自己?如果我们把机器人的失控看作传统产品缺陷或管理过失等,即将责任归之于人类,则更有助于实现“风险防控”。例如,侵权责任法第41条有关产品缺陷责任规定实行无过错原则,民法正是以此升级对产品生产设计者的责任、降低产品缺陷及其损害风险。再如,刑法规定了多种生产不符合标准的产品犯罪,只要责任主体仍然是人类,人类在设计AI产品过程中就仍然受到刑罚威慑效果的影响,刑法在风险应对上仍有所作为。然而,当AI致人损害而由其自负刑事责任时,人类的上述责任便被转移,为机器人研发者、使用者推卸责任提供了绝佳的借口。当人类以“机器人已经有自我意识,其法益侵害行为与我无关”作为挡箭牌成功推卸掉法律责任时,如何期望他们严格控制人工智能研发风险、使用风险?只有将机器人失控之情形仍然作为产品缺陷范畴,才能够促进人类谨慎研制人工智能、不断提升人工智能技术,主动减少技术造福人类时的技术风险。如果研发者既能靠AI技术谋取利润,在发生侵权损害时又不用承担法律责任,他们内心不知得有多狂喜,被害人不知得有多倒霉。所以这里存在第五个悖论:以风险防控为由造就的“AI犯罪主体”,实际上加剧了源头风险;刑事责任体系表面上因新犯罪主体的加入而更严密,事实上宽纵了人类义务,得不偿失。
(作者为东南大学法学院讲师、法学博士)