2018年12月3日至4日,应美国哈佛大学法学院武装冲突法研究中心邀请,北京戎和律师事务所谢丹主任和李强律师赴美参加人工智能与武装冲突法国际学术研讨会。本次研讨会由哈佛大学法学院、美国海军战争法学院和红十字国际委员会联合主办,旨在探讨人工智能武器发展给武装冲突法带来的伦理挑战和法理问题。会议邀请来自中国、英国、荷兰、以色列和美国等国的军方、法律界及学术机构的近40位专家与会。
本次研讨会设计了“人工智能”和“国际人道法”两个训练营环节,分别由军事科学界的人工智能专家向法律专家们介绍人工智能基础知识及相关武器发展情况,并由国际法专家为人工智能武器的研制、使用者介绍国际人道法的相关基础知识,而后通过先导发言将研讨逐步引向深入,从而确保围绕主题的研究和讨论更加充分、有效。学术研讨过程分为五个环节:一是“人工智能技术与辅助决策”,主要研讨人工智能技术在军事指挥官及军事法律顾问做出决策的过程中将如何发挥作用,以及由此可能引发的法理、实务、伦理和责任等问题;二是“人工智能技术与海战”,重点探讨了无人驾驶潜水器所引发的法律问题;三是“人工智能技术与拘留”,集中研讨人工智能技术在武装冲突时拘禁战俘或平民之决策、评估过程中的作用问题;四是“人工智能技术与目标打击”,主要讨论人工智能应用在军事目标的选择、辨认、附带损害评估等方面可能产生的积极和消极影响,以及相关的法律责任问题;五是“人工智能武器”,特别是新型智能武器的法律审查以及在使用过程中引发的伦理和法律责任问题。
除了积极参与各专题环节的讨论外,谢丹主任和李强律师还以“智能武器的国际人道法规制”为题,在第五研讨环节作了主题发言,他们认为:由于人工智能武器不具备人类情感,因而没有滥用作战手段和方法的负担;人工智能武器以拟摧毁目标为导引,其本身并没有相应的合理性原则约束;人工智能武器难以与作战对象进行实时沟通,没有识别失去作战能力以及不愿继续作战对角的能力;人工智能武器无法对目标准确衡量并转换成程序语言,因而无法自行判断具体时空目标的历史因素、文化意义、宗教作用、人文价值等。以上诸点,决定了人工智能武器不能直接接受国际人道法的规制。从目前人工智能在军事领域实际运用及预想应用的情况看,在战略谋划和战役组织等层面的应用尚不构成国际人道法的适用问题;但在战术层面、特别是对基于国际人道法所形成的交战规则带来直接、具体和现实的冲击。而根据战争犯罪和刑事司法的理论,应当承担法律责任及刑罚后果的只能是自然人,并且具有法律意义上的健全人格。同时由于刑事司法反对“客观归罪”,要求行为主体具备辨别行为的主观意识。考虑到人工智能武器的巨大毁伤危害性,应以人工智能武器的制造者和使用者作为国际零位的责任责任主体。因此,率先研制先进武器系统、当然也包括智能武器的国家,必须当仁不让地承担起相应的法律责任。考虑到智能武器系统所具有的间接性、主动性和不可控性等特点,应当对其制造和使用者实行“严格责任制”或曰“无过错责任制”。
本次研讨会站在世界军事科技和武装冲突法的发展前沿,对人工智能技术给武装冲突法带来的影响和挑战进行了前瞻性的讨论,预判了这一问题可能的发展趋势及潜在影响。中国专家在这一问题上的积极参与,既初步了解了美欧等发达国家在人工智能技术运用于军事行动方面可能的立场,也表达了中国学者的意见和态度,为中国与西方国家在这一问题上的深入交流搭建了学术桥梁,起到了积极的推动作用。