编译:王琛瑶 / 审校:赵晓

日本“多用途作战支援无人水面艇”原型(左)正在融入人工智能技术。
. 全球人工智能自主武器的研发及其在乌克兰和中东地区的实际部署,引发了日本对人工智能失控风险的高度关注。5月28日,日本颁布了一项人工智能法案,以规范全国范围内人工智能技术的研发和应用。在国防领域,日本重点关注由人工智能驱动的“致命性自主武器系统”(Lethal Autonomous Weapons Systems,LAWS),明确不研发人工智能攻击武器,并确保人工智能防御系统研发符合国内法和国际法。为此,日本防卫省发布新指南,为人工智能防御系统的研发设定明确的风险管控流程,积极鼓励私营企业参与此类国防装备研发。
. 主要内容
. 日本防卫省将在七个重点领域利用人工智能,分别是目标搜索与获取、数据收集与分析、指挥与控制、后方保障和后勤支援、无人作战平台、网络安全,以及行政管理效率。其在新指南中明确了风险管控流程的三个步骤:
. 一是对国防装备进行分类。依据人工智能对装备系统的潜在破坏力,将人工智能集成的国防装备划分为“高风险”和“低风险”两个等级:(1)高风险系统在研发开始之前需进行法律和政策审查以及技术评估;(2)低风险系统可由项目实施人员进行自我评估。
. 二是由“法律和政策审查委员会”审查其是否遵守相关法律和政策。委员会负责评估“高风险”项目的两项关键要求:(1)该系统是否符合国际法;(2)该系统是否属于完全自主的致命武器。符合要求的项目进入技术审查委员会审查阶段,不符合要求的项目则禁止研发。
. 三是由“技术审查委员会”从技术角度评估风险管理。结合法律和政策审查委员会的审查结果,技术审查委员会将评估七项技术要求:
● 明确操作员责任,确保人工智能系统设计允许操作员采取适当控制措施;
● 明确系统设计集成防误用机制、防过度依赖措施及人工干预容错功能;
● 必须有能力溯源数据偏见,实施偏见缓解措施,确保人工智能系统决策的客观性;
● 必须清晰记录人工智能系统全构建要素(设计/算法/数据),确保系统的可验证性和透明度;
● 必须评估和测试人工智能系统,确保系统在全寿命周期内可靠、有效、安全运行;
● 必须构建系统故障机制,以防人工智能系统发生故障或严重失效,以确保安全;
● 确保人工智能系统运行符合国内法和国际法。
联系我们
购置资料 谷老师:13165589228(微信同)
检索/翻译 梁老师:13011583019(微信同)
定制报告 蔡老师:13068796075(微信同)
北京分公司联系人 刘老师:18610862096(微信同)



