编译:王琛瑶 / 审校:赵晓


.      据asianmilitaryreview网站2025年6月27日消息,日本防卫省采办、技术和后勤局(Acquisition, Technology and Logistics Agency,ATLA)于6月6日正式发布国防装备研发相关的首份人工智能指南,旨在建立风险管控流程,增强私企参与此类装备研发的规范性。

日本“多用途作战支援无人水面艇”原型(左)正在融入人工智能技术。

.      背景介绍

.      全球人工智能自主武器的研发及其在乌克兰和中东地区的实际部署,引发了日本对人工智能失控风险的高度关注。5月28日,日本颁布了一项人工智能法案,以规范全国范围内人工智能技术的研发和应用。在国防领域,日本重点关注由人工智能驱动的“致命性自主武器系统”(Lethal Autonomous Weapons Systems,LAWS),明确不研发人工智能攻击武器,并确保人工智能防御系统研发符合国内法和国际法。为此,日本防卫省发布新指南,为人工智能防御系统的研发设定明确的风险管控流程,积极鼓励私营企业参与此类国防装备研发。

.      主要内容

.      日本防卫省将在七个重点领域利用人工智能,分别是目标搜索与获取、数据收集与分析、指挥与控制、后方保障和后勤支援、无人作战平台、网络安全,以及行政管理效率。其在新指南中明确了风险管控流程的三个步骤:

.      一是对国防装备进行分类。依据人工智能对装备系统的潜在破坏力,将人工智能集成的国防装备划分为“高风险”和“低风险”两个等级:(1)高风险系统在研发开始之前需进行法律和政策审查以及技术评估;(2)低风险系统可由项目实施人员进行自我评估。

.      二是由“法律和政策审查委员会”审查其是否遵守相关法律和政策。委员会负责评估“高风险”项目的两项关键要求:(1)该系统是否符合国际法;(2)该系统是否属于完全自主的致命武器。符合要求的项目进入技术审查委员会审查阶段,不符合要求的项目则禁止研发。

.      三是由“技术审查委员会”从技术角度评估风险管理。结合法律和政策审查委员会的审查结果,技术审查委员会将评估七项技术要求:

●  明确操作员责任,确保人工智能系统设计允许操作员采取适当控制措施;

●  明确系统设计集成防误用机制、防过度依赖措施及人工干预容错功能;

●  必须有能力溯源数据偏见,实施偏见缓解措施,确保人工智能系统决策的客观性;

●  必须清晰记录人工智能系统全构建要素(设计/算法/数据),确保系统的可验证性和透明度;

●  必须评估和测试人工智能系统,确保系统在全寿命周期内可靠、有效、安全运行;

●  必须构建系统故障机制,以防人工智能系统发生故障或严重失效,以确保安全;

●  确保人工智能系统运行符合国内法和国际法。


联系我们

购置资料                  谷老师:13165589228(微信同)

检索/翻译                 梁老师:13011583019(微信同)

定制报告                  蔡老师:13068796075(微信同)

北京分公司联系人     刘老师:18610862096(微信同)

 

本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。

最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。 若排除这种情况,可在对应资源底部留言,或联络我们。

对于会员专享、整站源码、程序插件、网站模板、网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。

如果您已经成功付款但是网站没有弹出成功提示,请联系站长提供付款信息为您处理

源码素材属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源