编译:谢红杰 / 审校:郭施
. 据美国“warriormaven”网站2024年6月17日消息,美陆军启动了为期100天的人工智能(Artificial Intelligence,AI)风险评估试点项目,旨在确保、强化和改进AI系统,以充分发挥其潜力。
. 事件背景—AI的可靠性:
. 美国国防部和军方在AI应用中强调道德伦理和确保人类在运用具有致命性质的武力时能保持“控制权”。然而,无法保证潜在对手会遵守规则。这带来了前所未有的潜在风险,美国防部对此问题高度关注。因此,美军致力于优化AI、自动化和机器学习在作战行动和武器开发中的应用,旨在降低上述风险。尽管AI的优点已被广泛认可,但AI系统的有效性在很大程度上取决于其数据库。当先进的AI系统面对未曾遇到或处理过的情况时,可能会出现误报或错误分析的情况。因此,人类需努力提升AI系统的可靠性。
. 目前,在提升AI的可靠性方面,业界已取得重大进展。先进算法能够通过上下文和相关指标分析,理解未知想法和事物。AI驱动的分析速度不断提升,下一步目标是打造近乎实时分析的系统,对已知或未知指标做出可靠准确的判断。
. 主要项目—“防御AI”项目:
. 美陆军致力于解决AI可靠性问题,并正在推进与之相关的AI项目。2024年6月,美陆军启动了为期100天的AI风险评估试点项目,该项目的目标是加强和改进AI系统,最大程度发挥AI潜力。
. 美陆军负责采办、后勤和技术的助理部长帮办表示,在完成为期100天的计划后,美陆军将启动为期500天的下一阶段计划。该大规模、多层次项目的核心任务是激励工业界开发可集成到陆军和国防部系统中的算法,以支持安全系统和分层防御网络,该项目被命名为“防御AI”(Defend AI)。
. 实现路径—AI与人机整合:
. “防御AI”项目强调了人类与机器能力整合的重要性。除了符合美国国防部有关要求人类参与致命武器使用的原则之外,陆军技术开发人员也认识到,某些高级AI计算无法模拟人类意识中较为主观的关键现象。伦理、直觉、道德、意识、情感等,这些只是人类决策中许多独特属性中的一部分,对于作战行动和决策至关重要。目前,数学生成的算法或许还不能够复制它们。上述变量和问题可能为陆军部长克里斯汀·沃莫斯(Christine Wormuth)最近发布的人机界面指令提供了依据。该指令旨在确定和优化高速机器和人类决策之间的必要平衡。因此,人机平衡在拯救生命和增强战力的领域中尤其重要。
. 项目目标—防御AI免受攻击:
. 确保AI系统能够有效分析、区分、组织和传输时间敏感的作战情报至关重要。然而,陆军也开始考虑如何保护AI免受攻击、欺骗和其他高科技干扰,以避免误报或灾难性的错误。因此,陆军的“防御AI”项目致力于开发“反制措施”,用以识别和阻止针对AI系统的攻击或欺骗尝试。通过分析多个变量和指标之间的相互关系,以提高防御措施的有效性。例如,在目标识别过程中,除了光学或视觉标识,敌方目标可能还会产生声音或热特征,这些因素可能会影响AI系统抵御敌方攻击的能力。虽然反制是一个很难实现的概念,但美军正积极推进人工智能“反制措施”的发展。
. 未来发展:
. 美国防部的武器开发人员也在密切关注另一个重要领域,即纯“自主”或“无人干预”的人工智能在纯防御性、非致命目的(例如无人机和巡航导弹防御)中的应用前景,其涉及众多关键问题:
● AI是否应具备立即识别出某种威胁或目标是否涉及人类的能力,以及是否能够利用非致命武力击败或“拦截”该目标?
● 在面对导弹、迫击炮、火箭、无人系统或无人机群攻击时,快速处理和AI驱动的防御是否能够发挥作用?
● AI是否能够基于准确信息制定决策?若发生误报或错误识别,应该如何处理?
. 未来,人工智能有望在特定情况下用于非致命和防御目的,以在敌人快速攻击的情况下拯救生命。尽管人工智能的优势尚未完全发挥,但美陆军明确意识到必须优先考虑围绕人工智能应用的伦理、理论和安全相关变量。这行动可被视为“防御AI”项目的组成部分,旨在快速实现人工智能的回报效益,同时优先考虑保护人工智能的伦理框架和措施,进一步提升其可靠性和抵御敌方攻击的能力。
联系我们
购置资料 杨老师:13165589228(微信同)
检索/翻译 梁老师:13011583019(微信同)
定制报告 蔡老师:13068796075(微信同)
北京分公司联系人 刘老师:18610862096(微信同)