编译:谢红杰 / 审校:郭施
. 据美国“defensescoop”网站2024年5月9日信息,美国防部认为生成式人工智能(Generative AI)是一种适用于整个部门的工具,但其目前存在安全隐患问题。
. 2023年1月,美国防信息系统局(Defense Information Systems Agency,DISA)将类ChatGPT大语言模型底层的“生成式AI技术”(Generative AI Technology,AIGC)列入“技术观察清单”。大语言模型的突破性发展,为军事领域提供了战略优势,但其存在安全隐患问题。
. 主要优势:
. 大语言模型在军事领域的主要作用是提供更快速、更准确、更智能的情报分析和决策支持,帮助军队更好地应对复杂多变的战场环境和挑战。
● 情报分析和情报预测:大语言模型可以处理大量的情报信息和数据,帮助军事情报分析人员更快速、准确地分析情报数据,预测潜在威胁和行动。
● 战略决策支持:通过生成专业化、定制化的文本,大语言模型可以辅助军事领导者做出战略决策,提供军事行动方案或情报支持。
● 作战模拟和训练:大语言模型可以支持虚拟作战模拟和军事训练,帮助军队提升作战技能、战术意识和应对能力。
● 即时翻译和通信支持:利用大语言模型的实时翻译功能,可以支持多语种间的快速沟通和情报共享,提高军事行动的效率和协作性。
. 主要问题:
. 美陆军首席信息官表示,陆军即将发布一项新指令,以帮助指导该部门使用生成式人工智能,尤其是在大语言模型(Large Language Model,LLM)方面更具方向性。目前,大语言模式已被广泛应用于军事、军事智能等方面,但仍存在着可信与安全方面的问题。因此,美国国防部特别指出,在推进将人工智能技术用于军事方面时,应解决其安全隐患问题。
. 一是追求定制化技术,以满足国防部特殊需求。大语言模型能够根据提示和训练数据生成文本、音频、代码、图像、视频和其他形式的媒体内容,在ChatGPT等商业工具的引领下得到广泛应用。美国防部的目标是利用人工智能的生成能力,但其强调希望解决方案不会将敏感信息暴露给未经授权的个人。
. 二是出台初步政策,以提出大语言模型的指导意见。2024年5月9日,美陆军首席信息官利奥·加西加(Leo Garciga)在由AFCEA NOVA主办的网络研讨会上表示,针对生成式人工智能和大语言模型,美陆军将持续观察其需求,并在未来两周内发布新政策指南以规范大语言模型使用。尽管该领域还存在许多尚未成熟的因素,但美陆军正在从网络安全的角度深入研究此问题,并将推出一些初步政策以处理安全问题。目前,美陆军首席信息官团队一直在与负责采购、后勤和技术的助理部长办公室进行磋商,以充实相关内容。
. 美陆军发布新政策指南以规范大语言模型的应用,具有重要意义。首先,确保大语言模型符合法律法规和军事标准,维护信息安全和军事行动的合法性和效果。其次,规范使用提升对大语言模型的控制和监督,避免滥用和数据泄露。此举致力于促进大语言模型成为军事决策和作战中的关键辅助工具,可为国防安全和国家利益提供有力支持。
联系我们
购置资料 杨老师:13165589228(微信同)
检索/翻译 梁老师:13011583019(微信同)
定制报告 蔡老师:13068796075(微信同)
北京分公司联系人 刘老师:18610862096(微信同)