大模型离“中军帐”还有多远
作者:张 静 何 焱 来源:解放军报
近年来,生成式人工智能浪潮席卷全球,其强大的内容生成和人机交互能力正深刻改变着社会面貌。在军事领域,大模型被视为未来战争的一个引擎,世界军事强国竞相投入研发。利用人工智能在最短时间,根据战场态势生成缜密的作战方案,成为许多作战指挥机构的追求。然而,与民用领域的快速渗透不同,生成式人工智能,距离在军事领域全面深度应用,依然面临着一系列严峻挑战。
大模型在推进人工智能发展上“自带光环”,但其在军事领域的应用却面临诸多困境,集中体现在“不好用”“不能用”“不敢用”三大困局。这些困局并非偶然,其根源与支撑生成式人工智能发展的核心要素在军事场景下的“水土不服”密切相关。
一是“不好用”之困:数据预训练的军事瓶颈。
生成式人工智能核心在于,基于海量数据的强化学习预训练。然而,军事领域面临现代化实战经验数据匮乏的窘境。大量数据来源于日常训练和演习,其真实性、复杂性和对抗性与真实战场存在差距。更重要的是,与民用领域拥有海量标注数据不同,蕴含丰富作战知识的军事数据,比如作战文书往往价值高、体量小,且缺乏系统化的人工标注。这导致数据的可用性、可解读性差,难以支撑大模型进行有效的专业学习。数据体量的悬殊,极易引发模型“退化”“变笨”或输出不专业结果,难以理解和运用“军语”,缺乏“军味”,使得一线作战人员感觉“不托底、不靠谱”。
二是“不能用”之忧:交互调优与可解释性难题。
大模型需要通过频繁的开放式交互训练不断优化参数,以适应高复杂度、强专业性的领域。在军事领域,开展如此大规模、高质量的交互调参工作难度和工作量巨大。更关键的是,大模型本质上是“黑盒模型”,其内在逻辑难以分解,输出响应中常出现“幻觉”,即“答非所问”,甚至无中生有。这与军事行动对高度可解释性、确定性、可靠性的严苛要求形成根本矛盾,指挥员难以信任一个无法清晰理解其决策逻辑的系统。此外,大模型高昂的硬件运维成本和技术门槛,也使其难以在一线部队便捷部署和维护。
三是“不敢用”之虑:互信成本与安全保密鸿沟。
当前生成式人工智能主要在低互信成本的民用领域推广。军事领域最大的应用障碍之一,便是伦理与安全问题。技术复杂性和信息不透明性导致用户对输入输出间的因果关联难以把握,结果无法完全掌控,在涉及生死的军事决策中风险极高。同时,驱动大模型所需的专业化、综合性军事数据具有极高的敏感性。若照搬通用领域的数据汇聚模式,极易引发知悉范围失控、密级管理失序等重大安全保密风险,触碰军事领域红线。这使得部队对引入大模型心存顾虑“不敢用”。
面对军事智能领域的诸多难题,世界多国研究团队正在加速探索破局路径。比如,有的研究团队综合运用知识图谱等技术,破解了相关技术矛盾。然而,这仅仅是破冰之举。
正如民用领域的成功依赖于数据、算力、算法和交互环境的共同演进,军事领域生成式人工智能的成熟应用,同样需要在高质量军事数据基础建设、专用算力支撑、安全可控的多源交互环境构建以及法律道德规范等方面持续投入,厚积薄发。唯有攻克这些核心难题,生成式人工智能才能真正成为值得信赖的“中军帐”智慧引擎,为打赢未来战争提供坚实支撑。
相关链接
企业AI知识库搭建与运营培训课程
呼叫中心AI知识库培训课程
个人知识体系构建能力课程