朱俊玮 | 战争中的AI与人类责任 | 海外看世界

37学者评【评新型战争形态】第8篇

朱俊玮

浩瀚智库研究员

近年来,AI军事化应用所带来的安全风险日益受到国际社会的关注。俄乌战争和不久前美国与以色列挑起的对伊朗战争,为AI技术提供了深度参与实战的机会,深刻改变了作战样式。如果说1991年的海湾战争是“第一场信息战”,那么俄乌战争和伊朗战争可以被视为人类最初的AI战争实践

从俄乌战争到伊朗战争,AI从主要发挥辅助作用,发展到更深度地承担目标筛选等核心任务,大幅增加了打击目标数量,加快了打击节奏。硅基智能在处理海量信息方面对碳基智能具有碾压式优势:像“9·11”事件前美情报部门虽已获取相关原始情报,但因工作量太大而而来不及翻译分析的情况将不再会出现;人类团队需要数天甚至数周才能完成的图像判读和目标识别等工作,对AI而言只是“小菜一碟”。然而,AI的能力越强,人类的责任就越大——人类需要把自己的认知与各方面能力提升到更高水平,确保AI至少在可预见的将来始终处于人类的控制之下,为人类服务

图片源于网络。

首先,人类军人需要深刻理解各种AI工具的优势、短板及各种风险,同时对人类在与AI交互中可能存在的认知误区、陷阱、弱点等保持警觉。AI应始终是人类的工具,工具使用者应当对其各方面性能有充分的了解——尤其应清楚何时会出故障、存在哪些风险,以及如何防范和排除风险。这些问题在学术界、智库圈、政策界已有深入讨论,但目前外界尚不清楚战场内外的AI工具使用者,比如一线作战人员、指挥官乃至高层决策者对此认知有多深刻。

其次,人类军人必须对AI模型输入和输出数据的准确性、可靠性进行严格审核。一方面,要确保输入数据准确有效。若输入数据本身就有问题,那么AI就会成为错误的加速器和放大器。据报道,美国和以色列在2月28日误炸了伊朗一所女子学校,导致约170人死亡,初步分析显示,误炸原因可能涉及使用过时的目标数据,而美军使用的AI系统Maven加剧了这一错误。美国国防部联合人工智能中心首任主任杰克·沙纳汉中将指出,从Maven项目启动之初,他就反复强调,向AI模型输入实时、准确的数据,才是最核心的难题。另一方面,必须对AI模型的输出结论进行审慎复核,避免被AI的算法偏见、“幻觉”等偏差误导而酿成悲剧。训练后的AI模型往往如同一个“黑箱”,人类知其输入与输出,却不清楚其内部经过何种步骤得出结论。大量实验证明,输入数据中极细微的扰动就可能颠覆AI的判断与输出。上述误炸事件另一层面的原因在于,一线作战人员在高速作战节奏的压力下,难以对AI提供的结论逐一加以确认与审核。作战历来强调“兵贵神速”,而AI的应用进一步压缩了信息审核与决策时间,无形中埋下了无数未知的错误隐患。人类需要反思:在AI时代的战争中,我们应当继续一味追求速度,还是应当适时谨记“欲速则不达”的古老智慧?

图片源于网络,图为伊朗被炸毁的学校。

再者,人类军人必须担当起AI模型的“伦理审查官”角色。AI模型的训练依赖可编码信息;情感与伦理等虽可通过多模态数据被部分表征,但因其高度情境依赖与价值多元性,难以被完整、稳定且无偏地建模,也不构成真正意义上的理解。同时,人类社会本身的价值分歧与数据偏见,进一步限制了AI在伦理和价值观领域的可靠性。近期研究实验显示,AI既不懂人类眼中的“风险代价”,也不懂“核禁忌”。不久前,英国伦敦国王学院研究人员使用GPT-5.2、Claude Sonnet 4、Gemini 3 Flash三款大语言模型进行兵棋推演,在95%的模拟推演中,至少有一款大模型选择使用战术核武器;无论战局如何恶化,三款大模型均不选择妥协或投降;在86%的模拟推演中,冲突升级程度超出了决策逻辑的预期范围。这就引出了一个终极问题——究竟谁该为AI在战争中的应用负责?

最终,承担一切战争责任的应当是人类,也必须是人类。人类必须主动作为,为AI扎紧护栏,构建人、技术、制度、规则多重防线,明确不同岗位的具体责权。只有板子打到具体的人身上,责任才会被认真对待。唯有将责任落实到具体的人和具体的环节——从数据标注、模型开发、系统部署,到情报搜集与审核、指挥决策、最终执行,形成一个可追溯、可问责的闭环,才能避免责任被技术外包、被系统稀释、被流程掩盖。确保“人在环路”固然重要,确保“每一环都有人负责”更为关键。


Posted

in

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *