吴泽映 | AI, “仿信息”(Disinformation), 现代战争,及人类认知吴泽映 | 海外看世界

借主编邀请撰文之机,我想把英文“disinformation”一词引进中文语境,并结合这一词谈谈AI给现代战争和人类认知带来的挑战。

与“misinformation”(假信息)不同,“disinformation”一词描述的现象是指在某一意图的驱使下,主体根据某种思维逻辑,通过选择性筛选、结合或重新编排真实或虚假的信息来引导受众形成某种错误认知。 值得强调的是,散播“disinformation”的主体意图明确:引导受众形成其明确的错误认知。因此,虽然“disinformation”和 “misinformation”都会导致错误认知,但二者并不等同。因为“disinformation”中的信息有可能完全真实,而受众一定形成了错误认知。“misinformation”中的信息则一定是虚假的,但受众不一定形成了错误认知(比如,受众有可能鉴别出假信息后不受影响)。类似地,“disinformation”与“propaganda”(宣传)也有区别。宣传者(尤其是意识形态宣传者)一般情况下都认为自己宣传的目的要受众形成“正确的”认知。从这一角度讲,“disinformation”与“propaganda”有相反的一面,即使客观上二者在使用工具和结果上都可能有重合之处 (比如,真假信息混合,或者受众最终形成了错误认知)。

 “Disinformation”作为一种现象并不新颖, 我们可以在古代或信息时代以前找到相关例子。在英语语境里,“disinformation”一词的出现也可以溯源到19世纪中后期。但近来对这一现象和词汇的重新关注与网络技术带来的虚假信息泛滥有关。有趣的是,在中文里,它似乎还没有对应的翻译。介于本质上“disinformation”的运作机理与仿制品的制作原理可作类比,我们姑且称之为“仿信息”。

“仿信息”和AI 的工作原理也有异曲同工之妙。二者皆是在已有的真实或虚假信息上加以制作或创作,而制作和创作背后的意图及其所遵循的逻辑则由操作主体决定。 二者的区别仅在于“仿信息”的操作主体的意图已被设定,即让受众形成错误认知。而AI作为工具,其主体的意图可以是多样的,结果也有不确定性 (即受众可能也可能不形成错误认知)。从不同角度来看,“仿信息”可以是AI 的一种负面效果,而AI 则是“仿信息”的有效工具。

“仿信息”古来有之,在战乱时代尤盛。当下的俄罗斯-乌克兰战争及哈马斯-以色列战争中,“仿信息”的战略运用及影响都得到充分体现。毋庸置疑,AI技术的发展和成熟将让“仿信息”以更高级的形式在现代战争中出现,从而左右战争的进程和结果。也因此,信息战将在现代战争中占有前所未有的重量,并将在很大程度上决定战场上和事实上的兵家胜负。

同时,借助AI 技术的“仿信息”也会给人类的认知带来前所未有的冲击。长期以来, 我们认为我们必须依赖于真实、客观(即,主观体验之外)的信息才能形成正确认知,作出准确判断。但 当AI 技术让客观信息的真实与虚假变得无法辨别,当“仿信息”以各种难以察觉的形式充斥着我们信息的来源,我们是否还能有效地利用客观的外在信息来形成正确认知呢?批判性思维和逻辑推理的能力或许有助于我们应对意识形态的宣传和鉴别假信息。但“仿信息”往往符合逻辑,也能巧妙区别于意识形态宣传的传统套路,让人防不胜防。AI 和“仿信息”的结合无疑给我们认知客观世界带来了巨大的挑战。

然而,AI 可以篡改、甚至创造客观信息,却无法事先改变或创造人类个体的主观经验 (subjective experience)。由AI“创造的事实”首先需要个体的主观性来驱动,最终也需要通过个体的主观经验才有可能成为有象征性意义的存在  —  即,能被人类个体认知,并在一定文化背景下被用来表达一定的意义、被用来交流。没有人类个体的主观意图,AI 不会制造或创造,也不存在“仿信息。”没有进入人类的主观世界,AI 创造的“世界”便如我们无法想象和认知的符号空间,  即使存在,也与人类无关,因此不会对我们产生影响。换言之,AI的发展以及“仿信息”的普遍存在应该促使我们更重视人类个体的主观经验。因为,只有在个体身上发生了的主观经验才是最真实的一手数据,只有这些数据无法被AI创造或事先篡改。随着AI 技术的广泛运用,我们或许会重新回归到一个曾被“实证主义”否让的认知: 人类个体的主观经验和个体间的直接互动或许是我们认识客观世界最真实可靠的信息来源。


Posted

in

by

Tags: