海外看世界最新文章

  • 张东宁 |战争背面的AI|海外看世界

    16学者评【AI与现代战争】第15篇 AI是目前社会发展中最典型的高效工具,具有众所周知的自我学习和决策能力,已经在俄乌、巴以等冲突中创造并承担前所未有的任务,深入影响着与战争相关的各种因素。战场情况瞬息万变,随时产生大量数据,人为的整理和判断开始过渡给机器评估,甚至要依靠机器做出决策,呈现为人类在战争中已经不再具有完全主导权的现象。除了还会作为被袭击和征服的目标外,人在战争中越来越多的权力开始让渡给可能具有人类思维模式,但不知道是何种性格特征的机器和算法。如果算法和算力有些不同,反映在战场上,就是目标是否被摧毁和何时被摧毁的差别。从结果来看,有AI参与的战斗,物资成本低,战术效果好,战略威慑大,创造了极为广阔的使用前景。从单机到机群、从机群到立体战斗群、从空中到太空、从陆地到海洋,所有AI能够思考和武器能力可及的空间,都将成为AI的自动化战场,武器的自主化及其对人的威胁能力将极大的改变战争形态和胜负情况。随着机器学习软件能够针对具体任务自行创建模型和选择策略、战场的宏大和复杂程度超越人类对细节的感知、AI开发武器以及开展军事和战争活动渐趋合法化,人工智能必将演化为超越人类理解、解释和预测的战争“黑匣子”,让人类在战争中只能扮演征服和被征服的角色,此间没有其他身份可供选择。战争一开,只需等待AI通知结果了。 AI深入影响着与战争相关的各种因素 至此,我们思考的底线——人是AI智能存在的基础,也是AI智能存在的意义,失去人类,AI将不再具有此前的价值。所以,对于人来说,AI智能是实践中最高效率的工具,战争中使用AI只是为了更高效率的实践,而不是最终替代人类、消灭人类的主宰者。因此,AI的自我学习、自行建模和自主决策需要存在人类边界,也就是什么人使用什么样的AI工具进行怎样的社会实践。起点在人,终点也在人。一如人类已经不再和Alphago下围棋,还知道很多工作岗位会被AGI取代,但还在自我对弈中愿意借鉴机器建模发现的博弈策略,在日常生活中期待Sora做出更完美逼真的视频,用好奇和未知相信这还是人类的世界。基于这样的思考前提和生活场景,也可以更深入的理解AI介入的战争。它从来不是孤立于人类社会之外的存在,只是特别体现智能化的暴力手段和极致追求胜利等特征,其产生、发展、终止和威慑还要广泛依托于人类社会的政治、经济、军事、科学技术、天气、地理、人的参与及护佑等情况。而在科学日益发展的前提下,技术进步开启加速进程,AI也在深度融入人类社会内部并渐次发挥提升效率的影响。政治生活会努力确定AI的性质,经济活动会尽力发挥AI的价值,科学技术会不断刷新AI的能力,天气、地理和人也会干扰AI 的参数设计,最终的AI将是人类社会实践的综合结果。因而,战争仅只是人类AI实践的一部分。即使AI可以决定战争本身的胜负,也无法更改更广泛的人类社会AI实践对战争结果的塑造。 AI正在深度融入人类社会内部 人类正在努力搭建一个最好的AI模型,推动高效的社会实践。但是人类的好奇和无知似乎没有办法保证,将会是什么人使用什么样的AI工具进行怎样的社会实践,能否尽量兼顾社会的公平和正义。反而,战争的存在、安全困境的思维可能会鼓励人类为争抢AI模型而陷入无法预知形态的争斗,毕竟资源的有限和预期的收益总是发生争吵的原因。AI提供了人类历史上未曾有过的实践效率而成为热手的资源,改变着战争和社会形态,甚至改变着历史的进程和方向,希望人类有足够的智慧和能力驾驭它,服务于人类的福祉。

  • 海看快讯|民进党的诉求|海外看世界

    环球两岸关系研究会《两岸热点》系列讲座第三十五讲 美东时间2024年2月24日晚(北京、台北时间2月25日晨)由环球两岸关系研究会和全球华人政治学家论坛主办,台湾中流文教基金会和上海东亚研究所赞助的《两岸热点》系列讲座第三十五讲暨闭门线上研讨会在美国华盛顿举行。会议由美国美利坚大学赵全胜教授主持,民进党中国事务部主任吴峻鋕主讲,厦门大学台湾研究中心研究员朱磊点评, 来自全球各地的30余位学者参与了会议,其中戎抚天、刘佩怡、雷倩、林宏宇、顿世新、朱志群、余东辉、孙太一、赵宏伟、祁冬涛等专家学者在问答环节分享了看法并提问。 作为两岸会成立以来首位民进党官员/学者主讲人,吴教授首先分享了自己在台湾大学政治系读博时和朱云汉等学者的师生关系、曾经在大陆做民调的经历,以及希望能尽快再次回大陆做研究的愿望。随后,他分别从当前民进党政府的两岸政策、民进党的基本精神以及民进党两岸立场的演变三个角度阐述了民进党的诉求。关于民进党的两岸政策,他阐述了1999《台湾前途决议文》的内容及民进党的立场、愿景。他同时通过阐述蔡英文的两岸政策来阐述其对两岸的三个承诺,尤其是维持现状的相关内涵。他同时也细致分析了赖清德的相关主张。在提到民进党的基本精神时,吴教授主要解释了民主、进步的意义及相关的行动策略。在讲到民进党两岸立场的演变时,吴教授从1991年开始,针对每一次重大的事件和相关变化做了简要的阐述。他同时也分享了民进党对“九二共识”的看法。 朱磊教授首先肯定了吴教授分享中的正面信号,尤其是民进党认可中国文化并愿意推动和平发展。他随后在点评时也列举了大陆无法认可的八个民进党主张,并做了相关阐述。这包括历史上,台湾从来就不是一个国家;现实中,国际社会也不承认台湾是一个国家;法理上台湾属于中国;文化上,中国人从来都是反对割据和外力欺压的;逻辑上互惠和台独矛盾;情理上,大陆民众不会同意;趋势上,中华民族伟大复兴是要求统一的;政策上,大陆也在推动两岸和平发展。 学者们在问答阶段主要围绕“《台湾前途决议文》”“中华民国宪法与互不隶属提法的矛盾”“民进党是否可以持更开放的态度”“两岸共识”“一中”“九二共识”“国家和国族”“国民党与民进党立场的差异”“如何建立沟通管道”“沟通的重要性”“核心分歧”“死结与回旋的空间”“如何从经验中获得解决方案”“民进党党纲”“法理内容”“联合国的表述”“民进党是否能有新提法”“冻结台独条款”“金门事件及调查”“体制差异”“民进党眼中中华民国的具体疆域”“大陆学者与记者赴台的挑战”“TPP”“美方对民进党的态度” 等话题进行了热烈的讨论。学者们纷纷对两岸会突破同温层、邀请不同立场、不同观点的学者、官员做分享进行思想碰撞和沟通并探索解决方案表示了赞赏,也都希望这样的讨论能继续。

  • 吴泽映 | AI, “仿信息”(Disinformation), 现代战争,及人类认知吴泽映 | 海外看世界

    借主编邀请撰文之机,我想把英文“disinformation”一词引进中文语境,并结合这一词谈谈AI给现代战争和人类认知带来的挑战。 与“misinformation”(假信息)不同,“disinformation”一词描述的现象是指在某一意图的驱使下,主体根据某种思维逻辑,通过选择性筛选、结合或重新编排真实或虚假的信息来引导受众形成某种错误认知。 值得强调的是,散播“disinformation”的主体意图明确:引导受众形成其明确的错误认知。因此,虽然“disinformation”和 “misinformation”都会导致错误认知,但二者并不等同。因为“disinformation”中的信息有可能完全真实,而受众一定形成了错误认知。“misinformation”中的信息则一定是虚假的,但受众不一定形成了错误认知(比如,受众有可能鉴别出假信息后不受影响)。类似地,“disinformation”与“propaganda”(宣传)也有区别。宣传者(尤其是意识形态宣传者)一般情况下都认为自己宣传的目的要受众形成“正确的”认知。从这一角度讲,“disinformation”与“propaganda”有相反的一面,即使客观上二者在使用工具和结果上都可能有重合之处 (比如,真假信息混合,或者受众最终形成了错误认知)。  “Disinformation”作为一种现象并不新颖, 我们可以在古代或信息时代以前找到相关例子。在英语语境里,“disinformation”一词的出现也可以溯源到19世纪中后期。但近来对这一现象和词汇的重新关注与网络技术带来的虚假信息泛滥有关。有趣的是,在中文里,它似乎还没有对应的翻译。介于本质上“disinformation”的运作机理与仿制品的制作原理可作类比,我们姑且称之为“仿信息”。 “仿信息”和AI 的工作原理也有异曲同工之妙。二者皆是在已有的真实或虚假信息上加以制作或创作,而制作和创作背后的意图及其所遵循的逻辑则由操作主体决定。 二者的区别仅在于“仿信息”的操作主体的意图已被设定,即让受众形成错误认知。而AI作为工具,其主体的意图可以是多样的,结果也有不确定性 (即受众可能也可能不形成错误认知)。从不同角度来看,“仿信息”可以是AI 的一种负面效果,而AI 则是“仿信息”的有效工具。 “仿信息”古来有之,在战乱时代尤盛。当下的俄罗斯-乌克兰战争及哈马斯-以色列战争中,“仿信息”的战略运用及影响都得到充分体现。毋庸置疑,AI技术的发展和成熟将让“仿信息”以更高级的形式在现代战争中出现,从而左右战争的进程和结果。也因此,信息战将在现代战争中占有前所未有的重量,并将在很大程度上决定战场上和事实上的兵家胜负。 同时,借助AI 技术的“仿信息”也会给人类的认知带来前所未有的冲击。长期以来, 我们认为我们必须依赖于真实、客观(即,主观体验之外)的信息才能形成正确认知,作出准确判断。但 当AI 技术让客观信息的真实与虚假变得无法辨别,当“仿信息”以各种难以察觉的形式充斥着我们信息的来源,我们是否还能有效地利用客观的外在信息来形成正确认知呢?批判性思维和逻辑推理的能力或许有助于我们应对意识形态的宣传和鉴别假信息。但“仿信息”往往符合逻辑,也能巧妙区别于意识形态宣传的传统套路,让人防不胜防。AI 和“仿信息”的结合无疑给我们认知客观世界带来了巨大的挑战。 然而,AI 可以篡改、甚至创造客观信息,却无法事先改变或创造人类个体的主观经验 (subjective experience)。由AI“创造的事实”首先需要个体的主观性来驱动,最终也需要通过个体的主观经验才有可能成为有象征性意义的存在  —  即,能被人类个体认知,并在一定文化背景下被用来表达一定的意义、被用来交流。没有人类个体的主观意图,AI 不会制造或创造,也不存在“仿信息。”没有进入人类的主观世界,AI 创造的“世界”便如我们无法想象和认知的符号空间,  即使存在,也与人类无关,因此不会对我们产生影响。换言之,AI的发展以及“仿信息”的普遍存在应该促使我们更重视人类个体的主观经验。因为,只有在个体身上发生了的主观经验才是最真实的一手数据,只有这些数据无法被AI创造或事先篡改。随着AI 技术的广泛运用,我们或许会重新回归到一个曾被“实证主义”否让的认知: 人类个体的主观经验和个体间的直接互动或许是我们认识客观世界最真实可靠的信息来源。

  • 尹继武 | AI的飞速进步难以改变国际政治的本质尹继武 | 海外看世界

    16学者评【AI与现代战争】第10篇 信息化时代确实重塑了我们生活的世界,尤其是对于日常生活而言。近些时日,从ChatGPT到Sora的炫目出场,让诸多传统行业从业者面临着失业风险,而中美等大国竞争的内涵也增加了AI的维度。AI科技的飞速进展,对传统的文字工作者、视频工作及其相关产业带来巨大影响,甚至是颠覆性的,在国际政治领域也可能会改变现代战争的形式、进程及其结果。在此意义上,AI的科技进步的确值得国际政治研究者关注学习。基于技术的认知和应用门槛,以及新媒体的噱头效应,AI进步预示了科技改变国际政治中合作与竞争的形式、维度和结果,但难以改变未来国际政治的本质特征。 一方面,未来AI重塑传统的权力格局的过程仍不算清晰。国际政治的舞台,权力及其对比是根本性的决定力量。如果回溯历史,则会发现核武器的出现,成为大国地位的物质基础和地位象征,从而影响到大国的战略竞争以及不同国家的战略行为。这也决定了核时代到来,对于国际政治的影响是全方位的。就民族国家及其在全球的扩散而言,早先《想象的共同体》等著作就讨论了印刷术,作为一种前信息时代的技术革命,对于民族国家观念及其建构的重要意义。未来AI的极速发展,更多会强化中美等大国在此新兴领域内的竞争与合作,同时战争与冲突中新技术的引入,也许会改变战争的形式和效率。这些新技术如何加速战略技术武器的革命,尚需专业学者的探究。就此来看,当下的AI风潮,其效应更多是体现在特定的社会经济领域,谈论其国际政治的革命性影响也许尚为时过早。 这种判断的根本理由,在于AI的充分发达时代,国际政治的本质特性仍是冲突与合作,以及不同群体的策略及其选择。技术发展所呈现的未来景象,恐怕更多是体现非线性的特点,就如智能化时代确实改变了大多数人的生活方式、交流方式,但是人际关系的本质其实不会变化。同理,以当下最具想象力的相关科幻艺术形式所呈现出未来人工智能社会的虚拟世界观察,变化和不会变化的要素是显而易见的。从早期的《2001太空漫游》、《异形》,到近期的《黑客帝国》《西部世界》,再到一些富有想象力的国际政治理论作品如《僵尸与国际关系理论》,在一个未来高度发达神经科学的世界中,传统的国际政治和关系确实得以消解。那时候,大国关系的冲突与合作已经让位于人与“智人”之间的纷争,这似乎预示了一个只要足够高度发达的神经科学和人工智能的时代,最后的结果是人与自己制造的“工具人”之间的博弈,起因在于“机器人”一旦获得自我意识,就会极力摆脱、甚至反过来控制人类。在此,人类为了重新战胜“智人”的联盟、合作、欺骗、分化等,替代了传统上的国家之间的纷争与协作。尽管那是一个“人际冲突”的时代,但其关系的本质仍是与当下的国际政治是一样的,包括联盟与拆解、殖民与反抗、文明与野蛮等等。 极度发达的AI时代,恐怕会超乎绝大多数人的想象力和预见力。技术的发展,可以肯定的是会深刻地改变我们的生活,但无法改变的是“政治”和“关系”。可以想象的是,未来也许没有“国际”,但仍有“政治”关系,后者恐怕才是过去、现在和未来国际政治的本质特征所在。

  • 杨水清 | AI的快速发展给政府监管带来挑战杨水清 | 海外看世界

    人工智能(以下简称“AI”)技术的快速发展,AI从抽象晦涩的技术概念,转变为人们手中不可或缺的生产力工具。AI在改变我们创作模式的同时,也给各国政府带来监管挑战。 为强化对AI的监管,拜登政府可谓是煞费苦心。2023年9月,美参议院司法委员会发布《两党人工智能立法框架》,要求建立一个由独立监督机构管理的许可制度,即要求开发复杂的通用AI模型或高风险AI模型的公司在监督机构注册,且该机构有权对模型开发公司进行审核。2023年10月30日,拜登签署关于人工智能(AI)的行政命令,为AI建立安全和隐私保护标准,并要求开发人员对AI新模型进行安全测试,测试结果需提交给政府。2023年11月9日,美国国务院发布《2024—2025财年AI战略:通过负责任的AI赋能外交》,这是美国国务院第一份全面的应用指导性文件,重在适当放宽AI数据的访问权限,保持数据准确性。美国参议院多数党领袖舒默长期致力于人工智能监管规则框架的制定。他多次建议,“国会现在必须加入人工智能革命”,未来几个月将确定人工智能的监管规则。 不仅如此,拜登政府认为,人工智能监管不是一个国家可以完成的事情,需要联合盟友乃至其他“竞争对手”国家来共同完成。在2023年11月的中美元首会晤中,中美两国就强化人工智能的监管规则达成一致意见,双方同意加强政府间的磋商,建立一个人工智能风险和安全问题的专家磋商机制。该磋商机制不仅仅涉及民用人工智能的治理问题,也试图限制人工智能军事利用的控制问题。事实上,早在2023年2月,美国、中国在内的60多个国家签署了一项温和的“行动声明”,支持“军事领域负责任使用人工智能”的立场。 全球将人工智能技术运用在军事领域改变了以往的作战方式。例如,无人机可以通过人工智能技术实现自主飞行和任务执行,无人地面车辆可以自主进行目标搜索和打击。与此同时,人工智能技术,尤其是计算机视觉技术,可以帮助识别和跟踪敌方目标,包括战车、飞机、舰船等。马斯克在2023年11月29日的DealBook峰会上也表示,“我们应该对AI实施某种监管,AI比核弹更危险,我们监管核弹,因为你不能在自家后院制造核弹。” 当下,市场正为人工智能技术给我们带来的视觉盛宴欢呼,如OpenAI最近发布的60秒高清视频Sora,这给影视界的创作者增加了强有力的生产工具。但我们需要思考,到底是“发展先行”还是“监管先行”?尤其是AI在军事上的运用需尽快在全球形成一个国际规则。客观来说,各国政府对于AI技术的监管存在滞后性,也面临全球协调的困难,但若大模型使用不当,或AI技术大规模的运用在军事领域,将给全球带来巨大的风险。

  • 蒋一骁 | AI战争帷幕下的大国论剑:从孔明灯说起 | 海外看世界

    三国时期,诸葛亮的军队被魏军困于阳平。城里粮食日益减少,军心不稳,眼看就要支持不住。孔明灵机一动,令士兵用竹篾和薄纸编制灯笼,以煤油为灯芯。孔明在灯上系上求救的讯息,点燃并放飞了几百个纸灯笼。部分孔明灯随风飘到了蜀国的大本营,为孔明带来了援军。孔明灯可以被理解成人工智能(AI)在战场的第一次应用:相比于士兵突围传信,孔明灯扮演了无人机的角色,其“智能”则体现在制造者对风向和天气的利用和判断。穿越千年,只能依靠风力和运气的“无人操作系统”显然过于简陋,那么现代战争中AI武器的论剑又在何处? 2023年,军事迷和股民在终于有了共同话题 — 人工智能。在俄乌冲突和以色列-哈马斯战场上,人工智能对现代战场的影响也从一战时期的无人机拓展到了算法轰炸,情报分析,以及战争决策等等。算力做为硬件基础决定了人工智能的上限。这也解释了在人工智能的掘金时代,卖铲人英伟达(NVIDIA)凭借在AI芯片领域的龙头垄断地位股价和市值屡创新高。笔者认为,在达到这个上限的过程中,用来训练模型的军事数据的“质”和“量”是大国AI武器在中短期的角力点。 机器学习是人工智能的核心领域。所谓的“学习”可以理解为机器从训练数据中建立模型和根据测试结果反复优化模型的过程。在保证“质”的前提下,模型的精度会随着训练数据量的提升而提升,这也是数据可以成为人工智能大时代下新“石油”的原因。用机器学习的语言来讲,孔明灯的设计是一种监督学习(Supervised Learning): 通过选择一系列的天时地利相关特征(Feature)来增加其抵达目的地的概率。理论上,这个概率是可以通过天气,风向,释放点,和时间等因素的各种排列组合下(“质”)进行大规模的反复实验(“量”)来提高的。在没有可靠且高质量的数据进行模拟时,人工智能的效果往往差强人意。 当代的AI武器更需要大量的演习才能“孰能生巧”。相比于传统武器,人工智能的可怕之处在于其自我学习的能力:AlphaGo可以通过和自己对弈来进行提升,棋手却不具备这种左右互搏的能力。在2022年的俄乌冲突中,AI武器(巡飞弹,察打无人机等)已经展现出了自我战斗能力。在可预见的将来,AI武器或许可以实现自身的攻防演练,绕过实战数据稀缺的瓶颈。

  • 孙太一 | 人工智能的竞争将越来越依赖于开放社会| 海外看世界

     16学者评【AI与现代战争】第9篇 OpenAI在去年多次重磅推出文字生成的人工智能之后,今年开年又推出了可以输入文字生成短视频的SORA,颇有一夜之间就要取缔一整个行业的架势。人工智能无论是在娱乐领域还是军事领域,其背后依赖的是对数据做大量的训练。无论是文字还是图片素材(或者由图片结合出来的视频素材),当前都仍然需要回归到对文字和文字标签的处理。随后,在对生成过程的路径进行训练后,模型就会越来越贴合最初输入的指令。可以说,SORA之所以能如此令人眼前一亮,是因为OpenAI已经有了强大的自然语言处理能力做基础。 按照这样的思路分析,要在人工智能领域取得主动权,获得竞争力,原始数据必须数量大、质量高,数据在被训练的时候不能有太多干预和忌讳,最终的结果不能被系统性地审查。如果一个社会在言语和图片上充满着禁忌,有的时候连文字的谐音、图像的类比都不被允许,那不仅被用于训练的数据质量会有缺陷,模型生成过程的路径以及神经网络的完整性显然都会不尽如人意。可谓自废武功。 在商业层面,其实OpenAI所用的核心方法来自于谷歌的几篇论文(尤其是关于diffusion transformer的)。但谷歌可能因为流程繁冗,条条框框的规矩(比如涉及隐私的)非常多,整个“机器”就转得很慢。而OpenAI作为初创公司,小而精让其没有太多的包袱,它的灵活性让创新力得到了极大的发挥。在我们中国的大背景下,这意味着可能既要避免负重前行的国企对资源的垄断,也要避免行业巨头对流量和市场的霸占,让小而精的公司既可以随时用互联网(在不受阻挠的情况下)查看重要的论文,也可以拥有高质量的全面数据。 人工智能领域的竞争其实是中国维新的一次契机。拿旧金山这个城市举例,因为硅谷生活成本高昂以及此前疫情期间网上办公导致的实体经济受到重大冲击,再加上城市核心区域常年有流浪群体聚居及治安问题,很多人才最近几年出现纷纷撤离的趋势。旧金山作为一个美国西海岸的重要城市在前几年遇到了巨大的挑战。但最近因为人工智能公司的扎堆及其带来的规模效应,旧金山的虚拟和实体经济又出现了复苏反弹的迹象。城市状况也与前几年相比有了改善。这种“旧金山模式”显然可以被用于海南、香港等地,贴合国家的大政方针的同时,让人工智能这个新兴产业为这些地区的再次腾飞推波助澜。 中国是个超级大国,大家都清楚让整搜航母调整方向会非常困难且耗时。但以海南、香港这样的本就有土壤和政策红利的“特区”进行开放社会的尝试,显然能起到“牵引”而“四两拨千斤”的作用。人工智能时代,技术的发展和迭代会越来越快,颠覆性的产品及相关应用也会层出不穷。如果起跑时就一直只能有比别人低一截的加速度,那注定是跑不过而且差距会越来越大的。而决定这个加速度的关键除了人才的培养和资源的投入以外,显然离不开一个开放社会所创造的良好环境以及其带来的数据、信息相关的红利。

  • 刘洪钟| 面对Sora,中美更需理性合作| 海外看世界

    美国当地时间2024年2月15日 ,OpenAI正式发布文生视频模型Sora ,同时发布了48个文生视频案例和技术报告 。用户只需输入文字即可转换生成一个60秒的视频。Sora的横空出世无疑是继2023年推出ChatGPT之后的又一个重磅炸弹,其对世界的影响才刚刚开始,或许整个世界都会被重构。全球局势动荡不安的当下,如此颠覆性技术革命对于人类来说究竟是福是祸,恐怕没人能够说得清楚。 Sora是人工智能发展到现在的最高成就。而人工智能竞赛被认为是当前中美竞争的最前沿领域。对于当下两国在该领域的竞争,普遍存在两种看法,一是它将决定两国未来的兴衰。因为从历史上看,大国的兴衰一般都是从重大技术变革时期开始的,这为一个大国维持高于竞争对手的经济增长创造了机会。最终,这个大国将持续增长优势转化为地缘政治和军事影响力。第二种看法是,中国在这一尖端技术领域已经非常接近美国,在电子支付、5G和论文及专利数量等一些领域甚至已经超越美国。 但ChatGPT和Sora 的连续推出,表明上述两点都错了。先从第二点看,中国之所以在部分人工智能领域领先美国,是以中国巨大人口规模所支撑的大数据为基础的。海量的数据使得公司能够使用这些数据来训练算法并预测和模仿人类行为,这就创造了一个良性循环:使用日常技术平台的用户越多,收集的数据就越多;收集的数据越多,产品的改进就越大;产品竞争力越强,吸引的用户和投资就越多;用户数量的增加意味着可以收集更多的数据,进而循环继续。然而,ChatGPT和Sora 的推出表明,美国在人工智能开发所需要的硬件、研发以及人才等基础领域,仍牢牢地占据着主导地位。中国在深度学习、核心算饭、大语言模型等方面还远落后于美国。在差距背后更要看到,美国高度开放和自由竞争的商业环境,为其科技和产业创新以及人才吸纳提供了重要的制度支撑。以人才为例,尽管世界上最优秀的人工智能研究人员中有近三分之一来自中国,但实际上只有十分之一在中国工作。美国智库MacroPolo的一项研究表明,大多数人工智能领域的中国人才都在美国学习和工作,这甚至被视为是美国在该领域保持领先的“秘密武器”。因此,在人工智能领域赶超美国,中国还需要更多的制度创新。   再看“人工智能竞争决定中美兴衰”的论调,如果按照历史逻辑似乎没有什么能够反驳的。但无论是以蒸汽机为代表的第一次工业革命带来的英国崛起,还是以电力为代表的第二次工业革命推动的美国崛起,带给人类的都是进步和希望,它在导致霸权更替的同时,整体上也推动着世界向前发展。然而进入以ChatGPT和Sora为标志的人工智能时代,人类面对的却不仅是技术进步,还有风险、恐惧甚至是毁灭。具体到经济和社会领域,ChatGPT和Sora带来的不只是效率,还有大量产业和就业的消亡;进入到军事领域,人工智能则意味着更加恐怖的战争能力。尤其令人担忧的是,ChatGPT和Sora一旦生成,其进步是指数级的,甚至最终会形成无人能够控制的增长。正如马斯克所惊呼的,Sora“GG了人类”(意指战胜了人类)。 如此,面对Sora,中美大国竞争就显得更加令人不安。当我们被越来越多关于冲突、混乱的新闻所轰炸和包围时,恐怕每个人都需要冷静下来想一想:人类是不是正在走向一条不归路?而作为世界两个超级大国,中美又该如何担当?

  • 蒲晓宇 | AI与战争: 在延续中把握变迁 | 海外看世界

     16学者评【AI与现代战争】第7篇 任何重大科技发展都会引起人类社会各个领域的变化。随着科技的不断发展,人工智能(AI)已经成为当今社会的重要组成部分,其影响不仅限于日常生活,也影响着军事领域和国际关系。在这个背景下,对于人工智能如何改变现代战争的讨论日益引起关注。人工智能的出现和应用使得战争的方式和形式发生某些变化。从智能化无人系统到数据驱动的军事作战决策模式,AI正在赋予军事行动以前所未有的灵活性和效率。然而,要全面理解AI对战争的影响,需要在历史的延续中把握其变迁。 首先,科技越是发展,人类社会越需要审慎处理科技所涉及的人文因素,人工智能的发展也不例外。AI在战争的发动与实施过程中将发挥更大的工具作用,但AI并不能代替人在战争中的中心作用。人的中心作用将继续体现在战争的各个层面,最根本的一条是:AI并不改变战争的政治属性。人工智能时代,战争仍然是人类社会政治的继续,战争的发动和结束依然取决于政治判断和博弈。领导者处理任何军事决策,需要考虑内外政治环境、经济社会条件、法律伦理风险等各种因素,其中每一类因素都充满着各种不确定性。由于AI可能提升战争决策和执行的效率,AI的军事运用对领导者的政治判断提出了更高的要求。  其次,科技发展与战争的关系取决于每一次科技变革的性质。一项科技发展是带来根本变化的革命性进展,还是只是带来局部变革的渐进进展,这决定了其对战争的影响程度。核武器的出现是一个根本性的军事变革,对国际安全和国际关系产生了深远而根本的影响。人工智能在某些方面虽然展现出了极大的潜力,但其是否能够像核武器一样改变战争和国际关系的基本形态,仍然需要时间的检验。 第三,人工智能的发展为国际军控带来了新的课题和挑战,但相关挑战基本都是老问题。科技的迅速进步总会冲击人类现有的伦理和法律框架,技术的发展往往伴随着新的伦理和法律思考。就人工智能带来的新挑战, 各国政府可以从之前核军控、网络安全等领域的国际谈判中寻找经验和教训。经过一段时间磨合,国际社会一定会针对人工智能的发展在法律和政策领域做出新的调整。 最后,尽管人工智能可能会改变战争的某些具体层面,人工智能也可能加剧大国与中小国家的实力差距,但大国竞争最终取决于国家整体实力对比。 人工智能并不改变大国竞争的整体态势,而只是国际间综合国力较量的一个表现。 总之,人工智能对现代战争的影响是一个复杂而多维的问题。虽然它为战争带来了新的技术手段和工具选择,但其对战争本质的影响仍然需要在历史的延续中加以审视和评估。同时,国际社会也需要共同努力,制定相应的规则和机制,以确保人工智能的应用不会引发战争的不可控制性和灾难性后果。

  • 赵宏伟 | 遇AI有幸 何需谈虎色变 | 海外看世界

    16学者评【AI与现代战争】第8篇 不必谈虎色变 新词儿“AI战争”,常见谈虎色变者。这一年,美国先弄出了GPT,又发布了OpenAI,近日又推出了Sora。色变者们推想到AI武器化,美国打来AI战争,这就是人还没反应过来,人已经没了,军已经败了。美国AI遥遥领先,服了吧,好死不如赖活着。 跟吾友,日本国立亚洲经济研究所专家讨论到:中国当可竞赢。人工智能要在制造业落地,必是在中国,因为中国一家有超过其下前十位国家之和的制造业,有制造业新技术最丰富的应用场景,集中着最多的大数据。事实上发达国家的工业AI巨头们是深刻认识到这一点的,君不见:中国的50家灯塔工厂里,有一半是外资。西门子,博世这些工业4.0的领军企业,都把最先进的智能工厂放在中国。 确实有人认为人工智能的发展会降低制造业的最优生产规模,最终全球产业链会缩小到每个国家都可以单独搞一个小产业链。 这不可能。人工智能的发展需要海量大数据来提升算法,而制造业能获取到最多大数据的只有中国。前日跟日本政府经济产业省一个官员交流,他充满危机感地讲到:工业机器人原本日本的优势非常明显,但是中国因为握有海量的工厂应用数据,在系统集成和大规模量产等方面已经赶超上来了。 再想想,Sora生成的短视频是不为工业端,只为消费端,说白了,也就是陪陪TikTok玩得更好而已。跟GPT、OpenAI同病相怜的是,只为消费端却又没寻到收费及做广告的路径,用经营学用语说就是没模索出赢利模式,还没有获得生意的可持续性。说白了就是只赚吆喝不赚钱,恐会无以为继。 可是中国做起AI化来就是又赚吆喝又赚钱,可持续了。君不见,以华为15大军团为首,中国工业端早于GPT,便已日夜兼程了。君不闻,华为老总有言在先:华为不做诗,不写小说,只付能实业。显然,是各大产业为提高全要素生产率向华为付费。 有Al武器化才有Al战争,工业空心化的西方如何推进Al工业化呢,面对中国又如何竞赢Al武器化。 “空战演进”项目 遇AI有幸 安全保障论客一定会假设美国有精良的Al武器系统,沙盘推演跟中国打Al战争。沙盘推演的陷阱在于唯武器论,唯战力论,而忽略更为重要的场景,推演战争场景;在此略推演二、三。 一是,AI大数据模型会高精度高透明度知己知彼,这便废了间谍职业,稍带着废了人为情报的主观误差,及政客们的主观误导的场景。高精度高透明度的知己知彼,便又是事先明知战争全场景,那是不是就会产生别打了的场景,避险吧,和谈吧,触发和平场景呢。 二是,假设还是要打,AI大数据模型会高精度高透明度识别军人和民众,AI武器高精度地只打军人。这场景便是无民间伤亡,职业军人们之间打着去,武死战嘛。战争被害可控制到最小。 三是,AI武器,必有各式无人海陆空武器,机器人军团去率先冲锋陷阵。何不搞一个新日内瓦公约:开战只打无人战,决出胜负缔和约。 四是,AI战争,必是要打到天外去的。天外大战,卫星大战,亦是无人大战。在天外战争中打出个胜负之后,再在天下和谈。正是兵不血刃真义战,无血战争分胜负。遇AI有幸,事在人为。

Got any book recommendations?