吃瓜热门

徐碧:AI将如何改写人类战争伦理? — 新京报

图片从某种意义上说,人类战争史就是一部技术手段与伦理道德冲突的历史,战争中最深层的张力始终是责任与成本之间的结构性脱节。换句话说,决定战争的人往往不是承担战争代价的人。战略智慧在几千年前就看到了“先擒贼先擒王”的最优逻辑,即直接攻击敌人的决策核心,以最低的成本瓦解最大的阻力,但由于根本缺乏技术手段,这一理想被搁置,只能依靠大规模的人力支出来解决战争问题。结果,数百万平民承担了领导人决策的成本,而决策者则享有事实上落后的地区特权。这里“后方”的本义来自于战场空间意义上的后方,指的是远离战场的相对安全的指挥支援区域。直接消防区域。留在“后方”或隐藏在坚固的掩体中不仅仅是技术问题,而且是权力结构中内置的系统性不公正现象。 AI时代的到来,即将从技术角度扭转这一格局。通过深度学习、实时目标识别、自主武器系统和卫星情报网络的集成,人类第一次有能力将古老的战略理想转化为可重复和可扩展的实施手段。正如鲁珀特·史密斯在《武器的使用》一书开头所说的那样,“不再有战争”;这里的“战争”一词指的是以群众动员、增值税和工业化消费为特征的传统战争形式。 (史密斯,《权力的效用》,2005 年,第 1 页)。取而代之的是精确的、不对称的、直接针对决策层的新形式的战争。然而,本文旨在展示的不仅仅是技术建议“人工智能会先抓住小偷”。更根本的是,人工智能正在改写战争中的责任分配方式。在前现代战争中,责任最高,成本最低:决策者的安全和士兵的牺牲。工业战时代,责任分散,成本普遍化。全面战争涉及整个社会的消费。人工智能战争时代,责任重新聚焦并分配给决策节点。战争的代价就是战争。它已经开始回流到那些发起它的人那里。只要了解这种责任结构的历史演变,我们就能理解人工智能时代战争变革的真正深度。沿着这个轴线,我们依次探讨先擒贼为战略理想的历史渊源和技术困境。现代技术如何逐步克服这一困境?动态耦合赌注战争的道德和可行的手段。随着技术的成熟,先抓贼是必然的趋势。而这种转变带来的新伦理挑战包括“算法执行”的哲学困境、组织形态的共同进化、认知斩首的严重威胁以及“零门槛战争”的终极风险。古代“先擒贼,后擒王”:战略理想和问责结构的历史渊源 商业战争或强权行为最根本的不公正自人类文明诞生以来就已显而易见。那些有权决定战争的人往往不是承担战争代价的人。这种结构性悖论催生了相应的战略直觉。既然战争的起因是少数决策者,那为什么不让数以百万计的匿名者互相消耗,而不是直接攻击这个起因呢?孙子表达了战略意义《孙子兵法·谋击》中最简洁地表达了这种直觉:“第一步攻敌谋略,第二步攻敌,第二步攻军,第三步攻城……不战而屈人之兵,善哉。”这个判断是正确的。结论的逻辑很清楚。最好的战争是攻击敌人的战略意图和决策能力。二是破坏敌人的联盟。三是正面军事冲突。大规模围攻是最昂贵且效率最低的选择。 “不战而屈人之兵”并不是坏事,但它表明,战争最有效的方式是准确地冲击或消灭关键决策者,让敌人失去继续抵抗的意志和能力,而不需要调动百万大军进行肉搏战。这个理想,从问责结构的角度看s,实际上要求战争成本由政策制定者承担,而不是由普通士兵承担。在西方战争体系理论中,卡尔·冯·克劳泽维茨提供了受《孙子》启发的理论框架,但采取了不同的方法。在《战争论》第八卷《战争策划》中,他提出了著名的“重心”概念。 “从主要特点来看,无论是从敌人还是从己方,都形成了一个重心,它是一切力量和运动的中心,一切都取决于它。这是一切进攻力量必须集中的点。” (克劳塞维茨,《论战争》,第8卷,霍华德和帕雷特翻译)我们建议回顾一下“轴心”,领导力和指挥链最直接地体现了这个“轴心”。克劳塞维茨也明确认识到战争是“政治以其他方式的延续”(《论战争》,第一卷)。因此,战争的最终逻辑必然指向一个推动接管的核心人物。政治决策的昂斯。克劳塞维茨是一位普鲁士少将和军事理论家,他的《战争论》被认为是军事战略和科学方面的开创性著作。但孙子的直觉和克劳塞维茨的逻辑都在同一个技术突破点上碰壁了:短距离和延迟情报。领导层通常隐藏在后方防御工事深处,受到厚厚的军事层层和地理纵深的保护。历史上有很多在国王面前成功擒获盗贼的例子,但无一例外都是依赖于非常偶然的条件。汉代傅介子潜入楼兰宴会刺杀国王,但这取决于极端的信息穿透力和个人勇气,无法复制。蒙古大军围困钓鱼城,蒙哥汗误伤身亡。这是一次防御性事故,而不是主动战略。之前的反法联盟就曾讨论过刺杀拿破仑的计划,但级别却很高。f 保护太高而无法执行。这些案例揭示了一个共同的结构。在前现代战争中,成功几乎总是取决于奇袭、渗透或机会,而不是首先依靠系统的、可重复的技术能力来抓贼。然而,即使在现代战争时代,仍很难将“贼先擒王”的偶然事件转化为稳定的策略。在国家元首和高级指挥层面,针对网络安全的定向攻击仍然受到多重结构性限制:情报不完整、决策链设计冗余、安全系统保护层层递进以及政治影响力的高度不确定性。当然,历史上有一些有影响力的成功故事。例如,1943年,盟军在复仇行动中击毙了日本海军名将山本五十六。盟军依靠的是他对行程的准确破译和独特的机会。另一个例子是“目标冷战及以后时期对个别政治或军事领导人的“暗杀”行动往往是基于长期的信息积累和技术优势,但作为普遍适用的操作范式仍然难以复制。同时,也有许多失败或放弃的计划,这只能说明问题的另一面。二战期间无数次针对阿道夫·希特勒的暗杀行动(包括“瓦尔基里行动”),虽然战术上精心策划,但由于偶然因素和结构性保护而失败。即使在20世纪末而21世纪初期,在技术条件显着改善的情况下,国家领导人仍然通过分散指挥、操纵阵地、隔离信息等方式来降低被“斩首”的风险。特勤活动被认为是“高风险、高成本的特殊能力”,但尚未成为低成本、可扩展和可复制的战略工具。它仍然依赖于信息的缺乏、精确的协调和最后期限,并且常常涉及重大的政治和战略不确定性。因此,在AI时代之前,孙子的“先抓贼”和克劳塞维茨的“攻击重心”始终处于理想与现实的紧张状态。虽然前者在概念上清晰且复杂,但后者在实践中却屡屡受到技术和组织结构的反驳。长期存在的技术瓶颈催生了相应的伦理规范体系,将现实世界中的这种不平等“合理化”。国际法和战争伦理逐渐形成了保护领导人的规则框架。禁止谋杀,并区分战斗人员和非战斗人员。没有的定义n-combatant包括一个相对安全的类别。后方指挥官也被巧妙地包括在内。历史学家约翰·基冈在《战争的面貌》(1976)中深刻地指出,战争的历史主要是由精英书写的,充满了对“光荣决斗”的颂扬,却对普通士兵特有的苦难却只字不提。这种文本传统本身在意识形态上支持领导人的“向后豁免”。如果手段不可行,则将相应的目标宣布为禁忌,这既体现了礼貌,又符合既得利益者的偏好。这是前现代战争问责结构的历史遗产。上面是责任,下面是赔偿。理想明确但手段匮乏,而道德标准只是填补了这一空白,并将责任的不平等分配制度化。这种结构将因技术革命的到来而彻底动摇。 《窃听》中的静态图像。里现代技术的本质:从工业消耗到外科手术般的精确度 从前现代战争到工业战,责任结构经历了重要但并非根本性的变化。成本不再仅仅由普通士兵承担,而是遍布整个社会,而决策者本身仍然享有相对的人身安全。凡尔登战役双方损失约30万人,斯大林格勒战役伤亡数百万人,将工业化消耗的固有逻辑推向了极限。胜利是以数量换取的,战争的胜负取决于整个社会抵抗力的崩溃。在此框架下,领导力具有战略稳定性的价值。消灭敌人的领导层可能会导致混乱的崩溃,并使结束战争的谈判变得困难。如果你继续存在,当你筋疲力尽时,你就能签署停战协议。工业战客观上包括加强对领导者的保护。马丁·范·克里维尔德 (Martin van Creveld) 在《战争的转变》(The Transformation of War,1991)中对这一范式进行了历史分析。他指出,1945年以来,以国家为单位、以军队为工具的大规模战争已经彻底瓦解。尽管核武器已经将大国之间的工业战争变成了相互毁灭的自杀游戏,但许多真正的冲突已经变成了涉及非国家行为体的低强度、长期战争。国家对暴力的垄断正在崩溃,大规模的民众动员正在从“理性”转变为“昂贵而荒谬”。然而,范·克雷维尔德完全没有预见到的是,精密技术和人工智能的出现正在为国家行为体提供全新的战争工具,能够以极低的人力成本实现精确的战略效果,而不会陷入核毁灭的极端,也不会陷入持久的泥潭。低强度冲突。这一发展为从工业战向精确战转变提供了技术基础。 1991年的海湾战争是这一转变的历史性转折点。以美国为首的多国联军使用激光制导炸弹和战斧巡航导弹对伊拉克指挥和通讯系统进行精确打击,扰乱了伊拉克军队在一段时间内的协调能力。与越南战争的无休无止的消耗相比,联军伤亡微乎其微,但伊拉克的军事基础设施却损失惨重。精确制导弹药只占所有投掷炸弹的10%左右,但却对主要目标造成了60%以上的伤害。这场战争首次向世界展示了精确战争的战略潜力,但其局限性也同样明显。实时跟踪移动目标尤其是领导人员的能力非常有限,萨达姆·胡斯存在从未被确定为可靠的目标。无人机技术的成熟代表着精确打击能力向前迈出了第二步。自2001年阿富汗战争以来,“持续凝视”能力首次被系统地应用于高价值人员目标。据称,飞行器可以在目标上空连续巡逻数十个小时。积累“智力生活规律”,掌握目标日常规律,选择最佳攻击时机。于是,针对重要人物的袭击就从“偶然的突然袭击”变成了“有组织的追捕”。然而,早期的无人机系统仍然严重依赖人工判断。每次攻击都需要长链情报分析,并且扩展能力从根本上受到限制。 《生化危机 5:报应》的剧照。机器学习和人工智能的介入是精准打击上限的第三个也是最根本的进步迄今为止的能力。人工智能在战争信息链中的核心贡献体现在几个相辅相成的层面上。在自动目标识别方面,深度学习算法集成了星体成像、信号情报、人类情报和社交网络分析,以压缩原本需要数周才能实时完成的情报处理。据报道,以色列国防军开发的“福音”人工智能系统每天能够自动生成数百个目标建议,显着扩展了战场上的信息处理能力。从行为模式预测的角度来看,人工智能不仅可以识别已知位置目标的存在,还可以根据过去的行为数据预测未来的位置和活动模式,从而实现“预测性定位”,将移动目标的跟踪从技术问题转变为常规功能。从一个角度来看为了减少“杀伤链”的时间,传统的从发现到攻击的整个过程需要几天甚至几周的时间。理论上,现代人工智能驱动的杀伤链可以在几分钟甚至几秒钟内压缩给定的链接。这在攻击高度机动的领导目标时至关重要。史密斯在2005年预见了这一方向的轮廓:“武力的效用必须重新定义:不再通过压倒性的数量赢得战场胜利,而是通过精确的有效性实现政治目标。” (史密斯,《力量的效用》,2005,第267页)人工智能的出现将这种“精确效率”发挥到了极致,首次为先抓小偷提供了可扩展、可复制的物质基础。在工业战争时代,战争成本分散在全体人民身上,现在正在通过技术重新聚焦并指向决策节点。战争伦理与强制手段:动态关联的历史 理解演变的关键战争伦理的重心在于摆脱普遍的误解,即将其视为一种超越历史的绝对道德义务,并认为无论技术条件如何,某些行为“本质上”是被禁止的。事实上,战争伦理一直是技术条件、权力结构和道德哲学之间复杂相互作用的产物,并随着技术条件的变化而不断发展。历史有重复的模式。如果某种特定方法在技术上不可行,道德体系往往会宣布它为“禁忌”。技术使这成为可能。当这成为可能时,道德体系就会受到压力和重新解释,并最终在某种程度上接受新方法。化学武器的历史清楚地说明了这一模式。第一次世界大战之前,没有明确的国际法禁止化学武器。大规模使用的技术能力尚未成熟。毒气的使用第一次世界大战造成了毁灭性的人道主义灾难,引发了国际社会对新禁忌的迫切需求,最终形成了1925年《日内瓦议定书》的禁止规范。只有在技术成熟并证明其非歧视性后,才制定了伦理禁令。战略轰炸的历史显示了相反方向的演变。国际社会普遍谴责早期针对平民城市的空袭,但随着技术能力规模的提高,双方都接受“战略轰炸”作为战争手段,道德界限也明显疏远。无人机选择性暗杀逐渐合法化是现代最直接的例子。 2001年以来的一系列实践导致了伦理争论的成熟。迈克尔·沃尔泽 (Michael Walzer) 在 2016 年代达罗斯文章中明确表达了自己的立场,他指出“用无人机杀人在道德上没有区别”能够用狙击步枪……无人机是非对称战争的理想武器。”(沃尔泽,《定点杀伤与无人机战争》,代达罗斯,2016)道德协议遵循技术实践。《重新思考无人机》作者:(法国)查马尤译:焦经书版:商务印书馆2024年12月版沃尔泽在《正义与非正义的战争》(1977)中建立的正义战争框架提供了最他区分了“战争正义”(jus ad bellum)和“战争正义”,将“歧视”和“比例”原则置于后者的中心,你只能攻击战斗人员,而不是平民,并且预期的军事利益必须超过任何附带的平民伤亡,这一框架从一开始就为精确瞄准领导层留下了理论空间。狙击手被派去杀死一名审讯的上校或将军成为杀戮的目标,但没有人会指责他违法或错误。” (沃尔泽,正义与非正义之战,1977)随着人工智能精确打击技术的出现,区分原则和比例原则之间长期存在的内在紧张关系以一种特殊的方式得到了解决。在传统轰炸时代,即使目标是军事设施,意外的平民伤亡也是不可避免的,而且技术限制往往会违反区分原则。 AI精准攻击理论上确实使得区分原理的实现更加可行。该算法还可以在攻击前实时评估目标周围是否存在平民,如果检测到某些情况则中止攻击。根据比例计算,就附带损害而言,前者显然比大规模轰炸整个城市并摧毁指挥所更道德自己用精确导弹消灭特定的指挥官。逻辑如下: 具有挑战性的后果:从伦理意义上讲,人工智能精确打击实际上是一种道德“进步”,从技术上使战争更接近理想的正义标准。但在这个看似显而易见的道德进步故事中,隐藏着一个需要更深入思考的哲学困境。 《少数派报告》的照片。执行逻辑还是战争逻辑:人工智能时代道德的深刻鸿沟随着战争从大规模暴力转向高度个性化和定向杀戮,出现了传统正义战争框架内尚未完全回答的问题。两者之间存在着深刻的哲学鸿沟。传统战争伦理基于这样一个基本前提:战争是两个政治共同体之间的武装冲突,其中杀戮是匿名的、结构性的,而不是针对特定个人的。匿名是 et 之间的主要区别战争的毛病和谋杀的道德。正义战争理论的核心前提是,战争中的杀戮指的是“敌方战斗人员”的抽象身份,而不是个人的具体存在;不构成谋杀罪。精准的AI攻击从根本上打破了这种匿名性。当算法生成包含姓名、照片、模式行为和位置坐标的特定个人目标文件时。如果攻击的决定是针对“某某指挥官”而不是“敌方指挥所”。当谋杀链的末端成为一个有着长期追踪名字和姓氏的特定人时,战争逻辑和执行逻辑之间的界限开始变得模糊。这不仅仅是一个奇特的哲学区别。这确实是一个两难的境地。 AI精准攻击不像传统战争(集体、匿名、相互暴力)或司法程序(明确的程序正义、辩护权、无罪推定),而是一种一种中间的“算法执行机制”,它有权授权战争,但使用类似于处决的离散暴力。这种困境在不对称冲突中尤其严重。当美国将也门或巴基斯坦的部落首领列入“参与敌对行动”名单,允许他们在现实场景(而不是在战场上)对人工智能系统进行致命攻击时,整个过程缺乏任何第三方审查、防御机会或纠错机制。目标无法知道自己在名单上,无法起诉或证明自己无罪,而且通常没有程序追究他们的责任,即使是攻击后的误认。这与司法执行的本质区别不在于结果(死亡),而在于过程。后者拥有程序公正的所有保证,而前者却没有。沃尔泽本人也对这个错误产生了怀疑。他表示,“政治暗杀民主国家绝不容忍和平时期的暗杀行为”(Walzer,2016),并强调战争时期定点暗杀的合法性应严格限于“直接参与指挥行动”的目标。然而,当谈到人工智能时,“直接参与”的界限在这一代人中以令人惊讶的方式扩大。当攻击是基于行为模式而非特定身份的“签名攻击”时,传统战争伦理所要求的特定目标识别就完全被忽视了。你之所以成为目标,并不是因为你是谁,而是因为算法标记为“威胁迹象”的行为模式才是原因。这是算法执行逻辑最危险的一端。你不必具体,你的行为只需要符合某种模式即可。这种困境指出了更深层次的结构性问题。人工智能战争中道德进步的故事(附带伤亡更少,更符合区分原则)预设了新的道德成本。它软化了战争逻辑和执行逻辑之间的界限,创造了一种历史上前所未有的暴力形式。这意味着国家批准的选择性杀戮机制、缺乏程序保障、依赖算法执行以及针对特定个人。如果“更少的受害者”是通过完全放弃程序正义、个人尊严和纠错机制来实现的,那么“更少的受害者”并不自动意味着“更多的正义”。 《敦刻尔克》的静态图像。一旦技术成熟,先抓贼后王的趋势是不可避免的。尽管存在上述严重的道德紧张,但一旦技术成熟,先抓贼后抓王的策略就变得普遍。其内在逻辑十分强大。这种逻辑的力量来自三个相辅相成的层面:战略有效性的实证支持、通过道德诉求问责结构的重塑和威慑机制的根本变化。关于战略有效性问题有经验数据。哈佛大学肯尼迪政府学院的帕特里克·约翰斯顿出版了《斩首有用吗?》 “斩首有用吗?”约翰斯顿等人。分析了 1975 年至 2003 年间叛乱和反叛乱冲突中的 118 起斩首事件。主要发现是,一次成功的斩首行动可以将政府获胜的可能性提高约 25%,从而显着缩短冲突持续时间并降低暴力强度(Johnston,《国际安全》,第 36 卷,第 4 期,2012 年)。虽然这不是“银弹”的证据(约翰斯顿本人强调组织特征和执行质量起着重要的影响因素),但确实提供了统计上显着的经验支持,即在某些条件下,首先抓住小偷具有可量化的策略。技术优势。更值得注意的是反事实。这是一个基本的分析。如果没有发生斩首,这些冲突将如何继续?在大多数情况下,答案是持续的大规模伤亡。即使斩首行动本身造成了一些附带伤亡,只要它缩短了冲突的持续时间,其对总伤亡的净影响可能仍然是积极的。那些反对先抓贼的人可能会使用肤浅的法律和道德语言,但他们的实质理由值得仔细审视。最有可能成为战争目标的人决定了国际战争的规则。国际法是由国家代表协商制定的,而国家每个人都由其领导人或加强的领导力代表。所有与驾驶员保护有关的法规都有天然的政治支持基础。从这个角度来看,美国1976年第11905号总统行政命令禁止参与暗杀活动。美国政府官员的说法,可以解读为制度化的“精英相互保护公约”。以色列和美国进行精确打击,他们称之为“精确反恐”。如果伊朗代表或俄罗斯采取类似行动,将会遭到强烈谴责。这种双重标准本身就揭示了“道德反对”背后隐藏的利益逻辑。反对者不了解其有效性,但担心成为“第一个采取行动”的人。但在一场已经开始的战争中,这种反对无法阻止技术和利润之间的协同作用。克劳塞维茨指出,战争是“政治通过其他方式的延续”(《论战争》,第一卷)。如果战争的最终目的是实现政治意愿,那么对这种政治意愿来源的直接攻击在逻辑上总是优于间接的大众消费。人工智能的独特贡献是在实践层面上充分实现这一优先事项。系统可以连续每天 24 小时跟踪人类表演者,而不会危及他们的生命。该算法可以预测后继者的行为并提前进行块重建。自动规划多轮攻击链甚至可以达到“斩首+后勤切断”的综合效果。一旦技术成熟,“先擒贼先擒王”最显着的战略影响不是战争中的实际进攻效能,而是战争意志。这可能是由于战斗结构的变化和决策的威慑力。传统的战争威慑基于这样一种集体理论:如果发动战争,你的国家将遭受损失,而代价最终将落在所有公民身上,而不仅仅是政策制定者。这是责任和成本之间根本的不匹配。人工智能精准打击正在打造新型“个性化威慑”。如果你发动战争,你就会成为优先目标。这个威慑框架在逻辑上更加精确d 比集体威慑更符合正义,因为它要求决策者支付其决策的直接成本,而不是将其转嫁给无辜公民。史密斯(Smith,2005)描述的战争形式的变化在这个维度上获得了最深刻的伦理含义。也就是说,战争的成本最终开始回归到战争的根源。 《寻找本·拉登》的剧照。斩首战略与组织形式的共同演化:结构性困境 然而,先抓贼的战略有效性并不是一个一成不变的常数,而是嵌套在一个更复杂的动态过程中。随着斩首策略变得越来越制度化,受攻击的组织将在持续的压力下适应和发展,而不是静态地等待被消灭。这种共同进化过程揭示了先抓贼策略中的深刻结构性困境。在人工智能时代。斩首越有效n,越有可能出现难以斩首的组织形态。约翰斯顿的研究“斩首有用吗?”已经表明,斩首对于依赖高度个性化领导的组织具有最积极的影响,对于高度官僚化的组织影响有限,并且对分散的网络结构的影响最差(Johnston,2012)。这一发现本身就对进化压力的逻辑产生了影响:当领导层面临持续精确攻击的威胁时,组织的生存压力会导致组织向不易受到攻击的结构形式进化。这意味着减少对明确领导的依赖,发展分散的决策机制,并培养没有中央指挥的自主执行能力。基地组织在持续的反恐打击下逐渐演变,就是这一逻辑的历史体现。中央领导不断被淘汰,工厂不断被淘汰ic还没有崩溃。相反,它以更难追踪的“官方分支机构”的形式在世界各地传播,例如伊斯兰国、马格里布的基地组织分支机构和也门的基地组织。每个分支机构都有相当大的自主权,无需等待中央指示即可启动运营。这一共同进化过程的结构性影响远远超出了纯粹的战术层面。表明可能的历史趋势。人工智能精确打击带来的持续压力将为未来的政治和军事组织形式带来强大的进化选择压力,向“不可扼杀的形式”演变。决策机制高度去中心化、执行能力去中心化、领导权不明确的组织将在AI时代的生存斗争中占据优势。这不是科幻小说的猜测,而是组织在持续压力下进化的逻辑必然性。这一趋势产生了许多重要的后果。从战争有效性的角度来看,人工智能首先抓到盗贼的能力不会结束有组织的武装抵抗,但它会鼓励这种抵抗。它将朝着更扁平、更分散的形状发展,更难以通过技术手段定位。尽管去中心化组织协调大规模行动的能力有限,但在持续骚扰、一次性攻击和信息战方面往往更具弹性。范克雷维尔德早就预测,随着战争的转变,冲突将变得更长、更不激烈(van Creveld,1991)。首先利用人工智能来抓小偷可能会加剧而不是缓解这一趋势。在更广泛的政治层面上,这种共同进化的压力甚至可能塑造未来政治权力的组织逻辑。当集权领导结构意味着极度脆弱时,权力组织就面临集权高效与权力下放之间的根本紧张关系。n 为了生存。这并不是某些武装团体独有的问题,而是人工智能时代所有权力结构都必须面对的新现实。 《国土安全》(第八季)剧照。认知斩首:战争的一个维度比身体排斥更深。首先,在关于抓小偷的讨论中,物理消灭常常占据主导地位。但从长远战略影响来看,认知层面的“斩首”可以与肉体层面进行比较。它可能比贝尔事件更为根本,其影响也更为深远且难以逆转。身体斩首消除了某些决策者。认知斩首改变了谁被认为是“决策者”,什么被认为是“真实的”,以及什么政策选择被认为是“可能的”。也许人工智能最深层次的作战能力不在于“杀谁”,而在于定义敌人是谁、领导者是谁以及什么故事是真实的。这是一种新的权力形式战争史:塑造自己集体知识的能力。认知斩首在技术层面上有多种实施途径,每一种途径都相互促进。通过人工智能生成的 Deepfake 技术,您可以: 创建领导者说出某些事情和做出某些决定的超现实假视频和音频,从而在组织内部造成信任危机和决策混乱。这是对领导权威的认知拆除,无需身体接触。基于算法的大规模信息干预可以系统地塑造目标人群对敌方领导人的​​看法。换句话说,负面形象被强化,内部矛盾被放大,分裂的叙事被制造出来,使得领导人在选民的认知中“死了”,即使他们实际上还活着。更严重的形式是决策信息生态系统的系统性污染。如果AI可以注入大量如果大量精心设计的虚假信号进入敌人的情报收集和分析系统,敌人领导层决策的基础就会受到侵蚀,削弱其判断能力,甚至从物理上消灭它。史密斯在《权力的有效性》中深刻指出,现代战争的核心在于“叙事合法性”(Smith,2005,第371页):谁能控制战争的叙事,谁就能影响冲突的政治结果。深度造假的AI技术和算法信息战是这个战场上的终极工具。他们不需要杀死领导人,只需在关键受众或社会的眼中取消他的合法性即可。完全掌握他们决策所依据的信息基础。认知斩首的另一个重要方面是关于定义自己的“决策者”的权利的争论。核心AI在制导信息战中,影响政治决策的关键节点可能不是政治或军事领导人传统意义上的信息分发中心:关键媒体节点、舆论形成者、算法推荐系统的设计参数。任何能够控制这些认知基础设施的人都拥有更深层次的“斩首”能力。也就是说,它们不是消除特定的决策者,而是从根本上塑造整个决策生态,让某些选择显得“不可能”,让某些领导人显得“非法”,并在某些政治意愿形成之前将其瓦解。反孙子关于“奋起进攻策略”的智慧在认知斩首的维度上得到了最深刻的现代共鸣。 “打破策略”的最佳状态不是杀死执行策略的人,而是破坏生成策略的认知和信息基础设施。这是一种比肉体消灭更全面、更持久、更难防御的战争形式。这是因为战场就是人类认知本身。 《国土安全》(第八季)剧照。零门槛战争:人工智能最危险的遗产。从以上分析来看,人工智能时代战争变革中出现的最危险的命题之一是,人工智能实际上降低的不是战争的破坏力,而是发动战争的心理门槛。沃尔泽已经在 2016 年的一篇文章中谈到了这个问题,警告说“一场轻松战争的代价更加惨重”。 (Walzer,2016)然而,这一警告的全部含义值得更充分的发展。常规战争的高昂成本以意想不到的规模发挥维和职能。它使得发动战争的决定变得繁琐且难以淡化。当战争爆发时,你这边有几万人,甚至几十人。数万士兵的死亡意味着国内民众将面临长期的牺牲和消耗。这种集体成本将c在政治决策者的心中形成强大的威慑力,不是出于道德原因,而是出于政治生存的本能。即使是最鲁莽的领导人也必须面对战争带来的社会动荡和政治反弹。这是工业战时代“成本大众化”的结构性不公正所创造的意想不到的和平红利。AI精准攻击系统的出现,使得这种限制力量被系统性地消散。当我们自己的战士的生命风险接近于零时(无人机操作员坐在数千英里外的控制室中,自主武器系统不需要人员暴露),不需要公开宣战,也不需要受到媒体的关注。当战争条件下可以悄无声息地实施袭击,当战争的政治成本被“精确”和“必要”的话语框架消除时,发动武装行动的标准在政治和军事上发生了根本性的变化。心理层面。 《西线无战事》剧照。这种“零门槛”效应很大程度上体现在实践中。奥巴马执政期间,美国大幅扩大了无人机打击计划,对也门、巴基斯坦和索马里等国进行了数百次空袭,其中许多是在他尚未正式宣战的地区。无人机行动的政治成本较低,使得这些行动能够在没有国内政治审查的情况下继续进行。这代表着新的冲突形式的出现。也就是说,从未正式宣布的持续、低强度的武装干预,介于和平与战争之间,但具有战争的所有致命影响。这种趋势的长期影响可能比任何战争本身造成的影响更为严重。随着与使用武力决定相关的政治成本持续下降,国际关系中暴力的门槛将系统性降低。将会有更多的冲突通过武力而非外交谈判解决。更多的“先发制人的攻击”将基于对即时和明确威胁的算法分析。更多国家将以“精确”和“必要”的名义,在模糊的法律框架下有效地进行持续的武装干预。核威慑与精确打击之间的危险交叉进一步加剧了这种风险。当核武器国家意识到对手的人工智能系统有能力在战争第一天精确消除其核武器指挥系统时,核战略稳定将受到严重威胁。兰德公司研究员詹姆斯·阿克顿警告说,人工智能精确打击能力的进步正在削弱核威慑系统所依赖的“二次打击能力”的可信度。如果一个国家相信其核力量可以在第一次打击中被精确摧毁,那么采取先发制人行动的压力危机中的风险将显着增加(Acton,“EscalAcross Entanglement”,国际安全,2018)。 AI带来的“更精准的常规战争”或许已经达到了核战略游戏的水平。接近人类应该避免的最坏结果。在这里,零门槛战争的明确悖论变得显而易见。在个体行动层面,人工智能将使战争变得“更干净”、“更精确”、“有限”,但在系统层面,它会让战争更加频繁、更加持久、更加难以结束,创造出一场人工智能时代战争变革的最深刻遗产。这并不是说战争变得更加人道;而是战争变得更加人道。而是它们变得更容易摆脱。孙子最伟大的智慧“不战而屈人之兵”在这种背景下具有了新的、紧迫的意义。 《安德的游戏》结论:技术进步与文明选择之间永恒的张力又回到了开头的中心主张。人工智能时代战争的变化正在改写人类战争的问责机制。 “责任在上、成本在下”正在被“责任分散、成本民主化”的新工业时代结构所取代。子曰“征服”的战略理想、克劳塞维茨攻击“重心”的战略逻辑(克劳塞维茨《战争论》第八卷)、沃尔泽关于精确打击的伦理合法性的论述(沃尔泽,2016)以及史密斯宣布工业战争的结束(史密斯,2005)都清晰地描述了这一历史方向。然而,这一“进步”却受到非常复杂的问题的困扰。第一贼虽然在问责结构上接近正义,但实际上创造了一种前所未有的暴力形式,称为“执行机制”。“人工智能精准攻击减少了附带伤亡,但降低了发动战争的心理门槛,有可能增加而不是减少整体暴力。”暴力。尽管斩首策略在战术层面上是有效的,但它在结构层面上削弱了攻击。这将导致受影响的组织向更难以消除的去中心化形式发展。物理斩首有其独特的技术路径,而认知斩首(集体认知和信息生态的系统配置)开辟了历史上新的战争空间,其边界更加难以界定。这些复杂性不应该成为否认人工智能战争变革深度的理由,而应该成为我们更认真思考技术进步与文明选择之间永恒紧张关系的动力。技术进步本身是中性的,其方向由人类在伦理框架、国际法律规范和政治意愿方面做出的决定决定。 AI让第一个抓到小偷的梦想成为现实ty。这是延迟了数千年的技术成果。但在新的现实中,如何保持责任结构的公平变化,防止战争门槛的危险侵蚀,是我们这个时代的文明问题。毕竟,和平仍然取决于外交和威慑,减少战争仍然更多地取决于政治智慧而不是技术精度。但当冲突不可避免时,一种更公正的战争形式应该确保那些决定战争的人,而不是无数匿名平民,站在历史上最残酷场景的前线。这是残酷的进步,是人性的逻辑,也是孙中山的逻辑。訾子“不战而屈人之兵”的理想在科技时代最现实的体现就是将战争的代价归还给发动战争的人。作者/编者徐碧/审稿人李永波/王欣

发表评论

邮箱地址不会被公开。 必填项已用*标注