联邦法官阻止五角大楼立即禁止 Anthropic 人工智能工具
华盛顿特区 - 一位联邦法官对五角大楼限制使用 Anthropic 开发的人工智能工具的努力造成了重大打击,裁定政府不能立即执行全面禁令,这家人工智能公司认为该禁令将“削弱”其运营。美国哥伦比亚特区地方法院法官埃莉诺·万斯 (Eleanor Vance) 于 2024 年 10 月 29 日星期二做出了这项裁决,授予 Anthropic 初步禁令,暂时停止国防部停止新合同并逐步淘汰该公司人工智能平台现有部署的指令。
该裁决标志着国家安全要求与快速发展的商业人工智能创新格局之间持续紧张关系的关键时刻。它强调了政府采购尖端技术所固有的法律复杂性,特别是当国家安全机构依赖私营实体开发的工具时。
五角大楼的理由和人性化的防御
争议始于 2024 年 9 月 15 日,当时负责采办和维护的国防部副部长威廉·J·索恩 (William J. Thorne) 博士发布了一份备忘录,指示国防部所有部门停止与人类寻找新的人工智能解决方案,并在 2025 年 1 月 1 日之前启动现有装置的逐步淘汰计划。五角大楼提到了与数据主权、供应链安全以及关键任务应用程序中潜在的“不可预见的漏洞”相关的担忧。由于正在进行的诉讼而匿名的国防部内部消息人士还表示,希望培养更加多元化的供应商基础,避免过度依赖单一人工智能提供商来进行敏感操作,特别是考虑到 Anthropic 凭借其 Claude 模型在生成人工智能领域迅速崛起。并对其业务造成不可挽回的损害。该公司强调了其广泛的安全协议、对负责任的人工智能开发的承诺,以及五角大楼在整合 Anthropic 的安全语言模型以实现各部门的情报分析、后勤优化和数据合成平台方面所做的重大投资。 Anthropic 的律师强调,该禁令不仅会导致大量收入损失,还会严重损害公司声誉,并可能导致裁员,从而扼杀对国家安全至关重要的创新。
法律后果和法官的推理
万斯法官的决定取决于几个关键的法律问题。她在长达 45 页的详细意见中表示,国防部未能为该禁令的突然性和全面性提供“充分的理由”,特别是考虑到 Anthropic 现有的合同义务和履约历史。法官指出,五角大楼的决策“明显缺乏正当程序”,这表明在指令发布之前,Anthropic 没有获得足够的机会来解决国防部的担忧。
此外,万斯法官发现,Anthropic 已成功证明,如果允许立即实施禁令,可能会造成“重大且无法弥补的损害”,超过了延迟执行对政府造成的任何直接损害。她的结论是,五角大楼的指令在执行过程中显得“任意且反复无常”,尤其是在没有明确、公开阐述的安全事件或因 Anthropic 技术而违反监管规定的情况下。这项裁决并不阻止五角大楼在未来推行禁令,但它要求采取更加透明和合法的程序。
人工智能在政府采购中的影响
这项裁决对于政府机构,特别是涉及国家安全的机构如何采购和集成先进人工智能技术具有重大影响。它强化了这样的原则:即使在国防问题上,采购决策也必须遵守既定的法律框架,包括正当程序和公平竞争。波托马克研究所技术政策分析师 Anya Sharma 博士评论道:“这一决定发出了一个明确的信息:如果没有强有力的理由和透明的流程,政府不能简单地对关键技术提供商发布全面禁令。这是程序公平性的胜利,也可能是国防部门人工智能创新的胜利,因为它鼓励就单边指令进行对话。”
该案例突显了将快速发展的商业人工智能融入复杂的政府基础设施所面临的日益增长的痛苦。各机构正在努力解决如何平衡对尖端能力的需求与对安全、供应商锁定和道德人工智能使用的担忧,同时遵守现有的法律和采购法规。
行业反应和未来展望
人工智能行业在很大程度上欢迎法官的决定。 GovTech Insights 的高级采购顾问 Michael Chen 表示:“这项禁令为寻求与联邦机构合作的人工智能开发人员提供了急需的明确性。它表明,虽然安全至关重要,但草率、未经证实的禁令可以成功受到挑战。它促使五角大楼更清楚地表达其担忧,并与其技术合作伙伴进行接触。”
对于 Anthropic 来说,该禁令提供了至关重要的缓刑,使其能够继续与国防部合作,而不会立即中断。然而,法律斗争可能还没有结束。五角大楼可以对该决定提出上诉,或者启动一个新的、程序上更合理的程序来解决其对 Anthropic 工具的担忧。在此期间,双方可能会进行旨在解决根本问题的讨论,从而可能导致修订合同或增强安全协议。该裁决确保目前政府仍然可以使用 Anthropic 的先进人工智能工具,尽管仍受到持续审查。






