联邦法官叫停国防部的限制性人工智能指令
华盛顿特区 - 一位联邦法官对五角大楼严格控制人工智能采购的努力造成了重大打击,他发布了一项临时禁令,阻止立即执行一项指令,该指令将严格限制 Anthropic 先进人工智能工具在各国防机构的使用。这项裁决由美国地区法官伊芙琳·里德 (Evelyn Reed) 于 2024 年 5 月 28 日在美国哥伦比亚特区地方法院作出,有效地告诉政府,它不能立即执行 Anthropic 认为旨在“削弱”其在关键国防部门内行动的措施。
该禁令标志着人工智能融入国家安全这一快速发展格局的关键时刻,突显了五角大楼与人工智能的需求之间日益紧张的关系。尖端技术和领先人工智能开发商的商业利益。 Anthropic 是一家著名的人工智能安全和研究公司,以其 Claude 系列大型语言模型而闻名,在国防部采购和维持副部长办公室 (OUSD(A&S)) 发出临时命令后,Anthropic 提起诉讼,威胁将其产品排除在正在进行和未来的国防项目之外。
五角大楼的“临时限制令”正在接受审查
这项有争议的指令于 4 月 15 日发布, 2024 年,OUSD(A&S) 内的一个专门监督委员会将“不断变化的风险评估协议”和“未解决的数据来源问题”作为其实施的原因。虽然该命令并未彻底禁止 Anthropic,但该命令为敏感国防应用中使用的商业大语言模型 (LLM) 制定了新的、严格的合规性要求。根据法庭文件,Anthropic 辩称,这些要求的制定方式对其 Claude 3 模型产生了不成比例的影响,在没有明确、立即豁免的情况下,实际上对进入或继续参与国防合同造成了不可逾越的障碍。
知情人士表示,五角大楼此举是更广泛推动人工智能采购标准化和减轻与商业法学硕士相关风险的一部分,特别是在数据安全、算法透明度和潜在外国影响方面。然而,包括 Anthropic 法律团队在内的批评者认为,该指令缺乏针对该公司的具体、可采取行动的证据,并且在没有充分正当程序的情况下实施,创造了不公平的竞争环境。
Anthropic 的法律胜利和“不可挽回的伤害”论点
Anthropic 在其文件中辩称,临时限制令将对其业务造成“灾难性且无法弥补的损害”,危及其竞争利润丰厚的政府合同的能力,并可能迫使其退出现有的国防相关合作。该公司强调了在为国防应用定制人工智能模型方面已经进行的大量投资,包括安全环境和专门的训练数据集。
里德法官在裁决中站在了 Anthropic 一边,认为该公司已经证明了根据其案件的优点,成功的可能性很大。她的决定强调,鉴于该指令将产生直接而严重的影响,股票平衡有利于 Anthropic。法官还对导致该命令的五角大楼风险评估程序的透明度和特殊性提出了质疑,暗示该命令可能是任意的或缺乏适当的理由。里德法官在她的意见中表示:“法院认为,原告提供了令人信服的证据,表明临时命令如果立即执行,不仅会扰乱关键项目,还会对其迅速发展的国防部门参与造成严重打击,而没有充分证明立即的必要性。”
对政府人工智能采购的更广泛影响
这项裁决的重大影响超出了人类和五角大楼的范围。它强调了政府在整合快速发展的人工智能技术,同时确保国家安全、道德合规和公平竞争方面面临的严峻挑战。尤其是国防部门,渴望将先进的人工智能应用于从情报分析到物流和自主系统的各个方面,但它仍在努力为这些复杂的工具建立清晰、一致的采购指南。
行业分析师表示,该禁令可能会促使五角大楼重新评估其人工智能治理方法,从而有可能与商业供应商建立更加透明和协作的流程。对于其他争夺政府合同的人工智能公司来说,这一裁决带来了一线希望,即任意或过度限制的政策将面临司法审查,确保更公平的竞争环境。然而,它也凸显了官僚控制和技术创新之间持续存在的紧张关系,随着人工智能在国防战略中变得越来越重要,这种动态可能会持续下去。
五角大楼和 Anthropic 的未来是什么?
临时禁令意味着五角大楼无法立即对 Anthropic 的工具执行临时限制令。然而,这场法律斗争还远未结束。该裁决为进一步的诉讼奠定了基础,法院将更深入地探讨 Anthropic 的主张的实质以及五角大楼对其指令的合理性。国防部现在面临着对禁令提出上诉、修改命令或准备迎接更广泛的法律挑战的选择。
对于 Anthropic 来说,该禁令提供了至关重要的喘息空间,使其能够继续与国防合作伙伴合作并寻求新的机会,而不会立即受到排斥的威胁。此案的结果可能会为政府机构如何与强大、快速发展的人工智能行业互动和监管奠定先例,从而塑造未来几年公共部门采用人工智能的未来。






