联邦法院阻止国防部“削弱”人工智能创新者的企图
华盛顿特区 - 一名联邦法官对五角大楼立即限制使用领先的生成人工智能开发商 Anthropic 的人工智能工具的努力造成了重大打击。在 2023 年 10 月 6 日周五晚发布的裁决中,美国哥伦比亚特区地区法院法官埃莉诺·万斯 (Eleanor Vance) 向 Anthropic PBC 授予了一项针对国防部 (DoD) 的初步禁令,阻止政府立即对该公司的人工智能平台实施禁令。
该裁决源自*Anthropic PBC 诉美国国防部*一案,实际上暂停了该禁令Anthropic 认为这一指令将造成“直接且不可挽回的财务和声誉损害”,可能会削弱其蓬勃发展的政府业务和更广泛的市场地位。美国国防部曾试图在多个部门计划中停止使用 Anthropic 的生成式人工智能模型,包括其旗舰产品 Claude 系列,理由是对敏感应用程序中的数据安全协议和模型透明度的未具体说明的担忧。
法院的干预和 Anthropic 的辩护
万斯法官的命令凸显了法院对国防部实施禁令的流程的怀疑。 Anthropic 的法律团队认为,该指令是“任意且反复无常的”,缺乏适当的正当程序,并且未能为立即禁止提供明确的、可采取行动的理由。他们认为,该公司最近从亚马逊获得了高达 40 亿美元的承诺,在人工智能安全和安保措施方面投入了大量资金,使其成为探索先进人工智能能力的政府机构的负责任合作伙伴。
“这项裁决是对正当程序的重要肯定,也是对 Anthropic 在开发安全和道德人工智能方面所做重大投资的认可,”Anthropic 的发言人在该决定后表示。 “在没有明确理由的情况下立即实施全面禁令不仅会损害我们的公司,还会扼杀对国家安全至关重要的创新。”该禁令意味着,随着法律挑战的展开,Anthropic 与国防部各单位之间原本濒临终止的现有试点项目和探索性合作现在可以继续进行。
五角大楼的理由和更广泛的人工智能审查
尽管国防部尚未就该裁决发表正式声明,但知情人士表示,该部门推动禁令是一种更广泛、谨慎的方法的一部分,旨在将快速发展的生成式人工智能整合到国防行动中。据报道,负责采办和保障的国防部副部长办公室 (OUSD(A&S)) 对训练数据的来源、关键决策工具中潜在的算法偏差,以及确保第三方人工智能模型遵守严格的政府安全许可的挑战表示担忧。
此案例强调了美国政府试图在利用尖端人工智能获取战略优势和降低固有风险之间取得微妙的平衡。五角大楼一直在积极探索从后勤和情报分析到预测性维护的人工智能应用。然而,人工智能发展的快速步伐往往超过了明确监管框架和采购指南的建立,导致技术提供商提出临时指令和潜在的法律挑战。
经济连锁反应和政府人工智能的未来
法官的判决对 Anthropic 和更广泛的人工智能行业产生重大经济影响。对于 Anthropic 来说,成功挑战政府重大禁令可以保护潜在的利润丰厚的收入来源并增强投资者的信心。作为一家与 OpenAI 和 Google 等巨头竞争的私营公司,保持进入包括政府合同在内的多元化市场的机会对其增长和估值至关重要。
更广泛地说,该裁决向其他寻求与联邦机构合作的人工智能初创公司和老牌科技公司发出了强烈的信号。它表明,虽然政府热衷于采用人工智能,但其采购和监管流程必须遵守既定的法律标准。这可能会带来更结构化的参与模式、更清晰的合同条款,并可能为公共部门内的人工智能技术评估提供更透明的框架。正在进行的法律斗争可能会为美国政府在未来几年如何采购、监管和整合先进的人工智能能力树立重要先例,从而为争夺联邦支出份额的人工智能创新者塑造经济格局。






