연방 판사가 DoD의 제한적인 AI 지침 중단
워싱턴 D.C. – 연방 판사는 인공 지능 조달을 엄격하게 통제하려는 국방부의 노력에 큰 타격을 가하여 국방 기관 전체에서 Anthropic의 고급 AI 도구 사용을 심각하게 제한하는 명령의 즉각적인 집행을 막는 임시 금지 명령을 내렸습니다. 2024년 5월 28일 미국 컬럼비아 특별구 지방 법원에서 미국 지방 판사 Evelyn Reed가 내린 판결은 Anthropic이 중요한 국방 부문 내에서 자사의 운영을 '파괴'시키도록 고안된 조치를 즉시 시행할 수 없다고 정부에 효과적으로 전달한 것입니다.
이 금지 명령은 국가 안보에 AI를 통합하는 급속하게 발전하는 환경에서 중추적인 순간을 의미하며 국방부의 필요성 사이에 증가하는 긴장을 강조합니다. 최첨단 기술과 선도적인 AI 개발자의 상업적 이익. 대규모 언어 모델의 Claude 제품군으로 유명한 저명한 AI 안전 및 연구 회사인 Anthropic은 현재 진행 중이거나 장래의 국방 프로젝트에서 자사 제품을 배제하겠다고 위협하는 획득 및 유지를 위한 국방부 차관실(OUSD(A&S))의 임시 명령에 따라 소송을 제기했습니다.
조사 중인 미 국방부의 '임시 제한 명령'
4월 15일 발표된 논란의 여지가 있는 지침은 다음과 같습니다. 2024년 OUSD(A&S) 내 전문 감독 위원회는 구현 이유로 "위험 평가 프로토콜의 진화"와 "해결되지 않은 데이터 출처 문제"를 언급했습니다. Anthropic을 이름으로 전면적으로 금지하는 것은 아니지만 이 명령은 민감한 국방 애플리케이션에 사용되는 상업용 LLM(대형 언어 모델)에 대한 새롭고 엄격한 준수 요구 사항을 설정했습니다. 법원 문서에 따르면 Anthropic은 이러한 요구 사항이 Claude 3 모델에 불균형적으로 영향을 미치는 방식으로 만들어졌으며, 명시적이고 즉각적인 포기 없이 방어 계약에 대한 진입 또는 지속적인 참여에 대한 극복할 수 없는 장벽을 효과적으로 생성했다고 주장했습니다.
이 문제에 가까운 소식통은 국방부의 움직임이 AI 조달을 표준화하고 상업용 LLM과 관련된 위험, 특히 데이터 보안, 알고리즘 투명성 및 잠재적 외국과 관련된 위험을 완화하려는 광범위한 노력의 일환이라고 제안했습니다. 영향. 그러나 Anthropic 법무팀을 포함한 비평가들은 이 명령이 회사에 대해 구체적이고 실행 가능한 증거가 부족하고 적절한 적법 절차 없이 시행되어 불공정한 경쟁 환경을 조성했다고 주장했습니다.
Anthropic의 법적 승리와 '돌이킬 수 없는 피해' 주장
Anthropic은 제출 서류에서 임시 제한 명령이 자사 사업에 "재앙적이고 회복할 수 없는 피해"를 입혀 수익성이 좋은 정부 계약을 놓고 경쟁할 수 있는 능력을 위태롭게 하고 잠재적으로 기존 국방 관련 협력을 철회하게 될 것이라고 주장했습니다. 이 회사는 보안 환경 및 특수 훈련 데이터 세트를 포함하여 국방 애플리케이션에 맞게 AI 모델을 맞춤화하는 데 이미 상당한 투자가 이루어졌다는 점을 강조했습니다.
Reed 판사는 판결에서 Anthropic의 편을 들어 회사가 사건의 장점을 바탕으로 강력한 성공 가능성을 입증했다고 판단했습니다. 그녀의 결정은 지침이 미칠 즉각적이고 심각한 영향을 고려할 때 형평성 균형이 인류에게 유리하다는 점을 강조했습니다. 판사는 또한 이 명령이 자의적이거나 적절한 정당성이 부족했을 수 있음을 시사하면서 이 명령을 이끌어낸 국방부의 위험 평가 과정의 투명성과 특수성에 대해 의문을 제기했습니다. Reed 판사는 그녀의 의견에서 "법원은 임시 명령이 즉각 시행될 경우 긴급한 필요성이 충분히 입증되지 않은 상태에서 임시 명령이 중요한 프로젝트를 방해할 뿐만 아니라 급성장하는 국방 부문 참여에 심각한 타격을 입힐 것이라는 설득력 있는 증거를 제시했다고 판단했습니다."라고 Reed 판사는 자신의 의견에서 밝혔습니다.
정부 AI 조달에 대한 광범위한 영향
이 판결은 인류와 국방부를 넘어서는 중요한 의미를 갖습니다. 이는 빠르게 진화하는 AI 기술을 통합하는 동시에 국가 안보, 윤리 준수 및 공정한 경쟁을 보장하는 데 있어 정부가 직면한 심각한 과제를 강조합니다. 특히 국방 부문은 정보 분석부터 물류 및 자율 시스템에 이르기까지 모든 것에 고급 AI를 활용하기를 원하지만 이러한 복잡한 도구에 대한 명확하고 일관된 조달 지침을 확립하는 데 어려움을 겪고 있습니다.
업계 분석가는 이번 금지 명령으로 미 국방부가 AI 거버넌스에 대한 접근 방식을 재평가하게 되어 잠재적으로 상용 공급업체와의 보다 투명하고 협력적인 프로세스로 이어질 수 있다고 제안합니다. 정부 계약을 위해 경쟁하는 다른 AI 회사들에게 이번 판결은 자의적이거나 지나치게 제한적인 정책이 사법 조사를 받게 되어 보다 공평한 경쟁의 장을 보장할 것이라는 희미한 희망을 제공합니다. 그러나 이는 또한 AI가 국방 전략의 핵심이 점점 더 중요해짐에 따라 관료적 통제와 기술 혁신 사이의 지속적인 긴장이 지속될 것임을 강조합니다.
국방부와 인류의 앞에 놓인 것은 무엇입니까?
임시 금지 명령은 미 국방부가 Anthropic의 도구에 대해 임시 제한 명령을 즉시 시행할 수 없음을 의미합니다. 그러나 법적 싸움은 아직 끝나지 않았다. 이번 판결은 법원이 Anthropic의 주장의 장점과 국방부의 지시에 대한 정당성을 더 깊이 조사할 추가 절차의 발판을 마련했습니다. 이제 국방부는 금지 명령에 대한 항소, 명령 수정 또는 보다 광범위한 법적 이의 제기 준비 중 하나를 선택해야 합니다.
Anthropic의 경우 금지 명령은 방어 파트너와 협력을 계속하고 즉각적인 배제 위협 없이 새로운 기회를 추구할 수 있도록 하는 중요한 호흡 공간을 제공합니다. 이 사건의 결과는 정부 기관이 강력하고 빠르게 변화하는 AI 산업과 어떻게 상호 작용하고 규제하는지에 대한 선례를 확립하여 앞으로 수년간 공공 부문에서 AI 채택의 미래를 형성할 수 있습니다.






