Федеральный судья заблокировал немедленный запрет Пентагона на антропные инструменты искусственного интеллекта
ВАШИНГТОН, округ Колумбия – Федеральный судья нанес серьезный удар по усилиям Пентагона по ограничению использования инструментов искусственного интеллекта, разработанных Anthropic, постановив, что правительство не может немедленно ввести в действие широкий запрет, который, по утверждению компании, занимающейся искусственным интеллектом, «нанесет вред» ее деятельности. Решение, вынесенное судьей Окружного суда США по округу Колумбия Элеонорой Вэнс во вторник, 29 октября 2024 года, предоставляет Anthropic предварительный судебный запрет, временно приостанавливающий действие директивы Министерства обороны о прекращении новых контрактов и поэтапном прекращении существующего развертывания платформ искусственного интеллекта компании.
Это решение знаменует собой поворотный момент в продолжающемся противоречии между императивами национальной безопасности и быстро развивающейся сферой коммерческих инноваций в области искусственного интеллекта. Это подчеркивает юридические сложности, присущие государственным закупкам передовых технологий, особенно когда органы национальной безопасности полагаются на инструменты, разработанные частными организациями.
Обоснование Пентагона и антропная защита
Спор начался 15 сентября 2024 года, когда д-р Уильям Дж. Торн, заместитель министра обороны по закупкам и обеспечению, издал меморандум, предписывающий прекратить использование всех компонентов Министерства обороны. заключить контракт с Anthropic на новые решения искусственного интеллекта и инициировать план поэтапного отказа от существующих установок к 1 января 2025 года. Пентагон выразил обеспокоенность, связанную с суверенитетом данных, безопасностью цепочки поставок и возможностью возникновения «непредвиденных уязвимостей» в критически важных приложениях. Источники в Министерстве обороны, говорившие анонимно из-за продолжающегося судебного разбирательства, также предположили желание создать более диверсифицированную базу поставщиков и избежать чрезмерной зависимости от одного поставщика ИИ для конфиденциальных операций, особенно учитывая быстрое восхождение Anthropic в сфере генеративного ИИ с ее моделями Клода.
Anthropic, ведущая компания по безопасности и исследованиям в области ИИ, быстро подала иск, утверждая, что директива была произвольной, не имела надлежащего обоснования и нанесла бы ущерб «непосредственный и непоправимый ущерб» ее бизнесу. Компания подчеркнула свои обширные протоколы безопасности, свою приверженность ответственной разработке искусственного интеллекта и значительные инвестиции, сделанные Пентагоном в интеграцию безопасных языковых моделей Anthropic для платформ разведывательного анализа, логистической оптимизации и синтеза данных в различных департаментах. Юристы Anthropic подчеркнули, что запрет не только приведет к существенной потере доходов, но и серьезно повредит репутации компании и потенциально приведет к сокращению рабочих мест, тем самым подавляя инновации, имеющие решающее значение для национальной безопасности.
Юридические последствия и аргументация судьи
Решение судьи Вэнса основывалось на нескольких ключевых юридических моментах. В своем подробном 45-страничном заключении она заявила, что Министерство обороны не смогло предоставить «достаточное обоснование» резкого и всеобъемлющего характера запрета, особенно с учетом существующих договорных обязательств Anthropic и истории исполнения. Судья отметил «явное отсутствие надлежащей правовой процедуры» при принятии решений Пентагоном, предположив, что Anthropic не была предоставлена адекватная возможность решить проблемы Министерства обороны до издания директивы.
Кроме того, судья Вэнс установил, что Anthropic успешно продемонстрировала вероятность нанесения «значительного и непоправимого вреда», если запрет будет введен немедленно, что перевешивает любой непосредственный ущерб правительству от отсрочки исполнения. Она пришла к выводу, что директива Пентагона выглядела «произвольной и капризной» в своей реализации, особенно без явного, публично заявленного инцидента безопасности или нарушения нормативных требований, приписываемого технологиям Anthropic. Это постановление не мешает Пентагону добиваться запрета в будущем, но требует более прозрачного и юридически обоснованного процесса.
Последствия для ИИ в государственных закупках
Это постановление имеет серьезные последствия для того, как правительственные учреждения, особенно те, которые занимаются национальной безопасностью, закупают и интегрируют передовые технологии ИИ. Он укрепляет принцип, согласно которому даже в вопросах обороны решения о закупках должны соответствовать установленным правовым рамкам, включая надлежащую правовую процедуру и честную конкуренцию. Доктор Аня Шарма, аналитик технической политики Потомакского института, прокомментировала: "Это решение посылает четкий сигнал: правительство не может просто вводить полный запрет на поставщиков важнейших технологий без веских обоснований и прозрачного процесса. Это победа для процедурной справедливости и, возможно, для инноваций в области ИИ в оборонном секторе, поскольку оно поощряет диалог, а не односторонние директивы".
Этот случай подчеркивает нарастающие проблемы, связанные с интеграцией быстро развивающегося коммерческого ИИ в сложную государственную инфраструктуру. Агентства пытаются сбалансировать потребность в передовых возможностях с опасениями по поводу безопасности, привязки к поставщику и этичности использования ИИ, одновременно соблюдая существующие правовые нормы и правила закупок.
Реакция отрасли и перспективы на будущее
Индустрия ИИ в целом приветствовала решение судьи. Майкл Чен, старший советник по закупкам в GovTech Insights, заявил: "Этот запрет дает столь необходимую ясность разработчикам ИИ, желающим сотрудничать с федеральными агентствами. Он предполагает, что, хотя безопасность имеет первостепенное значение, поспешные и необоснованные запреты могут быть успешно оспорены. Это подталкивает Пентагон к более четкому формулированию своих опасений и взаимодействию со своими технологическими партнерами".
Для Anthropic судебный запрет дает решающую отсрочку, позволяющую ей продолжить работу с Министерством обороны без немедленных срывов. Однако судебная тяжба, возможно, еще не окончена. Пентагон может обжаловать это решение или инициировать новый, более процедурно обоснованный процесс для решения своих опасений по поводу инструментов Anthropic. Тем временем обе стороны, вероятно, примут участие в обсуждениях, направленных на решение основных проблем, что потенциально может привести к пересмотру контрактов или усилению протоколов безопасности. Постановление гарантирует, что передовые инструменты искусственного интеллекта Anthropic на данный момент остаются доступными правительству, хотя и находятся под постоянным контролем.






