Федеральный судья приостанавливает ограничительную директиву Министерства обороны США по искусственному интеллекту
ВАШИНГТОН, округ Колумбия – Федеральный судья нанес серьезный удар усилиям Пентагона по жесткому контролю над закупками искусственного интеллекта, издав временный судебный запрет, который предотвращает немедленное исполнение директивы, которая серьезно ограничила бы использование передовых инструментов искусственного интеллекта Anthropic в оборонных ведомствах. Постановление, вынесенное окружным судьей США Эвелин Рид 28 мая 2024 года в Окружном суде США по округу Колумбия, фактически дало правительству понять, что оно не может немедленно обеспечить соблюдение меры, которая, по утверждению Anthropic, была разработана, чтобы «навредить» его операциям в критически важном оборонном секторе.
Этот судебный запрет знаменует собой поворотный момент в быстро развивающейся ситуации интеграции ИИ в национальную безопасность, подчеркивая растущую напряженность между потребностями Пентагона. за передовые технологии и коммерческие интересы ведущих разработчиков искусственного интеллекта. Anthropic, известная компания, занимающаяся безопасностью и исследованиями в области искусственного интеллекта, известная своим семейством больших языковых моделей Claude, подала иск после предварительного приказа Управления заместителя министра обороны по закупкам и снабжению (OUSD(A&S)) с угрозой исключить ее продукцию из текущих и перспективных оборонных проектов.
Приказ Пентагона о временном ограничении находится под пристальным вниманием
Спорная директива, изданная 15 апреля, В 2024 году специализированный надзорный совет OUSD (A&S) назвал «развивающиеся протоколы оценки рисков» и «нерешенные проблемы происхождения данных» причинами его внедрения. Хотя это и не полный запрет на Anthropic, указ установил новые, строгие требования к коммерческим моделям большого языка (LLM), используемым в чувствительных оборонных приложениях. Согласно судебным документам, Anthropic утверждала, что эти требования были составлены таким образом, чтобы непропорционально повлиять на ее модели Claude 3, фактически создавая непреодолимый барьер для входа или дальнейшего участия в оборонных контрактах без явных и немедленных отказов.
Источники, близкие к этому вопросу, предположили, что шаг Пентагона был частью более широкого стремления стандартизировать закупки ИИ и снизить предполагаемые риски, связанные с коммерческими LLM, особенно в отношении безопасности данных, алгоритмической прозрачности и и потенциальное иностранное влияние. Однако критики, в том числе юристы Anthropic, утверждали, что в директиве не было конкретных, действенных доказательств против компании, и она была реализована без надлежащей правовой процедуры, что создало несправедливую конкурентную среду.
Юридическая победа Anthropic и аргумент «непоправимый вред»
В своем заявлении Anthropic утверждала, что временный приказ об ограничении нанесет «катастрофический и непоправимый вред» ее бизнесу, поставив под угрозу ее способность конкурировать за прибыльные государственные контракты и потенциально вынудив ее отказаться от существующего сотрудничества в сфере обороны. Компания подчеркнула значительные инвестиции, уже сделанные в адаптацию своих моделей искусственного интеллекта для оборонных приложений, включая безопасные среды и специализированные наборы данных для обучения.
Судья Рид в своем решении встала на сторону Anthropic, установив, что компания продемонстрировала высокую вероятность успеха по существу своего дела. В ее решении подчеркивалось, что баланс акций в пользу Anthropic, учитывая немедленное и серьезное влияние, которое могла бы иметь директива. Судья также поднял вопросы о прозрачности и специфике процесса оценки рисков Пентагона, который привел к вынесению этого приказа, предположив, что он мог быть произвольным или не иметь надлежащего обоснования. «Суд приходит к выводу, что истец представил убедительные доказательства того, что временное постановление, если оно будет немедленно приведено в исполнение, не только разрушит важнейшие проекты, но и нанесет сокрушительный удар по его растущему участию в оборонном секторе, без достаточной очевидной непосредственной необходимости», — заявила судья Рид, по ее мнению.
Более широкие последствия для правительственных закупок ИИ
Это решение имеет серьезные последствия, выходящие за рамки Anthropic и Пентагона. Это подчеркивает серьезные проблемы, с которыми сталкиваются правительства при интеграции быстро развивающихся технологий искусственного интеллекта, одновременно обеспечивая национальную безопасность, соблюдение этических норм и честную конкуренцию. Оборонный сектор, в частности, стремится использовать передовой искусственный интеллект для всего: от разведывательного анализа до логистики и автономных систем, однако ему не удается установить четкие и последовательные инструкции по закупкам для этих сложных инструментов.
Отраслевые аналитики предполагают, что судебный запрет может побудить Пентагон пересмотреть свой подход к управлению искусственным интеллектом, что потенциально приведет к более прозрачным процессам сотрудничества с коммерческими поставщиками. Для других компаний, занимающихся искусственным интеллектом, претендующих на государственные контракты, это решение дает проблеск надежды на то, что произвольная или чрезмерно ограничительная политика столкнется с судебным контролем, что обеспечит более равные условия игры. Однако это также подчеркивает продолжающуюся напряженность между бюрократическим контролем и технологическими инновациями, и эта динамика, вероятно, сохранится, поскольку ИИ становится все более важным в стратегиях национальной обороны.
Что ждет Пентагон и антропологию впереди?
Временный запрет означает, что Пентагон не может немедленно привести в исполнение свой временный запрет на инструменты Anthropic. Однако судебная тяжба еще далека от завершения. Постановление создает основу для дальнейшего разбирательства, в ходе которого суд углубится в существо претензий Anthropic и обоснование Пентагоном его директивы. Министерство обороны теперь стоит перед выбором: обжаловать судебный запрет, изменить свой приказ или подготовиться к более масштабному судебному разбирательству.
Для Anthropic судебный запрет предоставляет решающую передышку, позволяя ей продолжать работу с партнерами по обороне и использовать новые возможности без непосредственной угрозы исключения. Исход этого дела может создать прецедент того, как государственные учреждения взаимодействуют и регулируют мощную, быстро развивающуюся индустрию ИИ, формируя будущее внедрения ИИ в государственном секторе на долгие годы.






