Суд в США заблокировал ограничения против компании Anthropic из-за нарушения прав и возможной мести за критику
Федеральный суд США в четверг вынес предварительный запрет, которым заблокировал масштабные ограничения правительства в отношении компании искусственного интеллекта Anthropic, придя к выводу, что эти меры, вероятно, являются незаконными и причинили значительный вред компании, пишет агентство AA.
Окружной суд США Северного округа Калифорнии постановил, что Anthropic, вероятно, сможет доказать свои требования о том, что действия федеральных органов в отношении нее были ответом на защищенное свободой слова высказывание и нарушали право на надлежащую правовую процедуру.
Дело связано со спором между Anthropic и Министерством войны США относительно использования модели искусственного интеллекта компании — Claude — в военных и надзорных целях.
Anthropic заявила, что ее технология «не готова к безопасному использованию в полностью автономном летальном оружии или для массового наблюдения за американцами», и пыталась ограничить такие способы применения.
В ответ федеральные чиновники объявили ряд мер, в частности общегосударственный запрет на использование технологий Anthropic, ограничения для подрядчиков, сотрудничающих с компанией, а также признание ее «риском для цепочки поставок».
Суд установил, что эти действия носят карательный, а не необходимый для национальной безопасности характер, отметив, что они «выглядят направленными на наказание Anthropic» и могут «парализовать» деятельность компании.
Судья Рита Ф. Лин указала, что материалы дела позволяют сделать вывод о том, что компанию преследовали за «критику позиции правительства относительно контрактов в прессе», назвав эти действия «классической незаконной местью, запрещенной Первой поправкой».
Суд также установил процедурные нарушения, подчеркнув, что Anthropic «не была уведомлена и не имела возможности ответить», что, вероятно, нарушает гарантии надлежащей правовой процедуры.
Кроме того, суд пришел к выводу, что признание Anthropic риском для цепочки поставок не имеет законных оснований и является «произвольным и необоснованным», поскольку отсутствуют четкие доказательства угрозы для систем национальной безопасности.
В решении также отмечено, что правительство могло бы решить проблему, просто прекратив использование технологии компании, вместо введения широких ограничений для государственных органов и частных подрядчиков.
Суд констатировал, что Anthropic несет «непоправимый ущерб», в частности потерю бизнес-возможностей и репутационные убытки, тогда как общественный интерес заключается в защите конституционных прав и открытой дискуссии о безопасности искусственного интеллекта.
Предварительный запрет временно блокирует выполнение оспариваемых мер, одновременно позволяя правительству подать ускоренную апелляцию.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

















