Суд у США заблокував обмеження проти компанії Anthropic через порушення прав і можливу помсту за критику
Федеральний суд США у четвер виніс попередню заборону, якою заблокував масштабні обмеження уряду щодо компанії штучного інтелекту Anthropic, дійшовши висновку, що ці заходи, ймовірно, є незаконними та спричинили значну шкоду компанії, пише агентство AA.
Окружний суд США Північного округу Каліфорнії постановив, що Anthropic, ймовірно, зможе довести свої вимоги про те, що дії федеральних органів щодо неї були відповіддю на захищене свободою слова висловлювання та порушували право на належну правову процедуру.
Справу пов’язано зі спором між Anthropic та Міністерством війни США щодо використання моделі штучного інтелекту компанії — Claude — у військових і наглядових цілях.
Anthropic заявила, що її технологія «не готова до безпечного використання в повністю автономній летальній зброї або для масового стеження за американцями», і намагалася обмежити такі способи застосування.
У відповідь федеральні посадовці оголосили низку заходів, зокрема загальнодержавну заборону на використання технологій Anthropic, обмеження для підрядників, які співпрацюють із компанією, а також визнання її «ризиком для ланцюга постачання».
Суд встановив, що ці дії мають каральний, а не необхідний для національної безпеки характер, зазначивши, що вони «виглядають спрямованими на покарання Anthropic» і можуть «паралізувати» діяльність компанії.
Суддя Ріта Ф. Лін зазначила, що матеріали справи дозволяють зробити висновок, що компанію переслідували за «критику позиції уряду щодо контрактів у пресі», назвавши ці дії «класичною незаконною помстою, забороненою Першою поправкою».
Суд також встановив процедурні порушення, наголосивши, що Anthropic «не була повідомлена та не мала можливості відповісти», що, ймовірно, порушує гарантії належної правової процедури.
Крім того, суд дійшов висновку, що визнання Anthropic ризиком для ланцюга постачання не має законних підстав і є «довільним та необґрунтованим», оскільки відсутні чіткі докази загрози для систем національної безпеки.
У рішенні також зазначено, що уряд міг би вирішити проблему, просто припинивши використання технології компанії, замість запровадження широких обмежень для державних органів і приватних підрядників.
Суд констатував, що Anthropic зазнає «непоправної шкоди», зокрема втрати бізнес-можливостей і репутаційних збитків, тоді як суспільний інтерес полягає у захисті конституційних прав і відкритій дискусії щодо безпеки штучного інтелекту.
Попередня заборона тимчасово блокує виконання оскаржуваних заходів, водночас дозволяючи уряду подати прискорену апеляцію.
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

















