Искусственный интеллект в социальных сетях становится риском для юристов: в Британии обновили рекомендации
Британское юридическое общество Law Society обновило свои рекомендации по использованию социальных сетей, призвав юристов внимательно проверять достоверность контента, созданного с помощью искусственного интеллекта, остерегаться «кликбейта» и быть осторожными с глубокими фейками (deepfakes). Об этом сообщает Law Gazette.
Президент организации Марк Эванс отметил, что социальные сети остаются важным инструментом для продвижения юридических услуг, однако юристам следует помнить о рисках, которые несет онлайн-пространство, и соблюдать профессиональные стандарты.
«Искусственный интеллект и машинное обучение все активнее интегрируются в соцсети. Они могут помогать пользователям создавать контент и повышать вовлеченность аудитории, позволяя юристам точнее коммуницировать со своей целевой группой. Но чрезвычайно важно проверять информацию, созданную ИИ, ведь существует высокий риск распространения дезинформации, манипуляций и кликбейтного контента», — подчеркнул Эванс.
В новых рекомендациях указано, что некоторые платформы, такие как LinkedIn, TikTok, Instagram и Facebook, автоматически добавляют отметки, если контент создан с помощью ИИ. В то же время YouTube пока в основном полагается на ручное маркирование.
«Так же, как и в случае с публикациями людей, необходимо проверять достоверность материалов, созданных искусственным интеллектом. Существует риск, что такие посты будут содержать неточную или намеренно вводящую в заблуждение информацию, а также могут быть созданы исключительно для привлечения внимания любой ценой», — говорится в документе.
Кроме того, Law Society предупреждает, что данные пользователей могут использоваться для обучения систем ИИ. В частности, уже со следующего месяца LinkedIn начнет применять личную информацию и контент британских пользователей для тренировки собственных моделей искусственного интеллекта.
Юристам советуют внимательно проверять условия использования социальных сетей, чтобы понять, как именно платформы применяют их данные при обучении ИИ, и при необходимости воспользоваться опцией отказа от участия в тренировке алгоритмов.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.


















