Инструменты искусственного интеллекта (ШИ), такие как ChatGPT, могут поставить под угрозу конфиденциальную информацию клиентов и коммерческую тайну. Об этом предупредила израильская компания Team8, специализирующаяся на кибербезопасности, передает Bloomberg.
Компания заявляет, что широкое внедрение чат-ботов и инструментов на основе искусственного интеллекта может сделать компании уязвимыми к утечке данных и судебным тяжбам.
Беспокойство вызывает то, что чат-боты могут быть использованы хакерами для получения доступа к конфиденциальной корпоративной информации или совершения действий против компании, а конфиденциальная информация, поступающая в чат-боты сейчас, может быть использована компаниями, занимающимися ИИ, в будущем.
Крупные технологические компании, включая Microsoft и Alphabet, спешат добавить возможности генеративного ИИ для усовершенствования поисковых систем, но это может привести к использованию конфиденциальных или приватных данных для обучения.
ChatGPT недавно произошел сбой, который привел к тому, что запросы пользователей начали демонстрироваться другим пользователям.
В отчете Team8 отмечаются три другие проблемы "высокого риска", связанные с интеграцией инструментов генеративного ИИ, и отмечается растущая угроза обмена информацией через посторонние приложения, такие как Bing и инструменты Microsoft 365.
Отчет был одобрен Майклом Роджерсом, бывшим главой Агентства национальной безопасности США и Киберкомандованием США, а его соавторами стали десятки руководителей служб информационной безопасности американских компаний. Представитель Microsoft заявил, что «Microsoft поощряет прозрачное обсуждение эволюции киберрисков в сообществах, занимающихся вопросами безопасности и искусственного интеллекта».
Поэтому компаниям важно оценивать потенциальные риски, связанные с использованием посторонних инструментов на основе генеративного ИИ, таких как ChatGPT. Хотя эти инструменты могут предоставлять такие преимущества, как улучшение обслуживания клиентов, они также могут сделать компании уязвимыми к утечке данных и судебным тяжбам.
В настоящее время компании вынуждены активнее принимать меры по защите своих данных. Важно убедиться, что конфиденциальная информация не передается через посторонние приложения. Поскольку использование генеративного ИИ продолжает расти, важно определить приоритетность мер кибербезопасности для защиты конфиденциальных данных.
Подписывайтесь на наш Тelegram-канал t.me/sudua, на Twitter, а также на нашу страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.