В Южной Корее историю чатов с ИИ используют как доказательство преступного намерения
Южнокорейская полиция все чаще проверяет историю использования подозреваемыми генеративного искусственного интеллекта как ключевое доказательство для установления намерения или мотива. Об этом пишет Straitstimes.
В недавнем деле следователи заявили, что решили выдвинуть обвинение в умышленном убийстве — вместо обвинения в причинении смерти вследствие телесных повреждений — женщине, подозреваемой в серии убийств в районе Канбук-гу в Сеуле, после просмотра ее чатов с ChatGPT компании OpenAI.
Подозреваемая — женщина около 20 лет по фамилии Ким — обвиняется в убийстве, причинении тяжких телесных повреждений и нарушении Закона о контроле за наркотиками. По данным следствия, в период с декабря 2025 года по 9 февраля она давала трем мужчинам в мотеле средства от похмелья, в которые были добавлены наркотические вещества. Двое потерпевших умерли, первый выжил с травмами.
Полиция сообщила, что подозреваемая спрашивала у ChatGPT: «Умрут ли люди, если примут снотворное вместе с алкоголем?»
Следователи расценили это как доказательство, свидетельствующее о наличии преступного намерения.
Правовые эксперты отмечают, что подобная практика расследований становится все более распространенной. По словам юристов, при мобильной судебно-технической экспертизе правоохранительные органы все чаще анализируют историю чатов с генеративными системами искусственного интеллекта.
Один из адвокатов, пожелавший остаться анонимным, отметил, что эта тенденция уже повлияла на стратегии защиты. «Когда я берусь за дело сейчас, я просматриваю вместе с клиентами их разговоры с ChatGPT», — сказал он.
Эксперты указывают на принципиальную разницу между обычным поиском в браузере и общением с ИИ. Хотя оба способа могут использоваться для поиска информации, диалоговая структура искусственного интеллекта позволяет более прямо выявить внутреннюю логику пользователя, его намерения и конкретные цели.
Доктор Чон Ду-вон, профессор судебной экспертизы Университета Сунгкюнкван, публиковавший исследования по вопросам судебной экспертизы генеративного ИИ, объяснил, что записи взаимодействия с ИИ могут иметь более высокую доказательную ценность.
«Поиск в веб-браузере в основном основывается на ключевых словах, тогда как взаимодействие с системами ИИ неизбежно происходит в форме предложений», — отметил он.
«Поскольку запросы формулируются как полные высказывания, они могут более четко сохранять реальное намерение пользователя».
Эксперты предупреждают о правовых и этических рисках
Разговоры с генеративными системами ИИ часто содержат очень чувствительную личную информацию, что поднимает вопросы приватности, соразмерности и допустимых границ сбора цифровых доказательств.
Доктор Ким Менг-джу, руководитель Института безопасности ИИ, предостерег от чрезмерно широкого использования записей ИИ в расследованиях.
«Если происходит преступление, органы власти могут попытаться просмотреть всю историю общения человека с ИИ и утверждать, что преступное намерение существовало задолго до инцидента», — сказал он агентству Yonhap.
Он предупредил, что бессистемное изъятие истории чатов с ИИ может вызвать будущие споры относительно прав человека.
Доктор Ким также затронул дискуссии об ответственности искусственного интеллекта, в частности в случаях, если ИИ подстрекал или способствовал совершению преступления.
«Самый сложный вопрос — это ответственность», — отметил он. «Для обычных продуктов ответственность регулируется законодательством об ответственности производителя. Системы ИИ не вписываются четко в эти рамки. В конечном итоге это вызов, который общество должно решить».
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

















