Медицинские советы от ИИ в поиске Google – почему это небезопасно
После расследования, опубликованного в прошлом месяце изданием The Guardian, компания Google удалила из результатов поиска часть медицинских обзоров, созданных искусственным интеллектом. Ранее эти материалы содержали потенциально опасную и вводящую в заблуждение информацию о результатах анализов.
В то же время новое расследование The Guardian выявило другую проблему: компания уменьшает заметность предостережений о медицинских советах, сгенерированных ИИ, что может подвергать пользователей риску.
Предупреждение появляется только после нажатия кнопки «Показать больше» под кратким изложением. Даже после этого оно размещается внизу страницы более мелким и светлым шрифтом. В тексте указано, что информация предоставляется только для справки, а для получения консультации или установления диагноза следует обратиться к специалисту. Также указано, что ответы ИИ могут содержать ошибки.
В компании заявили, что обзоры ИИ «поощряют людей обращаться за профессиональной медицинской помощью» и упоминают об этом в тексте «когда это уместно». При этом в Google не опровергли, что при первом отображении медицинского совета отдельное предупреждение не демонстрируется.
Эксперты по этике искусственного интеллекта и представители пациентских организаций выразили обеспокоенность. Они подчеркивают, что предупреждения должны быть заметными сразу, учитывая деликатность темы здравоохранения.
Исследователь Массачусетского технологического института Пет Патаранутапорн отметил, что отсутствие предостережений при первом предоставлении медицинской информации создает несколько критических рисков. По его словам, даже самые современные модели искусственного интеллекта способны генерировать дезинформацию или формулировать ответы, ориентированные на удовлетворение пользователя, а не на точность. Он добавил, что предостережения являются важным элементом, который прерывает автоматическое доверие и побуждает пользователей критически оценивать полученную информацию.
Профессор Лондонского университета королевы Марии Джина Нефф заявила, что проблема с несовершенными обзорами ИИ заложена в их подходе. По ее словам, такие обзоры разрабатываются с акцентом на скорость, а не точность, что может быть опасным в сфере медицинской информации.
Сонали Шарма из Центра искусственного интеллекта в медицине и визуализации Стэнфордского университета обратила внимание на то, что обзоры размещаются в верхней части страницы. Это создает ощущение завершенного ответа и может снижать мотивацию пользователей искать дополнительные источники или просматривать предостережения.
Том Бишоп из благотворительной организации Anthony Nolan подчеркнул, что дезинформация является реальной проблемой, а в вопросах здоровья она может быть особенно опасной. По его словам, предупреждение должно размещаться в верхней части страницы и быть напечатано таким же шрифтом, как и основной текст.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

















