Использование искусственного интеллекта в процессе найма сотрудников может создавать риски дискриминации — особенно для кандидатов с акцентом или речевыми нарушениями. Об этом говорится в исследовании, проведённом доктором Натали Ширд из Юридической школы Мельбурнского университета, сообщает The Guardian.
Видеоинтервью с ошибками
В TikTok в последнее время распространяются ролики, где соискатели сталкиваются с ошибками во время автоматических видеоинтервью. Несмотря на це, популярность подобных систем продолжает расти.
По данным отчёта компании HireVue, глобальное использование ИИ в подборе персонала выросло с 58% в 2024 году до 72% в 2025-м. В Австралии этот показатель пока составляет около 30%, однако, по прогнозам, будет расти в ближайшие п’ять лет.
Проблема — в «западных» данных
Ширд проанализировала опыт 18 специалистов по кадрам, из которых 13 уже применяли ИИ в процессе подбора сотрудников. Наиболее распространёнными оказались системы анализа резюме и автоматизированные видеоинтервью.
Исследовательница предупреждает: модели ИИ часто обучаются на ограниченных наборах данных, в которых преобладают американские источники. Например, одна из компаний, упомянутая в исследовании, указала, что только 6% её обучающих данных приходятся на Австралию и Новую Зеландию, а 36% — это данные о белых кандидатах.
Также отмечается, что средний уровень ошибок при распознавании английской речи в США составляет менее 10%, тогда как для людей с акцентами, в частности из Китая, уровень ошибок достигает 12–22%.
«Большинство этих систем создаются в США, и они не учитывают демографические особенности Австралии», — пояснила Ширд.
Кандидаты не понимают, почему их отсеяли
Участники опроса сообщили, что люди с иностранным акцентом или с нарушениями речи могут быть неправильно поняты системой, а следовательно — занижены в оценке. Некоторые компании обращались к разработчикам за подтверждением, что их ИИ «понимает акценты», но никаких доказательств не предоставлялось.
Ширд также указала на отсутствие прозрачности: даже сами рекрутеры зачастую не знают, почему система приняла то или иное решение.
«Вот в чём проблема. В обычном процессе кандидат может попросить обратную связь. Но в случае с ИИ — даже рекрутер не знает, как было принято решение», — сказала она.
Несмотря на то, что ни одно дело о дискриминации со стороны ИИ пока не дошло до австралийского суда, подобные инциденты должны рассматриваться Комиссией по правам человека Австралии.
Прецедент 2022 года
В 2022 году омбудсмен по вопросам кадров отменил 11 решений о повышении в ведомстве Services Australia после того, как выяснилось, что они были приняты на основе ИИ-системы автоматического отбора. Эта система включала психометрические тесты, анкеты и видеоответы, но, как оказалось, не обеспечивала справедливого выбора по профессиональным качествам.
Ширд призвала правительство Австралии рассмотреть возможность принятия отдельного закона об искусственном интеллекте, а также обновить антикоррупционное и антидискриминационное законодательство.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.