У нас вы можете посмотреть бесплатно A Hiring Algorithm That Isn’t Vulnerable to Biased Data или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
chicagobooth.edu/review | AI has become a popular tool for job recruiters, in part because programmers can code applicant-screening algorithms to avoid any explicit discrimination in their decision-making processes. But algorithms run on data, and the data they use can itself contain bias—which means AI can perpetuate or even amplify historical patterns of discrimination. To try to solve this problem, Chicago Booth’s Rad Niazadeh and his coauthors designed a new hiring algorithm that incorporates fairness constraints, or guardrails to protect against discriminatory results.