У нас вы можете посмотреть бесплатно Attention Detection in WebRTC Video Conferencing (WebRTC Tips by WebRTC.ventures) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Covid has changed the paradigm of how the world functions. More and more environments use video conferencing, from schools to business meetings to large conferences. In many of these settings, it is both important and quite useful to be able to gauge participants’ attention to the matter at hand. In this presentation, Hamza Nasir explores how we can calculate a person’s attention using Head-Pose estimation. He uses TensorFlow’s face landmark detection library to leverage its deep neural network to collect data points on a human face and use that to estimate the head’s pose in a given frame. We can then use the Yaw, Pitch and Roll of the face to calculate the attention metrics for a given participant. Hamza demos this functionality in a video conferencing solution built with the Vonage Video APIs.