• ClipSaver
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

AI safety…ok doomer: with Anca Dragan скачать в хорошем качестве

AI safety…ok doomer: with Anca Dragan 1 год назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
AI safety…ok doomer: with Anca Dragan
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: AI safety…ok doomer: with Anca Dragan в качестве 4k

У нас вы можете посмотреть бесплатно AI safety…ok doomer: with Anca Dragan или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон AI safety…ok doomer: with Anca Dragan в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



AI safety…ok doomer: with Anca Dragan

Building safe and capable models is one of the greatest challenges of our time. Can we make AI work for everyone? How do we prevent existential threats? Why is alignment so important? Join Professor Hannah Fry as she delves into these critical questions with Anca Dragan, lead for AI safety and alignment at Google DeepMind. Want to share feedback? Have a suggestion for a guest that we should have on next? Why not leave a review on YouTube and stay tuned for future episodes. Timecodes: 00:00 Introduction to Anca Dragan 02:16 Short and long term risks 04:35 Designing a safe bridge 05:36 Robotics 06:56 Human and AI interaction 12:33 The objective of alignment 14:30 Value alignment and recommendation systems 17:57 Ways to approach alignment with competing objectives 19:54 Deliberative alignment 22:24 Scalable oversight 23:33 Example of scalable oversight 26:14 What comes next? 27:20 Gemini 30:14 Long term risk and frontier safety framework 35:09 Importance of AI safety 38:02 Conclusion Further reading: https://deepmind.google/discover/blog... https://arxiv.org/pdf/2403.13793 ___ Search for Google DeepMind: The Podcast on: Spotify: https://open.spotify.com/show/39fjU5Q... Apple Podcasts: https://podcasts.apple.com/gb/podcast... IHeartRadio: https://www.iheart.com/podcast/269-de... Thanks to everyone who made this possible, including but not limited to: Presenter: Professor Hannah Fry Series Producer: Dan Hardoon Editor: Rami Tzabar, TellTale Studios Commissioner & Producer: Emma Yousif Music composition: Eleni Shaw Camera Director and Video Editor: Tommy Bruce Audio Engineer: Perry Rogantin Video Studio Production: Nicholas Duke Video Editor: Bilal Merhi Video Production Design: James Barton Visual Identity and Design: Eleanor Tomlinson Commissioned by Google DeepMind ___ Subscribe to our channel    / @googledeepmind   Find us on X   / googledeepmind   Follow us on Instagram   / googledeepmind   Add us on Linkedin   / deepmind  

Comments

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5