• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Roger Grosse | How can deep learning research inform long-term AI safety? скачать в хорошем качестве

Roger Grosse | How can deep learning research inform long-term AI safety? 4 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Roger Grosse | How can deep learning research inform long-term AI safety?
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Roger Grosse | How can deep learning research inform long-term AI safety? в качестве 4k

У нас вы можете посмотреть бесплатно Roger Grosse | How can deep learning research inform long-term AI safety? или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Roger Grosse | How can deep learning research inform long-term AI safety? в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Roger Grosse | How can deep learning research inform long-term AI safety?

The first installment of the weekly SRI Seminar Series for the 2021-22 academic year welcomes Roger Grosse, assistant professor at the University of Toronto’s Department of Computer Science, faculty affiliate at the Schwartz Reisman Institute, and founding member of the Vector Institute. Talk title: “How can deep learning research inform long-term AI safety?” Abstract: Once AI systems become far more capable than humans across a sufficiently broad range of skills, we may no longer be in control if they are pursuing objectives contrary to our own. We can't simply deal with the problem as it happens, as we do with most new technologies; in order to ensure a positive outcome for humanity, we need to prepare in advance. It may appear impossible to prepare for a scenario that's probably decades or more into the future. In this talk, I'll outline ways in which current-day AI research can contribute to the long-term safety of AI systems. My talk will summarize our current state of knowledge and will primarily focus on the work of others, but will include a few tidbits from my own research. In the first part, I'll consider the question of forecasting timelines to human-level and superhuman AI. Analogously to climate models, our beliefs about timelines have important implications for how we should prepare. I'll overview empirical findings about the scaling of AI capabilities with resources (e.g., hardware and data) and how this information can fit into models of AI timelines. In the second part, I'll introduce the (still hypothetical) problem of mesa-optimization, whereby an AI chooses to solve a problem by implementing an algorithm (the mesa-optimizer) to optimize some other objective. This is analogous to how evolution produced generally intelligent humans who can now pursue goals and desires at odds with genetic fitness. Even if the system as a whole has well-understood safety properties, the mesa-optimizer might not. I'll outline some ways deep learning research can inform our understanding of when mesa-optimization is likely to occur. https://srinstitute.utoronto.ca/event... About Roger Grosse: Roger Grosse is an assistant professor of computer science at the University of Toronto, a founding member of the Vector Institute, and a Canada CIFAR AI Chair. His research group focuses on machine learning, especially deep learning and Bayesian modeling, with the aim to develop architectures and algorithms that train faster, generalize better, give calibrated uncertainty, and uncover the structure underlying a problem. He is especially interested in scalable and flexible uncertainty models, the automation and configuration of ML systems, and ensuring that AI systems align with human values. Grosse received a BS in symbolic systems from Stanford in 2008, an MS in computer science from Stanford in 2009, and a PhD in computer science from MIT in 2014, studying under Bill Freeman and Josh Tenenbaum. From 2014 to 2016, Grosse was a postdoctoral fellow at the University of Toronto, working with Ruslan Salakhutdinov. Along with Colorado Reed, he created Metacademy, a web site which uses a dependency graph of concepts to create personalized learning plans for machine learning and related fields. Recently, Grosse was a faculty advisor for undergraduates in a global AI competition to address climate change, and also mentored a group of U of T students decoding ciphers with AI. About the SRI Seminar Series: The SRI Seminar Series brings together the Schwartz Reisman community and beyond for a robust exchange of ideas that advance scholarship at the intersection of technology and society. Seminars are led by a leading or emerging scholar and feature extensive discussion. Each week, a featured speaker will present for 45 minutes, followed by 45 minutes of discussion. Registered attendees will be emailed a Zoom link approximately one hour before the event begins. The event will be recorded and posted online. https://srinstitute.utoronto.ca/

Comments
  • Avinash (Avi) Collis | Quantifying the user value of social media data 4 года назад
    Avinash (Avi) Collis | Quantifying the user value of social media data
    Опубликовано: 4 года назад
  • Jeff Clune | Open-ended and AI-generating algorithms in the era of foundation models 3 месяца назад
    Jeff Clune | Open-ended and AI-generating algorithms in the era of foundation models
    Опубликовано: 3 месяца назад
  • The Brains Behind AI: Roger Grosse 6 лет назад
    The Brains Behind AI: Roger Grosse
    Опубликовано: 6 лет назад
  • Studying Large Language Model Generalization with Influence Functions 2 года назад
    Studying Large Language Model Generalization with Influence Functions
    Опубликовано: 2 года назад
  • Geoffrey Hinton | Will digital intelligence replace biological intelligence? 1 год назад
    Geoffrey Hinton | Will digital intelligence replace biological intelligence?
    Опубликовано: 1 год назад
  • Екатерина Шульман про законопроект ФСБ об отключении связи 1 день назад
    Екатерина Шульман про законопроект ФСБ об отключении связи
    Опубликовано: 1 день назад
  • Oleg Itskhoki for RASA. Science and Society in the “Narrow Corridor”: Economy, Power, and Knowledge 8 дней назад
    Oleg Itskhoki for RASA. Science and Society in the “Narrow Corridor”: Economy, Power, and Knowledge
    Опубликовано: 8 дней назад
  • Нейросети захватили соцсети: как казахстанский стартап взорвал все AI-тренды и стал единорогом 3 дня назад
    Нейросети захватили соцсети: как казахстанский стартап взорвал все AI-тренды и стал единорогом
    Опубликовано: 3 дня назад
  • Визуализация гравитации 10 лет назад
    Визуализация гравитации
    Опубликовано: 10 лет назад
  • 4 дня назад
    "Удар в Нипах. Вирус, который не пощадит, но..." Якутенко об угрозе новой пандемии, ИИ и БЕШЕНСТВЕ
    Опубликовано: 4 дня назад
  • Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472 7 месяцев назад
    Теренс Тао: Сложнейшие задачи математики, физики и будущее ИИ | Лекс Фридман Подкаст #472
    Опубликовано: 7 месяцев назад
  • Краткое объяснение больших языковых моделей 1 год назад
    Краткое объяснение больших языковых моделей
    Опубликовано: 1 год назад
  • David Duvenaud | The big picture of LLM dangerous capability evals 3 месяца назад
    David Duvenaud | The big picture of LLM dangerous capability evals
    Опубликовано: 3 месяца назад
  • ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов 2 месяца назад
    ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов
    Опубликовано: 2 месяца назад
  • КВАНТОВАЯ МЕХАНИКА: 100 лет открытий за 1 час / физик Семихатов 1 год назад
    КВАНТОВАЯ МЕХАНИКА: 100 лет открытий за 1 час / физик Семихатов
    Опубликовано: 1 год назад
  • Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман 2 месяца назад
    Теренс Тао о том, как Григорий Перельман решил гипотезу Пуанкаре | Лекс Фридман
    Опубликовано: 2 месяца назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Даша Клишина — спорт в США и России. Разница менталитетов и условий 4 дня назад
    Даша Клишина — спорт в США и России. Разница менталитетов и условий
    Опубликовано: 4 дня назад
  • Post-AGI Civilizational Equilibria | Richard Ngo 5 месяцев назад
    Post-AGI Civilizational Equilibria | Richard Ngo
    Опубликовано: 5 месяцев назад
  • U of T Robotics Institute Seminar: Sergey Levine (UC Berkeley) 10 месяцев назад
    U of T Robotics Institute Seminar: Sergey Levine (UC Berkeley)
    Опубликовано: 10 месяцев назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5