• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning скачать в хорошем качестве

DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning 4 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning в качестве 4k

У нас вы можете посмотреть бесплатно DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning

#dreamcoder #programsynthesis #symbolicreasoning Classic Machine Learning struggles with few-shot generalization for tasks where humans can easily generalize from just a handful of examples, for example sorting a list of numbers. Humans do this by coming up with a short program, or algorithm, that explains the few data points in a compact way. DreamCoder emulates this by using neural guided search over a language of primitives, a library, that it builds up over time. By doing this, it can iteratively construct more and more complex programs by building on its own abstractions and therefore solve more and more difficult tasks in a few-shot manner by generating very short programs that solve the few given datapoints. The resulting system can not only generalize quickly but also delivers an explainable solution to its problems in form of a modular and hierarchical learned library. Combining this with classic Deep Learning for low-level perception is a very promising future direction. OUTLINE: 0:00 - Intro & Overview 4:55 - DreamCoder System Architecture 9:00 - Wake Phase: Neural Guided Search 19:15 - Abstraction Phase: Extending the Internal Library 24:30 - Dreaming Phase: Training Neural Search on Fictional Programs and Replays 30:55 - Abstraction by Compressing Program Refactorings 32:40 - Experimental Results on LOGO Drawings 39:00 - Ablation Studies 39:50 - Re-Discovering Physical Laws 42:25 - Discovering Recursive Programming Algorithms 44:20 - Conclusions & Discussion Paper: https://arxiv.org/abs/2006.08381 Code: https://github.com/ellisk42/ec Abstract: Expert problem-solving is driven by powerful languages for thinking about problems and their solutions. Acquiring expertise means learning these languages -- systems of concepts, alongside the skills to use them. We present DreamCoder, a system that learns to solve problems by writing programs. It builds expertise by creating programming languages for expressing domain concepts, together with neural networks to guide the search for programs within these languages. A ``wake-sleep'' learning algorithm alternately extends the language with new symbolic abstractions and trains the neural network on imagined and replayed problems. DreamCoder solves both classic inductive programming tasks and creative tasks such as drawing pictures and building scenes. It rediscovers the basics of modern functional programming, vector algebra and classical physics, including Newton's and Coulomb's laws. Concepts are built compositionally from those learned earlier, yielding multi-layered symbolic representations that are interpretable and transferrable to new tasks, while still growing scalably and flexibly with experience. Authors: Kevin Ellis, Catherine Wong, Maxwell Nye, Mathias Sable-Meyer, Luc Cary, Lucas Morales, Luke Hewitt, Armando Solar-Lezama, Joshua B. Tenenbaum Links: TabNine Code Completion (Referral): http://bit.ly/tabnine-yannick YouTube:    / yannickilcher   Twitter:   / ykilcher   Discord:   / discord   BitChute: https://www.bitchute.com/channel/yann... Minds: https://www.minds.com/ykilcher Parler: https://parler.com/profile/YannicKilcher LinkedIn:   / yannic-kilcher-488534136   BiliBili: https://space.bilibili.com/1824646584 If you want to support me, the best thing to do is to share out the content :) If you want to support me financially (completely optional and voluntary, but a lot of people have asked for this): SubscribeStar: https://www.subscribestar.com/yannick... Patreon:   / yannickilcher   Bitcoin (BTC): bc1q49lsw3q325tr58ygf8sudx2dqfguclvngvy2cq Ethereum (ETH): 0x7ad3513E3B8f66799f507Aa7874b1B0eBC7F85e2 Litecoin (LTC): LQW2TRyKYetVC8WjFkhpPhtpbDM4Vw7r9m Monero (XMR): 4ACL8AGrEo5hAir8A9CeVrW8pEauWvnp1WnSDZxW7tziCDLhZAGsgzhRQABDnFy8yuM9fWJDviJPHKRjV4FWt19CJZN9D4n

Comments
  • Why AI is Harder Than We Think (Machine Learning Research Paper Explained) 4 года назад
    Why AI is Harder Than We Think (Machine Learning Research Paper Explained)
    Опубликовано: 4 года назад
  • Reward Is Enough (Machine Learning Research Paper Explained) 4 года назад
    Reward Is Enough (Machine Learning Research Paper Explained)
    Опубликовано: 4 года назад
  • Agentic AML - Identifying Hidden Risks And Eliminating False Positives Трансляция закончилась 12 часов назад
    Agentic AML - Identifying Hidden Risks And Eliminating False Positives
    Опубликовано: Трансляция закончилась 12 часов назад
  • [Classic] Deep Residual Learning for Image Recognition (Paper Explained) 5 лет назад
    [Classic] Deep Residual Learning for Image Recognition (Paper Explained)
    Опубликовано: 5 лет назад
  • SingularityNET - A Decentralized, Open Market and Network for AIs (Whitepaper Explained) 5 лет назад
    SingularityNET - A Decentralized, Open Market and Network for AIs (Whitepaper Explained)
    Опубликовано: 5 лет назад
  • But what are Hamming codes? The origin of error correction 5 лет назад
    But what are Hamming codes? The origin of error correction
    Опубликовано: 5 лет назад
  • Цепи Маркова — математика предсказаний [Veritasium] 4 месяца назад
    Цепи Маркова — математика предсказаний [Veritasium]
    Опубликовано: 4 месяца назад
  • Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир? 7 дней назад
    Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?
    Опубликовано: 7 дней назад
  • LambdaNetworks: Modeling long-range Interactions without Attention (Paper Explained) 5 лет назад
    LambdaNetworks: Modeling long-range Interactions without Attention (Paper Explained)
    Опубликовано: 5 лет назад
  • Фильм Алексея Семихатова «ГРАВИТАЦИЯ» 7 дней назад
    Фильм Алексея Семихатова «ГРАВИТАЦИЯ»
    Опубликовано: 7 дней назад
  • GROK Показал AGI! Илон Маск ВЗОРВАЛ Индустрию ИИ! Grok СамоОбучается! Новый Уровень ИИ! В 100 РАЗ 4 часа назад
    GROK Показал AGI! Илон Маск ВЗОРВАЛ Индустрию ИИ! Grok СамоОбучается! Новый Уровень ИИ! В 100 РАЗ
    Опубликовано: 4 часа назад
  • Dreamcoder: Bootstrapping Inductive Program Synthesis With Wake-Sleep Library Learning Трансляция закончилась 4 года назад
    Dreamcoder: Bootstrapping Inductive Program Synthesis With Wake-Sleep Library Learning
    Опубликовано: Трансляция закончилась 4 года назад
  • КАК УСТРОЕН TCP/IP? 1 год назад
    КАК УСТРОЕН TCP/IP?
    Опубликовано: 1 год назад
  • Decompiling Dreams: A New Approach to ARC? 1 год назад
    Decompiling Dreams: A New Approach to ARC?
    Опубликовано: 1 год назад
  • Может ли у ИИ появиться сознание? — Семихатов, Анохин 1 месяц назад
    Может ли у ИИ появиться сознание? — Семихатов, Анохин
    Опубликовано: 1 месяц назад
  • Yann LeCun - Self-Supervised Learning: The Dark Matter of Intelligence (FAIR Blog Post Explained) 4 года назад
    Yann LeCun - Self-Supervised Learning: The Dark Matter of Intelligence (FAIR Blog Post Explained)
    Опубликовано: 4 года назад
  • Лучший документальный фильм про создание ИИ 1 месяц назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 1 месяц назад
  • Deep Networks Are Kernel Machines (Paper Explained) 5 лет назад
    Deep Networks Are Kernel Machines (Paper Explained)
    Опубликовано: 5 лет назад
  • DINO: Emerging Properties in Self-Supervised Vision Transformers (Facebook AI Research Explained) 4 года назад
    DINO: Emerging Properties in Self-Supervised Vision Transformers (Facebook AI Research Explained)
    Опубликовано: 4 года назад
  • Exploring Program Synthesis: Francois Chollet, Kevin Ellis, Zenna Tavares 11 месяцев назад
    Exploring Program Synthesis: Francois Chollet, Kevin Ellis, Zenna Tavares
    Опубликовано: 11 месяцев назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5