• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

#038 скачать в хорошем качестве

#038 4 года назад

tim scarfe

kenneth stanley

yannic kilcher

keith duggar

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
#038
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: #038 в качестве 4k

У нас вы можете посмотреть бесплатно #038 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон #038 в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



#038

Professor Kenneth Stanley is currently a research science manager at OpenAI in San Fransisco. We've Been dreaming about getting Kenneth on the show since the very begininning of Machine Learning Street Talk. Some of you might recall that our first ever show was on the enhanced POET paper, of course Kenneth had his hands all over it. He's been cited over 16000 times, his most popular paper with over 3K citations was the NEAT algorithm. His interests are neuroevolution, open-endedness, NNs, artificial life, and AI. He invented the concept of novelty search with no clearly defined objective. His key idea is that there is a tyranny of objectives prevailing in every aspect of our lives, society and indeed our algorithms. Crucially, these objectives produce convergent behaviour and thinking and distract us from discovering stepping stones which will lead to greatness. He thinks that this monotonic objective obsession, this idea that we need to continue to improve benchmarks every year is dangerous. He wrote about this in detail in his recent book "greatness can not be planned" which will be the main topic of discussion in the show. We also cover his ideas on open endedness in machine learning. 00:00:00 Intro to Kenneth 00:01:16 Show structure disclaimer 00:04:16 Passionate discussion 00:06:26 Why greatness cant be planned and the tyranny of objectives 00:14:40 Chinese Finger Trap 00:16:28 Perverse Incentives and feedback loops 00:18:17 Deception 00:23:29 Maze example 00:24:44 How can we define curiosity or interestingness 00:26:59 Open endedness 00:33:01 ICML 2019 and Yannic, POET, first MSLST 00:36:17 evolutionary algorithms++ 00:43:18 POET, the first MLST 00:45:39 A lesson to GOFAI people 00:48:46 Machine Learning -- the great stagnation 00:54:34 Actual scientific successes are usually luck, and against the odds -- Biontech 00:56:21 Picbreeder and NEAT 01:10:47 How Tim applies these ideas to his life and why he runs MLST 01:14:58 Keith Skit about UCF 01:15:13 Main show kick off 01:18:02 Why does Kenneth value serendipitous exploration so much 01:24:10 Scientific support for Kenneth's ideas in normal life 01:27:12 We should drop objectives to achieve them. An oxymoron? 01:33:13 Isn't this just resource allocation between exploration and exploitation? 01:39:06 Are objectives merely a matter of degree? 01:42:38 How do we allocate funds for treasure hunting in society 01:47:34 A keen nose for what is interesting, and voting can be dangerous 01:53:00 Committees are the antithesis of innovation 01:56:21 Does Kenneth apply these ideas to his real life? 01:59:48 Divergence vs interestingness vs novelty vs complexity 02:08:13 Picbreeder 02:12:39 Isn't everything novel in some sense? 02:16:35 Imagine if there was no selection pressure? 02:18:31 Is innovation == environment exploitation? 02:20:37 Is it possible to take shortcuts if you already knew what the innovations were? 02:21:11 Go Explore -- does the algorithm encode the stepping stones? 02:24:41 What does it mean for things to be interestingly different? 02:26:11 behavioural characterization / diversity measure to your broad interests 02:30:54 Shaping objectives 02:32:49 Why do all ambitious objectives have deception? Picbreeder analogy 02:35:59 Exploration vs Exploitation, Science vs Engineering 02:43:18 Schools of thought in ML and could search lead to AGI 02:45:49 Official ending Pod version: https://anchor.fm/machinelearningstre...

Comments
  • The Mathematical Foundations of Intelligence [Professor Yi Ma] 3 дня назад
    The Mathematical Foundations of Intelligence [Professor Yi Ma]
    Опубликовано: 3 дня назад
  • AI Isn't Creative [Prof. Kenneth Stanley] 5 месяцев назад
    AI Isn't Creative [Prof. Kenneth Stanley]
    Опубликовано: 5 месяцев назад
  • ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов 1 месяц назад
    ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов
    Опубликовано: 1 месяц назад
  • The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson] 2 месяца назад
    The Real Reason Huge AI Models Actually Work [Prof. Andrew Wilson]
    Опубликовано: 2 месяца назад
  • On Creativity, Objectives, and Open-Endedness - Kenneth Stanley keynote at HLAI 6 лет назад
    On Creativity, Objectives, and Open-Endedness - Kenneth Stanley keynote at HLAI
    Опубликовано: 6 лет назад
  • Насколько реален наш мир? Взгляд квантовой механики. Подкаст с физиком Антоном Шейкиным 1 день назад
    Насколько реален наш мир? Взгляд квантовой механики. Подкаст с физиком Антоном Шейкиным
    Опубликовано: 1 день назад
  • Richard Sutton – Father of RL thinks LLMs are a dead end 2 месяца назад
    Richard Sutton – Father of RL thinks LLMs are a dead end
    Опубликовано: 2 месяца назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Why Greatness Cannot Be Planned: The Myth of the Objective 3 года назад
    Why Greatness Cannot Be Planned: The Myth of the Objective
    Опубликовано: 3 года назад
  • Michael Levin - Why Intelligence Isn't Limited To Brains. 1 год назад
    Michael Levin - Why Intelligence Isn't Limited To Brains.
    Опубликовано: 1 год назад
  • ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НЕ МОЖЕТ ДУМАТЬ. Коняев, Семихатов, Сурдин 5 дней назад
    ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ НЕ МОЖЕТ ДУМАТЬ. Коняев, Семихатов, Сурдин
    Опубликовано: 5 дней назад
  • Why Greatness Cannot Be Planned: Implications for Education and Learning with Kenneth Stanley 3 года назад
    Why Greatness Cannot Be Planned: Implications for Education and Learning with Kenneth Stanley
    Опубликовано: 3 года назад
  • Andrej Karpathy: Software Is Changing (Again) 5 месяцев назад
    Andrej Karpathy: Software Is Changing (Again)
    Опубликовано: 5 месяцев назад
  • Why greatness cannot be planned 1 год назад
    Why greatness cannot be planned
    Опубликовано: 1 год назад
  • Но что такое нейронная сеть? | Глава 1. Глубокое обучение 8 лет назад
    Но что такое нейронная сеть? | Глава 1. Глубокое обучение
    Опубликовано: 8 лет назад
  • Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475 4 месяца назад
    Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475
    Опубликовано: 4 месяца назад
  • Почему мозг никогда не спит — и как это разрушает вашу жизнь? 3 дня назад
    Почему мозг никогда не спит — и как это разрушает вашу жизнь?
    Опубликовано: 3 дня назад
  • Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев 1 месяц назад
    Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев
    Опубликовано: 1 месяц назад
  • Deep Learning has 5 месяцев назад
    Deep Learning has "fractured" representations [Kenneth Stanley / Akarsh Kumar]
    Опубликовано: 5 месяцев назад
  • Новый скандал в оппозиции: всё сложнее, чем кажется. Разбираемся в причинах конфликта 1 день назад
    Новый скандал в оппозиции: всё сложнее, чем кажется. Разбираемся в причинах конфликта
    Опубликовано: 1 день назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5