• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Eliezer Yudkowsky: The Most Important Thinker Of Our Time скачать в хорошем качестве

Eliezer Yudkowsky: The Most Important Thinker Of Our Time 5 месяцев назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Eliezer Yudkowsky: The Most Important Thinker Of Our Time
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Eliezer Yudkowsky: The Most Important Thinker Of Our Time в качестве 4k

У нас вы можете посмотреть бесплатно Eliezer Yudkowsky: The Most Important Thinker Of Our Time или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Eliezer Yudkowsky: The Most Important Thinker Of Our Time в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Eliezer Yudkowsky: The Most Important Thinker Of Our Time

Eliezer Yudkowsky is the founder of the AI safety field, and in my opinion, the most important thinker of our time. 00:00:00 — Eliezer Yudkowsky Intro 00:01:25 — Recent validation of Eliezer's ideas 00:03:46 — Sh*t now getting real 00:08:47 — Eliezer’s rationality teachings 00:10:39 — Rationality Lesson 1: I am a brain 00:13:10 — Rationality Lesson 2: Philosophy can reduce to AI engineering 00:17:19 — Rationality Lesson 3: What is evidence 00:22:41 — Rationality Lesson 4: Be more specific 00:28:34 — Specificity as a superpower in debates 00:30:19 — Rationality Lesson 5: How to spot a rationalization 00:36:52 — Rationality might upend your deepest expectations 00:38:18 — The typical reaction to superintelligence risk 00:40:07 — Eliezer is a techno-optimist, with a few exceptions 00:47:57 — Why AI is an existential risk 00:53:24 — Engineering outperforms biology 01:02:09 — The threshold of "supercritical" AI 01:13:23 — How to convince people there's a discontinuity ahead 01:18:06 — The alignment problem: Are current AI systems aligned? 01:28:20 — AI alignment researchers as overconfident alchemists 01:37:52 — The strawberry Xerox test for alignment 01:41:25 — What would a good scenario look like? 01:57:22 — Can we keep “narrow AI” safe? 02:04:48 — Eliezer's proposal for international coordination on AI 02:12:02 — AI companies don’t get why alignment is hard 02:18:32 — Ideal impact of If Anyone Builds It, Everyone Dies 02:24:24 — Wrap-up & how to support Eliezer's efforts Transcript: https://www.lesswrong.com/posts/kiNbF... --- Please watch my other show too: ‪@DoomDebates‬ I debate famous people about whether Eliezer Yudkowsky's ideas are correct. My previous guests include Vitalik Buterin, Rob Miles, Gary Marcus, and Mike Israetel. “Good work!“ —Eliezer Yudkowsky --- Credit to Dagan Shani (‪@DaganOnAI‬ ) for the Eliezer Yudkowsky intro reel!

Comments
  • Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky 4 месяца назад
    Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky
    Опубликовано: 4 месяца назад
  • Rob Miles, Top AI Safety Educator: Humanity Isn’t Ready for Superintelligence! 6 месяцев назад
    Rob Miles, Top AI Safety Educator: Humanity Isn’t Ready for Superintelligence!
    Опубликовано: 6 месяцев назад
  • Pastor sounds alarm over spiraling mental health issues in downtown Montreal 3 дня назад
    Pastor sounds alarm over spiraling mental health issues in downtown Montreal
    Опубликовано: 3 дня назад
  • Eliezer Yudkowsky: Artificial Intelligence and the End of Humanity 9 месяцев назад
    Eliezer Yudkowsky: Artificial Intelligence and the End of Humanity
    Опубликовано: 9 месяцев назад
  • How Afraid of the AI Apocalypse Should We Be? | The Ezra Klein Show 4 месяца назад
    How Afraid of the AI Apocalypse Should We Be? | The Ezra Klein Show
    Опубликовано: 4 месяца назад
  • Ex-Google Exec (WARNING): The Next 15 Years Will Be Hell Before We Get To Heaven! - Mo Gawdat 6 месяцев назад
    Ex-Google Exec (WARNING): The Next 15 Years Will Be Hell Before We Get To Heaven! - Mo Gawdat
    Опубликовано: 6 месяцев назад
  • How Artificial Superintelligence Might Wipe Out Our Entire Species with Nate Soares | TGS 203 2 месяца назад
    How Artificial Superintelligence Might Wipe Out Our Entire Species with Nate Soares | TGS 203
    Опубликовано: 2 месяца назад
  • Почему мы столько пьём? | ФАЙБ 2 часа назад
    Почему мы столько пьём? | ФАЙБ
    Опубликовано: 2 часа назад
  • You have TWO YEARS LEFT to prepare  - Dr. Roman Yampolskiy 2 месяца назад
    You have TWO YEARS LEFT to prepare - Dr. Roman Yampolskiy
    Опубликовано: 2 месяца назад
  • AI Will End Human Jobs: Emad Mostaque on the Future of Human Work 1 месяц назад
    AI Will End Human Jobs: Emad Mostaque on the Future of Human Work
    Опубликовано: 1 месяц назад
  • Ex–Microsoft Insider: “AI Isn’t Here to Replace Your Job — It’s Here to Replace You” | Nate Soares 2 месяца назад
    Ex–Microsoft Insider: “AI Isn’t Here to Replace Your Job — It’s Here to Replace You” | Nate Soares
    Опубликовано: 2 месяца назад
  • Will AI Kill Us All? Nate Soares on His Controversial Bestseller 5 месяцев назад
    Will AI Kill Us All? Nate Soares on His Controversial Bestseller
    Опубликовано: 5 месяцев назад
  • Элиезер Юдковски: Опасности искусственного интеллекта и конец цивилизации | Подкаст Лекса Фридмана 1 год назад
    Элиезер Юдковски: Опасности искусственного интеллекта и конец цивилизации | Подкаст Лекса Фридмана
    Опубликовано: 1 год назад
  • Eliezer Yudkowsky – AI Alignment: Why It's Hard, and Where to Start 9 лет назад
    Eliezer Yudkowsky – AI Alignment: Why It's Hard, and Where to Start
    Опубликовано: 9 лет назад
  • Superhuman AI: If Anyone Builds It ... Everyone Dies? | Semafor Tech 5 месяцев назад
    Superhuman AI: If Anyone Builds It ... Everyone Dies? | Semafor Tech
    Опубликовано: 5 месяцев назад
  • Ex-Google Whistleblower: Why Tech CEOs Fear A.I. Could End Humanity 4 месяца назад
    Ex-Google Whistleblower: Why Tech CEOs Fear A.I. Could End Humanity
    Опубликовано: 4 месяца назад
  • ИИ: новый ядерный вариант 3 месяца назад
    ИИ: новый ядерный вариант
    Опубликовано: 3 месяца назад
  • George Hotz vs Eliezer Yudkowsky Трансляция закончилась 2 года назад
    George Hotz vs Eliezer Yudkowsky
    Опубликовано: Трансляция закончилась 2 года назад
  • The WAR Against AI Has Begun | Andrea Miotti 2 недели назад
    The WAR Against AI Has Begun | Andrea Miotti
    Опубликовано: 2 недели назад
  • Точка зрения: что вы увидите во время захвата искусственным интеллектом 4 месяца назад
    Точка зрения: что вы увидите во время захвата искусственным интеллектом
    Опубликовано: 4 месяца назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5