• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

This Yudkowskian Has A 99.999% P(Doom) скачать в хорошем качестве

This Yudkowskian Has A 99.999% P(Doom) 1 год назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
This Yudkowskian Has A 99.999% P(Doom)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: This Yudkowskian Has A 99.999% P(Doom) в качестве 4k

У нас вы можете посмотреть бесплатно This Yudkowskian Has A 99.999% P(Doom) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон This Yudkowskian Has A 99.999% P(Doom) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



This Yudkowskian Has A 99.999% P(Doom)

In this episode of Doom Debates, I discuss AI existential risks with my pseudonymous guest Nethys. Nethy shares his journey into AI risk awareness, influenced heavily by LessWrong and Eliezer Yudkowsky. We explore the vulnerability of society to emerging technologies, the challenges of AI alignment, and why he believes our current approaches are insufficient, ultimately resulting in 99.999% P(Doom). 00:00 Nethys Introduction 04:47 The Vulnerable World Hypothesis 10:01 What’s Your P(Doom)™ 14:04 Nethys’s Banger YouTube Comment 26:53 Living with High P(Doom) 31:06 Losing Access to Distant Stars 36:51 Defining AGI 39:09 The Convergence of AI Models 47:32 The Role of “Unlicensed” Thinkers 52:07 The PauseAI Movement 58:20 Lethal Intelligence Video Clip SHOW NOTES Eliezer Yudkowsky’s post on “Death with Dignity”: https://www.lesswrong.com/posts/j9Q8b... PauseAI Website: https://pauseai.info PauseAI Discord:   / discord   Watch the Lethal Intelligence video and check out LethalIntelligence.ai! It’s an AWESOME new animated intro to AI risk. --- Doom Debates’ Mission is to raise mainstream awareness of imminent extinction from AGI and build the social infrastructure for high-quality debate. Support the mission by subscribing to my Substack at https://DoomDebates.com and to    / @doomdebates  

Comments
  • Doomsday Clock Physicist Warns AI Is Major THREAT to Humanity! — Prof. Daniel Holz, Univ. of Chicago 2 дня назад
    Doomsday Clock Physicist Warns AI Is Major THREAT to Humanity! — Prof. Daniel Holz, Univ. of Chicago
    Опубликовано: 2 дня назад
  • How Afraid of the AI Apocalypse Should We Be? | The Ezra Klein Show 4 месяца назад
    How Afraid of the AI Apocalypse Should We Be? | The Ezra Klein Show
    Опубликовано: 4 месяца назад
  • CPO at Perk | Driving Radical Urgency: How to Ship Better Products, Faster with AI 1 час назад
    CPO at Perk | Driving Radical Urgency: How to Ship Better Products, Faster with AI
    Опубликовано: 1 час назад
  • Max Tegmark Says Physics Just Swallowed AI 5 месяцев назад
    Max Tegmark Says Physics Just Swallowed AI
    Опубликовано: 5 месяцев назад
  • Ex-Google Exec (WARNING): The Next 15 Years Will Be Hell Before We Get To Heaven! - Mo Gawdat 6 месяцев назад
    Ex-Google Exec (WARNING): The Next 15 Years Will Be Hell Before We Get To Heaven! - Mo Gawdat
    Опубликовано: 6 месяцев назад
  • Liron Shapira on Catastrophic AI Risks | Podcast #7 4 месяца назад
    Liron Shapira on Catastrophic AI Risks | Podcast #7
    Опубликовано: 4 месяца назад
  • Carl Feynman, AI Engineer & Son of Richard Feynman, Says Building AGI Likely Means Human EXTINCTION! 7 месяцев назад
    Carl Feynman, AI Engineer & Son of Richard Feynman, Says Building AGI Likely Means Human EXTINCTION!
    Опубликовано: 7 месяцев назад
  • Фильм Алексея Семихатова «ГРАВИТАЦИЯ» 1 день назад
    Фильм Алексея Семихатова «ГРАВИТАЦИЯ»
    Опубликовано: 1 день назад
  • Full interview: 10 месяцев назад
    Full interview: "Godfather of AI" shares prediction for future of AI, issues warnings
    Опубликовано: 10 месяцев назад
  • Doom Scenario: Human-Level AI Can't Control Smarter AI 9 месяцев назад
    Doom Scenario: Human-Level AI Can't Control Smarter AI
    Опубликовано: 9 месяцев назад
  • Дарио Амодеи — «Мы близки к концу экспоненты» 13 дней назад
    Дарио Амодеи — «Мы близки к концу экспоненты»
    Опубликовано: 13 дней назад
  • Разработчик советских суперкомпьютеров рассказал, что нас ждёт впереди. Андрей Масалович 17 часов назад
    Разработчик советских суперкомпьютеров рассказал, что нас ждёт впереди. Андрей Масалович
    Опубликовано: 17 часов назад
  • Rob Miles, Top AI Safety Educator: Humanity Isn’t Ready for Superintelligence! 6 месяцев назад
    Rob Miles, Top AI Safety Educator: Humanity Isn’t Ready for Superintelligence!
    Опубликовано: 6 месяцев назад
  • Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky 4 месяца назад
    Why Superhuman AI Would Kill Us All - Eliezer Yudkowsky
    Опубликовано: 4 месяца назад
  • If You Have An AI Arms Race, The Winner Is AI | Roman Yampolskiy & Amjad Masad on Counterpoints 10 месяцев назад
    If You Have An AI Arms Race, The Winner Is AI | Roman Yampolskiy & Amjad Masad on Counterpoints
    Опубликовано: 10 месяцев назад
  • Eliezer Yudkowsky – AI Alignment: Why It's Hard, and Where to Start 9 лет назад
    Eliezer Yudkowsky – AI Alignment: Why It's Hard, and Where to Start
    Опубликовано: 9 лет назад
  • Eliezer Yudkowsky: The Most Important Thinker Of Our Time 5 месяцев назад
    Eliezer Yudkowsky: The Most Important Thinker Of Our Time
    Опубликовано: 5 месяцев назад
  • Eliezer Yudkowsky: Artificial Intelligence and the End of Humanity 9 месяцев назад
    Eliezer Yudkowsky: Artificial Intelligence and the End of Humanity
    Опубликовано: 9 месяцев назад
  • Gwern — Anonymous writer who predicted AI trajectory on $12K/year salary 1 год назад
    Gwern — Anonymous writer who predicted AI trajectory on $12K/year salary
    Опубликовано: 1 год назад
  • ASI Risks: Similar premises, opposite conclusions | Eliezer Yudkowsky vs Mark Miller 5 месяцев назад
    ASI Risks: Similar premises, opposite conclusions | Eliezer Yudkowsky vs Mark Miller
    Опубликовано: 5 месяцев назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5