• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

The AI Alignment Debate: Can We Develop Truly Beneficial AI? (HQ version) скачать в хорошем качестве

The AI Alignment Debate: Can We Develop Truly Beneficial AI? (HQ version) 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
The AI Alignment Debate: Can We Develop Truly Beneficial AI? (HQ version)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: The AI Alignment Debate: Can We Develop Truly Beneficial AI? (HQ version) в качестве 4k

У нас вы можете посмотреть бесплатно The AI Alignment Debate: Can We Develop Truly Beneficial AI? (HQ version) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон The AI Alignment Debate: Can We Develop Truly Beneficial AI? (HQ version) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



The AI Alignment Debate: Can We Develop Truly Beneficial AI? (HQ version)

Patreon:   / mlst   Discord:   / discord   George Hotz and Connor Leahy discuss the crucial challenge of developing beneficial AI that is aligned with human values. Hotz believes truly aligned AI is impossible, while Leahy argues it's a solvable technical challenge. Hotz contends that AI will inevitably pursue power, but distributing AI widely would prevent any single AI from dominating. He advocates open-sourcing AI developments to democratize access. Leahy counters that alignment is necessary to ensure AIs respect human values. Without solving alignment, general AI could ignore or harm humans. They discuss whether AI's tendency to seek power stems from optimization pressure or human-instilled goals. Leahy argues goal-seeking behavior naturally emerges while Hotz believes it reflects human values. Though agreeing on AI's potential dangers, they differ on solutions. Hotz favors accelerating AI progress and distributing capabilities while Leahy wants safeguards put in place. While acknowledging risks like AI-enabled weapons, they debate whether broad access or restrictions better manage threats. Leahy suggests limiting dangerous knowledge, but Hotz insists openness checks government overreach. They concur that coordination and balance of power are key to navigating the AI revolution. Both eagerly anticipate seeing whose ideas prevail as AI progresses. Transcript and notes: https://docs.google.com/document/d/1s... Pod: https://podcasters.spotify.com/pod/sh... TOC: [00:00:00] Introduction to George Hotz and Connor Leahy [00:03:10] George Hotz's Opening Statement: Intelligence and Power [00:08:50] Connor Leahy's Opening Statement: Technical Problem of Alignment and Coordination [00:15:18] George Hotz's Response: Nature of Cooperation and Individual Sovereignty [00:17:32] Discussion on individual sovereignty and defense [00:18:45] Debate on living conditions in America versus Somalia [00:21:57] Talk on the nature of freedom and the aesthetics of life [00:24:02] Discussion on the implications of coordination and conflict in politics [00:33:41] Views on the speed of AI development / hard takeoff [00:35:17] Discussion on potential dangers of AI [00:36:44] Discussion on the effectiveness of current AI [00:40:59] Exploration of potential risks in technology [00:45:01] Discussion on memetic mutation risk [00:52:36] AI alignment and exploitability [00:53:13] Superintelligent AIs and the assumption of good intentions [00:54:52] Humanity’s inconsistency and AI alignment [00:57:57] Stability of the world and the impact of superintelligent AIs [01:02:30] Personal utopia and the limitations of AI alignment [01:05:10] Proposed regulation on limiting the total number of flops [01:06:20] Having access to a powerful AI system [01:18:00] Power dynamics and coordination issues with AI [01:25:44] Humans vs AI in Optimization [01:27:05] The Impact of AI's Power Seeking Behavior [01:29:32] A Debate on the Future of AI

Comments
  • Joscha Bach and Connor Leahy [HQ VERSION] 2 года назад
    Joscha Bach and Connor Leahy [HQ VERSION]
    Опубликовано: 2 года назад
  • e/acc Leader Beff Jezos vs Doomer Connor Leahy 2 года назад
    e/acc Leader Beff Jezos vs Doomer Connor Leahy
    Опубликовано: 2 года назад
  • The new enterprise stack and Google's AI play: Phil Fersht with Richard Seroter 1 день назад
    The new enterprise stack and Google's AI play: Phil Fersht with Richard Seroter
    Опубликовано: 1 день назад
  • George Hotz vs Eliezer Yudkowsky Трансляция закончилась 2 года назад
    George Hotz vs Eliezer Yudkowsky
    Опубликовано: Трансляция закончилась 2 года назад
  • What Happens When AI Is More Valuable Than Humans? 8 месяцев назад
    What Happens When AI Is More Valuable Than Humans?
    Опубликовано: 8 месяцев назад
  • ROBERT MILES - 2 года назад
    ROBERT MILES - "There is a good chance this kills everyone"
    Опубликовано: 2 года назад
  • Eliezer Yudkowsky — Why AI will kill us, aligning LLMs, nature of intelligence, SciFi, & rationality 2 года назад
    Eliezer Yudkowsky — Why AI will kill us, aligning LLMs, nature of intelligence, SciFi, & rationality
    Опубликовано: 2 года назад
  • Connor Leahy - e/acc, AGI and the future. 1 год назад
    Connor Leahy - e/acc, AGI and the future.
    Опубликовано: 1 год назад
  • The White Collar AI APOCALYPSE Is HERE 6 часов назад
    The White Collar AI APOCALYPSE Is HERE
    Опубликовано: 6 часов назад
  • Robert Miles–Existential Risk from AI 3 года назад
    Robert Miles–Existential Risk from AI
    Опубликовано: 3 года назад
  • Eliezer Yudkowsky on if Humanity can Survive AI 2 года назад
    Eliezer Yudkowsky on if Humanity can Survive AI
    Опубликовано: 2 года назад
  • ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию? 2 месяца назад
    ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?
    Опубликовано: 2 месяца назад
  • There are monsters in your LLM. (Murray Shanahan) 1 год назад
    There are monsters in your LLM. (Murray Shanahan)
    Опубликовано: 1 год назад
  • Может ли у ИИ появиться сознание? — Семихатов, Анохин 4 недели назад
    Может ли у ИИ появиться сознание? — Семихатов, Анохин
    Опубликовано: 4 недели назад
  • Paul Christiano — Preventing an AI takeover 2 года назад
    Paul Christiano — Preventing an AI takeover
    Опубликовано: 2 года назад
  • Joscha Bach—Is AI Risk Real? 2 года назад
    Joscha Bach—Is AI Risk Real?
    Опубликовано: 2 года назад
  • Connor Leahy on a Promising Breakthrough in AI Alignment 1 год назад
    Connor Leahy on a Promising Breakthrough in AI Alignment
    Опубликовано: 1 год назад
  • George Hotz | Science | Thermodynamics is to Energy as Entropics is to Intelligence | Part 2 2 года назад
    George Hotz | Science | Thermodynamics is to Energy as Entropics is to Intelligence | Part 2
    Опубликовано: 2 года назад
  • Ep 18: Petaflops to the People — with George Hotz of tinycorp 2 года назад
    Ep 18: Petaflops to the People — with George Hotz of tinycorp
    Опубликовано: 2 года назад
  • Ep. 136: The case for taking AI Safety seriously | Rob Miles 2 года назад
    Ep. 136: The case for taking AI Safety seriously | Rob Miles
    Опубликовано: 2 года назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5