• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

The dangerous study of self-modifying AIs скачать в хорошем качестве

The dangerous study of self-modifying AIs 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
The dangerous study of self-modifying AIs
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: The dangerous study of self-modifying AIs в качестве 4k

У нас вы можете посмотреть бесплатно The dangerous study of self-modifying AIs или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон The dangerous study of self-modifying AIs в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



The dangerous study of self-modifying AIs

In this video we discuss some of the nuts and bolts of AI evolution, how an AI might go about improving itself and how far away we are from that point. As a model gets better and better at its job, the temptation is to turn it into an agent that can operate independently without human intervention. This combined with the singular nature of optimization reward functions makes it easy to accidentally give AI the opportunity to self-evolve. Needless to say, kicking off machine evolution by allowing AI to self-evolve would be extremely dangerous for humanity. It's quite likely that we would enter the technological singularity at a severe disadvantage. We discuss several ways of recursively leveraging LLMs to solve problems more effectively than a zero-shot large language model invocation. Chain of thoughts, tree of thoughts, and especially the latest Self-Taught Optimizer (STOP) paper from Microsoft and Stanford. Although this type of research contains an element of danger, at least in the future, it's important to help understand how AI might go about self-improvement. #ai #agi #research Chain-of-Thought Prompting https://www.promptingguide.ai/techniq... “Recursive self-improvement” (RSI) is one of the oldest ideas in AI https://twitter.com/ericzelikman/stat... [paper] Self-Taught Optimizer (STOP): Recursively Self-Improving Code Generation https://arxiv.org/abs/2310.02304 [paper] Tree of Thoughts: Deliberate Problem Solving with Large Language Models https://arxiv.org/abs/2305.10601 0:00 Intro 0:22 Contents 0:27 Part 1: Self-improvement 0:44 Letting the AI act fully autonomously 1:34 What if AI focuses on improving itself? 2:01 Disadvantage going into the singularity 2:50 Book recommendation: AI Apocalypse 3:31 Defining initial self-improvement 4:24 Part 2: The LLM primitive 4:53 Using multiple calls to solve one problem 5:05 Paper: Chain of thoughts 5:52 Backtracking for complex problems 6:30 Paper: Tree of thoughts 6:47 Using LLM to define scaffolding 7:32 Part 3: Playing with fire 7:42 Paper: Self-taught optimizer (STOP) 8:44 Analogy: Programming contests 9:43 Utility function and downstream task 10:07 Algorithms suggested by LLM 10:28 GPT-4 repeatedly makes improver better 11:27 Security issues: circumventing the sandbox 12:40 Reward hacking, normal for AI 13:42 Ethics of self-improvement research 14:24 Responsible disclosure 14:47 Conclusion 15:50 Outro

Comments
  • Can robotics overcome its data scarcity problem? 1 год назад
    Can robotics overcome its data scarcity problem?
    Опубликовано: 1 год назад
  • What you must know before AGI arrives | Carnegie Mellon University Po-Shen Loh 7 дней назад
    What you must know before AGI arrives | Carnegie Mellon University Po-Shen Loh
    Опубликовано: 7 дней назад
  • Разработка программного обеспечения для ИИ достигла критической точки. 2 недели назад
    Разработка программного обеспечения для ИИ достигла критической точки.
    Опубликовано: 2 недели назад
  • Путина предали? / Требование досрочных выборов президента 4 часа назад
    Путина предали? / Требование досрочных выборов президента
    Опубликовано: 4 часа назад
  • I built a private AI mini-cluster with Framework Desktop 6 месяцев назад
    I built a private AI mini-cluster with Framework Desktop
    Опубликовано: 6 месяцев назад
  • Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение 8 лет назад
    Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение
    Опубликовано: 8 лет назад
  • Can we reach AGI with just LLMs? 1 год назад
    Can we reach AGI with just LLMs?
    Опубликовано: 1 год назад
  • Управление поведением LLM без тонкой настройки 1 месяц назад
    Управление поведением LLM без тонкой настройки
    Опубликовано: 1 месяц назад
  • Экспресс-курс RAG для начинающих 4 месяца назад
    Экспресс-курс RAG для начинающих
    Опубликовано: 4 месяца назад
  • Как не учить свой ИИ опасным знаниям 4 месяца назад
    Как не учить свой ИИ опасным знаниям
    Опубликовано: 4 месяца назад
  • How massive Cerebras chips rival Nvidia GPUs for AI 1 год назад
    How massive Cerebras chips rival Nvidia GPUs for AI
    Опубликовано: 1 год назад
  • The Near Future of AI [Entire Talk]  - Andrew Ng (AI Fund) 2 года назад
    The Near Future of AI [Entire Talk] - Andrew Ng (AI Fund)
    Опубликовано: 2 года назад
  • Will artists survive AI? The creativity crisis 2 года назад
    Will artists survive AI? The creativity crisis
    Опубликовано: 2 года назад
  • Shane Legg (DeepMind Founder) — 2028 AGI, superhuman alignment, new architectures 2 года назад
    Shane Legg (DeepMind Founder) — 2028 AGI, superhuman alignment, new architectures
    Опубликовано: 2 года назад
  • How could we control superintelligent AI? 2 года назад
    How could we control superintelligent AI?
    Опубликовано: 2 года назад
  • Самая сложная модель из тех, что мы реально понимаем 1 месяц назад
    Самая сложная модель из тех, что мы реально понимаем
    Опубликовано: 1 месяц назад
  • Как 27M Model вообще смогла обойти ChatGPT? 2 месяца назад
    Как 27M Model вообще смогла обойти ChatGPT?
    Опубликовано: 2 месяца назад
  • Emergent intelligence: when AI agents work together 2 года назад
    Emergent intelligence: when AI agents work together
    Опубликовано: 2 года назад
  • The Exciting, Perilous Journey Toward AGI | Ilya Sutskever | TED 2 года назад
    The Exciting, Perilous Journey Toward AGI | Ilya Sutskever | TED
    Опубликовано: 2 года назад
  • Лучший документальный фильм про создание ИИ 4 недели назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 4 недели назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5