• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024] скачать в хорошем качестве

Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024] 1 год назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024]
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024] в качестве 4k

У нас вы можете посмотреть бесплатно Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024] или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024] в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024]

One of the core roadblocks to understanding the computation inside a transformer is the fact that individual neurons do not seem to be a fruitful unit of analysis. Meanwhile, directions in activation spaces have proven to contain huge amounts of information and to facilitate control. With such an exponentially large space of potential directions, though, how can we find the important ones before we know what to look for, or hope to get a comprehensive list of the directions being used? In the last year, sparse autoencoders (SAEs) have emerged as a potential tool for solving these problems. In this talk I will explain how SAEs work, the lines of thought that led to their creation, and discuss the current state of progress. This is a recording from TAIS 2024, a technical AI safety conference hosted at the Plaza Heisei in Tokyo April 5th–6th. TAIS 2024 was organised by AI Safety Tokyo, sponsored by Noeon Research, in collaboration with AI Alignment Network, AI Industry Foundation and Reaktor Japan. 0:00 Talk 22:50 Q&A

Comments
  • Robert Miles — Research Communication is IMPORTANT so DO BETTER [TAIS 2024] 1 год назад
    Robert Miles — Research Communication is IMPORTANT so DO BETTER [TAIS 2024]
    Опубликовано: 1 год назад
  • The Dark Matter of AI [Mechanistic Interpretability] 11 месяцев назад
    The Dark Matter of AI [Mechanistic Interpretability]
    Опубликовано: 11 месяцев назад
  • Visualizing transformers and attention | Talk for TNG Big Tech Day '24 1 год назад
    Visualizing transformers and attention | Talk for TNG Big Tech Day '24
    Опубликовано: 1 год назад
  • Управление поведением LLM без тонкой настройки 2 дня назад
    Управление поведением LLM без тонкой настройки
    Опубликовано: 2 дня назад
  • Sparse Autoencoders: Progress & Limitations with Joshua Engels 3 месяца назад
    Sparse Autoencoders: Progress & Limitations with Joshua Engels
    Опубликовано: 3 месяца назад
  • There Is Something Faster Than Light 1 день назад
    There Is Something Faster Than Light
    Опубликовано: 1 день назад
  • 20 концепций искусственного интеллекта, объясненных за 40 минут 3 месяца назад
    20 концепций искусственного интеллекта, объясненных за 40 минут
    Опубликовано: 3 месяца назад
  • The Misconception that Almost Stopped AI [How Models Learn Part 1] 7 месяцев назад
    The Misconception that Almost Stopped AI [How Models Learn Part 1]
    Опубликовано: 7 месяцев назад
  • Causal Representation Learning: A Natural Fit for Mechanistic Interpretability Трансляция закончилась 8 месяцев назад
    Causal Representation Learning: A Natural Fit for Mechanistic Interpretability
    Опубликовано: Трансляция закончилась 8 месяцев назад
  • Dan Hendrycks — Measuring and Reducing Malicious Use With Unlearning [TAIS 2024] 1 год назад
    Dan Hendrycks — Measuring and Reducing Malicious Use With Unlearning [TAIS 2024]
    Опубликовано: 1 год назад
  • Простое объяснение автоэнкодеров 6 лет назад
    Простое объяснение автоэнкодеров
    Опубликовано: 6 лет назад
  • Jesse Hoogland — The Structure and Development of Neural Networks [TAIS 2024] 1 год назад
    Jesse Hoogland — The Structure and Development of Neural Networks [TAIS 2024]
    Опубликовано: 1 год назад
  • Deep Dive into LLMs like ChatGPT 10 месяцев назад
    Deep Dive into LLMs like ChatGPT
    Опубликовано: 10 месяцев назад
  • Ryan Kidd — Insights from two years of AI safety field-building at MATS [TAIS 2024] 1 год назад
    Ryan Kidd — Insights from two years of AI safety field-building at MATS [TAIS 2024]
    Опубликовано: 1 год назад
  • Момент, когда мы перестали понимать ИИ [AlexNet] 1 год назад
    Момент, когда мы перестали понимать ИИ [AlexNet]
    Опубликовано: 1 год назад
  • AI can't cross this line and we don't know why. 1 год назад
    AI can't cross this line and we don't know why.
    Опубликовано: 1 год назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Нил Нанда – Механистическая интерпретируемость: Вихревой тур 1 год назад
    Нил Нанда – Механистическая интерпретируемость: Вихревой тур
    Опубликовано: 1 год назад
  • Generative Model That Won 2024 Nobel Prize 1 год назад
    Generative Model That Won 2024 Nobel Prize
    Опубликовано: 1 год назад
  • Oskar John Hollinsworth — Linear Representations of Sentiment in Large Language Models [TAIS 2024] 1 год назад
    Oskar John Hollinsworth — Linear Representations of Sentiment in Large Language Models [TAIS 2024]
    Опубликовано: 1 год назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5