• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Steering vectors: tailor LLMs without training. Part I: Theory (Interpretability Series) скачать в хорошем качестве

Steering vectors: tailor LLMs without training. Part I: Theory (Interpretability Series) 1 год назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Steering vectors: tailor LLMs without training. Part I: Theory (Interpretability Series)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Steering vectors: tailor LLMs without training. Part I: Theory (Interpretability Series) в качестве 4k

У нас вы можете посмотреть бесплатно Steering vectors: tailor LLMs without training. Part I: Theory (Interpretability Series) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Steering vectors: tailor LLMs without training. Part I: Theory (Interpretability Series) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Steering vectors: tailor LLMs without training. Part I: Theory (Interpretability Series)

State-of-the-art foundation models are often seen as black boxes: we send a prompt in and we get out our - often useful - answer. But what happens inside the system as the prompt gets processed remains a bit of a mystery & our ability to control or steer the processing into specific directions is limited. Enter steering vectors! By computing a vector that represents a particular feature or concept, we can use this to steer the model to include any property in the output we want: add more love into the answers, ensure it always answers your prompts (even if harmful!), or make the model such that it cannot stop talking about the Golden Gate Bridge. In this video we discuss how to compute such steering vectors, what makes it such simple steering possible (somehow the network's hidden representations decompose into simple-ish linear structures), and look at a couple of examples. In Part II (   • Steering vectors: tailor LLMs without trai...  ) we code up our steering vectors. Disclaimer: finding these steering vectors is an active area of research; right now making it work includes a lot of trial-and-error and clarity on when steering works vs when it's not possible to find a useful direction remains unclear. Work on sparse autoencoders (a current hot topic in interpretability research) aims to automate the finding of useful directions. Further reading & references I used: Activation addition: https://arxiv.org/abs/2308.10248 Refusal directions: https://www.alignmentforum.org/posts/... and https://huggingface.co/posts/mlabonne... Golden Gate Claude: https://www.anthropic.com/news/golden... Superposition: https://transformer-circuits.pub/2022... Sparse autoencoders: https://arxiv.org/pdf/2406.04093v1

Comments
  • Steering vectors: tailor LLMs without training. Part II: Code (Interpretability Series) 1 год назад
    Steering vectors: tailor LLMs without training. Part II: Code (Interpretability Series)
    Опубликовано: 1 год назад
  • The Brain’s Learning Algorithm Isn’t Backpropagation 10 месяцев назад
    The Brain’s Learning Algorithm Isn’t Backpropagation
    Опубликовано: 10 месяцев назад
  • M5 Final Practice ABCBank RAI 33 минуты назад
    M5 Final Practice ABCBank RAI
    Опубликовано: 33 минуты назад
  • Управление поведением LLM без тонкой настройки 2 месяца назад
    Управление поведением LLM без тонкой настройки
    Опубликовано: 2 месяца назад
  • Richard Sutton – Father of RL thinks LLMs are a dead end 5 месяцев назад
    Richard Sutton – Father of RL thinks LLMs are a dead end
    Опубликовано: 5 месяцев назад
  • How DeepSeek Rewrote the Transformer [MLA] 1 год назад
    How DeepSeek Rewrote the Transformer [MLA]
    Опубликовано: 1 год назад
  • Как происходит модернизация остаточных соединений [mHC] 2 месяца назад
    Как происходит модернизация остаточных соединений [mHC]
    Опубликовано: 2 месяца назад
  • Как внимание стало настолько эффективным [GQA/MLA/DSA] 3 месяца назад
    Как внимание стало настолько эффективным [GQA/MLA/DSA]
    Опубликовано: 3 месяца назад
  • Управление программами магистратуры: как изменить личность ИИ без тонкой настройки. 2 месяца назад
    Управление программами магистратуры: как изменить личность ИИ без тонкой настройки.
    Опубликовано: 2 месяца назад
  • They solved AI hallucinations! 9 дней назад
    They solved AI hallucinations!
    Опубликовано: 9 дней назад
  • Почему диффузия работает лучше, чем авторегрессия? 2 года назад
    Почему диффузия работает лучше, чем авторегрессия?
    Опубликовано: 2 года назад
  • Understanding JAX: JIT, XLA, and Pure Functions Explained 1 месяц назад
    Understanding JAX: JIT, XLA, and Pure Functions Explained
    Опубликовано: 1 месяц назад
  • Speculative Decoding: When Two LLMs are Faster than One 2 года назад
    Speculative Decoding: When Two LLMs are Faster than One
    Опубликовано: 2 года назад
  • Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией 1 год назад
    Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией
    Опубликовано: 1 год назад
  • Beyond Softmax: The Future of Attention Mechanisms 1 месяц назад
    Beyond Softmax: The Future of Attention Mechanisms
    Опубликовано: 1 месяц назад
  • Demystifying Large Language Models in 45 minutes (non-technical) 1 год назад
    Demystifying Large Language Models in 45 minutes (non-technical)
    Опубликовано: 1 год назад
  • The most complex model we actually understand 2 месяца назад
    The most complex model we actually understand
    Опубликовано: 2 месяца назад
  • LLMs Don't Need More Parameters. They Need Loops. 1 месяц назад
    LLMs Don't Need More Parameters. They Need Loops.
    Опубликовано: 1 месяц назад
  • Reverse-engineering GGUF | Post-Training Quantization 7 месяцев назад
    Reverse-engineering GGUF | Post-Training Quantization
    Опубликовано: 7 месяцев назад
  • Как LLM могут хранить факты | Глава 7, Глубокое обучение 1 год назад
    Как LLM могут хранить факты | Глава 7, Глубокое обучение
    Опубликовано: 1 год назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5