• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727 скачать в хорошем качестве

Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727 8 месяцев назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727 в качестве 4k

У нас вы можете посмотреть бесплатно Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727 в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Inside the “Neurons” of LLMs: Circuit Tracing Their Hidden Biology [Emmanuel Ameisen] - 727

In this episode, Emmanuel Ameisen, a research engineer at Anthropic, returns to discuss two recent papers: "Circuit Tracing: Revealing Language Model Computational Graphs" and "On the Biology of a Large Language Model." Emmanuel explains how his team developed mechanistic interpretability methods to understand the internal workings of Claude by replacing dense neural network components with sparse, interpretable alternatives. The conversation explores several fascinating discoveries about large language models, including how they plan ahead when writing poetry (selecting the rhyming word "rabbit" before crafting the sentence leading to it), perform mathematical calculations using unique algorithms, and process concepts across multiple languages using shared neural representations. Emmanuel details how the team can intervene in model behavior by manipulating specific neural pathways, revealing how concepts are distributed throughout the network's MLPs and attention mechanisms. The discussion highlights both capabilities and limitations of LLMs, showing how hallucinations occur through separate recognition and recall circuits, and demonstrates why chain-of-thought explanations aren't always faithful representations of the model's actual reasoning. This research ultimately supports Anthropic's safety strategy by providing a deeper understanding of how these AI systems actually work. 🎧 / 🎥 Listen or watch the full episode on our page: https://twimlai.com/go/727. 🔔 Subscribe to our channel for more great content just like this: https://youtube.com/twimlai?sub_confi... 🗣️ CONNECT WITH US! =============================== Subscribe to the TWIML AI Podcast: https://twimlai.com/podcast/twimlai/ Follow us on Twitter:   / twimlai   Follow us on LinkedIn:   / twimlai   Join our Slack Community: https://twimlai.com/community/ Subscribe to our newsletter: https://twimlai.com/newsletter/ Want to get in touch? Send us a message: https://twimlai.com/contact/ 📖 CHAPTERS =============================== 00:00 - Introduction 6:13 - Surprising findings 10:05 - Circuit Tracing paper: Mechanistic interpretability 16:07 - Similarity of concept embeddings with model concept representation 23:00 - Replacement model and sparse coding 27:58 - Trade-offs between different replacement models 35:38 - Challenges of upstilling black box model into an interpretable model 41:23 - Polysemanticity and superposition 44:22 - Limitations of the model approach 50:53 - Attribution graph 53:32 - Interventions 1:05:53 - Understanding the model strategies 1:12:26 - Examples from the Biology paper 1:20:36 - Chain-of-thought faithfulness 1:25:49 - Future directions 🔗 LINKS & RESOURCES =============================== Circuit Tracing: Revealing Computational Graphs in Language Models - https://transformer-circuits.pub/2025... On the Biology of a Large Language Model - https://transformer-circuits.pub/2025... Towards Monosemanticity: Decomposing Language Models With Dictionary Learning - https://transformer-circuits.pub/2023... Turning Ideas into ML Powered Products with Emmanuel Ameisen - 349 - https://twimlai.com/podcast/twimlai/t... 📸 Camera: https://amzn.to/3TQ3zsg 🎙️Microphone: https://amzn.to/3t5zXeV 🚦Lights: https://amzn.to/3TQlX49 🎛️ Audio Interface: https://amzn.to/3TVFAIq 🎚️ Stream Deck: https://amzn.to/3zzm7F5

Comments
  • Generative Benchmarking: Measuring AI Models Beyond Accuracy [Kelly Hong] - 728 8 месяцев назад
    Generative Benchmarking: Measuring AI Models Beyond Accuracy [Kelly Hong] - 728
    Опубликовано: 8 месяцев назад
  • The Utility of Interpretability — Emmanuel Amiesen 6 месяцев назад
    The Utility of Interpretability — Emmanuel Amiesen
    Опубликовано: 6 месяцев назад
  • Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734 6 месяцев назад
    Grokking, Generalization Collapse, and Dynamics of Training Deep Neural Nets [Charles Martin] - 734
    Опубликовано: 6 месяцев назад
  • MIT 6.S191 (2024): Recurrent Neural Networks, Transformers, and Attention 1 год назад
    MIT 6.S191 (2024): Recurrent Neural Networks, Transformers, and Attention
    Опубликовано: 1 год назад
  • Genie 3: A New Frontier for World Models [Jack Parker-Holder and Shlomi Fruchter] - 743 4 месяца назад
    Genie 3: A New Frontier for World Models [Jack Parker-Holder and Shlomi Fruchter] - 743
    Опубликовано: 4 месяца назад
  • Deep Dive into LLMs like ChatGPT 10 месяцев назад
    Deep Dive into LLMs like ChatGPT
    Опубликовано: 10 месяцев назад
  • Microchip Breakthrough: We're Beyond Silicon 3 дня назад
    Microchip Breakthrough: We're Beyond Silicon
    Опубликовано: 3 дня назад
  • Inside Nano Banana 🍌 and the Future of Vision-Language Models [Oliver Wang] - 748 3 месяца назад
    Inside Nano Banana 🍌 and the Future of Vision-Language Models [Oliver Wang] - 748
    Опубликовано: 3 месяца назад
  • Chris Olah - Looking Inside Neural Networks with Mechanistic Interpretability 2 года назад
    Chris Olah - Looking Inside Neural Networks with Mechanistic Interpretability
    Опубликовано: 2 года назад
  • Alignment faking in large language models 1 год назад
    Alignment faking in large language models
    Опубликовано: 1 год назад
  • Anthropic: Circuit Tracing + On the Biology of a Large Language Model 8 месяцев назад
    Anthropic: Circuit Tracing + On the Biology of a Large Language Model
    Опубликовано: 8 месяцев назад
  • AI, Machine Learning, Deep Learning and Generative AI Explained 1 год назад
    AI, Machine Learning, Deep Learning and Generative AI Explained
    Опубликовано: 1 год назад
  • The Dark Matter of AI [Mechanistic Interpretability] 1 год назад
    The Dark Matter of AI [Mechanistic Interpretability]
    Опубликовано: 1 год назад
  • Building an Immune System for AI Generated Software [Animesh Koratana] - 746 3 месяца назад
    Building an Immune System for AI Generated Software [Animesh Koratana] - 746
    Опубликовано: 3 месяца назад
  • U of T Robotics Institute Seminar: Sergey Levine (UC Berkeley) 9 месяцев назад
    U of T Robotics Institute Seminar: Sergey Levine (UC Berkeley)
    Опубликовано: 9 месяцев назад
  • Момент, когда мы перестали понимать ИИ [AlexNet] 1 год назад
    Момент, когда мы перестали понимать ИИ [AlexNet]
    Опубликовано: 1 год назад
  • Transformers for Tabular Data at Capital One with Bayan Bruss - #591 3 года назад
    Transformers for Tabular Data at Capital One with Bayan Bruss - #591
    Опубликовано: 3 года назад
  • НЕВИДИМОЕ ВЕЩЕСТВО, ИЗ КОТОРОГО СОСТОИТ ВСЕЛЕННАЯ: ТЁМНАЯ МАТЕРИЯ. Семихатов, Сурдин, Боос 2 дня назад
    НЕВИДИМОЕ ВЕЩЕСТВО, ИЗ КОТОРОГО СОСТОИТ ВСЕЛЕННАЯ: ТЁМНАЯ МАТЕРИЯ. Семихатов, Сурдин, Боос
    Опубликовано: 2 дня назад
  • Scaling Agentic Inference Across Heterogeneous Compute [Zain Asgar] - 757 3 недели назад
    Scaling Agentic Inference Across Heterogeneous Compute [Zain Asgar] - 757
    Опубликовано: 3 недели назад
  • AI Interpretability, Safety, and Meaning - Nora Belrose 1 год назад
    AI Interpretability, Safety, and Meaning - Nora Belrose
    Опубликовано: 1 год назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5