• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Чему нейросети на самом деле учатся? Исследуем мозг ИИ-модели. скачать в хорошем качестве

Чему нейросети на самом деле учатся? Исследуем мозг ИИ-модели. 1 год назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Чему нейросети на самом деле учатся? Исследуем мозг ИИ-модели.
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Чему нейросети на самом деле учатся? Исследуем мозг ИИ-модели. в качестве 4k

У нас вы можете посмотреть бесплатно Чему нейросети на самом деле учатся? Исследуем мозг ИИ-модели. или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Чему нейросети на самом деле учатся? Исследуем мозг ИИ-модели. в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Чему нейросети на самом деле учатся? Исследуем мозг ИИ-модели.

Neural networks have become increasingly impressive in recent years, but there's a big catch: we don't really know what they are doing. We give them data and ways to get feedback, and somehow, they learn all kinds of tasks. It would be really useful, especially for safety purposes, to understand what they have learned and how they work after they've been trained. The ultimate goal is not only to understand in broad strokes what they're doing but to precisely reverse engineer the algorithms encoded in their parameters. This is the ambitious goal of mechanistic interpretability. As an introduction to this field, we show how researchers have been able to partly reverse-engineer how InceptionV1, a convolutional neural network, recognizes images. ▀▀▀▀▀▀▀▀▀SOURCES & READINGS▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀ This topic is truly a rabbit hole. If you want to learn more about this important research and even contribute to it, check out this list of sources about mechanistic interpretability and interpretability in general we've compiled for you: On Interpreting InceptionV1: Feature visualization: https://distill.pub/2017/feature-visu... Zoom in: An Introduction to Circuits: https://distill.pub/2020/circuits/zoo... The Distill journal contains several articles that try to make sense of how exactly InceptionV1 does what it does: https://distill.pub/2020/circuits/ OpenAI's Microscope tool lets us visualize the neurons and channels of a number of vision models in great detail: https://microscope.openai.com/models Here's OpenAI's Microscope tool pointed on layer Mixed3b in InceptionV1: https://microscope.openai.com/models/... Activation atlases: https://distill.pub/2019/activation-a... More recent work applying SAEs to InceptionV1: https://arxiv.org/abs/2406.03662v1 Transformer Circuits Thread, the spiritual successor of the circuits thread on InceptionV1. This time on transformers: https://transformer-circuits.pub/ In the video, we cite "Toy Models of Superposition": https://transformer-circuits.pub/2022... We also cite "Towards Monosemanticity: Decomposing Language Models With Dictionary Learning": https://transformer-circuits.pub/2023... More recent progress: Mapping the Mind of a Large Language Model: Press: https://www.anthropic.com/research/ma... Paper in the transformers circuits thread: https://transformer-circuits.pub/2024... Extracting Concepts from GPT-4: Press: https://openai.com/index/extracting-c... Paper: https://arxiv.org/abs/2406.04093 Browse features: https://openaipublic.blob.core.window... Language models can explain neurons in language models (cited in the video): Press: https://openai.com/index/language-mod... Paper: https://openaipublic.blob.core.window... View neurons: https://openaipublic.blob.core.window... Neel Nanda on how to get started with Mechanistic Interpretability: Concrete Steps to Get Started in Transformer Mechanistic Interpretability: https://www.neelnanda.io/mechanistic-... Mechanistic Interpretability Quickstart Guide: https://www.neelnanda.io/mechanistic-... 200 Concrete Open Problems in Mechanistic Interpretability: https://www.alignmentforum.org/posts/... More work mentioned in the video: Progress measures for grokking via mechanistic interpretability: https://arxiv.org/abs/2301.05217 Discovering Latent Knowledge in Language Models Without Supervision: https://arxiv.org/abs/2212.03827 Prediction of cardiovascular risk factors from retinal fundus photographs via deep learning: https://www.nature.com/articles/s4155... ▀▀▀▀▀▀▀▀▀PATREON, MEMBERSHIP, MERCH▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀ 🟠 Patreon:   / rationalanimations   🔵 Channel membership:    / @rationalanimations   🟢 Merch: https://rational-animations-shop.four... 🟤 Ko-fi, for one-time and recurring donations: https://ko-fi.com/rationalanimations ▀▀▀▀▀▀▀▀▀SOCIAL & DISCORD▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀ Discord:   / discord   Reddit:   / rationalanimations   X/Twitter:   / rationalanimat1   ▀▀▀▀▀▀▀▀▀PATRONS & MEMBERS▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀ AAAA you don't fit in the description this time! But we thank you from the bottom of our hearts. All of you, in this Google Doc: https://docs.google.com/document/d/18... ▀▀▀▀▀▀▀CREDITS▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀ All the good doggos who worked on this video: https://docs.google.com/document/d/1K...

Comments
  • S-Risks: Fates Worse Than Extinction 1 год назад
    S-Risks: Fates Worse Than Extinction
    Опубликовано: 1 год назад
  • Катастрофа, которая нас (возможно) ждёт [Veritasium] 5 часов назад
    Катастрофа, которая нас (возможно) ждёт [Veritasium]
    Опубликовано: 5 часов назад
  • How One Career Can Save a Million Lives 1 год назад
    How One Career Can Save a Million Lives
    Опубликовано: 1 год назад
  • Момент, когда мы перестали понимать ИИ [AlexNet] 1 год назад
    Момент, когда мы перестали понимать ИИ [AlexNet]
    Опубликовано: 1 год назад
  • How to Create a Neural Network (and Train it to Identify Doodles) 3 года назад
    How to Create a Neural Network (and Train it to Identify Doodles)
    Опубликовано: 3 года назад
  • Это инопланетное послание 1 год назад
    Это инопланетное послание
    Опубликовано: 1 год назад
  • AI can't cross this line and we don't know why. 1 год назад
    AI can't cross this line and we don't know why.
    Опубликовано: 1 год назад
  • Но что такое нейронная сеть? | Глава 1. Глубокое обучение 8 лет назад
    Но что такое нейронная сеть? | Глава 1. Глубокое обучение
    Опубликовано: 8 лет назад
  • Скрытая сложность желаний 2 года назад
    Скрытая сложность желаний
    Опубликовано: 2 года назад
  • Learning Algorithm Of Biological Networks 7 месяцев назад
    Learning Algorithm Of Biological Networks
    Опубликовано: 7 месяцев назад
  • Will we grab the universe? Grabby aliens predictions. 4 года назад
    Will we grab the universe? Grabby aliens predictions.
    Опубликовано: 4 года назад
  • The Misconception that Almost Stopped AI [How Models Learn Part 1] 7 месяцев назад
    The Misconception that Almost Stopped AI [How Models Learn Part 1]
    Опубликовано: 7 месяцев назад
  • The Most Misunderstood Concept in Physics 2 года назад
    The Most Misunderstood Concept in Physics
    Опубликовано: 2 года назад
  • Краткое объяснение больших языковых моделей 1 год назад
    Краткое объяснение больших языковых моделей
    Опубликовано: 1 год назад
  • The Dark Matter of AI [Mechanistic Interpretability] 11 месяцев назад
    The Dark Matter of AI [Mechanistic Interpretability]
    Опубликовано: 11 месяцев назад
  • AI Sleeper Agents: How Anthropic Trains and Catches Them 3 месяца назад
    AI Sleeper Agents: How Anthropic Trains and Catches Them
    Опубликовано: 3 месяца назад
  • How Neural Networks Learn Concepts 5 лет назад
    How Neural Networks Learn Concepts
    Опубликовано: 5 лет назад
  • Моделирование эволюции агрессии 6 лет назад
    Моделирование эволюции агрессии
    Опубликовано: 6 лет назад
  • What a 100-year-old horse teaches us about AI 1 месяц назад
    What a 100-year-old horse teaches us about AI
    Опубликовано: 1 месяц назад
  • AI could be a tool for global control (plus other major AI risks) 2 недели назад
    AI could be a tool for global control (plus other major AI risks)
    Опубликовано: 2 недели назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5