• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Big Techday 25: Sparse Models are the future: A deep dive into Mixture-of-Experts - Daria Soboleva скачать в хорошем качестве

Big Techday 25: Sparse Models are the future: A deep dive into Mixture-of-Experts - Daria Soboleva 3 месяца назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Big Techday 25: Sparse Models are the future: A deep dive into Mixture-of-Experts - Daria Soboleva
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Big Techday 25: Sparse Models are the future: A deep dive into Mixture-of-Experts - Daria Soboleva в качестве 4k

У нас вы можете посмотреть бесплатно Big Techday 25: Sparse Models are the future: A deep dive into Mixture-of-Experts - Daria Soboleva или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Big Techday 25: Sparse Models are the future: A deep dive into Mixture-of-Experts - Daria Soboleva в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Big Techday 25: Sparse Models are the future: A deep dive into Mixture-of-Experts - Daria Soboleva

Sparse Models are the future: A deep dive into Mixture-of-Experts The limits of scalability have been reached. AI training compute has increased by 10^21 since AlexNet, but these models can’t just get bigger forever. The most powerful language models today use less than 10% of their parameters for any given token, achieving significant computational savings while maintaining high quality. The efficiency comes from Mixture-of-Experts (MoE) architectures, which route different inputs to specialized expert networks instead of activating all parameters, saving compute. Drawing from latest trillion-parameter model design choices, this talk will cover why sparse architectures through MoE represent the most viable path for efficient AI scaling in production systems. About the speaker: Daria Soboleva works as Head Research Scientist at Cerebras, focusing on efficient AI systems and Large Language Models. She leads research on new LLM architectures, with a particular interest in Mixture-of-Experts models and hardware-optimized training. Furthermore, she is the creator of SlimPajama, a 627B token dataset that has become an industry standard with over 1M downloads, and BTLM-3B-8K, which achieved 7B parameter performance with significantly less compute. Previously, Daria worked at Google and other tech giants, building diverse expertise in ML and software engineering. Her research interests span efficient scaling of language models, data quality optimization, and specialized hardware architectures for AI. Daria holds a Master's degree in Computer Science from Moscow State University with specialization in AI and Machine Learning.

Comments
  • Big Techday: Generating unit & end-to-end tests with AI agents - M. Bieth & M. Oberparleiter (TNG) 3 месяца назад
    Big Techday: Generating unit & end-to-end tests with AI agents - M. Bieth & M. Oberparleiter (TNG)
    Опубликовано: 3 месяца назад
  • Big Techday 25: How to get into the top 10 model providers on OpenRouter - H. Klagges & R. Dahlke 2 месяца назад
    Big Techday 25: How to get into the top 10 model providers on OpenRouter - H. Klagges & R. Dahlke
    Опубликовано: 2 месяца назад
  • How AI Actually Thinks: Neural Networks Visualized (2026) 8 часов назад
    How AI Actually Thinks: Neural Networks Visualized (2026)
    Опубликовано: 8 часов назад
  • Big Techday 25: From concept to launch: Challenges in rocket design - BME Suborbitals 2 месяца назад
    Big Techday 25: From concept to launch: Challenges in rocket design - BME Suborbitals
    Опубликовано: 2 месяца назад
  • Дарио Амодеи — «Мы близки к концу экспоненты» 9 дней назад
    Дарио Амодеи — «Мы близки к концу экспоненты»
    Опубликовано: 9 дней назад
  • Мир AI-агентов уже наступил. Что меняется прямо сейчас 21 час назад
    Мир AI-агентов уже наступил. Что меняется прямо сейчас
    Опубликовано: 21 час назад
  • DeepRecSys, лекция 3: Двухбашенные нейросети 4 дня назад
    DeepRecSys, лекция 3: Двухбашенные нейросети
    Опубликовано: 4 дня назад
  • Конференция «Будущее США и Китая 2026»: развенчание мифа о гонке США и Китая за технологиями. 2 дня назад
    Конференция «Будущее США и Китая 2026»: развенчание мифа о гонке США и Китая за технологиями.
    Опубликовано: 2 дня назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Big Techday 25: Dirty trenches & clean code - OXG's Cloud-first strategy - R. Siedow & H. Bäker 2 месяца назад
    Big Techday 25: Dirty trenches & clean code - OXG's Cloud-first strategy - R. Siedow & H. Bäker
    Опубликовано: 2 месяца назад
  • Почему рекомендации по техническим характеристикам печатных плат часто неверны. 3 дня назад
    Почему рекомендации по техническим характеристикам печатных плат часто неверны.
    Опубликовано: 3 дня назад
  • The Internet, Reinvented. 11 часов назад
    The Internet, Reinvented.
    Опубликовано: 11 часов назад
  • Традиционное машинное обучение мертво — суровая правда 😔 2 недели назад
    Традиционное машинное обучение мертво — суровая правда 😔
    Опубликовано: 2 недели назад
  • Введение в MCP | Протокол MCP - 01 7 дней назад
    Введение в MCP | Протокол MCP - 01
    Опубликовано: 7 дней назад
  • Big Techday 25: Proxima Fusion's ConStellaration challenge - Veronika Siska & Santiago Cadena 2 месяца назад
    Big Techday 25: Proxima Fusion's ConStellaration challenge - Veronika Siska & Santiago Cadena
    Опубликовано: 2 месяца назад
  • Что такое Fabric IQ?! Объяснение новой онтологии Microsoft Fabric. 4 дня назад
    Что такое Fabric IQ?! Объяснение новой онтологии Microsoft Fabric.
    Опубликовано: 4 дня назад
  • OpenAI is Suddenly in Trouble 1 день назад
    OpenAI is Suddenly in Trouble
    Опубликовано: 1 день назад
  • Почему «Трансформеры» заменяют CNN? 2 месяца назад
    Почему «Трансформеры» заменяют CNN?
    Опубликовано: 2 месяца назад
  • Google увольняет, Нейросеть для умерших, Суверенный европейский процессор | Как Там АйТи #86 6 дней назад
    Google увольняет, Нейросеть для умерших, Суверенный европейский процессор | Как Там АйТи #86
    Опубликовано: 6 дней назад
  • Метод размерностей: читерский способ изучать физику! 1 день назад
    Метод размерностей: читерский способ изучать физику!
    Опубликовано: 1 день назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5