• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Pixelated Butterfly: Fast Machine Learning with Sparsity - Beidi Chen | Stanford MLSys #49 скачать в хорошем качестве

Pixelated Butterfly: Fast Machine Learning with Sparsity - Beidi Chen | Stanford MLSys #49 Трансляция закончилась 4 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Pixelated Butterfly: Fast Machine Learning with Sparsity - Beidi Chen | Stanford MLSys #49
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Pixelated Butterfly: Fast Machine Learning with Sparsity - Beidi Chen | Stanford MLSys #49 в качестве 4k

У нас вы можете посмотреть бесплатно Pixelated Butterfly: Fast Machine Learning with Sparsity - Beidi Chen | Stanford MLSys #49 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Pixelated Butterfly: Fast Machine Learning with Sparsity - Beidi Chen | Stanford MLSys #49 в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Pixelated Butterfly: Fast Machine Learning with Sparsity - Beidi Chen | Stanford MLSys #49

Episode 49 of the Stanford MLSys Seminar Series! Pixelated Butterfly: Simple and Efficient Sparse Training for Neural Network Models Speaker: Beidi Chen Abstract: Overparameterized neural networks generalize well but are expensive to train. Ideally, one would like to reduce their computational cost while retaining their generalization benefits. Sparse model training is a simple and promising approach to achieve this, but there remain challenges as existing methods struggle with accuracy loss, slow training runtime, or difficulty in sparsifying all model components. The core problem is that searching for a sparsity mask over a discrete set of sparse matrices is difficult and expensive. To address this, our main insight is to optimize over a continuous superset of sparse matrices with a fixed structure known as products of butterfly matrices. As butterfly matrices are not hardware efficient, we propose simple variants of butterfly (block and flat) to take advantage of modern hardware. Our method (Pixelated Butterfly) uses a simple fixed sparsity pattern based on flat block butterfly and low-rank matrices to sparsify most network layers (e.g., attention, MLP). We empirically validate that Pixelated Butterfly is 3x faster than butterfly and speeds up training to achieve favorable accuracy--efficiency tradeoffs. On the ImageNet classification and WikiText-103 language modeling tasks, our sparse models train up to 2.5x faster than the dense MLP-Mixer, Vision Transformer, and GPT-2 medium with no drop in accuracy. Bio: Beidi Chen is a Postdoctoral scholar in the Department of Computer Science at Stanford University, working with Dr. Christopher Ré. Her research focuses on large-scale machine learning and deep learning. Specifically, she designs and optimizes randomized algorithms (algorithm-hardware co-design) to accelerate large machine learning systems for real-world problems. Prior to joining Stanford, she received her Ph.D. in the Department of Computer Science at Rice University, advised by Dr. Anshumali Shrivastava. She received a BS in EECS from UC Berkeley in 2015. She has held internships in Microsoft Research, NVIDIA Research, and Amazon AI. Her work has won Best Paper awards at LISA and IISA. She was selected as a Rising Star in EECS by MIT and UIUC. -- 0:00 Presentation 20:48 Discussion Stanford MLSys Seminar hosts: Dan Fu, Karan Goel, Fiodar Kazhamiaka, and Piero Molino Executive Producers: Matei Zaharia, Chris Ré Twitter:   / realdanfu​     / krandiash​     / w4nderlus7   -- Check out our website for the schedule: http://mlsys.stanford.edu Join our mailing list to get weekly updates: https://groups.google.com/forum/#!for... #machinelearning #ai #artificialintelligence #systems #mlsys #computerscience #stanford #butterfly #pixelatedbutterfly #sparsity #lowrank #optimization #hardware #deeplearning

Comments
  • Resource-Efficient Deep Learning Execution - Deepak Narayanan | Stanford MLSys #50 Трансляция закончилась 4 года назад
    Resource-Efficient Deep Learning Execution - Deepak Narayanan | Stanford MLSys #50
    Опубликовано: Трансляция закончилась 4 года назад
  • Monarch Mixer: Making Foundation Models More Efficient - Dan Fu | Stanford MLSys #86 Трансляция закончилась 2 года назад
    Monarch Mixer: Making Foundation Models More Efficient - Dan Fu | Stanford MLSys #86
    Опубликовано: Трансляция закончилась 2 года назад
  • Notes on AI Hardware - Benjamin Spector | Stanford MLSys #88 Трансляция закончилась 2 года назад
    Notes on AI Hardware - Benjamin Spector | Stanford MLSys #88
    Опубликовано: Трансляция закончилась 2 года назад
  • EVO: DNA Foundation Models - Eric Nguyen | Stanford MLSys #96 Трансляция закончилась 1 год назад
    EVO: DNA Foundation Models - Eric Nguyen | Stanford MLSys #96
    Опубликовано: Трансляция закончилась 1 год назад
  • Sparse Neural Networks: From Practice to Theory 3 года назад
    Sparse Neural Networks: From Practice to Theory
    Опубликовано: 3 года назад
  • Can the US challenge China’s dominance in critical minerals? | Counting the Cost 6 дней назад
    Can the US challenge China’s dominance in critical minerals? | Counting the Cost
    Опубликовано: 6 дней назад
  • Лучший документальный фильм про создание ИИ 1 месяц назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 1 месяц назад
  • CEP - Fatalna polityka Kremla zmusza firmy naftowe do czopowania odwiertów Трансляция закончилась 3 часа назад
    CEP - Fatalna polityka Kremla zmusza firmy naftowe do czopowania odwiertów
    Опубликовано: Трансляция закончилась 3 часа назад
  • Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение 1 год назад
    Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение
    Опубликовано: 1 год назад
  • 🔴 NOCNA ZMIANA | KAMILA BIEDRZYCKA & DR MIROSŁAW OCZKOŚ 16 часов назад
    🔴 NOCNA ZMIANA | KAMILA BIEDRZYCKA & DR MIROSŁAW OCZKOŚ
    Опубликовано: 16 часов назад
  • Как тонкая настройка программ LLM с открытым исходным кодом решает проблему внедрения GenAI в про... Трансляция закончилась 1 год назад
    Как тонкая настройка программ LLM с открытым исходным кодом решает проблему внедрения GenAI в про...
    Опубликовано: Трансляция закончилась 1 год назад
  • Илон Маск (свежее): xAI и SpaceX, прогресс ИИ, Grok, лунная база, другое 6 дней назад
    Илон Маск (свежее): xAI и SpaceX, прогресс ИИ, Grok, лунная база, другое
    Опубликовано: 6 дней назад
  • Stanford AI Club: Jeff Dean on Important AI Trends 2 месяца назад
    Stanford AI Club: Jeff Dean on Important AI Trends
    Опубликовано: 2 месяца назад
  • Text2SQL: The Dream versus Reality - Laurel Orr | Stanford MLSys #89 Трансляция закончилась 2 года назад
    Text2SQL: The Dream versus Reality - Laurel Orr | Stanford MLSys #89
    Опубликовано: Трансляция закончилась 2 года назад
  • The KV Cache: Memory Usage in Transformers 2 года назад
    The KV Cache: Memory Usage in Transformers
    Опубликовано: 2 года назад
  • Hardware-aware Algorithms for Sequence Modeling - Tri Dao | Stanford MLSys #87 Трансляция закончилась 2 года назад
    Hardware-aware Algorithms for Sequence Modeling - Tri Dao | Stanford MLSys #87
    Опубликовано: Трансляция закончилась 2 года назад
  • Stanford CS230 | Autumn 2025 | Lecture 9: Career Advice in AI 2 месяца назад
    Stanford CS230 | Autumn 2025 | Lecture 9: Career Advice in AI
    Опубликовано: 2 месяца назад
  • Sparsity for Efficient Long Sequence Generation of LLMs 2 года назад
    Sparsity for Efficient Long Sequence Generation of LLMs
    Опубликовано: 2 года назад
  • Scaling Up “Vibe Checks” for LLMs - Shreya Shankar | Stanford MLSys #97 Трансляция закончилась 1 год назад
    Scaling Up “Vibe Checks” for LLMs - Shreya Shankar | Stanford MLSys #97
    Опубликовано: Трансляция закончилась 1 год назад
  • Sparsity in Neural Networks (Brains@Bay Meetup) Трансляция закончилась 6 лет назад
    Sparsity in Neural Networks (Brains@Bay Meetup)
    Опубликовано: Трансляция закончилась 6 лет назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5