• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

#92 - SARA HOOKER - Fairness, Interpretability, Language Models скачать в хорошем качестве

#92 - SARA HOOKER - Fairness, Interpretability, Language Models 3 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
#92 - SARA HOOKER - Fairness, Interpretability, Language Models
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: #92 - SARA HOOKER - Fairness, Interpretability, Language Models в качестве 4k

У нас вы можете посмотреть бесплатно #92 - SARA HOOKER - Fairness, Interpretability, Language Models или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон #92 - SARA HOOKER - Fairness, Interpretability, Language Models в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



#92 - SARA HOOKER - Fairness, Interpretability, Language Models

Support us!   / mlst   Sara Hooker is an exceptionally talented and accomplished leader and research scientist in the field of machine learning. She is the founder of Cohere For AI, a non-profit research lab that seeks to solve complex machine learning problems. She is passionate about creating more points of entry into machine learning research and has dedicated her efforts to understanding how progress in this field can be translated into reliable and accessible machine learning in the real-world. Sara is also the co-founder of the Trustworthy ML Initiative, a forum and seminar series related to Trustworthy ML. She is on the advisory board of Patterns and is an active member of the MLC research group, which has a focus on making participation in machine learning research more accessible. Before starting Cohere For AI, Sara worked as a research scientist at Google Brain. She has written several influential research papers, including "The Hardware Lottery", "The Low-Resource Double Bind: An Empirical Study of Pruning for Low-Resource Machine Translation", "Moving Beyond “Algorithmic Bias is a Data Problem”" and "Characterizing and Mitigating Bias in Compact Models". In addition to her research work, Sara is also the founder of the local Bay Area non-profit Delta Analytics, which works with non-profits and communities all over the world to build technical capacity and empower others to use data. She regularly gives tutorials on machine learning fundamentals, interpretability, model compression and deep neural networks and is dedicated to collaborating with independent researchers around the world. Sara Hooker is famous for writing a paper introducing the concept of the 'hardware lottery', in which the success of a research idea is determined not by its inherent superiority, but by its compatibility with available software and hardware. She argued that choices about software and hardware have had a substantial impact in deciding the outcomes of early computer science history, and that with the increasing heterogeneity of the hardware landscape, gains from advances in computing may become increasingly disparate. Sara proposed that an interim goal should be to create better feedback mechanisms for researchers to understand how their algorithms interact with the hardware they use. She suggested that domain-specific languages, auto-tuning of algorithmic parameters, and better profiling tools may help to alleviate this issue, as well as provide researchers with more informed opinions about how hardware and software should progress. Ultimately, Sara encouraged researchers to be mindful of the implications of the hardware lottery, as it could mean that progress on some research directions is further obstructed. If you want to learn more about that paper, watch our previous interview with Sara. TOC: [00:00:00] Intro [00:02:53] Interpretability / Fairness [00:35:29] LLMs Find Sara: https://www.sarahooker.me/   / sarahookr   MLST Discord:   / discord   Pod: https://anchor.fm/machinelearningstre... References; A Tale Of Two Long Tails [Daniel D’souza, Zach Nussbaum, Chirag Agarwal, Sara Hooker] https://arxiv.org/pdf/2107.13098.pdf When less is more: Simplifying inputs aids neural network understanding [Robin Tibor Schirrmeister, Rosanne Liu, Sara Hooker, Tonio Ball] https://arxiv.org/pdf/2201.05610.pdf Mysteries of mode collapse [janus/LW] https://www.lesswrong.com/posts/t9svv... The Low-Resource Double Bind: An Empirical Study of Pruning for Low-Resource Machine Translation https://arxiv.org/abs/2110.03036 Moving beyond “algorithmic bias is a data problem” [Sara Hooker] https://www.sciencedirect.com/science... Characterising Bias in Compressed Models [Hooker et al] https://arxiv.org/abs/2010.03058 December 2021 CACM: The Hardware Lottery [we used clips of Sara from this video]    • December 2021 CACM: The Hardware Lottery  

Comments
  • Арестович & Шелест: День 1405. Дневник войны. Сбор для военных👇
    Арестович & Шелест: День 1405. Дневник войны. Сбор для военных👇
    Опубликовано:
  • 🗿 Кто ж его ПОСАДИТ? Он же памятник! Ариведерчи Трампа и Зе-референдум. ИСТОЩЕНИЕ фронта - Арестович
    🗿 Кто ж его ПОСАДИТ? Он же памятник! Ариведерчи Трампа и Зе-референдум. ИСТОЩЕНИЕ фронта - Арестович
    Опубликовано:
  • THIS is why large language models can understand the world 8 месяцев назад
    THIS is why large language models can understand the world
    Опубликовано: 8 месяцев назад
  • GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем 1 год назад
    GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем
    Опубликовано: 1 год назад
  • How Do AI Models Actually Think? [Dr. Laura Ruis] 11 месяцев назад
    How Do AI Models Actually Think? [Dr. Laura Ruis]
    Опубликовано: 11 месяцев назад
  • Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5 4 года назад
    Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5
    Опубликовано: 4 года назад
  • Sara Hooker - The slow death of scaling and what comes next (Khipu 2025) 5 месяцев назад
    Sara Hooker - The slow death of scaling and what comes next (Khipu 2025)
    Опубликовано: 5 месяцев назад
  • The Dark Matter of AI [Mechanistic Interpretability] 1 год назад
    The Dark Matter of AI [Mechanistic Interpretability]
    Опубликовано: 1 год назад
  • The 6 дней назад
    The "Final Boss" of Deep Learning
    Опубликовано: 6 дней назад
  • Масштабируемость интерпретируемости 1 год назад
    Масштабируемость интерпретируемости
    Опубликовано: 1 год назад
  • Full interview: 2 года назад
    Full interview: "Godfather of artificial intelligence" talks impact and potential of AI
    Опубликовано: 2 года назад
  • Нил Нанда – Механистическая интерпретируемость: Вихревой тур 1 год назад
    Нил Нанда – Механистическая интерпретируемость: Вихревой тур
    Опубликовано: 1 год назад
  • ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию? 3 недели назад
    ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?
    Опубликовано: 3 недели назад
  • What is interpretability? 1 год назад
    What is interpretability?
    Опубликовано: 1 год назад
  • 2025: НОВОЕ ОСЕВОЕ ВРЕМЯ. ИТОГИ ГОДА С АНДРЕЕМ БАУМЕЙСТЕРОМ 1 день назад
    2025: НОВОЕ ОСЕВОЕ ВРЕМЯ. ИТОГИ ГОДА С АНДРЕЕМ БАУМЕЙСТЕРОМ
    Опубликовано: 1 день назад
  • Мягкая сила России. 2026 год: война закончится, но не так. Выпуск «под елочку» | Пастухов, Еловский 1 день назад
    Мягкая сила России. 2026 год: война закончится, но не так. Выпуск «под елочку» | Пастухов, Еловский
    Опубликовано: 1 день назад
  • Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475 5 месяцев назад
    Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475
    Опубликовано: 5 месяцев назад
  • AI, Machine Learning, Deep Learning and Generative AI Explained 1 год назад
    AI, Machine Learning, Deep Learning and Generative AI Explained
    Опубликовано: 1 год назад
  • Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley 9 месяцев назад
    Обучение с подкреплением для агентов — Уилл Браун, исследователь машинного обучения в Morgan Stanley
    Опубликовано: 9 месяцев назад
  • The Mathematical Foundations of Intelligence [Professor Yi Ma] 2 недели назад
    The Mathematical Foundations of Intelligence [Professor Yi Ma]
    Опубликовано: 2 недели назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5