• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Reverse Engineering SSL (NeurIPS 2023) with Ravid Shwartz-Ziv on Talking Papers Podcast скачать в хорошем качестве

Reverse Engineering SSL (NeurIPS 2023) with Ravid Shwartz-Ziv on Talking Papers Podcast 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Reverse Engineering SSL (NeurIPS 2023) with Ravid Shwartz-Ziv on Talking Papers Podcast
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Reverse Engineering SSL (NeurIPS 2023) with Ravid Shwartz-Ziv on Talking Papers Podcast в качестве 4k

У нас вы можете посмотреть бесплатно Reverse Engineering SSL (NeurIPS 2023) with Ravid Shwartz-Ziv on Talking Papers Podcast или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Reverse Engineering SSL (NeurIPS 2023) with Ravid Shwartz-Ziv on Talking Papers Podcast в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Reverse Engineering SSL (NeurIPS 2023) with Ravid Shwartz-Ziv on Talking Papers Podcast

Welcome to another exciting episode of the Talking Papers Podcast! In this episode, we delve into the fascinating world of self-supervised learning with our special guest, Ravid Shwartz-Ziv. Together, we explore and dissect their research paper titled "Reverse Engineering Self-Supervised Learning," published in NeurIPS 2023. Self-supervised learning (SSL) has emerged as a game-changing technique in the field of machine learning. However, understanding the learned representations and their underlying mechanisms has remained a challenge - until now. Ravid Shwartz-Ziv's paper provides an in-depth empirical analysis of SSL-trained representations, encompassing various models, architectures, and hyperparameters. The study uncovers a captivating aspect of the SSL training process - its inherent ability to facilitate the clustering of samples based on semantic labels. Surprisingly, this clustering is driven by the regularization term in the SSL objective. Not only does this process enhance downstream classification performance, but it also exhibits a remarkable power of data compression. The paper further establishes that SSL-trained representations align more closely with semantic classes than random classes, even across different hierarchical levels. What's more, this alignment strengthens during training and as we venture deeper into the network. Join us as we discuss the insights gained from this exceptional research. One remarkable aspect of the paper is its departure from the trend of focusing solely on outperforming competitors. Instead, it dives deep into understanding the semantic clustering effect of SSL techniques, shedding light on the underlying capabilities of the tools we commonly use. It is truly a genre of research that holds immense value. During our conversation, Ravid Shwartz-Ziv - a CDS Faculty Fellow at NYU Center for Data Science - shares their perspectives and insights, providing an enriching layer to our exploration. Interestingly, despite both of us being in Israel at the time of recording, we had never met in person, highlighting the interconnectedness and collaborative nature of the academic world. Don't miss this thought-provoking episode that promises to expand your understanding of self-supervised learning and its impact on representation learning mechanisms. Subscribe to our channel now, join the discussion, and let us know your thoughts in the comments below! TIME STAMPS --------------------- 00:00 Opening 01:16 Authors 02:23 TL;DR 03:21 Introduction 09:52 Contribution 14:18 Related work 15:49 Experiments and findings 56:37 Future work 1:02:45 What did reviewer 2 say? CONTACT --------------------- If you would like to be a guest, sponsor or share your thoughts, feel free to reach out via email: talking.papers.podcast@gmail.com 🎧Subscribe on your favourite podcast app https://talking.papers.podcast.itzikb... 📧Subscribe to our mailing list http://eepurl.com/hRznqb 🐦Follow us on Twitter   / talking_papers   🎥Subscribe to our YouTube channel https://bit.ly/3eQOgwP All links and resources are available in the blogpost: https://www.itzikbs.com/revenge_ssl #TalkingPapersPodcast #NeurIPS2023 #Research #MachineLearning #SelfSupervisedLearning #RepresentationLearning

Comments
  • Variational  barycentric coordinates (SIGGRAPH Asia, 2023) with Ana Dodik on Talking Papers Podcast 2 года назад
    Variational barycentric coordinates (SIGGRAPH Asia, 2023) with Ana Dodik on Talking Papers Podcast
    Опубликовано: 2 года назад
  • CC3D (ICCV 2023) with  Jeong Joon Park on Talking Papers Podcast 2 года назад
    CC3D (ICCV 2023) with Jeong Joon Park on Talking Papers Podcast
    Опубликовано: 2 года назад
  • Live: Advanced Stock Market model in Python Stream 2 | 2/6/2026 Трансляция закончилась 5 часов назад
    Live: Advanced Stock Market model in Python Stream 2 | 2/6/2026
    Опубликовано: Трансляция закончилась 5 часов назад
  • Cameras as Rays (ICLR 2024 Oral) with Jason Y. Zhang on Talking Papers Podcast 1 год назад
    Cameras as Rays (ICLR 2024 Oral) with Jason Y. Zhang on Talking Papers Podcast
    Опубликовано: 1 год назад
  • Даулет Жангузин, NVIDIA, Groq, Cohere, Lyft, Google - Как пишут код лучшие кодеры Кремниевой Долины? 2 недели назад
    Даулет Жангузин, NVIDIA, Groq, Cohere, Lyft, Google - Как пишут код лучшие кодеры Кремниевой Долины?
    Опубликовано: 2 недели назад
  • LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили! 1 месяц назад
    LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!
    Опубликовано: 1 месяц назад
  • Как российские военные обходят блокировку Starlink? Руслан Левиев 1 час назад
    Как российские военные обходят блокировку Starlink? Руслан Левиев
    Опубликовано: 1 час назад
  • ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию? 2 месяца назад
    ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?
    Опубликовано: 2 месяца назад
  • Ravid Ziv - Information Flow in Deep Neural Networks 4 года назад
    Ravid Ziv - Information Flow in Deep Neural Networks
    Опубликовано: 4 года назад
  • Visualizing transformers and attention | Talk for TNG Big Tech Day '24 1 год назад
    Visualizing transformers and attention | Talk for TNG Big Tech Day '24
    Опубликовано: 1 год назад
  • Что такое генеративный ИИ и как он работает? – Лекции Тьюринга с Миреллой Лапатой 2 года назад
    Что такое генеративный ИИ и как он работает? – Лекции Тьюринга с Миреллой Лапатой
    Опубликовано: 2 года назад
  • Может ли у ИИ появиться сознание? — Семихатов, Анохин 1 месяц назад
    Может ли у ИИ появиться сознание? — Семихатов, Анохин
    Опубликовано: 1 месяц назад
  • Управление поведением LLM без тонкой настройки 1 месяц назад
    Управление поведением LLM без тонкой настройки
    Опубликовано: 1 месяц назад
  • Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев 3 месяца назад
    Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев
    Опубликовано: 3 месяца назад
  • Лучший документальный фильм про создание ИИ 3 недели назад
    Лучший документальный фильм про создание ИИ
    Опубликовано: 3 недели назад
  • VICReg: Variance-Invariance-Covariance Regularization for Self-Supervised Learning 4 года назад
    VICReg: Variance-Invariance-Covariance Regularization for Self-Supervised Learning
    Опубликовано: 4 года назад
  • Как внимание стало настолько эффективным [GQA/MLA/DSA] 2 месяца назад
    Как внимание стало настолько эффективным [GQA/MLA/DSA]
    Опубликовано: 2 месяца назад
  • Что происходит с таблицей Менделеева на ячейке 137? 13 дней назад
    Что происходит с таблицей Менделеева на ячейке 137?
    Опубликовано: 13 дней назад
  • ЧИЧВАРКИН: 1 день назад
    ЧИЧВАРКИН: "Ящик Пандоры открыт". Что творится в Кремле, КАК ДАЛЬШЕ, ПЕРЕГОВОРЫ с Путиным, БИЗНЕС
    Опубликовано: 1 день назад
  • Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией 1 год назад
    Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией
    Опубликовано: 1 год назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5