• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Understanding Oversmoothing in Graph Neural Networks (GNNs): Insights from Two Theoretical Studies скачать в хорошем качестве

Understanding Oversmoothing in Graph Neural Networks (GNNs): Insights from Two Theoretical Studies 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Understanding Oversmoothing in Graph Neural Networks (GNNs): Insights from Two Theoretical Studies
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Understanding Oversmoothing in Graph Neural Networks (GNNs): Insights from Two Theoretical Studies в качестве 4k

У нас вы можете посмотреть бесплатно Understanding Oversmoothing in Graph Neural Networks (GNNs): Insights from Two Theoretical Studies или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Understanding Oversmoothing in Graph Neural Networks (GNNs): Insights from Two Theoretical Studies в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Understanding Oversmoothing in Graph Neural Networks (GNNs): Insights from Two Theoretical Studies

A Google TechTalk, presented by Xinyi Wu, 2024-01-18 A Google Algorithm Seminar. ABSTRACT: Oversmoothing in Graph Neural Networks (GNNs) refers to the phenomenon where increasing network depth leads to homogeneous node representations. Over the last few years, it has remained as one of the central challenges of building more powerful Graph Neural Networks (GNNs). In this talk, I will discuss two recent papers on this phenomenon and provide some new insights. The first work studies why oversmoothing happens at a relatively shallow depth in GNNs. By carefully analyzing the oversmoothing mechanisms in a stylized formulation, we distinguish between adverse mixing that homogenizes nodes across different classes and beneficial denoising within the same class. We quantify these two effects on random graphs sampled from the Contextual Stochastic Block Model (CSBM) and show that oversmoothing occurs once the mixing effect starts to dominate the denoising effect. We establish that the number of layers required for this transition is O(logN/log(logN)) for sufficiently dense graphs with N nodes. We also extend our analysis to study the effects of Personalized PageRank (PPR), or equivalently, the effects of initial residual connections on oversmoothing, and shed light on when and why they might not be an ideal solution to the problem. In the second work, we study oversmoothing in attention-based GNNs, such as Graph Attention Networks (GATs) and transformers. Treating attention-based GNNs as dynamical systems, our study demonstrates that the graph attention mechanism cannot prevent oversmoothing and loses expressive power exponentially. From a technical point of view, the proposed framework significantly extends the existing results on oversmoothing, and can account for asymmetric, state-dependent and time-varying aggregation operators and a wide range of common nonlinear activation functions, such as ReLU, LeakyReLU, GELU and SiLU. The talk is based on the following papers: https://arxiv.org/abs/2212.10701, https://arxiv.org/abs/2305.16102. Joint works with Amir Ajorlou (MIT), Zhengdao Chen (NYU/Google), William Wang (MIT), Zihui Wu (Caltech) and Ali Jadbabaie (MIT). ABOUT THE SPEAKER: Xinyi Wu is a fourth-year Ph.D. student in the Institute for Data, Systems, and Society (IDSS) at Massachusetts Institute of Technology (MIT), advised by Professor Ali Jadbabaie. She is affiliated with the Laboratory for Information and Decision Systems (LIDS). She is a recipient of the MIT Michael Hammer Fellowship. She is interested in applied graph theory, dynamical systems, networks, and machine learning on graphs. Her work on oversmoothing in GNNs has been awarded as Spotlight paper in NeurIPS 2023.

Comments
  • Понимание графовых сетей внимания 4 года назад
    Понимание графовых сетей внимания
    Опубликовано: 4 года назад
  • Differentially Private Synthetic Data without Training 1 месяц назад
    Differentially Private Synthetic Data without Training
    Опубликовано: 1 месяц назад
  • Графовые сверточные сети (GCN) стали проще 5 лет назад
    Графовые сверточные сети (GCN) стали проще
    Опубликовано: 5 лет назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Сборник 8 марта | Уральские пельмени 6 дней назад
    Сборник 8 марта | Уральские пельмени
    Опубликовано: 6 дней назад
  • Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир? 12 дней назад
    Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?
    Опубликовано: 12 дней назад
  • Как Сделать Настольный ЭЛЕКТРОЭРОЗИОННЫЙ Станок? 2 месяца назад
    Как Сделать Настольный ЭЛЕКТРОЭРОЗИОННЫЙ Станок?
    Опубликовано: 2 месяца назад
  • Что происходит с малым бизнесом в регионах? Дефицит бюджета. Зарплаты бюджетников урежут? Зубаревич Трансляция закончилась 3 дня назад
    Что происходит с малым бизнесом в регионах? Дефицит бюджета. Зарплаты бюджетников урежут? Зубаревич
    Опубликовано: Трансляция закончилась 3 дня назад
  • ПРЕДЕЛЫ ИНТЕЛЛЕКТА! ДЕВОЧКА СО СВЕРХЪЕСТЕСТВЕННЫМИ СИЛАМИ! Чудо-ребёнок. Лучшие Фильмы Триллеры 11 месяцев назад
    ПРЕДЕЛЫ ИНТЕЛЛЕКТА! ДЕВОЧКА СО СВЕРХЪЕСТЕСТВЕННЫМИ СИЛАМИ! Чудо-ребёнок. Лучшие Фильмы Триллеры
    Опубликовано: 11 месяцев назад
  • Владимир Жириновский дал прогноз по ситуации с Ираном 6 лет назад
    Владимир Жириновский дал прогноз по ситуации с Ираном
    Опубликовано: 6 лет назад
  • Разведчик о том, как использовать людей 9 месяцев назад
    Разведчик о том, как использовать людей
    Опубликовано: 9 месяцев назад
  • Кремль готовится к штурму / Переброска элитных подразделений 18 часов назад
    Кремль готовится к штурму / Переброска элитных подразделений
    Опубликовано: 18 часов назад
  • Травматолог №1: Суставы в 40, будут как в 20! Главное внедрите эти простые привычки 2 месяца назад
    Травматолог №1: Суставы в 40, будут как в 20! Главное внедрите эти простые привычки
    Опубликовано: 2 месяца назад
  • Свет никогда не «летит»: открытие, которое разрушает всё, что вы думали о реальности 2 дня назад
    Свет никогда не «летит»: открытие, которое разрушает всё, что вы думали о реальности
    Опубликовано: 2 дня назад
  • Графовые сверточные сети (GCN): с точки зрения CNN 2 года назад
    Графовые сверточные сети (GCN): с точки зрения CNN
    Опубликовано: 2 года назад
  • Савватеев разоблачает фокусы Земскова 1 месяц назад
    Савватеев разоблачает фокусы Земскова
    Опубликовано: 1 месяц назад
  • Graph Neural Networks: A gentle introduction 3 года назад
    Graph Neural Networks: A gentle introduction
    Опубликовано: 3 года назад
  • Но что такое нейронная сеть? | Глава 1. Глубокое обучение 8 лет назад
    Но что такое нейронная сеть? | Глава 1. Глубокое обучение
    Опубликовано: 8 лет назад
  • АВСТРАЛИЯ — КОНТИНЕНТ, КОТОРЫЙ НЕНАВИДИТ ЛЮДЕЙ | 95% ПУСТОТЫ 13 дней назад
    АВСТРАЛИЯ — КОНТИНЕНТ, КОТОРЫЙ НЕНАВИДИТ ЛЮДЕЙ | 95% ПУСТОТЫ
    Опубликовано: 13 дней назад
  • Раскрытие потенциала передачи сообщений: изучение GraphSAGE, GCN и GAT | GNN GraphML 3 года назад
    Раскрытие потенциала передачи сообщений: изучение GraphSAGE, GCN и GAT | GNN GraphML
    Опубликовано: 3 года назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5