• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Privacy Backdoors: Stealing Data with Corrupted Pretrained Models (Paper Explained) скачать в хорошем качестве

Privacy Backdoors: Stealing Data with Corrupted Pretrained Models (Paper Explained) 1 год назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Privacy Backdoors: Stealing Data with Corrupted Pretrained Models (Paper Explained)
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Privacy Backdoors: Stealing Data with Corrupted Pretrained Models (Paper Explained) в качестве 4k

У нас вы можете посмотреть бесплатно Privacy Backdoors: Stealing Data with Corrupted Pretrained Models (Paper Explained) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Privacy Backdoors: Stealing Data with Corrupted Pretrained Models (Paper Explained) в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Privacy Backdoors: Stealing Data with Corrupted Pretrained Models (Paper Explained)

#llm #privacy #finetuning Can you tamper with a base model in such a way that it will exactly remember its fine-tuning data? This paper presents a method of doing exactly that, and implements it in modern transformers. OUTLINE: 0:00 - Intro & Overview 10:50 -Core idea: single-use data traps 44:30 - Backdoors in transformer models 58:00 - Additional numerical tricks 1:00:35 - Experimental results & conclusion Paper: https://arxiv.org/abs/2404.00473 Code: https://github.com/ShanglunFengatETHZ... Abstract: Practitioners commonly download pretrained machine learning models from open repositories and finetune them to fit specific applications. We show that this practice introduces a new risk of privacy backdoors. By tampering with a pretrained model's weights, an attacker can fully compromise the privacy of the finetuning data. We show how to build privacy backdoors for a variety of models, including transformers, which enable an attacker to reconstruct individual finetuning samples, with a guaranteed success! We further show that backdoored models allow for tight privacy attacks on models trained with differential privacy (DP). The common optimistic practice of training DP models with loose privacy guarantees is thus insecure if the model is not trusted. Overall, our work highlights a crucial and overlooked supply chain attack on machine learning privacy. Authors: Shanglun Feng, Florian Tramèr Links: Homepage: https://ykilcher.com Merch: https://ykilcher.com/merch YouTube:    / yannickilcher   Twitter:   / ykilcher   Discord: https://ykilcher.com/discord LinkedIn:   / ykilcher   If you want to support me, the best thing to do is to share out the content :) If you want to support me financially (completely optional and voluntary, but a lot of people have asked for this): SubscribeStar: https://www.subscribestar.com/yannick... Patreon:   / yannickilcher   Bitcoin (BTC): bc1q49lsw3q325tr58ygf8sudx2dqfguclvngvy2cq Ethereum (ETH): 0x7ad3513E3B8f66799f507Aa7874b1B0eBC7F85e2 Litecoin (LTC): LQW2TRyKYetVC8WjFkhpPhtpbDM4Vw7r9m Monero (XMR): 4ACL8AGrEo5hAir8A9CeVrW8pEauWvnp1WnSDZxW7tziCDLhZAGsgzhRQABDnFy8yuM9fWJDviJPHKRjV4FWt19CJZN9D4n

Comments
  • Safety Alignment Should be Made More Than Just a Few Tokens Deep (Paper Explained) 1 год назад
    Safety Alignment Should be Made More Than Just a Few Tokens Deep (Paper Explained)
    Опубликовано: 1 год назад
  • RWKV: Reinventing RNNs for the Transformer Era (Paper Explained) 2 года назад
    RWKV: Reinventing RNNs for the Transformer Era (Paper Explained)
    Опубликовано: 2 года назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Mixtral of Experts (Paper Explained) 2 года назад
    Mixtral of Experts (Paper Explained)
    Опубликовано: 2 года назад
  • Physics-Informed AI Series | Scale-consistent Learning with Neural Operators 1 год назад
    Physics-Informed AI Series | Scale-consistent Learning with Neural Operators
    Опубликовано: 1 год назад
  • Efficient Streaming Language Models with Attention Sinks (Paper Explained) 2 года назад
    Efficient Streaming Language Models with Attention Sinks (Paper Explained)
    Опубликовано: 2 года назад
  • V-JEPA: Revisiting Feature Prediction for Learning Visual Representations from Video (Explained) 2 года назад
    V-JEPA: Revisiting Feature Prediction for Learning Visual Representations from Video (Explained)
    Опубликовано: 2 года назад
  • Text Embeddings Reveal (Almost) As Much As Text 2 года назад
    Text Embeddings Reveal (Almost) As Much As Text
    Опубликовано: 2 года назад
  • Как LLM могут хранить факты | Глава 7, Глубокое обучение 1 год назад
    Как LLM могут хранить факты | Глава 7, Глубокое обучение
    Опубликовано: 1 год назад
  • JEPA - A Path Towards Autonomous Machine Intelligence (Paper Explained) 3 года назад
    JEPA - A Path Towards Autonomous Machine Intelligence (Paper Explained)
    Опубликовано: 3 года назад
  • OpenAI is Suddenly in Trouble 2 дня назад
    OpenAI is Suddenly in Trouble
    Опубликовано: 2 дня назад
  • AI can't cross this line and we don't know why. 1 год назад
    AI can't cross this line and we don't know why.
    Опубликовано: 1 год назад
  • [GRPO Explained] DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models 1 год назад
    [GRPO Explained] DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models
    Опубликовано: 1 год назад
  • Почему диффузия работает лучше, чем авторегрессия? 2 года назад
    Почему диффузия работает лучше, чем авторегрессия?
    Опубликовано: 2 года назад
  • Visualizing transformers and attention | Talk for TNG Big Tech Day '24 1 год назад
    Visualizing transformers and attention | Talk for TNG Big Tech Day '24
    Опубликовано: 1 год назад
  • TUNIT: Rethinking the Truly Unsupervised Image-to-Image Translation (Paper Explained) 5 лет назад
    TUNIT: Rethinking the Truly Unsupervised Image-to-Image Translation (Paper Explained)
    Опубликовано: 5 лет назад
  • Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention 1 год назад
    Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention
    Опубликовано: 1 год назад
  • [1hr Talk] Intro to Large Language Models 2 года назад
    [1hr Talk] Intro to Large Language Models
    Опубликовано: 2 года назад
  • ORPO: Monolithic Preference Optimization without Reference Model (Paper Explained) 1 год назад
    ORPO: Monolithic Preference Optimization without Reference Model (Paper Explained)
    Опубликовано: 1 год назад
  • Stanford CS229 I Machine Learning I Building Large Language Models (LLMs) 1 год назад
    Stanford CS229 I Machine Learning I Building Large Language Models (LLMs)
    Опубликовано: 1 год назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5