У нас вы можете посмотреть бесплатно Дэвид Вилар — Beyond the 55: Масштабирование многоязычия с помощью TranslateGemma или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Как создать модель перевода, превосходящую базовые модели вдвое большего размера? Присоединяйтесь к региональному сообществу Cohere Labs в Африке на эксклюзивной сессии с Дэвидом Виларом, научным сотрудником Google DeepMind и руководителем недавно опубликованного технического отчета по TranslateGemma. TranslateGemma представляет собой прорыв в области открытого машинного перевода, преобразуя «интуицию» моделей Gemini в эффективную архитектуру, способную обрабатывать более 500 языковых пар. На этой сессии мы заглянем «за кулисы», чтобы обсудить: Двухэтапный конвейер: как сочетание высококачественных синтетических данных (SFT) и обучения с подкреплением (RL) с использованием ансамблевых моделей вознаграждения (MetricX-QE и AutoMQM) повышает производительность. Мультимодальное влияние: почему улучшения в текстовом переводе приводят к значительному росту в переводе изображений (бенчмарк Vistra). Суверенитет с ограниченными ресурсами: последствия для африканских языков и роль таких наборов данных, как SMOL и GATITOS, в преодолении языкового барьера. Независимо от того, являетесь ли вы исследователем, инженером или сторонником инклюзивного ИИ, этот подробный анализ предоставит практические рекомендации по будущему массовой многоязычной оценки и моделирования. Дэвид Вилар Торрес — научный сотрудник Google DeepMind и ведущий эксперт по тому, как большие языковые модели (LLM) обрабатывают языки мира. Ключевая роль в Gemini и DeepMind Архитектор Gemini: Он является ключевым участником технических отчетов Gemini 2.5 и 1.5, в частности, возглавляет работу над многоязычными возможностями и качеством перевода. Центральная роль: Он является основным связующим звеном между «традиционным» машинным переводом и современным генеративным ИИ. В DeepMind он обеспечивает, чтобы Gemini была не просто моделью, ориентированной на английский язык, а демонстрировала высокую точность и обоснованность на более чем 100 языках. Исследования, оказывающие значительное влияние: Недавно он впервые применил LLM-модели для генерации высококачественных синтетических обучающих данных (например, набор данных NewsPaLM MBR), что помогает Gemini самосовершенствоваться, не полагаясь на некачественные данные, полученные путем веб-сканирования. Краткие карьерные достижения Ветеран отрасли: Занимается исследованиями в области машинного перевода с 2003 года. Google (2020–настоящее время): Перешел из команды Google Translate в DeepMind, чтобы возглавить «многоязычное направление» проекта Gemini. Amazon (AWS): Соавтор Sockeye, фреймворка с открытым исходным кодом, на котором работает Amazon Translate. Академическое образование: Имеет докторскую степень Рейнско-Вестфальского технического университета Аахена и является одним из наиболее цитируемых исследователей в области метрик перевода. Эта сессия организована сообществом Cohere Labs Open Science Community — пространством, где исследователи в области машинного обучения, инженеры, лингвисты, социологи и люди, стремящиеся к непрерывному обучению, общаются и сотрудничают друг с другом. Мы хотели бы выразить особую благодарность Като Стивену Мубиру и Бронсону Бакунге, руководителям нашей георегиональной группы по Африке, за их самоотверженную работу по организации этого мероприятия. Если вы заинтересованы в том, чтобы поделиться своей работой, мы приглашаем вас присоединиться к нам! Просто заполните форму по адресу https://forms.gle/ALND9i6KouEEpCnz6, чтобы выразить свою заинтересованность в выступлении в качестве спикера. Присоединяйтесь к сообществу Cohere Labs Open Science Community, чтобы увидеть полный список предстоящих мероприятий (https://tinyurl.com/CohereLabsCommuni....