• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

شرح الترانسفورمر في الذكاء الاصطناعي | Transformer | Attention is all you need | скачать в хорошем качестве

شرح الترانسفورمر في الذكاء الاصطناعي | Transformer | Attention is all you need | 3 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
شرح الترانسفورمر في الذكاء الاصطناعي | Transformer | Attention is all you need |
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: شرح الترانسفورمر في الذكاء الاصطناعي | Transformer | Attention is all you need | в качестве 4k

У нас вы можете посмотреть бесплатно شرح الترانسفورمر في الذكاء الاصطناعي | Transformer | Attention is all you need | или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон شرح الترانسفورمر في الذكاء الاصطناعي | Transformer | Attention is all you need | в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



شرح الترانسفورمر في الذكاء الاصطناعي | Transformer | Attention is all you need |

الشبكات العصبية غير الترتيبة هي احدث الشبكات العصبية التي احدثت ثورة في مجال التعلم العميق و الذكاء الاصطناعي و هي الاساس التي بنيت عليه اغلب نماذج اللغات الضخمة مثل GTP-3 and Bert. Attention is all you need Paper Abstract: The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder. The best-performing models also connect the encoder and decoder through an attention mechanism. We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely. Experiments on two machine translation tasks show these models to be superior in quality while being more parallelizable and requiring significantly less time to train. Our model achieves 28.4 BLEU on the WMT 2014 English to-German translation task, improving over the existing best results, including ensembles, by over 2 BLEU. On the WMT 2014 English-to-French translation task, our model establishes a new single-model state-of-the-art BLEU score of 41.8 after training for 3.5 days on eight GPUs, a small fraction of the training costs of the best models from the literature. We show that the Transformer generalizes well to other tasks by applying it successfully to English constituency parsing both with large and limited training data. الانتباه هو كل ما تحتاجه نبذة مختصرة عن الورقة: نماذج الربط ذات سقف محدود في كلا طرفي الربط مثل الترجمة بين لغتين (عدد الكلمات في كل لغة محدود) تعتمد على شبكات طي او ارتجاعية معقدة و تقوم على معمارية تتضمن مُرمز و فاك الترميز, افضل هذه الشبكات أداءً تقوم ايضاً على ربط المُرمّز مع فاك الترميز بميكانيكية الانتباه. في هذه الورقة نقدم معمارية جديد بسيطة للشبكات العصبية الاصطناعية نطلق عليها اسم الشبكات العصبونية الاصطناعية غير الترتيبة او المحولات, التي تقوم على مبداً ميكانيكية الانتباه بشكل حصري متخلية عن مبداً الطي و الارتجاع بشكل كامل. التجارب التي قمنا بها على مسألتين للترجمة الآلية اظهرت ان هذه النماذج الجديدة قدمت نتائج افضل مع امكانية برمجتها باستخدام المعالجة المتوازية مما يقلل من الوقت التي تحتاجه للتدريب. حققت خوارزميتنا نتيجة ٢٨.٤ بلو على مسألة الترجمة من الانكليزي للالماني دبليو ام اي ٢٠١٤, هذا تقدم بمقدار ٢ بلو. و على مسألة الترجمة من الانكليزي للفرنسي دبليو أم تي ٢٠١٤, حققت خوارزميتنا افضل نتيجة على الاطلاق ٤١.٨ بلو بعد ان قمنا بتدريبها لمدة ٣.٥ ايام على ثماني وحدات معالجة الرسوميات, وهو مدة اقصر بكثير مما يتطلبه افضل الخوازرميات المتوافرة حالياً. نُثبت ايضاً في هذه الورقة ان الشبكات الاصطناعية غير الترتيبة او المحولات لديها قدرة جيدة جداً على التعميم لمهام و مسائل اخرى غير الترجمة مثل التحليل النحوي للغة الانكليزية باستخدام بيانات كبيرة و صغيرة للتدريب #transformers #الذكاء_الاصطناعي #ai #nlp #العربية #gpt3 للتواصل LinkedIn:   / zjoukhadar   Twitter:   / zjoukhadar  

Comments
  • شرح شامل لآلية الانتباه في الترانسفورمر | Attention Mechanism in Transformer 9 месяцев назад
    شرح شامل لآلية الانتباه في الترانسفورمر | Attention Mechanism in Transformer
    Опубликовано: 9 месяцев назад
  • LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры 1 год назад
    LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры
    Опубликовано: 1 год назад
  • Transformers | attention is all you need
    Transformers | attention is all you need
    Опубликовано:
  • Transformers and Attention in Details | شرح بالتفصيل 1 год назад
    Transformers and Attention in Details | شرح بالتفصيل
    Опубликовано: 1 год назад
  • تقنية الرؤية باستخدام المحول : Vision Transformer  | د.محمد سمارة | 2 года назад
    تقنية الرؤية باستخدام المحول : Vision Transformer | د.محمد سمارة |
    Опубликовано: 2 года назад
  • Transformers for Computer Vision
    Transformers for Computer Vision
    Опубликовано:
  • Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение 1 год назад
    Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение
    Опубликовано: 1 год назад
  • Зачем банки это делают? Мы приближаемся к красной зоне риска || Дмитрий Потапенко* 20 часов назад
    Зачем банки это делают? Мы приближаемся к красной зоне риска || Дмитрий Потапенко*
    Опубликовано: 20 часов назад
  • Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности 3 месяца назад
    Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности
    Опубликовано: 3 месяца назад
  • شرح 3 года назад
    شرح "تدريب" الشبكات العصبية الاصطناعية
    Опубликовано: 3 года назад
  • Внимание — это все, что вам нужно 7 лет назад
    Внимание — это все, что вам нужно
    Опубликовано: 7 лет назад
  • ما هو الذكاء الاصطناعي التوليدي | Generative AI 2 года назад
    ما هو الذكاء الاصطناعي التوليدي | Generative AI
    Опубликовано: 2 года назад
  • Изображение стоит 16x16 слов: Трансформеры для масштабного распознавания изображений (с пояснения... 5 лет назад
    Изображение стоит 16x16 слов: Трансформеры для масштабного распознавания изображений (с пояснения...
    Опубликовано: 5 лет назад
  • Let's build GPT: from scratch, in code, spelled out. 2 года назад
    Let's build GPT: from scratch, in code, spelled out.
    Опубликовано: 2 года назад
  • Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и... 2 года назад
    Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и...
    Опубликовано: 2 года назад
  • ЛУЧШАЯ БЕСПЛАТНАЯ НЕЙРОСЕТЬ Google, которой нет аналогов 1 день назад
    ЛУЧШАЯ БЕСПЛАТНАЯ НЕЙРОСЕТЬ Google, которой нет аналогов
    Опубликовано: 1 день назад
  • Introduction to Vision Transformer (ViT) | An image is worth 16x16 words | Computer Vision Series 4 месяца назад
    Introduction to Vision Transformer (ViT) | An image is worth 16x16 words | Computer Vision Series
    Опубликовано: 4 месяца назад
  • Математика, лежащая в основе Attention: матрицы ключей, запросов и значений 2 года назад
    Математика, лежащая в основе Attention: матрицы ключей, запросов и значений
    Опубликовано: 2 года назад
  • Трансформеры и самовосприятие (DL 19) 3 года назад
    Трансформеры и самовосприятие (DL 19)
    Опубликовано: 3 года назад
  • شرح شامل لنماذج الانتشار في الذكاء الاصطناعي التوليدي | Diffusion Models 1 год назад
    شرح شامل لنماذج الانتشار في الذكاء الاصطناعي التوليدي | Diffusion Models
    Опубликовано: 1 год назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5