У нас вы можете посмотреть бесплатно الجزء السابع و العشرون- الحلقة التوليدية الكاملة في GPT: Autoregressive Generation من Prompt إلى نص или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
في هذا الفيديو نُغلق دائرة التوليد في نماذج GPT عبر بناء الحلقة التوليدية الكاملة (Autoregressive Loop) التي تحول النموذج من شبكة صامتة إلى مولّد نص فعلي. محاور الفيديو الأساسية: تحويل الـ Prompt النصي إلى تمثيل رقمي (Normalization → Tokenization → IDs). إدخال النص إلى نموذج GPT بنمط Decoder-Only. تنفيذ حلقة Autoregressive: تمرير السياق الحالي إلى النموذج. استخراج Logits لآخر موضع. اختيار الـ Token التالي باستخدام: Temperature Top-K Top-P Greedy vs Sampling إضافة الـ Token الجديد إلى السياق وإعادة التغذية (Feedback Loop). شروط التوقف: الوصول إلى EOS تجاوز الطول الأقصى. فك الترميز النهائي من Tokens إلى نص مفهوم. مقارنة عملية: توليد احتمالي (Sampling) → تنوّع وإبداع. توليد حتمي (Greedy) → ثبات وتكرار. الخلاصة: هذا الفيديو يوضح أن GPT لا يولّد النص دفعة واحدة، بل يبني الجملة كلمةً كلمة عبر سلسلة قرارات احتمالية دقيقة، حيث يصبح كل Token هو السياق للذي يليه. بهذا الجزء تكتمل رحلة بناء GPT من الصفر: من المعادلة إلى النص المتولد فعليًا.