У нас вы можете посмотреть бесплатно الجزء الثامن و العشرون- Greedy vs Sampling في GPT-2 | كيف يختار النموذج الكلمة التالية؟ или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
في هذا الفيديو ننتقل من النموذج التعليمي إلى GPT-2 الحقيقي من Hugging Face، ونشرح عمليًا كيف تتم عملية اختيار الـ Token التالي أثناء التوليد. نركّز على مقارنة أهم استراتيجيات التوليد المستخدمة في نماذج اللغة: Greedy Decoding: اختيار الكلمة ذات الاحتمال الأعلى دائمًا Top-K Sampling: التوليد من أعلى K احتمالات فقط Top-P (Nucleus Sampling): التوليد من أصغر مجموعة تحقق مجموع احتمالات معين Temperature Sampling: التحكم في حدة أو عشوائية التوزيع Random Sampling: التوليد المباشر من التوزيع الاحتمالي يتم تنفيذ كل ذلك باستخدام Tokenizer وModel حقيقيين من GPT-2 لرؤية الفرق الفعلي بين كل تقنية، وكيف يؤثر أسلوب الاختيار على النص الناتج. هذا الفيديو يوضح بوضوح أن التوليد في نماذج GPT ليس خطوة واحدة، بل قرار احتمالي محسوب بدقة يحدد سلوك النموذج وجودة المخرجات. 📌 فيديو أساسي لفهم: لماذا Greedy ليس كافيًا متى نستخدم Sampling كيف نتحكم في الإبداع مقابل الدقة