У нас вы можете посмотреть бесплатно Yapay Zeka Nasıl Çalışır? | Bölüm 2 - Normalization, Positional Embedding ve Attention Mekanizması или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Serimizin ikinci bölümüne hoş geldiniz! İlk videoda LLaMA 3 8B modelinin genel mimarisine giriş yapmış, tokenizer ve embedding süreçlerini ele almıştık. Bu bölümde ise artık modelin kalbine doğru ilerliyoruz: Attention mekanizması ve onu besleyen temel yapılar. 🧠 Büyük dil modellerinin (LLM) temelinde yatan self-attention yapısı, bu modellerin "anlam" üretmesini sağlayan en kritik bileşenlerden biri. Bu videoda, bu yapıyı tüm katmanlarıyla birlikte detaylıca inceliyoruz. 🎯 Bu bölümde neler anlattım? a) Attention katmanına giriş b) Query, Key ve Value matrislerinin ne işe yarar? c) Matris çarpımı ile benzerlik skoru hesaplama mantığı nedir? d) Softmax fonksiyonunun burada neden kullanılır? e) RMS Normalization nedir? f) Rotary Positional Embedding kavramı nedir? 🎥 Teknik detaylara sadık kalarak ve diyagramlarla destekleyerek ilerledim; bu sayede LLM'lerin nasıl çalıştığını sadece yüzeysel değil, gerçek matematiksel temelleriyle öğrenebileceksiniz. Eğer amacınız yapay zekayı kullanmaktan öte, onun nasıl çalıştığını anlamaksa — bu video tam size göre. 📺 Serinin önceki bölümünü izlemediyseniz, ilk videodan başlamanızı öneririm: [ilk video linki buraya] 👍 Bu tarz içeriklerin daha fazla gelmesi için videoyu beğenmeyi, yorum yapmayı ve paylaşmayı unutmayalım. Aynı zamanda bana destek olmak için kanala abone olabilirsiniz. Serinin devamında MLP yapıları, residual bağlantılar, çıkış katmanı gibi konularla yolculuğumuz sürecek.