У нас вы можете посмотреть бесплатно [Hindi Dub] Transformers (how LLMs work) explained visually | DL5 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Breaking down how Large Language Models work Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support --- Here are a few other relevant resources Build a GPT from scratch, by Andrej Karpathy • Let's build GPT: from scratch, in cod... If you want a conceptual understanding of language models from the ground up, @vcubingx just started a short series of videos on the topic: • What does it mean for computers to un... If you're interested in the herculean task of interpreting what these large networks might actually be doing, the Transformer Circuits posts by Anthropic are great. In particular, it was only after reading one of these that I started thinking of the combination of the value and output matrices as being a combined low-rank map from the embedding space to itself, which, at least in my mind, made things much clearer than other sources. https://transformer-circuits.pub/2021... Site with exercises related to ML programming and GPTs https://www.gptandchill.ai/codingprob... History of language models by Brit Cruise, @ArtOfTheProblem • The Making of ChatGPT (35 Year History) An early paper on how directions in embedding spaces have meaning: https://arxiv.org/pdf/1301.3781.pdf Звуковая дорожка на русском языке: Влад Бурмистров. --- Timestamps 0:00 - Predict, sample, repeat 3:03 - Inside a transformer 6:36 - Chapter layout 7:20 - The premise of Deep Learning 12:27 - Word embeddings 18:25 - Embeddings beyond words 20:22 - Unembedding 22:22 - Softmax with temperature 26:03 - Up next प्रायोजित विज्ञापन पढ़ने के बजाय, ये पाठ सीधे दर्शकों द्वारा वित्तपोषित हैं: https://3b1b.co/support यहाँ कुछ अन्य प्रासंगिक संसाधन हैं "Build a GPT from scratch" - Andrej Karpathy द्वारा • Let's build GPT: from scratch, in cod... यदि आप language models की मूलभूत अवधारणा को समझना चाहते हैं, तो @vcubingx ने इस विषय पर एक लघु वीडियो श्रृंखला शुरू की है: • What does it mean for computers to un... यदि आप यह समझना चाहते हैं कि ये बड़े neural networks वास्तव में क्या कर रहे हैं, तो Transformer Circuits पर Anthropic के पोस्ट बहुत उपयोगी हैं। विशेष रूप से, इनमें से एक को पढ़ने के बाद ही मैंने value और output matrices के संयोजन को embedding space से उसी में एक संयुक्त low-rank map के रूप में देखना शुरू किया। यह दृष्टिकोण अन्य स्रोतों की तुलना में मेरे लिए अधिक स्पष्ट था। https://transformer-circuits.pub/2021... Machine Learning programming और GPTs से संबंधित अभ्यासों वाली साइट: https://www.gptandchill.ai/codingprob... Brit Cruise (@ArtOfTheProblem) द्वारा भाषा मॉडल का इतिहास: • The Making of ChatGPT (35 Year History) Embedding spaces में दिशाओं के अर्थ पर एक प्रारंभिक शोध पत्र: https://arxiv.org/pdf/1301.3781.pdf