У нас вы можете посмотреть бесплатно RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd? или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd? Tradycyjne podejście do RAG (Retrieval-Augmented Generation) w dużych modelach językowych (LLM), choć obiecujące w teorii, często zawodzi w praktyce. Sztuczne dzielenie danych na fragmenty (chunki) prowadzi do utraty kontekstu i generowania niespójnych, a nawet błędnych odpowiedzi. Ogłoszenie: Wchodzimy w erę Software 3.0 – czyli architektury systemów, w których LLM i agenci AI współdziałają z klasycznym kodem. To już nie tylko pytanie jak pisać szybciej, tylko jak projektować systemy, które myślą i działają w dynamicznym świecie użytkowników i danych. 📅 Webinar na żywo: 09 września, 19:00 (CET) 🔗 Zapisz się: https://dataworkshop.eu/webinar/softw... Kurs praktyczny LLM! Zapisz się teraz na listę chętnych i zyskaj realne umiejętności pod moim okiem. Gwarantuję: zmienisz swoje podejście do LLM! 👉 https://bit.ly/49VJXf5 Partnerem podcastu jest DataWorkshop. 🔔 Subskrybuj i włącz powiadomienia - Twoja droga do praktycznego ML zaczyna się od jednego kliknięcia: / @dataworkshop 👍 Zostaw like, bo więcej lajków = więcej praktycznych treści dla Ciebie! 💬 Co o tym myślisz? Zostaw komentarz! Masz pytanie? Zadaj je - chętnie odpowiem. 🤝 Poznajmy się lepiej! Zaproś mnie do swojej sieci na LinkedIn: / vladimiralekseichenko 🔊 Zainicjuj rozmowę o ML w firmie, polecając ten podcast. Zainspiruj zespół do wdrażania ML! Przyczyny: -- Mechaniczne dzielenie tekstu: Tradycyjne metody dzielą dane na chunki na podstawie liczby znaków, ignorując semantykę i kontekst. To prowadzi do utraty sensu i generowania chaotycznych odpowiedzi. Nadmierne poleganie na embeddingu: Choć embedding jest potężnym narzędziem, nie jest rozwiązaniem idealnym. Nadmierne poleganie na nim prowadzi do wybierania fragmentów tekstu podobnych semantycznie, ale niekoniecznie istotnych dla danego zapytania. Zaniedbanie jakości danych i struktury: Skupienie się na zaawansowanych algorytmach i bazach wektorowych odciąga uwagę od kluczowej kwestii - jakości i struktury danych. Skutki: Niska dokładność i spójność odpowiedzi: Modele LLM generują różne odpowiedzi na to samo pytanie, a użytkownicy nie mają pewności co do ich poprawności. Brak transparentności i audytowalności: Trudno jest prześledzić proces generowania odpowiedzi i zweryfikować, skąd pochodzą konkretne informacje. Wysokie koszty implementacji i utrzymania: Zastosowanie złożonych architektur i modeli zwiększa koszty, a problemy z jakością danych prowadzą do ciągłych poprawek i reindeksowania. Chcesz więcej? Zapisz się listę chętnych kursu praktyczny LLM. Naucz się krok po kroku, jak budować i wdrażać rozwiązania, które robią różnicę: 👉 https://bit.ly/49Uz51d Tagi: #ai #machinelearning #datascience #nlp #rag #llm #search #bestpractice #biznesmysli 🕒 Kluczowe momenty: 0:00 Wprowadzenie: RAG w LLM-ach 3:48 Generowanie trafnych odpowiedzi przez LLM-y 13:43 Odpowiedzialność za dane wejściowe 20:44 Problemy z mechanicznym podziałem tekstu 26:20 Osadzenie wektorowe i podobieństwo semantyczne 37:51 Alternatywne podejście do RAG 45:30 Ostrzeżenie przed nadmiernym komplikowaniem AI 53:00 Podsumowanie i alternatywne podejście 🧠 Dowiesz się: Dlaczego klasyczne podejście do RAG często zawodzi Jak LLM-y interpretują dostarczony kontekst Jakie są pułapki przy implementacji RAG Co to jest "mapa wiedzy" i jak może zrewolucjonizować AI Należy odejść od mechanicznego podejścia do RAG i skupić się na: Głębokim zrozumieniu problemu biznesowego informacje są potrzebne do rozwiązania danego problemu. Manualnym zaprojektowaniu struktury danych Użyciu embeddingu jako narzędzia pomocniczego: Embedding powinien wspierać, a nie zastępować klasyczne metody wyszukiwania. Skoncentrowaniu się na jakości i aktualności danych Korzyści: Zwiększenie dokładności i spójności odpowiedzi. Poprawa transparentności i audytowalności. Obniżenie kosztów implementacji i utrzymania. Spełnienie wymogów prawnych (GDPR, EU AI Act). Zamiast ślepo podążać za modnymi rozwiązaniami, należy skupić się na fundamentach - jakości danych, strukturze i zrozumieniu problemu biznesowego. Tylko takie podejście pozwoli wykorzystać pełen potencjał RAG i zbudować systemy oparte na LLM, które będą nie tylko efektowne, ale przede wszystkim efektywne. 🔗 Linki: https://biznesmysli.pl/rag-w-llm-dlac... 🎧 Słuchaj BM wygodnie na Spotify, Apple Podcasts lub Google Podcasts: 📌 https://open.spotify.com/show/3ZUaHom... 📌 https://podcasts.apple.com/us/podcast... 📌 • Biznes Myśli Przydatne publikacji: https://arxiv.org/pdf/2005.11401 https://arxiv.org/pdf/2407.01219 https://arxiv.org/pdf/2406.04369 https://arxiv.org/pdf/2305.14283 https://arxiv.org/pdf/2007.01282