У нас вы можете посмотреть бесплатно LLM-y dla sceptyków - co możesz z tego wziąć? - Jakub Mrugalski или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Czy sztuczna inteligencja zastąpi programistów? Jakub Mrugalski obala mity o LLM, tłumaczy jak AI może przesunąć granice efektywności pracy i wspierać, a nie zastępować ludzi. Poznaj praktyczne przykłady wdrożeń, które zmieniają codzienną pracę i dowiedz się, jak zacząć korzystać z baz wektorowych i fine tuningu! ➡️ Infoshare Katowice 2025 to największa konferencja technologiczna na Śląsku, gdzie biznes spotyka się z najnowszymi technologiami – poznaj innowacyjne narzędzia, weź udział w warsztatach i posłuchaj ekspertów z branży. Dołącz do ponad 1000 uczestników, buduj trwałe relacje biznesowe i rozwijaj się dzięki prelekcjom liderów IT, startupów i marketingu. 📅 24-25.11 2025 - MCK Katowice 🔗 Info: https://katowice.infoshare.pl/ 🤖 Podsumowanie AI Główne tematy i wnioski z wykładu: Dlaczego wielu programistów jest sceptycznych wobec AI • LLM często popełniają błędy, są wolniejsze niż tradycyjny kod i czasem „gadają bzdury” • To naturalne i wynika z ich konstrukcji oraz zastosowań testowych • AI nie zastępuje kodu, lecz może przesuwać tzw. "granicę Zdzisława" – czyli miejsca, gdzie potrzebna jest ludzka inteligencja, automatyzując pewne powtarzalne zadania Przykłady zastosowań AI w praktyce • Automatyzacja pracy nietechnicznych pracowników, usprawnienie procesów takich jak kategoryzacja ticketów, obsługa klienta • Moderacja treści – AI rozpoznaje kontekst i intencję wypowiedzi, miejsce gdzie tradycyjne regexy zawodzą • Zaawansowane wyszukiwanie informacji z wykorzystaniem baz wektorowych i wektoryzacji treści • Wykrywanie anomalii i automatyzacja decyzji na podstawie danych historycznych i fine tuningu modeli Jak radzić sobie z wyzwaniami AI • Halucynacje LLM – czyli generowanie nieprawdziwych informacji – zdarzają się, ale można je ograniczyć przez kontrolę danych wejściowych i dynamiczne dopasowanie promptów (np. RAG – retrieval augmented generation) • Wykorzystanie fine tuningu do uczenia modelu na własnych danych, co pozwala kopiować doświadczenie i styl pracy • Odpowiednie budowanie promptów i pozwolenie modelowi na „rozwiązywanie problemów krok po kroku” zwiększa poprawność wyników Praktyczne wskazówki dla programistów i firm: • Zacznij od usprawniania wewnętrznych procesów, nie od razu od customer-facing AI • Postaw na wspomaganie pracowników, np. z automatycznych draftów odpowiedzi, które zatwierdza człowiek • Nie bój się nowych technologii, mimo że mogą wydawać się „magiczne” i trudne do wytłumaczenia • Korzystaj z gotowych narzędzi, takich jak OpenAI Moderation API – darmowe i efektywne rozwiązanie do szybkiej moderacji treści • Rozważ wykorzystanie lokalnych modeli AI, jeśli chcesz uniknąć chmury i dbać o prywatność danych Jeśli chcesz zacząć wdrażać AI u siebie, skup się na: Identyfikacji zadań powtarzalnych i czasochłonnych – automatyzuj je, by uwolnić ludzi do bardziej kreatywnej pracy Łączeniu AI z ludzkim nadzorem – modeli używaj jako narzędzi wsparcia, nie zastępstwa Eksperymentowaniu z bazami wektorowymi i prompt engineeringiem, by uzyskać najlepsze wyniki Korzystaniu z dostępnych API do moderacji i klasyfikacji treści, aby szybko i tanio usprawnić swoje systemy 🤖 Koniec podsumowania 🔽 Obserwuj nas! WWW: https://infoshare.pl/ Linkedin: / infoshare-pl Facebook: / infosharepl Instagram: / infoshare Nie zapomnij polubić, skomentować i zasubskrybować, aby otrzymywać więcej wartościowych treści! #Infoshare