У нас вы можете посмотреть бесплатно Jak ograniczyć ryzyko związane z halucynacjami AI или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
W drugiej części rozmowy z profesorem Michałem Karpowiczem omawiamy praktyczne konsekwencje przeprowadzonego przezeń dowodu na nieusuwalność tzw. halucynacji oraz proponowane przezeń strategie jak niwelować ryzyka z tym związane. Na marginesie rozmawiamy o twierdzeniu Goedla i jego praktycznych skutkach dla inżynierii AI oraz interpretacjach proponowanych m.in. przez Turinga i Penrose'a. Z rozmowy dowiecie się także jak można kwestionować argument "chińskiego pokoju" stawiany przez Johna Searle'a, kim był Yeshoua Bar-Hillel i na ile jego argumenty dotyczą ograniczeń dużych modeli językowych. Zastanawiamy się również czym jest emergencja i czy to pojęcie coś w ogóle wyjaśnia, jak również komentujemy perspektywy AGI w kontekście niedawnych głośnych wypowiedzi Richarda Suttona oraz publikowanych odkryć zespołu z Pathway. Gościem 13 odcinka "Limitów AI" jest prof. Michał Karpowicz, absolwent Politechniki Warszawskiej, gdzie w 2010 obronił z wyróżnieniem doktorat z informatyki, a w 2020 uzyskał habilitację z informatyki technicznej i telekomunikacji. Przez blisko 20 lat związany z Państwowym Instytutem Badawczym NASK, gdzie był kierownikiem Pionu Systemów Cyberbezpieczeństwa oraz Członkiem Rady Naukowej. Jako visiting professor dwukrotnie wykładał na Wydziale Matematyki MIT. Od czerwca 2024 szef Samsung AI Center Warsaw. Autor pierwszego na świecie matematycznego dowodu na nieeliminowalność tzw. halucynacji. ➡️ Subskrybuj nasz kanał, aby nie przegapić kolejnych inspirujących treści dla liderów przyszłości: @MITSMRpl 🔔 Czytaj najnowszy magazyn MIT: https://mitsmr.pl/m/lider-przyszlosci/ 🔔 Pobierz broszurę i dowiedz się więcej: https://www.ican.pl/subskrypcja/mit/b... #halucynacje #konfabulacje #dezinformacja #ai #llm #lrm #agi #MichałKarpowicz #IwoZmyślony #Goedel #penrose #turing #Searle #Sutton #pathway #podcast