У нас вы можете посмотреть бесплатно 🤖 Roberto Navigli | Le macchine capiscono il linguaggio? Passato, presente e futuro dei LLM или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
🤖 Roberto Navigli | Le macchine capiscono il linguaggio? Passato, presente e futuro dei Large Language Model In questa conferenza tenuta presso l’**Accademia Nazionale dei Lincei**, il Professor *Roberto Navigli* (Sapienza Università di Roma) ci guida in un affascinante excursus sull’evoluzione dell’Intelligenza Artificiale applicata al linguaggio. Dalle prime intuizioni pionieristiche del 1949 fino all'esplosione dei *Large Language Model (LLM)* come ChatGPT e il progetto italiano **Minerva**, l'intervento analizza come le macchine elaborano i testi e, soprattutto, affronta la domanda cruciale: le macchine "capiscono" davvero ciò che scrivono?. *I temi principali della conferenza istituzionale* *Dalle origini a Eliza:* Il percorso parte dal memorandum di Warren Weaver sulla traduzione automatica (1949) e dal Test di Turing, passando per **Eliza (1966)**, il primo chatbot che emulava la conversazione umana senza alcuna reale comprensione. *La svolta statistica:* L'era dei modelli a *N-grammi* e della probabilità, dove il linguaggio veniva trattato come un codice da decifrare basandosi sulla frequenza delle parole. *La rivoluzione neurale e i Transformers:* L'introduzione dei *Word Embedding* (2013) e l'arrivo del *Transformer* (2017) con il rivoluzionario meccanismo dell'**Attenzione**, che permette alle macchine di contestualizzare il significato delle parole. *Il progetto Minerva:* La genesi del primo LLM pre-addestrato da zero in lingua italiana presso la Sapienza, nato per garantire indipendenza tecnologica e preservare l'identità culturale del nostro Paese. *Limiti e "Pappagalli Stocastici":* L'analisi critica sulla reale semantica dei modelli: perché le macchine falliscono ancora nel senso comune, nell'ironia e nella comprensione dei significati meno frequenti (la "lunga coda"). *Etica e Futuro:* Le sfide aperte su sicurezza, sostenibilità energetica (il consumo delle centrali nucleari), diritto d'autore e modelli del mondo. --- 🕒 Sommario del seminario [00:00:00] Introduzione [00:01:28] Storia e origini dell'IA [00:05:32] Dai modelli statistici alle reti neurali [00:15:42] La rivoluzione del Transformer e dell'Attenzione [00:22:42] Come si crea un Large Language Model (LLM) [00:25:24] Modelli aperti vs chiusi: sicurezza e sovranità [00:28:29] Progetto Minerva: l'LLM per la cultura italiana [00:33:58] I limiti dei modelli: senso comune e semantica [00:40:18] Sfide future: etica, copyright e sostenibilità --- 📌 Hashtag: #RobertoNavigli #IntelligenzaArtificiale #LLM #Minerva #NLP #AccademiaLincei #ChatGPT #Innovazione #Sapienza #Tecnologia