У нас вы можете посмотреть бесплатно Ottimizzazione e Machine Learning или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Questa conferenza dal titolo “Ottimizzazione e Machine Learning” è la quarta del ciclo di cinque seminari su “Intelligenza artificiale e computer che apprendono”, organizzato nell’ambito delle attività di Public Engagement del Dipartimento di Ingegneria Gestionale, dell’Informazione e della Produzione dell’Università degli Studi di Bergamo in collaborazione con Centro MatNet-CQIA dell’Università di Bergamo e Mathesis Bergamo APS. Francesca Maggioni è Professore Associato di Ricerca Operativa presso il Dipartimento di Ingegneria Gestionale, dell'Informazione e della Produzione (DIGIP) dell'Università degli Studi di Bergamo e direttrice del gruppo di ricerca MatNet-CQIIA. I suoi interessi di ricerca riguardano aspetti sia metodologici che applicativi per l'ottimizzazione in condizioni di incertezza. Lo scopo di questa conferenza è di analizzare gli algoritmi matematici che stanno alla base dell’apprendimento dei computer, in particolare quelli associati ai problemi di classificazione. L’intelligenza artificiale ha avuto un’esplosione in questi ultimi anni grazie alla concomitanza di tre aspetti fondamentali: la disponibilità di una vasta mole di dati, siamo nella cosiddetta era dei “Big Data”, lo sviluppo tecnologico di calcolatori sempre più performanti e lo sviluppo dei metodi computazionali, statistici e di ottimizzazione sempre più avanzati. Il modello classico di descrizione della realtà fino a pochi anni fa era basato sul modello galileiano, ovvero: 1) osservazione di un fenomeno fisico, 2) determinazione del modello, 3) confronto tra modello e risultato ed eventuale0 modifica del modello fino a quando il suo risultato corrisponda con il fenomeno in questione. Con l’avvento dell’intelligenza artificiale e machine learning durante gli anni 60 del XX secolo, è nato un nuovo paradigma di apprendimento in cui vengono forniti in input al calcolatore una vasta mole di dati con i corrispondenti risultati (le cosiddette etichette). L’obiettivo è quello di apprendere un modello che commetta il più piccolo errore possibile. La prof.ssa Maggioni descrive le tre principali metodologie di apprendimento: Nell’apprendimento supervisionato i dati forniti sono etichettati; quindi, la macchina sa cosa rappresenta ciascun di essi, se l’etichetta è di tipo intero si parla di classificazione, se di tipo continuo si parla di regressione. Se i dati non sono etichettati, quindi la macchina non sa cosa rappresentano i dati, si parla di apprendimento non supervisionato, infine si parla di apprendimento con rinforzo quando al sistema vengono associate delle penalizzazioni qualora effettui delle operazioni sbagliate, oppure dei rinforzi positivi nel caso di operazioni corrette. La prof.ssa Maggioni prosegue la sua conferenza entrando nel dettaglio e mostrando un esempio di un problema di classificazione e l’algoritmo delle macchine a vettori di supporto: l’algoritmo si traduce nel determinare un iperpiano che separi al meglio i gruppi di dati e quindi classificare al meglio i valori. Questo equivale a risolvere un problema di ottimizzazione vincolata. Se le due classi sono separate senza errori di classificazione si parla di HARD MARGIN SUPPORT VECTOR MACHINE; nella realtà è difficile avere una classificazione così netta per cui si parla di SOFT MARGIN SUPPORT VECTOR MACHINE. Altri modelli utilizzati per risolvere problemi di classificazione sono gli alberi decisionali. Tramite partizioni ricorsive, questo metodo è molto più semplice da interpretare, rispetto al precedente e per questo è quello più utilizzato soprattutto a livello medico per risolvere ad esempio problemi di “triage”. La conferenza si conclude con l’analisi di algoritmi di ottimizzazione per il machine learning, introducendo i concetti di gradiente e gradiente stocastico e mostrando i vantaggi computazionali associati. 21 aprile 2023