У нас вы можете посмотреть бесплатно Paolo Benanti – L’INTELLIGENZA ARTIFICIALE NON È NEUTRA: l’errore morale che stiamo già pagando или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
👉 Grandi divulgatori, format ed eventi d’eccellenza per aziende/enti/teatri: https://rebelchange.it/ --- 🧠 DESCRIZIONE Paolo Benanti è un teologo francescano, ingegnere elettronico ed esperto di etica delle tecnologie. È docente alla Pontificia Università Gregoriana, consulente della Santa Sede sui temi dell’intelligenza artificiale e membro di commissioni internazionali su tecnologia, bioetica e governance digitale. Da anni lavora sul rapporto tra innovazione tecnologica, responsabilità umana ed etica, con particolare attenzione all’impatto sociale dell’IA. In questa intervista intensa e senza sconti, Benanti affronta uno dei nodi più delicati del nostro tempo: il modo in cui stiamo delegando alle macchine decisioni, linguaggio e fiducia senza aver prima costruito le regole per proteggerci. Il punto centrale è chiaro e disturbante: non è la macchina il problema, siamo noi. Stiamo facendo domande sbagliate allo strumento sbagliato, attribuendo intenzioni, coscienza e perfino autorità morale a sistemi che non possiedono alcuna esperienza del mondo. Benanti spiega perché i Large Language Model come ChatGPT non sono “intelligenze”, ma sistemi statistici sofisticati, e perché il vero rischio nasce quando una società fragile confonde output coerente con comprensione, risposta fluida con verità. Questo intervento è fondamentale oggi perché l’IA è già nelle tasche di tutti, integrata negli smartphone, nei motori di ricerca, nelle decisioni quotidiane. Senza “caschi di protezione” culturali ed etici, il rischio non è fantascientifico: è antropologico e sociale. 🎯 A chi è rivolto il video A chi usa ChatGPT e strumenti di IA ogni giorno A genitori, educatori, formatori A professionisti e decisori pubblici A chi vuole capire l’IA oltre hype e propaganda 📌 Cosa imparerai concretamente Perché l’IA non ha intenzioni, fini, valori Perché attribuire umanità alle macchine è un errore cognitivo Cosa significa davvero “etica dell’intelligenza artificiale” Perché servono regole, limiti e responsabilità umane Qual è il rischio reale per giovani e società impreparate ❓ Domande chiave affrontate Possiamo fidarci di una macchina che non capisce? Chi è responsabile quando un sistema automatizzato fa danni? L’IA può influenzare emotivamente gli esseri umani? È giusto delegare scelte vitali a un algoritmo? Quale umanità vogliamo costruire con queste tecnologie? 💥 Idee messe in discussione “L’IA è oggettiva e neutrale” “Se funziona, va bene così” “Il progresso non si può fermare” “Basta la tecnica, l’etica viene dopo” 👉 Qui l’IA non viene demonizzata né idolatrata. Viene finalmente capita. ⏱️ CAPITOLI / TIMESTAMP 00:00 – ChatGPT e la morte: la domanda sbagliata allo strumento sbagliato 01:40 – Perché il problema non è la macchina, ma l’essere umano 03:10 – IA ≠ conoscenza: confondere statistica e sapere 04:20 – L’illusione della mente nella macchina 05:30 – Antropomorfismo e fragilità cognitive umane 06:50 – Il rischio emotivo: quando ci affezioniamo ai chatbot 08:30 – Perché servono “caschi” etici per l’IA 10:00 – IA ovunque: smartphone, linguaggio, decisioni 12:00 – Tecnologia senza regole: un esperimento sociale globale 14:30 – Delegare alle macchine: una scelta già fatta 17:00 – Etica, responsabilità e limiti dell’automazione 19:00 – Che tipo di umanità vogliamo diventare?