У нас вы можете посмотреть бесплатно Pourquoi l’IA est une Menace pour l'Humanité ? (ce dont personne ne parle pas) - Maxime Fournes или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
🎙️ Les modèles d'IA sont-elles une menace existentielle ? Maxime Fournès nous partage son analyse ! Dans cet épisode, nous explorons en profondeur les risques liés à l'évolution des modèles d'IA, en compagnie de Maxime Fournès, expert en sécurité de l'intelligence artificielle et co-fondateur de Pause IA, une organisation qui milite pour une pause dans le développement des IA génératives. 💥 Une discussion cruciale sur les dangers de l'IA et leurs implications pour notre avenir. 📢 Nous abordons la course à la performance, les risques catastrophiques, la perte de contrôle possible, et les solutions envisagées. 🔗 Retrouvez-moi sur les réseaux : Newsletter IA (gratuite) : https://optimia.substack.com/ Mon podcast sur Spotify & Apple : https://podcasters.spotify.com/pod/sh... Suivez-moi sur LinkedIn : / louisgraffeuil ⏱️ Au programme de l’épisode : 00:00 Introduction 01:21 Les dangers de l'IA 02:05 Évolution de performance et des risques 04:15 Les modèles de raisonnement 11:35 Le cercle vertueux sur la performance des modèles 15:00 LLM, SLM et fine tuning 18:35 Bullshit ou pas sur la sécurité ? 26:00 Les risques catastrophiques possibles 31:19 Se protéger contre l'IA 35:45 Les modèles open-source : une bonne idée dans l'IA ? 38:01 Les risques d'autonomie de l'IA 41:25 Garder le contrôle sur l'IA 48:54 Les solutions face à une utilisation négative de l'IA 52:35 La régulation de l'IA 57:40 La nécessité de ralentir sur l'IA 1:00:25 Atteindre l'AGI 1:02:35 Le point de non-retour 1:05:10 Les lignes rouges à ne pas dépasser 1:08:15 Une mesure pour encadrer l'IA ? #ia #intelligenceartificielle #risquesIA #sécuritéIA #openAI #sécurité #deepseek