У нас вы можете посмотреть бесплатно Бывший сотрудник Google предупреждает об агентах искусственного интеллекта: реальный риск, о кото... или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Доктор Кристофер Саммерфилд, нейробиолог Оксфордского университета и директор по исследованиям Британского института безопасности искусственного интеллекта, бывший старший научный сотрудник Google DeepMind, рассказывает о своей новой книге «Эти странные новые умы», в которой исследуется, как большие языковые модели научились говорить, чем они отличаются от человеческого мозга и что означает их развитие для контроля, самостоятельности и будущего работы. Мы обсуждаем: Реальный риск ИИ — потеря контроля, а не вымирание Как агенты ИИ действуют в невидимых для человека цифровых циклах Почему агентивность может быть важнее вознаграждения Хрупкость, петли обратной связи и аналогии с внезапными сбоями Чему ИИ учит нас о человеческом интеллекте Дополнение против замены в медицине, юриспруденции и не только Почему доверие — это социальная форма агентивности, и почему люди должны оставаться в курсе событий 🎧 Слушайте другие выпуски: @TheNickStandleaShow Примечания гостя: Профессор когнитивной нейронауки 🌐 Лаборатория обработки информации человеком (Оксфорд) 🏛 Британский институт безопасности ИИ Экспериментальная психология Оксфордский университет Лаборатория обработки информации человеком (HIP) на кафедре экспериментальной психологии Оксфордского университета под руководством профессора Кристофера Саммерфилда: https://humaninformationprocessing.com/ 📘 Эти странные новые Minds (Penguin Random House): https://www.amazon.com/These-Strange-... Медиа Кристофера Саммерфилда: https://csummerfield.github.io/person... https://flightlessprofessors.org Twitter: @summerfieldlab bluesky: @summerfieldlab.bsky.social 🔗 Поддержите этот подкаст, ознакомившись с нашими спонсорами: 👉 Создайте своего собственного ИИ-агента с помощью Zapier (открывает конструктор с предустановленными подсказками): https://bit.ly/4hH5JaE Test Prep Gurus Сайт: https://www.prepgurus.com Instagram: @TestPrepGurus Присоединяйтесь к шоу Ника Стэндли: YouTube: @TheNickStandleaShow Сайт подкаста: https://nickshow.podbean.com/ Подкасты Apple: https://podcasts.apple.com/us/podcast... Spotify: https://open.spotify.com/show/0YqBBne... RSS-канал: https://feed.podbean.com/nickshow/fee... Соцсети Ника: Instagram: @nickstandlea X (Twitter): @nickstandlea TikTok: @nickstandleashow Facebook: @nickstandleapodcast Задавайте вопросы, не принимайте статус-кво, и будьте любознательны. 🕒 Тайм-коды / Главы 00:00 Начало — контроль, агентность и ИИ 00:31 Вступление гостя: Оксфорд → DeepMind → Британский институт безопасности ИИ 01:02 Реальная история «захвата» ИИ: потеря контроля 03:02 Убьёт ли нас ИИ? Объяснение проблемы контроля 06:10 Агентность как базовое психологическое благо 10:46 Фаустовская сделка: эффективность против личной агентности 13:12 Что такое агенты ИИ и почему они хрупкие? 20:12 Три группы риска: неправильное использование, ошибки, системные эффекты 24:58 Аналогии хрупкости и внезапных сбоев в системах ИИ 30:37 Действительно ли мы понимаем, как думают модели? (Трансформеры 101) 34:16 Чему ИИ учит нас о человеческом интеллекте 36:46 Мозг против нейронных сетей: сходства и различия 43:57 Телесное воплощение и почему робототехника всё ещё сложна 46:28 Дополнение против замены в работе «белых воротничков» 50:14 Доверие как социальный фактор — почему люди должны оставаться в курсе событий 52:49 Где найти Кристофера и заключительные мысли