У нас вы можете посмотреть бесплатно От EBM, JEPA, V-JEPA, VL-JEPA, I-JEPA, LpJEPA, LaJEPA до самовыравнивающейся системы Kona 1.0, пу... или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Для задач с высокими ставками, где правильность не является необязательной, а неудача обходится дорого, ИИ уже недостаточно «просто генерировать ответ». От EBM, JEPA, V-JEPA, VL-JEPA, I-JEPA, LpJEPA, LaJEPA до Kona 1.0. Энергетические модели и объединенная встроенная предиктивная архитектура. Нам действительно нужны системы, которые рассуждают: системы, которые генерируют структуру, тестируют ее, пересматривают и только затем фиксируют. Этот процесс — итерация, проверка, исправление — это то, что мы подразумеваем, когда говорим о рассуждениях ИИ. Сегодня наиболее эффективные системы рассуждений — это не монолитные модели. Это агентные, составные системы, состоящие из специализированных компонентов, все скоординированные для достижения общей цели. И хотя большие языковые модели играют центральную роль — особенно в качестве интерфейсов между людьми и машинами — сами по себе они недостаточны. В Logical Intelligence мы исходим из трех основных тезисов. Во-первых: большие языковые модели принципиально ограничены в качестве механизмов рассуждений, отчасти потому, что они работают с дискретными токенами. Во-вторых: модели рассуждений на основе энергии, или EBRM, преодолевают многие из этих ограничений, оценивая частичные решения и предоставляя плотную, глобальную обратную связь. И в-третьих: масштабирование рассуждений требует объединения двух подходов — использования EBRM для самих рассуждений и LLM для координации, коммуникации и перевода на естественный язык и с естественного языка. В этом эпизоде мы рассмотрим рассуждения как адаптивное планирование, почему пошаговая генерация токенов становится неэффективной в больших масштабах и как модели на основе энергии меняют правила игры, превращая рассуждения в задачу непрерывной оптимизации, а не в процесс угадывания. Мы также углубимся в то, что разрабатывает Logical Intelligence: Kona, неавторегрессивную модель рассуждений на основе энергии, и Aleph, слой оркестровки, который координирует рассуждения, языковые модели и инструменты в единую агентную систему. Это энергетические модели для рассуждений: LLM для интерфейса, масштабирование рассуждений с помощью агентного ИИ.