• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Neurosymbolic AI and the Shortcomings of LLMs: Jacob Andra and Stephen Karafiath скачать в хорошем качестве

Neurosymbolic AI and the Shortcomings of LLMs: Jacob Andra and Stephen Karafiath 3 месяца назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Neurosymbolic AI and the Shortcomings of LLMs: Jacob Andra and Stephen Karafiath
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Neurosymbolic AI and the Shortcomings of LLMs: Jacob Andra and Stephen Karafiath в качестве 4k

У нас вы можете посмотреть бесплатно Neurosymbolic AI and the Shortcomings of LLMs: Jacob Andra and Stephen Karafiath или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Neurosymbolic AI and the Shortcomings of LLMs: Jacob Andra and Stephen Karafiath в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Neurosymbolic AI and the Shortcomings of LLMs: Jacob Andra and Stephen Karafiath

Large language models have captured headlines, but they represent only a fraction of what AI can accomplish. In this episode of The Applied AI Podcast, Talbot West co-founders Jacob Andra and Stephen Karafiath explore the fundamental limitations of LLMs and why neurosymbolic AI offers a more robust path forward for enterprise applications. The conversation starts with a counterintuitive observation: LLMs sometimes display remarkable contextual awareness, like when ChatGPT proactively noticed specific tile flooring in a photo's background and offered unsolicited cleaning advice. These moments suggest genuine intelligence. But as Jacob and Stephen explain, push these systems harder and the cracks appear. The hosts examine specific failure modes that emerge when deploying LLMs at scale. Jacob documents persistent formatting errors where models swing between extremes—overusing lists, then refusing to use them at all, even when instructions explicitly define appropriate use cases. These aren't random glitches. They reveal systematic overcorrection behaviors where LLMs bounce off guardrails rather than operating within defined bounds. More troubling are the logical inconsistencies. When working with large corpuses of information, LLMs demonstrate what Jacob calls cognitive fallacies—errors that mirror human reasoning failures but stem from different causes. The models cannot maintain complex instructions across extended tasks. They hallucinate citations, fabricate data, and contradict themselves when context windows stretch too far. Even the latest reasoning models cannot eliminate certain habits, like the infamous em-dash overuse, no matter how explicitly you prompt against it. Stephen introduces the deny-affirm construction as another persistent pattern: "It's not X, it's Y" formulations that plague AI-generated content. Tell the model to avoid this construction and watch it appear anyway, sometimes in the very next paragraph. These aren't bugs to be patched. They're symptoms of fundamental architectural limitations. The solution lies in neurosymbolic AI, which combines neural networks with symbolic reasoning systems. Jacob and Stephen use an extended biological analogy: LLMs are like organisms without skeletons. A paramecium works fine at microscopic scale, but try to build something elephant-sized from the same squishy architecture and it collapses under its own weight. The skeleton—knowledge graphs, structured data, formal logic—provides the rigid structure necessary for complex reasoning at scale. This matters for enterprise deployment. Creative tasks can tolerate hallucinations and imprecision. A whale-sized LLM works fine in the ocean of creative writing. But data analysis, compliance work, and mission-critical decision support require structured reasoning that current LLMs cannot deliver alone. Move that whale onto land and watch it fail. The good news: we can use LLMs to build better symbolic structures. They excel at helping create taxonomies and knowledge graphs when properly constrained. Human experts remain irreplaceable for validation and oversight, but AI can accelerate the construction of the scaffolding that will eventually support more capable hybrid systems. Jacob shares insights from his ongoing research documenting comprehensive error categories across LLM implementations. Stephen explains why the scaling laws that drove exponential improvements have plateaued. We're now seeing incremental gains rather than the dramatic leaps that characterized the transformer era. AGI remains distant, possibly requiring multiple paradigm shifts as significant as the transformer architecture itself. This plateau is actually welcome. Enterprises have a decade of valuable work implementing current technology before the next major breakthrough arrives. The rush to AGI has distracted from the practical value available right now through careful architecture that acknowledges both the strengths and limitations of available tools. Learn more about neurosymbolic approaches: https://talbotwest.com/ai-insights/wh... About the hosts: Jacob Andra is CEO of Talbot West. He pushes the limits of what AI can accomplish in high-stakes use cases and publishes extensively on AI, enterprise transformation, and policy, covering topics including explainability, responsible AI, and systems integration. Stephen Karafiath is SVP of Solutions Architecture at Talbot West, where he architects and deploys AI solutions that bridge the gap between theoretical capabilities and practical business outcomes. His work focuses on identifying the specific failure modes of AI systems and developing robust approaches to enterprise implementation. About Talbot West: Talbot West delivers Fortune 500-level AI consulting and implementation to midmarket and enterprise organizations.

Comments
  • «Нет искусственного интеллекта без нейросимволического ИИ» — статья Гэри Маркуса. 1 год назад
    «Нет искусственного интеллекта без нейросимволического ИИ» — статья Гэри Маркуса.
    Опубликовано: 1 год назад
  • Richard Sutton – Father of RL thinks LLMs are a dead end 4 месяца назад
    Richard Sutton – Father of RL thinks LLMs are a dead end
    Опубликовано: 4 месяца назад
  • Why Do AI Initiatives Fail? Cydni Tetro & Jacob Andra On Failure Modes for Digital Transformation 3 дня назад
    Why Do AI Initiatives Fail? Cydni Tetro & Jacob Andra On Failure Modes for Digital Transformation
    Опубликовано: 3 дня назад
  • What Is Agentic AI? What is Neurosymbolic AI? Jacob Andra Discusses With Dr. Alexandra Pasi 3 месяца назад
    What Is Agentic AI? What is Neurosymbolic AI? Jacob Andra Discusses With Dr. Alexandra Pasi
    Опубликовано: 3 месяца назад
  • ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию? 2 месяца назад
    ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?
    Опубликовано: 2 месяца назад
  • The Hardest Challenge in Neurosymbolic AI: Symbol Grounding 4 месяца назад
    The Hardest Challenge in Neurosymbolic AI: Symbol Grounding
    Опубликовано: 4 месяца назад
  • WTF is a Hierarchical Reasoning Model (HRM)? | #FaikFiles Podcast 38.2 5 месяцев назад
    WTF is a Hierarchical Reasoning Model (HRM)? | #FaikFiles Podcast 38.2
    Опубликовано: 5 месяцев назад
  • AI in M&A, and Introducing BizForesight: Jacob Andra Interviews AM&AA Chair Bill McCalpin 5 месяцев назад
    AI in M&A, and Introducing BizForesight: Jacob Andra Interviews AM&AA Chair Bill McCalpin
    Опубликовано: 5 месяцев назад
  • Learning, Reasoning, and Planning with Neuro-Symbolic Concepts–Jiayuan Mao (MIT) 9 месяцев назад
    Learning, Reasoning, and Planning with Neuro-Symbolic Concepts–Jiayuan Mao (MIT)
    Опубликовано: 9 месяцев назад
  • Может ли у ИИ появиться сознание? — Семихатов, Анохин 4 недели назад
    Может ли у ИИ появиться сознание? — Семихатов, Анохин
    Опубликовано: 4 недели назад
  • The Best Machine Learning Model, Lumawarp, Rocks the TabArena Test: Jacob Andra & Dr. Alexandra Pasi 1 месяц назад
    The Best Machine Learning Model, Lumawarp, Rocks the TabArena Test: Jacob Andra & Dr. Alexandra Pasi
    Опубликовано: 1 месяц назад
  • Илон Маск /22.01.26/ Всемирный экономический форум 2026. 2 недели назад
    Илон Маск /22.01.26/ Всемирный экономический форум 2026.
    Опубликовано: 2 недели назад
  • ChatGPT продает ваши чаты, Anthropic создает цифровых существ, а Маск как всегда… 5 дней назад
    ChatGPT продает ваши чаты, Anthropic создает цифровых существ, а Маск как всегда…
    Опубликовано: 5 дней назад
  • Foundations of Neurosymbolic AI 6 месяцев назад
    Foundations of Neurosymbolic AI
    Опубликовано: 6 месяцев назад
  • The Future of AI is Neurosymbolic 2 года назад
    The Future of AI is Neurosymbolic
    Опубликовано: 2 года назад
  • Hierarchical Reasoning Model: Substance or Hype? 4 месяца назад
    Hierarchical Reasoning Model: Substance or Hype?
    Опубликовано: 4 месяца назад
  • Почему Ядерная война уже началась (А вы не заметили) 6 дней назад
    Почему Ядерная война уже началась (А вы не заметили)
    Опубликовано: 6 дней назад
  • Илья Семериков: когда ты молодой ученый в России // «Богатырёва о цифре» 6 месяцев назад
    Илья Семериков: когда ты молодой ученый в России // «Богатырёва о цифре»
    Опубликовано: 6 месяцев назад
  • 1 год назад
    "Neurosymbolic AI: Evolution and Current state of affairs" by Luis C. Lamb
    Опубликовано: 1 год назад
  • Самая сложная модель из тех, что мы реально понимаем 1 месяц назад
    Самая сложная модель из тех, что мы реально понимаем
    Опубликовано: 1 месяц назад

Контактный email для правообладателей: u2beadvert@gmail.com © 2017 - 2026

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5