У нас вы можете посмотреть бесплатно GenAI for Application Developers | Part 16 |Deep Dive into Model Context Protocol (MCP) или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
00:00 - Introduction: The Problem with AI Integrations 02:20 - The "Pre-MCP" Nightmare: The NxM Integration Matrix 06:33 - What is MCP? (The "USB-C" Analogy) 08:28 - High-Level Architecture: Abstracting Backends 12:24 - Core Components: Host, Client, and Server 15:00 - Interaction Model: Stdio vs Server-Sent Events (SSE) 18:22 - Phase 0: Discovery Protocol (tools/list) 23:05 - Phase 1: Invocation Protocol (tools/call) 27:26 - End-to-End Lifecycle: From Startup to Tool Execution 29:43 - Architecture Rule: Why MCP Servers Must Be Thin Wrappers 32:45 - Code Walkthrough: Building a Python MCP Server 36:50 - implementing the Tool Dispatcher Pattern 41:00 - Connecting Clients: Configuring mcp.json for Claude/Cursor 46:05 - Remote Architecture: Using SSE for Distributed Systems 49:00 - Deep Dive: Building a Custom AI Client ("Phoenix Desktop") 54:39 - How LLMs Decide to Call Tools (Schema Injection) 59:24 - Decision Matrix: When to use Stdio vs. SSE? 1:03:02 - Conclusion & Key Takeaways