У нас вы можете посмотреть бесплатно AutoGen Core Explicado: La Arquitectura Real para Agentes que Escalan или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
AutoGen Core no es simplemente otra librería para crear agentes con LLMs. Es una arquitectura diseñada desde cero para resolver el mayor problema de los sistemas multi-agente modernos: la escalabilidad real. Patreon 👉 / autogen-core-la-149461875 ¿Regalame un Café?: https://ko-fi.com/ivespino Curso de Python desde cero 2023: • 👉 Curso de Python Gratis desde Cero 2025 🐍... ✈ Unete a nuestra comunidad de Telegram: https://t.me/+F9c-RdxQYRk4YTdh 💎Únete a nuestra comunidad de Discord: / discord 📥Correo de Contacto: ivespinops@gmail.com En este video construimos paso a paso un sistema multi-agente funcional usando AutoGen Core, la base arquitectónica del ecosistema AutoGen de Microsoft. Empezamos desde lo más simple —un solo agente recibiendo y respondiendo mensajes— y terminamos con un sistema donde múltiples agentes, usando distintos modelos de lenguaje, se coordinan automáticamente sin orquestación manual externa 🤯 El punto clave de AutoGen Core es algo que muchos tutoriales pasan por alto: la separación estricta entre la lógica del agente y la infraestructura de comunicación. En lugar de acoplar los agentes al entorno donde corren, AutoGen introduce el concepto de Runtime, responsable de entregar mensajes, manejar el ciclo de vida de los agentes y coordinar la ejecución. A lo largo del video entenderás: • Qué es AutoGen Core y por qué existe • Por qué separar agentes y runtime cambia completamente la escalabilidad • Cómo funciona el SingleThreadedAgentRuntime para desarrollo local • Cómo definir tus propios tipos de mensajes como contratos explícitos • Cómo crear agentes con handlers tipados y rutas de mensajes • Cómo integrar modelos LLM reales usando AgentChat como delegados • Cómo hacer que los agentes se comuniquen entre ellos sin control externo • Cómo construir un agente orquestador que coordina a otros agentes • Cómo usar distintos LLMs en un mismo sistema (OpenAI + modelos locales) • Por qué esta arquitectura está pensada para sistemas distribuidos con gRPC Como ejemplo práctico, construimos un sistema de piedra, papel o tijera donde: 🎮 Dos agentes jugadores eligen su jugada usando modelos distintos ⚖️ Un agente juez coordina la interacción y decide el ganador 🧠 Todo el flujo ocurre automáticamente a través del runtime 🔁 Un solo mensaje inicial desencadena toda la coordinación Este ejemplo, aunque simple, demuestra el verdadero poder de AutoGen Core: los agentes no solo reaccionan, sino que pueden iniciar conversaciones, coordinar tareas y construir flujos complejos sin lógica externa. Lo más importante es que todo el código que escribimos está diseñado para escalar. Los agentes que construyes con AutoGen Core no dependen de si están corriendo en tu laptop o en un clúster distribuido. El día que necesites escalar a múltiples máquinas, el código de los agentes no cambia. Solo cambia el runtime 🚀 Este video es la base conceptual y técnica para entender cómo funcionan los sistemas multi-agente modernos a nivel de arquitectura. En el siguiente paso, llevaremos estos mismos agentes a un entorno distribuido usando gRPC, exactamente como fue diseñado AutoGen Core. Si estás construyendo agentes avanzados, sistemas autónomos, pipelines con LLMs o arquitecturas distribuidas, este video es una pieza clave que necesitas entender.