У нас вы можете посмотреть бесплатно 🏗️ Escalando a lo bestia con Kubernetes y KEDA | Jorge Turrado | 🎙️ Podcast desarrollo software или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
El tráfico impredecible es la pesadilla de todo negocio online, provocando errores 408 y 429 y servidores KO. Pero, ¿y si te dijéramos que puedes escalar tu aplicación a lo bestia, solo cuando lo necesites, y sin desperdiciar dinero en recursos ociosos cuando no hay tráfico? En este vídeo, hablamos con Jorge Turrado (Principal SRE en Lidl, con más de 110 millones de usuarios, y Mantenedor principal de KEDA) para desvelar la herramienta clave para el autoescalado inteligente en el ecosistema Cloud Native con Kubernetes (k8s): KEDA (Kubernetes Event-driven Autoscaling). Descubre por qué el escalado tradicional por CPU es demasiado lento y reactivo para las cargas asíncronas. Analizamos cómo KEDA extiende las capacidades del HPA (Horizontal Pod Autoscaler) de Kubernetes para que puedas escalar de manera ★PROACTIVA★ basándote en eventos, colas de mensajes (Kafka, Service Bus), bases de datos o muchos otros eventos externos. Aprenderás: Qué es Kubernetes y por qué su sistema de autoescalado por CPU y memoria y no es suficiente. Qué es KEDA y por qué se ha convertido en el estándar de facto para el escalado en Kubernetes. Cómo funciona el autoescalado basado en eventos (no solo CPU o RAM). Qué es el "Scale to Zero" y cuando puede usarse para optimizar drásticamente los costes en la nube y garantizar la resiliencia de tus aplicaciones. El impacto real en los costes de la nube al optimizar el uso de tus pods. Consejos y trucos internos de un mantenedor de KEDA para no caer en errores comunes. Además, compartimos buenas prácticas de desarrollo que todo programador debe aplicar para que su código funcione correctamente en entornos efímeros y de alta escalabilidad . Si eres desarrollador, DevOps, SRE o responsable de IT, en este vídeo te interesa. ¿Qué te parece? ¡Cuéntanos en los comentarios tu peor historia de caída de servidor! 👇 RECURSOS Y ENLACES MENCIONADOS: ¿Qué diferencia hay entre Docker (Contenedores) y Máquinas virtuales?: https://www.campusmvp.es/recursos/pos... El caso de Amazon migrando a un monolito (el original ha desaparecido pero apuntamos a Web Archive: Scaling up the Prime Video audio/video monitoring service and reducing costs by 90%: https://web.archive.org/web/202407191... SECCIONES DE LA CONVERSACIÓN: 00:00:00 Introducción: El problema de la escalabilidad y el autoescalado 00:00:58 Presentación de Jorge Turrado, SRE y mantenedor de KEDA 00:01:43 Definición de SRE y la escala de Lidl International Hub 00:05:07 ¿Qué es la Cloud Native Computing Foundation (CNCF)? 00:07:45 Kubernetes: el orquestador que le falta a Docker 00:17:27 Los dos tipos de autoescalado nativo de Kubernetes (HPA y Cluster Autoscaler) 00:24:56 El problema de escalar solo por CPU en aplicaciones asíncronas: KEDA 00:37:23 KEDA: la optimización de costes con el escalado a cero (Scale to Zero) 00:41:47 Buenas prácticas de desarrollo para entornos autoescalados 00:48:45 Arquitecturas: ¿Monolitos o Microservicios para empezar? 00:57:19 Habilidades críticas (técnicas y blandas) para un desarrollador en la nube 01:02:21 El futuro del autoescalado predictivo y la IA 01:05:14 Conclusiones y despedida