У нас вы можете посмотреть бесплатно 💥 Instala OLLAMA en WSL y Kali Linux. IA local para Laboratorio de Hacking Ético. EP8 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
¡Domina el hacking ético con Inteligencia Artificial! En este tutorial te enseño a instalar y configurar Ollama en Windows y Kali Linux, una herramienta para ejecutar modelos de IA open source. Descubre cómo instalar un modelo de inteligencia artificial de código abierto sobre Ollama y úsalo para generar payloads de ataque dirigidos a la red VLAN30, donde están tus máquinas vulnerables como DVWA, WebGoat y bWAPP. Este laboratorio, gestionado con Proxmox y pfSense, incluye subredes como VLAN1 para administración, VLAN10 con servicios modernos y VLAN20 con Active Directory. Ideal para pentesting ético, red teaming y simulación de ataques. Aprenderás a usar Ollama paso a paso, integrarlo en un entorno seguro y potenciar tus habilidades en ciberseguridad ofensiva. Perfecto para generar payloads personalizados y probar defensas en un entorno controlado. Próximos videos explorarán más herramientas de IA como Cortex y TheHive. 🔒 ¿Qué vas a aprender? 00:58 - Introducción al problema: generar payloads con IA sin GPU en Kali Linux 01:22 - Arquitectura del laboratorio ético: VLAN30, Proxmox, Kali y máquinas vulnerables 02:44 - Instalación de Ollama en Kali Linux dentro de un entorno virtual, paso a paso 04:45 - Opciones en la nube: Google Cloud, AWS, Azure, Salad.io y sus limitaciones 05:27 - Decisión de usar una PC local con GPU para correr modelos de IA 07:05 - Instalación de Ollama dentro de un Windows Subsystem for Linux en Windows, paso a paso 09:39 - Instalación de un modelo de Inteligencia Artificial Open Source en Ollama 14:57 - Comandos esenciales de Ollama para iniciar modelos y verificar GPU 17:15 - Pruebas locales con modelos: generar payloads personalizados con prompts 18:14 - Automatización básica con Python: consumir la API REST de Ollama 19:31 - Campaña de los 5000 likes y llamado a la comunidad 💡 Nota: Este contenido es solo para fines educativos y éticos. Úsalo en entornos autorizados y legales. 👍 Si te apasiona la ciberseguridad, dale like, suscríbete y comparte este video. Deja tus comentarios con sugerencias, ¡y juntos lideraremos el aprendizaje en español sobre IA y hacking ético! 🔔 Activa la campanita para no perderte más. 📌 Apoya el canal: Este video representa muchas de horas de investigación, configuración y producción. Todo el conocimiento compartido aquí es para fortalecer la postura de seguridad de individuos y organizaciones. ¿Te está ayudando este contenido? ¡Invítame un café para seguir creando tutoriales! ☕ https://buymeacoffee.com/fezathreatblock ¡Gracias por tu apoyo! #ciberseguridad #ollama #fezathreatblock #wsl #kali