У нас вы можете посмотреть бесплатно Evaluando LLMs – ¿Qué son las "evals" en IA? или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
¿Te has preguntado cómo se evalúan las aplicaciones de IA impulsadas por Modelos de Lenguaje Large (LLMs)? En este video, exploramos los métodos clave que están dando forma al futuro de la tecnología. Desde reglas predefinidas hasta evaluación humana, pasando por similitud de vectores y LLMs como jueces, descubrirás cómo se mide el rendimiento de las aplicaciones de IA más avanzadas. Video sobre embeddings: • La magia del Machine Learning: Embeddings Playlist de LLMs: • Large Language Models Video de prompt engineering: • Prompt Engineering | Interactuando con Mod... Video sobre RAG: • MEJORES y BARATOS: Cómo es que RAG está re... Repositorio: https://feregri.no/uk-blogs-rag APÓYAME: Únete al canal y disfruta de beneficios: / @feregri_no Cómprame un cafecito: https://www.buymeacoffee.com/feregrino SOCIALES: / feregri_no / feregri_no https://twitch.com/feregri_no / feregri_no https://github.com/fferegrino https://kaggle.com/ioexception https://feregri.no TIMESTAMPS 00:00:00 Introducción 00:07:40 ¿Por qué evaluar? 00:19:48 Requisitos 00:27:35 ¿Cómo evaluar? 00:28:35 Evaluación basada en reglas 00:40:30 Usando métricas de ML 00:46:31 Métricas estadísticas 01:00:14 Similitud de vectores 01:07:38 LLM como juez 01:16:56 Human-in-the-loop 01:20:19 La escala de las evaluaciones 01:23:31 El ciclo de evaluación 01:2926 Demo de automatización con pytest 01:36:48 En qué momento evaluar 01:39:53 Despedida