• ClipSaver
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Efficient LLM Inference with SGLang, Lianmin Zheng, xAI скачать в хорошем качестве

Efficient LLM Inference with SGLang, Lianmin Zheng, xAI 4 months ago

Developer Central

Dev Central

developer

developer tools

AMD

Advanced Micro Devices

LLM

SGLang

open source

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Efficient LLM Inference with SGLang, Lianmin Zheng, xAI
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Efficient LLM Inference with SGLang, Lianmin Zheng, xAI в качестве 4k

У нас вы можете посмотреть бесплатно Efficient LLM Inference with SGLang, Lianmin Zheng, xAI или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Efficient LLM Inference with SGLang, Lianmin Zheng, xAI в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Efficient LLM Inference with SGLang, Lianmin Zheng, xAI

In this Advancing AI 2024 Luminary Developer Keynote, Dr. Lianmin Zheng introduces SGLang, a high-performance serving framework optimized for inference with LLMs and vision-language models. SGLang’s core techniques include RadixAttention for improved KV cache reuse and jump-forward decoding for faster grammar-guided decoding. Additional optimizations, such as low-overhead CPU scheduling and torch native enhancements (e.g., torch.compile and torchao), further enhance efficiency. Benchmark results demonstrate that SGLang achieves superior performance compared to other state-of-the-art inference engines. As an open-source project with broad adoption, SGLang is also deployed for production serving at xAI. Speaker: Lianmin Zheng, xAI Gain access to AMD developer tools and resources. https://www.amd.com/en/developer.html... The information contained in this video represents the view of AMD or the third-party presenter as of the date presented. AMD and/or the third-party presenters have no obligation to update any forward-looking content in the above presentations. AMD is not responsible for the content of any third-party presentations and does not necessarily endorse the comments made therein. GD-84. © 2024 Advanced Micro Devices, Inc. All rights reserved. AMD, the AMD Arrow logo, EPYC, ROCm, and AMD Instinct and combinations thereof are trademarks of Advanced Micro Devices, Inc.

Comments
  • GDC 2024 - GPU Work Graphs: Welcome to the Future of GPU Programming 4 months ago
    GDC 2024 - GPU Work Graphs: Welcome to the Future of GPU Programming
    Опубликовано: 4 months ago
    308
  • Accelerating LLM Inference with vLLM (and SGLang) - Ion Stoica 2 months ago
    Accelerating LLM Inference with vLLM (and SGLang) - Ion Stoica
    Опубликовано: 2 months ago
    1943
  • vLLM: Easy, Fast, and Cheap LLM Serving, Woosuk Kwon, UC Berkeley 4 months ago
    vLLM: Easy, Fast, and Cheap LLM Serving, Woosuk Kwon, UC Berkeley
    Опубликовано: 4 months ago
    1416
  • Model Context Protocol (MCP), clearly explained (why it matters) 1 month ago
    Model Context Protocol (MCP), clearly explained (why it matters)
    Опубликовано: 1 month ago
    631377
  • RAG для чайников: делаем модель умнее за 15 минут 1 month ago
    RAG для чайников: делаем модель умнее за 15 минут
    Опубликовано: 1 month ago
    8600
  • Efficient Inference on MI300X: Our Journey at Microsoft, Rajat Monga, Microsoft, CVP AI Frameworks 4 months ago
    Efficient Inference on MI300X: Our Journey at Microsoft, Rajat Monga, Microsoft, CVP AI Frameworks
    Опубликовано: 4 months ago
    1119
  • Watch: OpenAI CEO Sam Altman, other executives give opening statements at Senate AI hearing 2 days ago
    Watch: OpenAI CEO Sam Altman, other executives give opening statements at Senate AI hearing
    Опубликовано: 2 days ago
    128404
  • наше будущее – магазины без продуктов (что придумали сети) 1 day ago
    наше будущее – магазины без продуктов (что придумали сети)
    Опубликовано: 1 day ago
    194259
  • AI Inference: The Secret to AI's Superpowers 5 months ago
    AI Inference: The Secret to AI's Superpowers
    Опубликовано: 5 months ago
    46508
  • Уход от мужа, домогательства на работе, увольнение сотрудников. Главная пара телеканала Дождь 3 hours ago
    Уход от мужа, домогательства на работе, увольнение сотрудников. Главная пара телеканала Дождь
    Опубликовано: 3 hours ago
    35298

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS