У нас вы можете посмотреть бесплатно LF Live Webinar: Building High-Performance Object Storage Architecture for AI Workloads или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
AI is driving fundamental change in global infrastructure and application architecture. New data center racks, cooling options, and networking requirements are being driven by each new generation of NVIDIA and AMD GPUs. Beyond these infrastructure changes, fundamental changes are needed in Cloud storage to unblock AI developers looking to train, tune, and infer new AI models. In this session, learn a new Cloud storage architecture for high-performance object storage to support new Ai training and inference workloads on Kubernetes-based GPU clusters, including: Leveraging Ceph as the backbone for Kubernetes-based workloads How to set-up Storage Gateways to connect GPU clusters to high-performance object storage Configuring Cloud storage to support both training and inference needs