• ClipSaver
  • dtub.ru
ClipSaver
Русские видео
  • Смешные видео
  • Приколы
  • Обзоры
  • Новости
  • Тесты
  • Спорт
  • Любовь
  • Музыка
  • Разное
Сейчас в тренде
  • Фейгин лайф
  • Три кота
  • Самвел адамян
  • А4 ютуб
  • скачать бит
  • гитара с нуля
Иностранные видео
  • Funny Babies
  • Funny Sports
  • Funny Animals
  • Funny Pranks
  • Funny Magic
  • Funny Vines
  • Funny Virals
  • Funny K-Pop

Efficient 3D Perception for Autonomous Vehicles Zhijian Liu MIT скачать в хорошем качестве

Efficient 3D Perception for Autonomous Vehicles Zhijian Liu MIT 2 года назад

скачать видео

скачать mp3

скачать mp4

поделиться

телефон с камерой

телефон с видео

бесплатно

загрузить,

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Efficient 3D Perception for Autonomous Vehicles   Zhijian Liu MIT
  • Поделиться ВК
  • Поделиться в ОК
  •  
  •  


Скачать видео с ютуб по ссылке или смотреть без блокировок на сайте: Efficient 3D Perception for Autonomous Vehicles Zhijian Liu MIT в качестве 4k

У нас вы можете посмотреть бесплатно Efficient 3D Perception for Autonomous Vehicles Zhijian Liu MIT или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:

  • Информация по загрузке:

Скачать mp3 с ютуба отдельным файлом. Бесплатный рингтон Efficient 3D Perception for Autonomous Vehicles Zhijian Liu MIT в формате MP3:


Если кнопки скачивания не загрузились НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу страницы.
Спасибо за использование сервиса ClipSaver.ru



Efficient 3D Perception for Autonomous Vehicles Zhijian Liu MIT

Autoware Safe Autonomy Seminar Autonomous vehicles rely on 3D perception to understand their surrounding environment. Although there has been remarkable progress in enhancing the accuracy of perception models, their efficiency still lags behind real-time performance, impeding their use in real-world applications. In this lecture, I will present our recent work, BEVFusion (ICRA 2023), which facilitates efficient multi-task multi-sensor fusion by unifying camera, LiDAR, and radar features in a shared bird's-eye view (BEV) space. We addressed an efficiency bottleneck by accelerating the key view transformation operator by 40x. BEVFusion achieved the leading solution on three popular 3D perception benchmarks, including nuScenes, Argoverse, and Waymo, across different tasks, such as object detection, object tracking, and map segmentation. It has received more than 1k GitHub stars since its release. Subsequently, I will discuss two of our latest works, FlatFormer (CVPR 2023) and SparseViT (CVPR 2023), which aim to accelerate 2D image and 3D point cloud backbones for perception. FlatFormer is an efficient point cloud transformer that attains real-time performance on edge GPUs and is faster than sparse convolutional methods while retaining superior accuracy. SparseViT explores the idea of spatial sparsity in the context of 2D image transformers and delivers a 1.5 times measured speedup compared with its dense counterpart without compromising accuracy. Zhijian Liu is a final-year Ph.D. student at MIT, advised by Professor Song Han. He received his B.Eng. degree from Shanghai Jiao Tong University in 2018. His research focuses on efficient algorithms and systems for deep learning, with applications in computer vision. His work on efficient 3D deep learning ranked first on multiple competitive 3D benchmarks, won the first place in the nuScenes LiDAR segmentation challenge, and was featured by media outlets, such as NVIDIA News and MIT News. He was selected as the recipient of Qualcomm Innovation Fellowship, NVIDIA Graduate Fellowship (declined) and MIT Ho-Ching and Han-Ching Fund Award.

Comments
  • Efficient 3D Perception for Autonomous Vehicles   Part II   Zhijian Liu MIT 2 года назад
    Efficient 3D Perception for Autonomous Vehicles Part II Zhijian Liu MIT
    Опубликовано: 2 года назад
  • Simple-BEV: What Really Matters for Multi-Sensor BEV Perception? (ICRA 2023) 2 года назад
    Simple-BEV: What Really Matters for Multi-Sensor BEV Perception? (ICRA 2023)
    Опубликовано: 2 года назад
  • Self-Driving Vehicle Sensors: Lidar, Radar, Camera 5 лет назад
    Self-Driving Vehicle Sensors: Lidar, Radar, Camera
    Опубликовано: 5 лет назад
  • Sensor Fusion for Autonomous Vehicles: Strategies, Methods, and Tradeoffs | Synopsys 4 года назад
    Sensor Fusion for Autonomous Vehicles: Strategies, Methods, and Tradeoffs | Synopsys
    Опубликовано: 4 года назад
  • Webinar 006: Advancing Autonomous Driving Safety: Insights from JARI’s Research and SAKURA Project 7 дней назад
    Webinar 006: Advancing Autonomous Driving Safety: Insights from JARI’s Research and SAKURA Project
    Опубликовано: 7 дней назад
  • Efficient 3D Perception for Autonomous Vehicles (Zhijian Liu) 2 года назад
    Efficient 3D Perception for Autonomous Vehicles (Zhijian Liu)
    Опубликовано: 2 года назад
  • Chengjie Huang 7 месяцев назад
    Chengjie Huang "End-to-end autonomous driving"
    Опубликовано: 7 месяцев назад
  • Waymo: AI in the physical world powering the future of driving 6 месяцев назад
    Waymo: AI in the physical world powering the future of driving
    Опубликовано: 6 месяцев назад
  • Zachary Teed - Optimization Inspired Neural Networks for Multiview 3D 4 года назад
    Zachary Teed - Optimization Inspired Neural Networks for Multiview 3D
    Опубликовано: 4 года назад
  • Adrien Gaidon: Self-supervised 3D vision 4 года назад
    Adrien Gaidon: Self-supervised 3D vision
    Опубликовано: 4 года назад
  • A comprehensive survey of LIDAR-based 3D object detection methods with DL for autonomous driving 4 года назад
    A comprehensive survey of LIDAR-based 3D object detection methods with DL for autonomous driving
    Опубликовано: 4 года назад
  • Tesla AI: projection from 2D predictions vs. bird's eye view (Andrej Karpathy at ScaledML, Feb 2020) 4 года назад
    Tesla AI: projection from 2D predictions vs. bird's eye view (Andrej Karpathy at ScaledML, Feb 2020)
    Опубликовано: 4 года назад
  • Sensor Fusion in Autonomous Vehicles - DRIVEN Podcast Ep. 22 1 год назад
    Sensor Fusion in Autonomous Vehicles - DRIVEN Podcast Ep. 22
    Опубликовано: 1 год назад
  • MIT Robotics - Frank Dellaert - Factor Graphs for Perception and Action 4 года назад
    MIT Robotics - Frank Dellaert - Factor Graphs for Perception and Action
    Опубликовано: 4 года назад
  • System Design for Autonomous Vehicles with Drago Anguelov - #454 4 года назад
    System Design for Autonomous Vehicles with Drago Anguelov - #454
    Опубликовано: 4 года назад
  • RI Seminar: Dieter Fox: Where's RobotGPT? 1 год назад
    RI Seminar: Dieter Fox: Where's RobotGPT?
    Опубликовано: 1 год назад
  • UNetXST | Camera to Bird's Eye View | Perception for Self Driving Cars 3 года назад
    UNetXST | Camera to Bird's Eye View | Perception for Self Driving Cars
    Опубликовано: 3 года назад
  • Camera-Lidar calibration for autonomous driving 4 года назад
    Camera-Lidar calibration for autonomous driving
    Опубликовано: 4 года назад
  • Understanding Sensor Fusion and Tracking, Part 1: What Is Sensor Fusion? 6 лет назад
    Understanding Sensor Fusion and Tracking, Part 1: What Is Sensor Fusion?
    Опубликовано: 6 лет назад
  • ML Perception - Autonomy 2.0 self-driving tutorial 4 года назад
    ML Perception - Autonomy 2.0 self-driving tutorial
    Опубликовано: 4 года назад

Контактный email для правообладателей: [email protected] © 2017 - 2025

Отказ от ответственности - Disclaimer Правообладателям - DMCA Условия использования сайта - TOS



Карта сайта 1 Карта сайта 2 Карта сайта 3 Карта сайта 4 Карта сайта 5