ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Balancing the Budget: Feature Selection and Tracking for Multi-Camera Visual-Inertial Odometry

Автор: Oxford Dynamic Robot Systems Group

Загружено: 2021-09-14

Просмотров: 1853

Описание: Lintong Zhang, David Wisth, Marco Camurri, Maurice Fallon

Paper(ArXiv:): https://arxiv.org/abs/2109.05975
(IEEE): https://ieeexplore.ieee.org/document/...

The paper has been accepted for IEEE RA-L/ICRA 2022

The multi-camera IMU Lidar dataset can be found at https://ori-drs.github.io/newer-colle...

Abstract
We present a multi-camera visual-inertial odometry system based on factor graph optimization which estimates motion by using all cameras simultaneously while retaining a fixed overall feature budget. We focus on motion tracking in challenging environments, such as narrow corridors, dark spaces with aggressive motions, and abrupt lighting changes. These scenarios cause traditional monocular or stereo odometry to fail. While tracking motion with extra cameras should theoretically
prevent failures, it leads to additional complexity and computational burden. To overcome these challenges, we introduce two novel methods to improve multi-camera feature tracking. First, instead of tracking features separately in each camera, we track features continuously as they move from one camera to another. This increases accuracy and achieves a more compact factor graph representation. Second, we select a fixed budget of tracked features across the cameras to reduce back-end optimization time. We have found that using a smaller set of informative features can maintain the same tracking accuracy. Our proposed method was extensively tested using a hardware-synchronized device consisting of an IMU and four cameras (a front stereo pair and two lateral) in scenarios including: an underground mine, large open spaces, and building interiors with narrow stairs and corridors. Compared to stereo-only state-of-the-art visual-inertial odometry methods, our approach reduces the drift rate, relative pose error, by up to 80 % in translation and 39% in rotation.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Balancing the Budget: Feature Selection and Tracking for Multi-Camera Visual-Inertial Odometry

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Deep IMU Bias Inference for Robust Visual-Inertial Odometry With Factor Graphs

Deep IMU Bias Inference for Robust Visual-Inertial Odometry With Factor Graphs

Так из чего же состоят электроны? Самые последние данные

Так из чего же состоят электроны? Самые последние данные

DM-VIO: Визуально-инерциальная одометрия с отложенной маргинализацией [Код онлайн]

DM-VIO: Визуально-инерциальная одометрия с отложенной маргинализацией [Код онлайн]

Запуск нейросетей локально. Генерируем - ВСЁ

Запуск нейросетей локально. Генерируем - ВСЁ

Эффект Джанибекова [Veritasium]

Эффект Джанибекова [Veritasium]

The Internet, Reinvented.

The Internet, Reinvented.

Честно про аддитивные технологии.

Честно про аддитивные технологии.

Unified Multi-Modal Landmark Tracking for Tightly Coupled Lidar-Visual-Inertial Odometry

Unified Multi-Modal Landmark Tracking for Tightly Coupled Lidar-Visual-Inertial Odometry

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Healing Frequencies for Focus & Calm | 432Hz + 528Hz + 852Hz | 4K Video

Healing Frequencies for Focus & Calm | 432Hz + 528Hz + 852Hz | 4K Video

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Building an LED SUPERNOVA!

Building an LED SUPERNOVA!

Sensor Showcase | Depth Cameras

Sensor Showcase | Depth Cameras

[2022,IROS]Towards Robust Visual-Inertial Odometry with Multiple Non-Overlapping Monocular Cameras

[2022,IROS]Towards Robust Visual-Inertial Odometry with Multiple Non-Overlapping Monocular Cameras

Мир AI-агентов уже наступил. Что меняется прямо сейчас

Мир AI-агентов уже наступил. Что меняется прямо сейчас

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

InstaLoc: One-shot Global Lidar Localisation in Indoor Environments through Instance Learning

InstaLoc: One-shot Global Lidar Localisation in Indoor Environments through Instance Learning

Tracking objects across multiple Cameras with Metropolis Microservices

Tracking objects across multiple Cameras with Metropolis Microservices

RNIN-VIO: Robust neural inertial navigation aided visual inertial odometry in challenging scenes

RNIN-VIO: Robust neural inertial navigation aided visual inertial odometry in challenging scenes

Intel RealSense D435I vs D455 Range and Accuracy Comparison

Intel RealSense D435I vs D455 Range and Accuracy Comparison

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]