这篇博客专门介绍一下MarkerMapper的实现原理,不了解MarkerMapper的可以先看一下我的上一篇博客:基于ArUco的视觉定位(三)。 Paper:Mapping and localization from planar markers (很重要) 这不是一篇翻译,而是博主对上述论文的总结,理解之中难免有不到位的地方,不足之处还请参看原文。 〇、MarkerMa
一、ArUco之Marker Mapper 1、Marker Mapper简介 Mapping and Localization from Planar Markers是A.V.A小组基于ArUco开发的一个利用二维码建图与定位的项目。 论文地址:Mapping and Localization from Planar Markers源码地址:https://sourceforge.net
上一篇简单介绍了ArUco的安装与使用,这一篇用ArUco来实现相机的位姿估计。 一、用单个marker实现相机的位姿估计 我们从新建一个工程做起: 第1步,创建工程目录 找个你比较常用的文件夹,在此文件夹下打开终端,运行以下命令: $ mkdir m_aruco $ cd m_aruco/ $ mkdir bin include lib src test yml $ touch CM
一、ArUco简介及安装步骤 ArUco: a minimal library for Augmented Reality applications based on OpenCV,是科尔多瓦大学“人工视觉应用”研究小组(A.V.A)设计开发的一个微型现实增强库。ArUco主要用于检测平面标记并估计相机位姿。CSDN有篇博客:ArUco----一个微型现实增强库的介绍及视觉应用 介绍的挺好
RoboWare官网:http://www.roboware.me/#/home 选择合适的版本下载,注意32位与64位之分。下载完以后先不要着急安装,为了更好地使用RoboWare Studio,我们需要事先安装两个比较常用的插件。 1、为了支持Python调试功能,需要安装pylint: $ sudo apt-get install python-pip $ sudo python
这篇博客是在学习高翔《视觉SLAM十四讲》过程中对计算机视觉的多视图几何相关知识点做的总结,个人觉得这部分内容比较难,有理解不对的地方请指正! 〇、ORB特征点 对于特征点法的SLAM来说,ORB(Oriented FAST and Rotated BRIEF)特征应该是目前最合适的特征点了。ORB与SIFT、SURF之间的性能对比如下: 计算速度:ORB >> SU
首推一篇不错的文章(文章出自高翔《视觉SLAM十四讲》中的最后一讲): 史上最全的SLAM学习资料收集 。 里面有近年来各个优秀的开源SLAM方案的项目网址和源码地址。可能高博这本书定稿的时候港科大的VINS-Mono还没有发布,个人觉得这也是一个非常优秀的SLAM方案,是视觉惯导(VO+IMU紧耦合)SLAM的成功案例。 1、前言 网上有很多ORB-SLAM的编译安装教程,我觉得大同
昨天晚上帮大四学弟在Ubuntu16.04(ROS-Kinetic)上编译ORB-SLAM2,在执行build.sh脚本时出现如下错误: 错误信息如下: Build type: Release -- Using flag -std=c++11. -- Configuring done -- Generating done -- Build files have been written
之前都是研究视觉SLAM,却从来没有做过激光SLAM。实验室没有激光雷达,就用Gazebo做个仿真玩一下。博主这里用的是Ubuntu18.04+ROS Melodic,Gazebo是9.0.0版本。 1、一些准备工作 1.1 关于Gazebo的使用 使用Gazebo之前最好先从官方下载好模型文件,然后按照如下命令安装: $ unzip osrf-gazebo_models-e6d645
一、Anaconda与Virtualenv 更新一波 1、如果不想自动进入Anaconda的环境,可以通过命令$ conda config --set auto_activate_base false来设置,如果要进入Anaconda环境就运行$ conda activate,退出运行$ conda deactivate。 2、Anaconda与Virtualenv的主要区别在于:Ana
积分
粉丝
勋章
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信