机器人技术快速发展,教程等迭代速度非常快,周期在1-2年,新生期都是如此,进入成熟期会好很多,文档迭代周期会延长至3-5年。至于那些经典技术通常生命周期长达10年或更久。
标题:Visual Semantic SLAM with Landmarks for Large-Scale Outdoor Environment
在智能制造、AR、机器人、室内导航等领域,三维重建都有很广泛的应用前景。随着消费级RGB-D相机的普及,三维重建的应用场景也得到了进一步的扩展。奥比中光自主研发的深度相机Astra Pro的成本相对较低,同时也可以方便、快捷地对物体进行3D成像,并且具有精度高的优点。针对三维重建相关技术进行研究和加以应用,必将极大程度地促进计算机视觉等领域的发展,并进一步深度影响工业生产活动以及人们的生活方式。
文章:LiDAR-based SLAM for robotic mapping: state of the art and new frontiers
从最开始接触SLAM已经3年了,从二维激光SLAM到三维激光SLAM,再到视觉SLAM,都有一些接触,现将简单梳理一下SLAM的各个模块的功能以及实现方式,为本系列文章起到个总领作用。
当然,还包括Autoware中与电脑x86和平板arm的人机交互接口以及AGV等应用程序。
上述过程确定了机器人相对于初始时刻以及相对于每帧数据到来时的位姿变换,这个过程就是定位的过程。
文章:Pole-like Objects Mapping and Long-Term Robot Localization in Dynamic Urban Scenarios
因此必须找到另一种方法来更准确地确定车辆在地图上的位置。最常用的方法是将汽车传感器所看到的内容与地图上所显示的内容进行比较。
文章:High-Definition Map Generation Technologies for Autonomous Driving
文章:Automatic Building and Labeling of HD Maps with Deep Learning
文章:SLAM and 3D Semantic Reconstruction Based on the Fusion of Lidar and Monocular Vision
----大家好,我是旷视研究院SLAM组负责人刘骁,很高兴能和大家分享机器人领域一些有关三维视觉技术的思考。
机器之心专栏 机器之心编辑部 本文介绍了一篇由国防科技大学刘煜教授团队和浙江大学周晓巍教授团队联合撰写的论文《Long-term Visual Localization with Mobile Sensors》,该论文已被计算机视觉与模式识别领域顶尖国际会议 CVPR 2023 录用。 针对在时变的室外环境中难以视觉定位的问题,博士生颜深创新性地提出一种解决方案 SensLoc。SensLoc 利用移动设备内置的传感器数据,如 GPS、指南针和重力传感器,为视觉定位提供有效的初始位姿和约束条件,从而缩小图像
SLAM是Simultaneous localization and mapping缩写,意为“同步定位与建图”.
标题:Compact 3D Map-Based Monocular Localization Using Semantic Edge Alignment
针对在时变的室外环境中难以视觉定位的问题,博士生颜深创新性地提出一种解决方案 SensLoc。SensLoc 利用移动设备内置的传感器数据,如 GPS、指南针和重力传感器,为视觉定位提供有效的初始位姿和约束条件,从而缩小图像检索和位姿估计的搜索空间。
三维点云的语义分割3D Point Cloud Semantic Segmentation (PCSS)在计算机视觉以及机器人领域广泛的应用,随着深度学习技术的发展在点云的语义分割领域提供了新的可能性,并受到越来越多的关注,本文将着重的介绍这一主题的相关研究,首先从遥感领域和计算机视觉的角度概述三维点云的分割,并且结合已经发表的PCSS相关的文章作为研究基础,进行总结和比较,并且对传统的以及最新的点云分割技术进行回顾和比较,最后讨论了PCSS研究中重要的问题和有待解决的问题。
文章:Multi-LiDAR Localization and Mapping Pipeline for Urban Autonomous Driving
文章:A Fast and Robust Place Recognition Approach for Stereo Visual Odometry Using LiDAR Descriptors
SLAM 是 Simultaneous Localization And Mapping 的 缩写,一般翻译为:同时定位与建图、同时定位与地图构建。
文章:Monocular Simultaneous Localization and Mapping using Ground Textures
建立空间索引在点云数据处理中已被广泛的应用,常见的空间索引一般是自顶向下逐级划分空间的各种空间索引结构,比较有代表性的包括BSP树,KD树,R树,CELL树,八叉树等索引结构,其中就属KD树和八叉树在3D点云中的应用最为广泛,KD树的理论基础在上一篇推文中已经讲解,那么我们知道PCL库中已经对KD树和八叉树的数据结构的建立和索引的方法进行的实现,以方便在此基础上的其他点云的处理操作。
定位(Location)是让无人驾驶汽车知道自身确切位置的技术,这是一个有趣且富有挑战的任务,对于无人驾驶汽车来说非常重要。
随着近几年机器人、自动驾驶、AR等技术的飞速发展,三维重建这个学术名词也逐渐出现在大众的视野中。那究竟什么是三维重建呢?
本文为我在浙江省北大信研院-智能计算中心-情感智能机器人实验室-科技委员会所做的一个分享汇报,现在我把它搬运到博客中。
标题:3D Point Cloud Processing and Learning for Autonomous Driving
原标题:On the convergence of Video and 3D Graphics
说到地图,我们从一个简单的问题开始。你最常用的导航地图是什么?可能是你的车载地图或手机地图。
首先,我们需要知道什么是SLAM(simultaneous localization and mapping, 详见SlamCN),SLAM,即时定位与制图,包含3个关键词:实时、定位、制图,就是实时完成定位和制图的任务,这就是SLAM要解决的基本任务。按照使用的传感器分为激光SLAM(LOAM、V-LOAM、cartographer)与视觉SLAM,其中视觉SLAM又可分为单目SLAM(MonoSLAM、PTAM、DTAM、LSD-SLAM、ORB-SLAM(单目为主)、SVO)、双目SLAM(LIBVISO2、S-PTAM等)、RGBD SLAM(KinectFusion、ElasticFusion、Kintinous、RGBD SLAM2、RTAB SLAM);视觉SLAM由前端(视觉里程计)、后端(位姿优化)、闭环检测、制图4个部分组成,按照前端方法分为特征点法(稀疏法)、光流法、稀疏直接法、半稠密法、稠密法(详见高翔《视觉slam十四讲》第xx章);按照后端方法分为基于滤波(详见SLAM中的EKF,UKF,PF原理简介)与基于图优化(详见深入理解图优化与g2o:图优化篇与深入理解图优化与g2o:g2o篇)的方法。
可靠、准确的定位和建图是大多数自动驾驶系统的关键组件.除了关于环境的几何信息之外,语义对于实现智能导航行为也起着重要的作用.在大多数现实环境中,由于移动对象引起的动态变化,这一任务特别复杂,这可能会破坏定位.我们提出一种新的基于语义信息的激光雷达SLAM系统来更好地解决真实环境中的定位与建图问题.通过集成语义信息来促进建图过程,从而利用三维激光距离扫描.语义信息由全卷积神经网络有效提取,并呈现在激光测距数据的球面投影上.这种计算的语义分割导致整个扫描的点状标记,允许我们用标记的表面构建语义丰富的地图.这种语义图使我们能够可靠地过滤移动对象,但也通过语义约束改善投影扫描匹配.我们对极少数静态结构和大量移动车辆的KITTI数据集进行的具有挑战性的公路序列的实验评估表明,与纯几何的、最先进的方法相比,我们的语义SLAM方法具有优势.
《ROS机器人程序设计》课程是自动化专业的一门主要专业选修课程,是自动化专业机器人方向一门重要的理论实践相结合的课程,为后续机器人方向课程的学习打好坚实的基础。课程内容包括:机器人系统主要构成;常见移动机器人设计方案;机器人操作系统(ROS);机器人系统编程语言;机器人系统控制算法C++与Python实现;传感器和执行器使用;机器人视觉理解和点云;机器人三维建模与仿真技术;机器人系统导航控制;机械臂运动控制等方面。通过该课程的学习可以让学生掌握并完成小型机器人系统的开发和编程工作,理解ROS的软件框架,同时在仿真环境中自动构建机器人相应的功能程序,编写机器人程序。
AutoCAD 2023直装版是一款集快速看图、3D浏览、DWG画图、CAD批注、CAD测量、画图制图于一身的软件,让用户得到了极好的体验。该软件一直以来都受到广大专业人士的好评,该软件应用于多个领域,其作用不可忽视。由30年CAD开发背景的浩辰CAD出品的轻量级二维及三维图纸览图及编辑的电脑端CAD看图软件,受到了专业人士的极大赞美。
SLAM是Simultaneous localization and mapping缩写,意为“同步定位与建图”,主要用于解决机器人在未知环境运动时的定位与地图构建问题,为了让大家更多的了解SLAM,以下将从SLAM的应用领域、SLAM框架、SLAM分类(基于传感器的SLAM分类)来进行全面阐述,本文仅对没有接触过SLAM的新人进行的科普。
Mapbox AR 寻路工具:http://www.mapbox.com/ar ( http://www.mapbox.com/ar )
OpenDRIVE是一种高精地图格式,2006年由德国VIRES公司发布,并反复迭代,期间德国戴姆勒驾驶模拟器部门和德国宇航中心DLR也发挥了很大作用。
由于对三维激光SLAM比较感兴趣,并且最近也在找无人驾驶激光SLAM算法的岗位,所以花了一个多月把LOAM的论文和源码好好看了一遍。发现论文还是比较容易明白,但一看代码全是坑。看论文懂了,看代码似懂非懂。为了尽快把这坑填上,所以诚邀读者一起探讨。作者始终认为填坑最好的方法是拉别人和你一起填坑。由于三千多行的源码不是一篇博客能够讲明白的,所以这篇博客主要讲一下我对LOAM论文的理解,后续会有代码的介绍,希望对大家能有帮助。
提到自动驾驶,大家自然而然地就会想到「视觉算法」派和「激光雷达」派的争论,前者依靠摄像头的纯视觉感知,后者则强调激光雷达(LiDAR)的精准测距。据了解,2021年配有激光雷达的车型将会达到23款,但多数是作为高分辨率影像信息的一种补充。 最近, MIT 计算机科学与人工智能实验室(CSAIL)团队成功展示了一种基于机器学习的自动驾驶系统,该端到端框架仅使用 LiDAR获取的原始 3D 点云数据和类似于手机上的低分辨率 GPS 地图就能进行自主导航,并且大大提升了鲁棒性。对依靠 LiDAR 的自动驾驶技术
高翔老师2023全新力作《自动驾驶与机器人中的SLAM技术:从理论到实践》(全彩)来啦!
文章:Vision-based Large-scale 3D Semantic Mapping for Autonomous
简介:KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的算法评测数据集。该数据集用于评测立体图像(stereo),光流(optical flow),视觉测距(visual odometry),3D物体检测(object detection)和3D跟踪(tracking)等计算机视觉技术在车载环境下的性能。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。整个数据集由389对立体图像和光流图,39.2 km视觉测距序列以及超过200k 3D标注物体的图像组成,以10Hz的频率采样及同步。对于3D物体检测,label细分为car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc。
标题:Probabilistic Semantic Mapping for Urban Autonomous Driving Applications
文章:Online Monocular Lane Mapping Using Catmull-Rom Spline
文章:Road-SLAM : Road Marking based SLAM with Lane-level Accuracy
本节将介绍自动驾驶汽车的定位技术下,包括:激光雷达定位和视觉定位,以及Apollo框架是如何解决定位问题的。
本文主要想使用尽量少的专业词汇来解释清楚视觉SLAM是如何进行定位的(在某些表述上可能并不严谨),希望对视觉SLAM有兴趣的伙伴能在刚接触SLAM时有个基本的了解,本文同时介绍了视觉SLAM的经典框架和应用场景。想要深入学习的伙伴,还请参考更专业更系统的书籍和文献。
Poisson Surface Reconstruction for LiDAR Odometry and Mapping
Slam:同步定位与建图,就是在定位的同时,建立环境地图。 主要思路是根据运动学模型计算位姿,并通过传感得到的环境信息,对估计位姿调整优化,从而得到准确位姿,根据定位及感知数据绘制地图。 下图为slam主流框架:
领取专属 10元无门槛券
手把手带您无忧上云