当前位置:文档之家› 移动机器人双目视觉自主导航定位技术研究

移动机器人双目视觉自主导航定位技术研究

目录

第一章绪论 (1)

1.1 研究背景 (1)

1.2 研究意义及目的 (3)

1.3 研究现状 (4)

1.3.1 基于视觉的移动机器人研究现状 (4)

1.3.2 视觉特征检测与提取方法研究现状 (7)

1.3.3 基于视觉的移动机器人SLAM算法研究现状 (8)

1.4 论文的主要内容与章节安排 (9)

第二章双目视觉SLAM系统及机器人平台系统概述 (11)

2.1 引言 (11)

2.2 双目视觉SLAM系统概述 (11)

2.2.1 移动机器人双目视觉SLAM系统框架 (11)

2.2.2 SLAM常用算法 (13)

2.2.3 SLAM研究中的突破点 (15)

2.3 移动机器人运动模型 (17)

2.3.1 移动机器人位姿模型 (17)

2.3.2 移动机器人里程计模型 (18)

2.4 移动机器人观测模型 (19)

2.5 摄像机模型 (21)

2.5.1 双目视觉测量模型 (22)

2.5.2 相机标定原理 (24)

2.5.3 张氏标定方法 (24)

2.6 实验:双目视觉系统相机标定 (26)

2.7 本章小结 (29)

第三章基于双目的视觉特征提取与匹配算法 (30)

3.1 引言 (30)

3.2 SIFT特征提取与匹配算法 (30)

3.2.1 尺度空间的极值检测 (30)

3.2.2 特征点定位 (31)

- V -

万方数据

3.2.3 关键点方向 (31)

3.2.4 关键点特征描述 (32)

3.3 SURF特征提取与匹配算法 (32)

3.3.1 构造高斯金字塔尺度空间 (32)

3.3.2 特征点定位以及特征点主方向 (33)

3.3.3 构造SURF特征点描述子 (33)

3.4 KAZE 特征提取与匹配算法 (33)

3.4.1 非线性扩散滤波 (34)

3.4.2AOS算法 (35)

3.4.3 构造非线性尺度空间 (36)

3.4.4 特征点检测 (37)

3.4.5 特征值主方向和描述向量 (38)

3.5仿真实验:KAZE与SIFT、SURF等特征检测匹配算法性能对比 (38)

3.5.1 仿真一:四种算法的匹配点比例分析 (38)

3.5.2 仿真二:四种算法的正确匹配点比例分析 (40)

3.5.3 仿真三:四种算法的特征点匹配率分析 (41)

3.5.4 实验:四种算法在双目视觉测量与跟踪系统中的应用 (43)

3.6本章小结 (44)

第四章结合模糊神经网络的EKF双目视觉SLAM实现 (45)

4.1 引言 (45)

4.2 卡尔曼滤波算法 (45)

4.2.1 经典卡尔曼滤波算法 (45)

4.2.2 拓展卡尔曼滤波(EKF)算法 (47)

4.2.3 EKF-SLAM算法实现 (49)

4.3 结合模糊神经网络模型的EKF-SLAM (50)

4.3.1 模糊神经网络架构 (51)

4.3.2 结合模糊神经网络的基于EKF的SLAM 算法流程 (52)

4.3.3 结合模糊神经网络的基于EKF的SLAM 算法实现 (54)

4.4 仿真实验:结合模糊神经网络的EFK-SLAM与EKF-SLAM的对比 (55)

4.4.1 实验一:σr=0.2m,σb=0.1°时不同算法仿真对比分析 (55)

4.4.2 实验二:σr=0.01m,σb=3°时不同算法仿真对比分析 (57)

4.4.3 实验结果分析 (58)

- VI -

万方数据

4.5本章小结 (58)

第五章结束语 (60)

5.1 研究工作总结 (60)

5.2 后续研究工作 (60)

参考文献 (62)

致谢 (68)

攻读硕士学位期间已发表或录用的论文 (69)

- VII -

万方数据

图录

图1-1移动智能机器人系统与外部环境关系 (2)

图1-2 SLAM通用架构 (3)

图1-3美国太空机器人 (5)

图1-4全球太空机器人 (6)

图1-5商业视觉机器人 (6)

图2-1 SLAM位置估计示意图 (11)

图2-2双目视觉SLAM系统构架 (12)

图2-3基于卡尔曼滤波的SLAM原理流程 (13)

图2-4环境地图示例 (16)

图2-5双目视觉移动机器人位姿模型 (17)

图2-6机器人运动模型 (19)

图2-7移动机器人观测模型 (20)

图2-8双目视觉测量视差原理 (22)

图2-9双目视觉系统 (23)

图2-10张正友标定法流程 (25)

图2-11 CMOS双目相机系统 (27)

图2-12标定板 (27)

图2-13左右相机待标定图像 (28)

图2-14双目相机三维空间投影 (28)

图3-1尺度空间的极值点检测 (31)

图3-2 SURF主特征方向选择 (33)

图3-3 KAZE特征检测步骤 (36)

图3-4四种算法的匹配点百分比对比图 (39)

图3-5四种算法的正确匹配点百分比对比图 (40)

图3-6四种算法的特征点匹配率对比图 (42)

图3-7双目视觉测量与跟踪平台 (43)

图4-1卡尔曼滤波工作原理 (46)

图4-2模糊神经网络系统的四层构架 (51)

图4-3隶属函数示意图 (52)

图4-4结合模糊神经网络的基于EKF的SLAM算法结构 (53)

- VIII -

万方数据

图4-5 σr=0.2m,σb=0.1°时,不同数量路标下的EKF-SLAM仿真 (56)

图4-6 σr=0.2m,σb=0.1°时,不同数量路标下结合模糊神经网络的EKF-SLAM仿真 (56)

图4-7 σr=0.01m,σb=3°时,不同数量路标下的EKF-SLAM仿真 (57)

图4-8 σr=0.01m,σb=3°时,不同数量路标下结合模糊神经网络的EKF-SLAM仿真 (58)

- IX -

万方数据

表录

表2-1相机参数列表 (21)

表2-2双目相机内参数标定结果 (29)

表3-1四种特征匹配算法对比图横坐标范围 (39)

表3-2双目视觉距离测量结果 (43)

- X -

万方数据

相关主题
文本预览
相关文档 最新文档