当前位置:文档之家› 自动驾驶汽车的对象场景流程

自动驾驶汽车的对象场景流程

自动驾驶汽车的对象场景流程
自动驾驶汽车的对象场景流程

自动驾驶汽车的对象场景流程

抽象:

本文提出了一种用于自动驾驶的3D场景流估计的新颖模型和数据集。利用室外场景经常分解为少量独立移动的对象这一事实,我们通过其刚性运动参数表示场景中的每个元素,并通过3D平面以及对应对象的索引来表示每个超像素。这种最小的表示增加了鲁棒性,并导致了离散连续CRF,其中数据项分解为超像素和对象之间的成对电势。此外,我们的模型从本质上将场景划分为其组成的动态组件。我们在现有基准以及具有场景流地面真实性的新颖逼真的数据集上演示了模型的性能。我们通过使用所有车辆的详细3D CAD模型从KITTI原始数据集中注释400个动态场景来获得此数据集。我们的实验还揭示了现有方法无法解决的新颖挑战。

介绍

“视觉世界中的大多数结构都是刚性的,或者至少是刚性的。” David Marr[20]

目前,对密集3D运动场(通常被称为场景流)的估计越来越受到关注。密集的运动矢量可洞悉场景的几何布局,并将其分解为单独移动的对象。重要的应用包括移动机器人和自动驾驶,其中3D对象运动是诸如场景理解,避障或路径规划等高级任务的基本输入[5],[7],[10],[28]。在本文中,我们对3D场景流估计感兴趣,重点是自动驾驶。尽管最近有许多方法在这种情况下表现出令人印象深刻的性能[25],[35],[37],[39]中的任何一个都没有明确利用以下事实,即这样的场景通常可以看作是独立移动的3D对象的小集合,其中包括由运动的相机本身引起的背景运动。见图1为示意图。此外,由于缺乏具有场景流动性的真实基准,定量评估仅限于合成图像[18],[39]或静态场景,例如由Middlebury立体声基准[27]或KITTI立体声提供的图像。光流评估[12]。

本文的贡献有两个方面:首先,我们提出了一种斜面场景流模型,该模型显式地确定了对象的原因,而又不依赖于特定的形状模型或预训练的检测器。与[35],[37]相反,我们将场景的3D结构建模为平面斑块的集合,并通过我们共同优化的少量刚性移动对象将这些斑块的3D运动建模。这大大减少了参数空间,并限制了无纹理或模糊区域中的某些问题。此外,我们的方法还可以将场景分割成独立移动的对象。其次,我们提出了一种新颖且逼真的数据集,用于定量场景流评估。为了实现这一目标,我们从KITTI原始数据集中收集了400个高度动态的场景,并使用半密集场景流地面实况进行了扩充:我们直接从激光扫描中的3D信息中提取视差图,并将几何精确的CAD模型拟合到移动的3D点云获取光流的地面真相。此外,

利用所提出的数据集,KITTI立体和光流基准,相对于代表性的最新基线集以及各种消融研究,论证了所提出方法的性能及其各个组成部分的重要性。以及旋转球体的合成序列。除了证明我们的假设对这项任务的价值外,我们的实验还表明,提出的基准测试提供了新颖的挑战,而任何现有的场景流或光流算法都无法应对。我们使代码1和数据集2在线可用。

相关工作

在本节中,我们首先回顾有关场景流估计的相关工作,然后概述用于基准场景流方法的现有数据集。

方法

场景流通常定义为描述场景中每个点的3D运动的流场。继Vedula等人的开创性工作之后。[33],[34],传统上是在变式设置中提出问题[1],[18],[23],[32],[36],[38],其中优化是从粗到精进行的方式和局部调节器被用来鼓励深度和动作的平滑度。随着Microsoft Kinect等RGB-D传感器的出现,深度信息也变得可用[15],[17],[24],[39]。尽管Kinect传感器适用于室内场景,但在本文中,我们对户外场景流量估计及其在自动驾驶中的应用感兴趣[9],[25],因此着重于基于外观的方法。

Vogel等人受到光流[21],[30],[40],[41]和立体声[2],[3],[42]的最新趋势的启发。[35],[37]提出了一种倾斜平面模型,该模型将每个像素分配给一个图像段,并将每个段分配给几个刚性移动的3D平面建议中的一个,从而将任务转换为离散优化问题,可以使用a-扩展和QPBO [26]。在具有挑战性的街道场景3以及KITTI立体声和光流基准测试中已经证明了令人印象深刻的性能[12]。我们的方法(我们称为“对象场景流”)与此工作线有关,但更进一步:在Occam的剃刀之后,我们利用了以下事实:许多场景分解为少量刚性移动的对象,背景。我们共同估计该分解以及对象的运动以及图像中每个超像素的平面参数。与[35],[37]相反在所有形状和运动建议都固定为先验的情况下,我们结合对象分配来优化模型中的连续变量。除了根据对象的运动获得对象的分割之外,我们模型中的场景流还由每

个超像素仅4个参数(其几何形状为3个,对象索引为1个)唯一确定,并且每次移动均具有少量参数宾语。

数据集

场景流方法的定量评估存在适当的参考数据不足的问题。原因之一是不存在能够在复杂环境中捕获光流地面真相的传感器。因此,通常使用球体[18],[32],基元[1],[6],[36]或简单的街道场景[25],[38],[39]的合成渲染来衡量定量性能。为了更加真实,最近的方法[8],[14]和[24]报告了Middlebury基准测试结果[27]通过选择一组整流的立体声对。同样,更具挑战性的KITTI基准[12]已在[35],[37]中用于评估。不幸的是,这两个基准仅针对没有独立移动对象的刚性场景提供了场景流的地面真实性。此外,基于Middlebury立体数据集的场景流评估仅限于图像在x方向上的运动,而在KITTI上的评估则分别处理流和立体问题。

据我们所知,目前尚不存在任何现实的基准数据集,该数据集可提供动态对象和地面真相来评估场景流或光流方法。在本文中,我们利用KITTI原始数据[11]来创建具有独立移动对象和带注释的地面真相的逼真的且具有挑战性的场景流基准,总共包括200个训练场景和200个测试场景。我们希望我们的数据收集将激发对该重要主题的进一步研究。

本文的其余部分结构如下:我们首先在第3节中介绍“对象场景流”方法,然后在第4节中详细介绍数据集的地面真相注释过程。最后,我们在第5节的三个数据集上展示了我们的方法的定量和定性结果以及几种最新的基线。在第6节中,我们总结了对未来工作的展望。

对象场景流

我们专注于经典场景流设置,其中输入是由校准摄像机的两个连续立体图像对提供的,其任务是确定参考帧中每个像素的3D位置和3D流。我们采用倾斜平面模型,即,我们假设场景的3D结构可以通过一组分段平面超像素来近似[41]。此外,我们假设场景中有数量有限的可移动对象。重要的是要注意,场景中的静态元素(“背景”)可以很容易地作为我们设计中的另一个对象来处理,因为这些元素相对于观察者而言是刚性移动的。

更正式地,让小号和?分别表示超像素和对象的集合。每个超像素我∈小号与

一个地区相关[R一世在图像和随机变量中小号η= (nη,?一世)?哪里??

∈[R3描述3D平面(n?一世x =1 f? - [R X ∈?3在飞机上)和?一世

∈ { 1 ,…,| O | }索引与超像素关联的对象。每个对象我∈?与随机变量相关联0一世∈小号?(3 )描述了其在3D模式下的刚体运动。请注意,与对象

i相关的每个超像素都将继承其刚性运动参数0一世∈小号?(3 )。结合平面参数n。,这将完全确定超像素内部每个像素处的3D场景流。

给定两个连续帧的左右输入图像?0和?1个,我们的目标是推断每个超像素n的3D几何,即与对象的关联?一世以及每个物体的刚体运动o。我们根据以下能量函数指定CRF

查看资料哪里s ={s一世| 我∈小号} 0 = { 0一世| 我∈? }和我??表示S

中的一组相邻超像素。

3.1。数据项

数据项模拟了以下假设:四个图像上的对应点在外观上应该相似。如?一世确定超像素的关联一世对于一个对象,我们的数据项分解为成对电位

哪里[ ? ]表示艾弗森括号,d一世(?,0 )表示超像素处的数据项一世这取决于平面参数II和刚体运动o。数据项本身由立体,流和交叉项组成,这些项是

在参考视图(位于?0)以及所有其他图片,如图2所示:

这些项中的每一项都是通过对超像素i内所有像素p的匹配成本求和来定义的,其中匹配成本是根据关联对象o引起的单应性使每个像素变形来计算的:

这里,X ∈{立体,流动,交叉},KE IR。3×3表示相机校准矩阵,[ R X(0 )

| ?X(0 )] ∈?3 × 4根据外部相机校准和刚性运动o将参考坐标中的3D点映射到另一个相机坐标系中的3D点。配套费用C X(p ,q),1会传回位置的o 个像素之间的相异值d ∈?2在参考图像中,在位置上有一个像素q∈[R2在目标图像中。在我们的模型中,我们利用密集和稀疏匹配的图像特征并定义C X(p,q)作为这两个的加权和:

对于C d ? ?小号?X(p,q)我们利用相应的5×5人口普查描述符的汉明距离[43],将其截断C最高。我们进一步使用离群值C= C最高q离开图像域。相同的参数值C最高用于立体声,流和交叉项。我们的稀疏匹配项定义为

哪里πX(p)表示根据稀疏特征对应集的像素p的翘曲,ΠX是参考图像中已建立对应关系的一组像素,并且ρτ(x )ˉˉˉˉˉˉˉ,表示被截断升1个罚函数ρτ

(x )= 分钟(| x | ,τ)在第5节中将详细介绍我们使用的稀疏特征对应关系。

3.2。平滑度

平滑度术语鼓励相邻超像素在深度,方向和运动方面的相干性。我们的平滑潜力ψ我?(s一世,s?)分解为:

配重θ和

这里,d(?,p )表示参考图像中像素p处平面n的视差,乙我?是超像素之间共享边界像素的集合一世和超像素?和ρ坚固升1个如上定义的罚款。权重w (。,。)定义为

并编码了我们的信念:运动边界比光滑表面更容易出现在3D折叠或不连续处。3.3。推理

等式中指定的离散连续CRF的优化。1相对于所有超像素和对象是NP难题,我们利用MAX-产物颗粒置信传播(MP-PBP)[22] ,[31]使用连续树重新加权消息传递(TRW-S)[19]为内循环找到一个近似的解决方案。我们每个超像素使用30个形状粒子,五个对象,每个对象十个运动粒子以及MP-PBP的50次迭代。所有运动粒子和一半形状粒子都是从以上次迭代的MAP解为中心的正态分布绘制的。剩余的形状粒子是使用来自空间上相邻的超像素的平面参数提出的。两种策略相辅相成,我们发现它们的组合对于有效地探索搜索空间很重要。我们使用StereoSLIC 算法初始化所有超像素及其形状[41]。通过从稀疏场景流矢量贪婪地提取运动估计值来初始化刚体运动[13]如下所示:我们使用3点RANSAC算法迭代地估计刚体运动,并使用非极大值抑制来查找具有大量内线的子集。有关更多详细信息,请向读者介绍补充材料4。

场景流数据集和注释

在没有合适的公共数据集的情况下,我们用两个连续帧中的KITTI原始数据集为400个动态场景添加了光流和视差地面真相。由于存在Velodyne的滚动快门和低帧频(10 fps),无法单独从激光扫描仪数据中轻松恢复对象,因此在存在单个移动对象的情况下,生成地面真相的过程尤其具有挑战性。我们的注释工作流程包括两个主要步骤:首先,我们通过删除所有动态对象并补偿车辆的自我运动来恢复场景的静态背景。其次,我们通过将详细的CAD模型拟合到每个框架中的点云来重新插入动态对象。

4.1。静态场景元素

为了获得静态场景内容的密集点云,首先使用摄像机运动和各个激光测量的时间戳针对滚动快门效果校正激光扫描。我们发现,无论是KITTI汽车的GPS / IMU系统还是3D点云的ICP拟合都不足以产生足够准确的运动估计,因此无法结合使用非线性最小二乘法优化的这两种技术来检索个体的高度准确且一致的配准扫描。总体而言,我们在一个公共坐标系中随时间累计7次扫描。我们使用KITTI网站上提供的3D边界框注释进一步删除了属于运动对象的所有3D点5

4.2。移动物体

由于无法仅通过3D激光测量来恢复场景中的动态元素,因此我们利用Google 3D Warehouse 6中的详细3D CAD模型进行此操作。重要的是要注意,由于立体声技术的测量精度有限,因此我们的3D CAD模型不需要精确到毫米,考虑到KITTI中种类繁多的车辆,这将非常棘手。相反,我们从数量有限但种类繁多的16辆汽车中选择最相似的模型,这些材料在补充材料中进行了说明。对于每个模型,我们通

过从CAD模型的所有面均匀采样?3,000个点来获得3D点云。我们使用该点云,通过2D和3D测量将3D CAD模型拟合到序列的两个帧,如图所示。图3。

更具体地说,对于场景中的每个动态对象,我们估计一个3D相似度变换,该变换定义了第一帧中3D模型的姿势和比例以及该对象的3D刚体运动,从而产生15维

参数向量ξ∈[R15。我们利用三种不同类型的观察值:首先,使用带注释的3D

边界框在所有帧上累积属于移动对象的3D点。其次,我们结合了通过半全局匹配(SGM)[16]计算的视差估计。尽管SGM的估算值并不总是可靠的,但我们仅针对极少数参数进行了优化,并发现(通过手动验证)将其作为弱先验条件可以改善结果。第三次观察,我们在3D CAD模型的几何意义部分和两个帧中的对应图像坐标之间引入了手动注释的对应关系。我们发现,每个对象包含5到10个这样的对应关系足以获得准确的光流地面真相。

我们通过最小化以下能量函数来获得变换参数ξ

哪里?是帧索引和E;是对应于每个观察值的能量项,请参见图3。进一步来说,

?3 d?表示平均被截断升2对象的3D边界框内的3D激光点与其在CAD模型中最近的邻居之间的距离,?小号摹中号?代表截断升1个 CAD模型产生的视差图与SGM测量值之间的距离以及?2 dF是相对于帧中所选2D-3D对应关系的二次2D 误差?。我们的优化方案在最小化方程之间交替。关于ξ,使用非线性最小二乘法

对4进行更新,并更新所有最近的邻居关联,直到收敛为止。选择术语的权重以确保手动输入的主要影响。

为了生成最终的视差图和光流图,我们根据估计的ξ将更密集采样的3D CAD模型投影到所有四个图像中。为了解决对象的内部和内部遮挡,我们利用了OpenGL

的z缓冲区。最后,手动遮盖行人或骑自行车的非刚性移动物体以及激光扫描中的错误区域。所有产生的流量和视差图均通过目视检查进行验证。此外,通过稀疏的手动注释控制点可以识别并排除严重情况。虽然我们凭经验发现,在大多数情况下,我们的地面真实情况至少可以精确到3个像素,但我们观察到,图像边界处的很大运动(最多500个像素)会降低地面真实情况的准确性。

实验结果

本节提供了对我们模型的完整定量和定性分析,包括拟议的场景流数据集,KITTI 立体/流评估[12]以及Huguet等人的合成球序列。[18]。作为我们方法的输入,对于两个校正后的帧,我们利用特征匹配[13]和SGM视差图[16]的稀疏光流。通过

将光流匹配与SGM映射中的有效视差相结合,可以计算出稀疏的交叉特征。我们使用StereoSLIC [41]获得超像素,并通过使用在实现中的3点RANSAC算法贪婪地提取刚体运动假设来初始化场景中所有对象的刚体运动参数。[13]。为了获得模

型参数{ θ }和{ τ},我们对30个随机选择的训练图像的子集执行块坐标下降。有关估计的参数值的详细信息,请向读者介绍补充材料。

评估协议

对于我们在KITTI基准上的结果,我们遵循标准评估协议,并使用3个像素的误差阈值分别提供了立体声和光流异常值。对于建议的场景流数据集,我们使用第4节中描述的方法从KITTI原始数据集[11]注释了总共200个训练场景和200个测试场景,并评估了视差误差和参考中每个有效地面真实像素的流量视图。仅当视差或流量超过3个像素并且真实价值的5%。根据经验,我们发现此组合可确保对真实情况中的注释错误进行忠实的评估。对于直接在第二帧中提供其第二视差估计的方法,我们利用估计的光流将视差值映射到第一帧中的相应像素,并对所有丢失的像素应用背景插值[12]。因此,在参考视图中的每个像素处,我们获得四个要评估并唯一确定3D场景流的值:两个视差值(第一帧和第二帧)以及u方向和v方向的流。我们还会在单个场景流指标中评估所有三个指标的组合,该指标仅考虑具有正确视差和流量正确。我们通过对所有图像区域以及不离开图像域的所有区域的平均误差来评估结果。

消融研究

我们首先评估方程式中我们的能量公式中每个术语的贡献。在建议的场景流数据集上为1。表2(下部)显示了评估整个图像时的结果。非遮挡区域的结果可以在补充材料中找到。这些列使用上述约定在视差(“ D 1”,“ D2”),流(“ FI”)和场景流(“ SF”)方面显示错误。对于每种模态,我们提供背景(“ bg”),前景

(“ fg”)以及两者的组合(“ bg + fg”)的结果。表格的第一行显示了仅包含一元项时我们模型的结果。其余各行在底部显示完整模型的一元和成对项的不同组合的结果。虽然人口普查被证明比SGM与稀疏光流相比具有更强的功能,但就场景流误差而言,它们的组合在性能上均优于每个。

接下来,我们针对图4中设置的对象大小(左)研究完整模型的性能。为了实现这一目标,我们将模型中允许的物体假设的数量从5个减少到1个。此图证实了我们的假设,即我们认为的室外场景可以由少量刚性移动的物体很好地描述。最后,图4(右)显示了我们的方法相对于MP-PBP迭代次数的性能。尽管我们在实践中对所有实验都使用了50次迭代,但此图显示10次迭代足以在我们的模型下实现几乎最佳的性能。

基准结果

表2(上半部分)将我们的方法(最后一行)的结果与我们新颖的场景流数据集上的几个基线进行了比较。我们使用KITTI立体声/流程开发套件对稀疏和半密集方法的结果进行插值,以确保公平比较。除了Huguet等人的经典变分方法。[18],我们还计算了Cech等人的稀疏场景流方法的结果。[6]。我们通过将两个最先进的光流算法[4],[29]与使用半全局匹配(SGM)获得的两个帧中的视差估计值相结合,进一步构建了几个基线[16]这也可以作为我们方法的输入。作为基于RGB-D 的算法的代表,我们展示了作者提供给我们的Hornacek的Sphere Flow [17]结果。为了模拟所需的深度分量,我们将SGM视差图的所有有效像素重新投影到

3D中。最后,我们还包括了Vogel的分段式刚性场景流(PRSF)方法的结果[37]。我们注意到,在PRSF是最接近的竞争者的情况下,所提出的方法严格胜过所有基准。

定性结果

图5使用与KITTI [12]中类似的颜色映射,为建议数据集中的某些场景提供了定性结果。。但是请注意,已绘制了百分比误差,以便根据我们的场景流量指标的内部像素以蓝色阴影表示。正如错误图像所证明的,我们的方法能够在各种具有挑战性的场景中恢复正确的视差和流量。即使是不是完全刚性的对象(也没有地面真理的对象),例如子图(2,2)中的自行车手,都可以通过我们的方法可靠地检测到。我们的方法的一些失败案例在水平线下方显示。由于困难的照明条件或观察者附近的物体快速移动,这些场景极具挑战性,我们评估中的算法都无法应对这些挑战。

基蒂基准测试结果

我们还在KITTI立体声和光流基准测试[12]的静态场景上评估了我们的模型,并在每个类别的前5种方法中名列前茅。使用3个像素的评估阈值,我们实现了

3.28%的立体误差和3.47%的光流误差,相对于PRSF而言,这是有利的。补充材料中提供了所有详细信息和完整的结果表。

“ Sphere”数据集上的结果

为了完整起见,我们在Huguet等人的合成“ Sphere”数据集上提供了方法的结果。

[18]。由于此数据集类似于随机点立体图,因此外观无法传达有关对象边界的信息。因此,我们修改了StereoSLIC算法,以考虑密集的光流而不是视差,并提供了Sun等人的Horn-Schunck结果。[29]作为输入。如表1所示,尽管我们将场景限制为仅200个平面超像素,但我们的方法仍具有惊人的性能。定性结果和误差图显示在补充材料中。

运行

对于50个MP-PBP迭代,我们使用C ++包装器的未经优化的MATLAB实现需要平均6Q秒。这样,在以3.0 GHz的频率运行的单个i7内核上,处理一个场景(4个图像)的总运行时间为50分钟。通过将形状和运动粒子的数量分别限制为10

和5,并将MP-PBP迭代次数设置为10,我们可以将算法的总运行时间减少到120秒。表2中的“快速”条目表明,修改后的版本仅比本文中介绍的完整方法稍差一点,但相对于最接近的最新竞争对手而言,仍然是有利的。

补充材料

我们鼓励读者看一下补充材料7,该材料提供了有关参数变化的性能分析以及其他定量和定性结果。

结论

我们已经展示了将动态室外场景建模为一组刚性对象的好处。通过共同推理这种分解以及场景中少量对象的几何形状和运动,所提出的模型能够生成准确的密集3D 场景流估计,与多个数据集上的最新技术相比具有优势。我们进一步介绍了第一个逼真的大规模场景流数据集,该数据集具有针对场景中所有静态和动态对象的地面真相注释。与KITTI立体声/流相比,我们的基准测试提供了动态对象和专用的场景流度量以及对社区的新挑战。特别是,我们发现,现有的光流或场景流方法都无法应对在某些场景中移动物体所产生的极端运动。失败的第二个原因是无纹理和反射表面,通常,立体匹配和光流估计都失败了。我们推测需要更富有表现力的先验知识来克服这些挑战,并相信我们的数据集将刺激进一步的研究以解决这些问题。

自动驾驶汽车硬件系统概述

自动驾驶汽车硬件系统概述 自动驾驶汽车的硬件架构、传感器、线控等硬件系统 如果说人工智能技术将是自动驾驶汽车的大脑,那么硬件系统就是它的神经与四肢。从自动驾驶汽车周边环境信息的采集、传导、处理、反应再到各种复杂情景的解析,硬件系统的构造与升级对于自动驾驶汽车至关重要。 自动驾驶汽车硬件系统概述 从五个方面为大家做自动驾驶汽车硬件系统概述的内容分享,希望大家可以通过我的分享,对硬件系统的基础有个全面的了解: 一、自动驾驶系统的硬件架构 二、自动驾驶的传感器 三、自动驾驶传感器的产品定义 四、自动驾驶的大脑 五、自动驾驶汽车的线控系统

自动驾驶事故分析 根据美国国家运输安全委员会的调查报告,当时涉事Uber汽车——一辆沃尔沃SUV系统上的传感器在撞击发生6s前就检测到了受害者,而且在事故发生前1.3秒,原车自动驾驶系统确定有必要采取紧急刹车,此时车辆处于计算机控制下时,原车的紧急刹车功能无法启用。于是刹车的责任由司机负责,但司机在事故发生前0.5s低头观看视频未能抬头看路。 从事故视频和后续调查报告可以看出,事故的主要原因是车辆不在环和司机不在环造成的。Uber在改造原车加装自动驾驶系统时,将原车自带的AEB功能执行部分截断造成原车ADAS功能失效。自动驾驶系统感知到受害者确定要执行应急制动时,并没有声音或图像警报,此时司机正低头看手机也没有及时接管刹车。

目前绝大多数自动驾驶研发车都是改装车辆,相关传感器加装到车顶,改变车辆的动力学模型;改装车辆的刹车和转向系统,也缺乏不同的工况和两冬一夏的测试。图中Uber研发用车是SUV车型自身重心就较高,车顶加装的设备进一步造成重心上移,在避让转向的过程中转向过急过度,发生碰撞时都会比原车更容易侧翻。 自动驾驶研发仿真测试流程 所以在自动驾驶中,安全是自动驾驶技术开发的第一天条。为了降低和避免实际道路测试中的风险,在实际道路测试前要做好充分的仿真、台架、封闭场地的测试验证。 软件在环(Software in loop),通过软件仿真来构建自动驾驶所需的各类场景,复现真实世界道路交通环境,从而进行自动驾驶技术的开发测试工作。软件在环效率取决于仿真软件可复现场景的程度。对交通环境与场景的模拟,包括复杂交通场景、真实交通流、自然天气(雨、雪、雾、夜晚、灯光等)各种交通参与者(汽车、摩托车、自行车、行人等)。采用软件对交通场景、道路、以及传感器模拟仿

汽车自动驾驶系统

汽车自动驾驶系统 ----模糊控制的工程应用 姓名:冯皓伟 学号:09001214 专业:自动化

汽车自动驾驶模糊控制 摘要: 针对车辆动力学控制系统所具有的强非线性特点提出了基于机器视觉的车辆自动驾驶模糊控制方案. 采用车辆系统动力学模型, 通过模糊控制规则的量化划分对车辆在道路上的运动进行了仿真.仿真的结果显示, 本方案可以很好地解决空旷道路上的车辆自动驾驶问题, 并且该控制方法可以保证车辆快速准确地在道路上安全高速行驶, 具有很好的鲁棒性.此外,还可以基于模糊逻辑和滑模控制理论设计一种车辆纵向和横向运动综合控制系统。该控制系统通过对前轮转向角度、发动机节气门开度、制动液压及主动横摆力矩进行协调控制, 使车辆能够以期望速度在理想道路轨迹上行驶, 并提高车辆在行驶过程中的操纵稳定性。 关键字: 车辆自动驾驶机器视觉模糊控制规则模糊逻辑滑膜控制仿真 引言: 模糊控制是上个世纪诞生的一种基于语义规则的人工智能,是以模糊集合理论为基础的一种新兴控制手段,它是模糊集合理论和模糊技术与自动控制技术相结合的产物。随着时代的发展,科技的创新,模糊理论在控制领域取得了广泛的应用。自动驾驶便是其中一个重要的应用对象。 汽车是现代的主要交通工具,自动驾驶系统是交通体系中最重要的部分之一,一方面它可以推动在机器人自主导航方面的研究进程,在航天和水下机器人的应用中起到重要的作用;另一方面这种技术在未来的智能交通系统中的运用既可以避免驾驶员因判断和交通失误而引起的交通事故,提高交通系统效率,又可以最终实现无人驾驶。汽车自动驾驶是一个比较复杂的问题,难以建立精确的数学模型,如果采用模糊控制器,通过一些不精确的观察,执行一些不精确的控制,这个问题就容易解决。 模糊控制原理: 1.车辆的运动模型 现在假设汽车在某处行驶,我们需要达到的目标是:设计一个基于模糊控制的汽车自动驾驶系统,使得无论汽车的起始点在哪儿,汽车都能自动驾驶到设定的目标位置。其中,汽车的任意时刻的位置可以通过GPS获得。根据模糊规则进行推理,选择一条最优的行驶路线达到目标位置。 车辆的系统动力学模型如图1所示 : XOY是地面固定的直角坐标系,V?OcV?为车辆的相对坐标系,V?为车辆的纵向速度, V?为车辆的横向速度. θ为车辆与y 轴的夹角, 到y 轴逆时针为正, 顺时针为负. 对地面固定的坐标系xoy, 车辆的运动模型为

汽车自动驾驶系统研究设计

农机使用与维修 2011'年第1期汽车自动驾驶系统研究设计 辽宁铁岭师范高等专科学校杨学清 摘要本设计是基于电子油门的汽车,设计的一款自动控制系统。本系统能智能控制电子油门的大小,以达到 自动驾驶的目的。对于长途驾驶或者汽车的自动驾驶模式的研究探讨具有重要意义。 关键词电子油门自动驾驶定速巡航 Electroniccircuitdesigncruise YangXueqing AbstradThedesignisbased onthe electronicthrottlecars,designedanautomaticcontrolsystem.Thesystemcanintel- ligentcontrolthesizeofelectronicthmtdetoachievethepurposeoftheautopilot.Forlong—distancedrivingordrivingan automaticcarstudymodelhasimportantsignificance. KeywordsElectronicthrottleAutopilotCruise 1自动驾驶系统简介 自动驾驶系统是使汽车工作在发动机有利转带范围内,减轻驾驶员的驾驶操纵劳动强度,提高行驶舒适性的汽车自动行驶装置。自动驾驶系统英文为cruisecontrolsystem,缩写为CCS。自动驾驶系统又称为巡航行驶装置、速度控制系统、恒速行驶系统或 汽车自动驾驶系统设计附图巡行控制系统等。 巡航控制系统自1961年在美国首次应用以来,已经广泛普及。在美国大多数轿车上均装用过巡航控制系统。日本和欧洲生产的轿车装用定速自动驾驶系统的比例也越来越高。我国一汽大众生产的奥迪A6、上海大众帕萨特以及广州本田雅阁等也装了巡航控制系统。 在大陆型的国家,驾驶汽车长途行驶的机会较多,在高速公路上长时间行驶时,打开该 系统的自动操纵开关后,巡航控制系统将根据 行车阻力自动增减节气门开度,使汽车行驶速 度保持一定。汽车在一定条件下恒速行驶,大 大地减轻了驾驶员的疲劳强度。由于巡航控 制系统能自动地维持车速,避免了不必要的油 门踏板的人为变动,进而改善了汽车的燃料经 济性和发动机的排放性。基本功能是自控油 门、解放右脚、驾驶轻松;调节精神,缓解疲劳, 增加安全系数。经济定速、省油、省车。万方数据

基于CBTC控制的列车全自动驾驶系统(FAO)的发展及应用

基于CBTC控制的列车全自动驾驶系统(FAO)的发展及应用 【摘要】主要介绍全自动驾驶(FAO)系统的发展和应用情况、系统的组成和特点。介绍了车-地通信方案,对国内外车-地通信方式进行了比较,对GSM-R 网络进行了详细的分析,并指出作为无线传输的GSM-R网络具有适应我国铁路运输特点的功能优势。 【关键词】全自动驾驶;基于通信的列车运行控制系统全自动驾驶系统;双向传输;车-地通信;GSM-R 1.引言 全自动无人驾驶系统是一种将列车驾驶员执行的工作,完全由自动化的、高度集中的控制系统所替代的列车运行模式。 目前,国内许多城市都在建设城市轨道交通网络,那些人口在千万以上的特大城市,其发展往往是跨越式的,要求建设的城市轨道交通在互联互通、安全、快捷、舒适性方面具有很高的水平。许多大城市如上海、北京和广州均有计划采用先进的、高可靠的、高安全的基于CBTC(Communication Based Train Contro,基于通信的列车控制系统)控制的全自动驾驶系统(Fully Automatic Operation,FAO)来达到以上要求。 2.FAO的系统结构 FAO系统实现列车的自动启动及自动运行、车站定点停车、全自动驾驶自动折返、自动出入车辆段等功能,同时对列车上乘客状况、车厢状态、设备状态进行监视和检测,对列车各系统进行自动诊断,将列车设备状况及故障报警信息传送到控制中心,对各种故障和意外情况分门别类,做出处置预案。 2.1 信号系统主要包括以下部分 (1)控制中心设备:中央自动列车监督系统(Automatic Train Supervision,ATS)、电力SCADA系统和综合监控系统。(2)轨旁设备:轨旁列车自动防护/列车自动驾驶系统(Automatic Train Protection and Automatic TrainOperation,ATP/ATO)、车站ATS系统、联锁CI系统、定位系统和综合维护系统。(3)车载设备:车载地车无线接收/发送单元、车载ATP/ATO设备、牵引和制动、列车定位系统。(4)地车信息传输系统:一般采用基于通信的多服务的冗余数据传输系统(Data Tansm issionSystem,DCS),实现地车的双向信息传输。目前主要的CBTC系统实现地车信息传输的方式有:交叉环线、泻漏波导/漏缆、无线传输等。(5)列车定位系统:车载速度传感器和雷达传感器对于FAO系统,实现列车安全控制和间隔控制与传统列车自动控制系统(Automatic Train Control,ATC)的基本组成、功能和安全性要求是一样的,特殊的是对这些相关系统的可靠性、可用性及应急预案处理的要求将大大提高

汽车与自动驾驶系统

第十一章汽车与自动驾驶系统 ?第一节概述 ?第二节世界智能车辆的研究与发展 ?第三节智能车辆系统结构与微机测控系统 ?第四节基于视觉导航的智能车辆模糊逻辑控制 ?第五节智能车辆的自主驾驶与辅助导航 ?第六节小结

11.1 概述 ?11.1.1 汽车自动驾驶概念 ?是指借助车载设备及路侧、路表的电子设备来检测周围行驶环境的变化情况,进行部分或完全的自动驾驶控制的系统,目的是提高行车安全和道路通行能力。 ?该系统的本质就是将车辆——道路系统中的现代化的通信技术、控制技术和交通信息理论加以集成,提供一个良好的驾驶环境,在特定条件下,车辆将在自动控制下安全行驶。 ?从当前的发展看,可以分为两个层次: 是车辆辅助安全驾驶系统,或者是先进的车辆控制技术; 是自动驾驶系统,或者称为智能汽车,智能汽车在智能公路上使用才能发挥出全部功能,如果在普通公路上使用,它仅仅是一辆装备了辅助安全驾驶系统的汽车。

11.1 概述 ?11.1.2 车辆自动驾驶系统主要目的 防止部分交通事故的发生; 提高道路利用率; 提高驾驶员方便性; 减轻驾驶员负担; 实现车辆的安全高效行驶

11.2 世界智能车辆的研究与发展 ?11.2.1 智能车辆的产生与发展 它的研究始于20世纪50年代初美国Barrett Electronics公司开发出的世界上第一台自动引导车辆系统(Automated Guided Vehicle System,AGVS) 1974年,瑞典的Volvo Kalmar轿车装配工厂与Schiinder-Digitron公司合作,研制出一种可装载轿车车体的AGVS,并由多台该种AGVS组成了汽车装配线,从而取消了传统应用的拖车及叉车等运输工具。 20世纪80年代,伴随着与机器人技术密切相关的计算机。电子、通信技术的飞速发展,国外掀起了智能机器人研究热潮,其中各种具有广阔应用前景和军事价值的移动式机器人受到西方各国的普遍关注

相关主题
文本预览
相关文档 最新文档