基于双目视觉的机器人环境建模技术研究概述.docx

上传人:b****1 文档编号:13691637 上传时间:2023-06-16 格式:DOCX 页数:22 大小:648.69KB
下载 相关 举报
基于双目视觉的机器人环境建模技术研究概述.docx_第1页
第1页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第2页
第2页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第3页
第3页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第4页
第4页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第5页
第5页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第6页
第6页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第7页
第7页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第8页
第8页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第9页
第9页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第10页
第10页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第11页
第11页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第12页
第12页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第13页
第13页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第14页
第14页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第15页
第15页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第16页
第16页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第17页
第17页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第18页
第18页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第19页
第19页 / 共22页
基于双目视觉的机器人环境建模技术研究概述.docx_第20页
第20页 / 共22页
亲,该文档总共22页,到这儿已超出免费预览范围,如果喜欢就下载吧!
下载资源
资源描述

基于双目视觉的机器人环境建模技术研究概述.docx

《基于双目视觉的机器人环境建模技术研究概述.docx》由会员分享,可在线阅读,更多相关《基于双目视觉的机器人环境建模技术研究概述.docx(22页珍藏版)》请在冰点文库上搜索。

基于双目视觉的机器人环境建模技术研究概述.docx

基于双目视觉的机器人环境建模技术研究概述

目录

1绪论1

2选题依据2

2.1课题研究目的2

2.2课题研究意义2

2.3国内外研究动态3

2.3.1国外研究动态3

2.3.2国内研究动态5

2.4目前存在的问题6

3课题研究拟采用方法和手段7

3.1立体视觉技术综述7

3.2图像获取7

3.3图像预处理7

3.4特征提取8

3.4.1基于灰度特征提取8

3.4.2统计方法的目标特征提取9

3.4.3基于彩色图像目标特征提取9

3.4.4合成颜色信息的目标特征提取9

3.5摄像机标定9

3.5立体匹配12

3.5.1匹配准则12

3.5.2匹配算法13

3.6环境建模14

3.6.1栅格地图模型15

3.6.2几何地图模型15

3.6.3拓扑模型16

3.7环境特征识别16

3.8环境建模与定位17

4实验条件,研究过程中可能遇到的困难和问题19

4.1实验条件19

4.2可能遇到的困难和问题19

5论文工作和经费的估计20

6论文工作计划21

参考文献22

1绪论

视觉导航技术成为移动机器人的关键技术之一。

它的主要功能包括对各种道路场景进行识别和理解、障碍物的快速识别和检测,从而确定移动机器人的可行区域。

随着机器人技术和信息技术的结合,视觉传感器因为信息量大、应用范围广,所以在智能机器人的研究中占用很重要的位置。

但是视觉传感器的不确定性给机器人的实时环境感知和定位问题带来了巨大的挑战,直接影响到机器人导航的效果。

所以探索适合于在家庭动态环境下应用的服务机器人立体视觉障碍物检测技术,以解决目前国内在动态非结构环境下的家用服务机器人的实时环境建模和导航技术中存在的问题和不足显得非常必要。

这对于打破国外发达国家在智能服务机器人领域的相关技术封锁,提高我国智能服务机器人的技术水平,促进我国智能机器人产业的发展,满足我国对未来多种类的高性能智能服务机器人需求具有重要的战略意义[1]。

视觉传感器在移动机器人导航,障碍物识别中的应用越来越受人们重视,一方面由于计算机图像处理能力和计算机相应技术的发展,加之视觉系统具有信号探测范围宽、目标信息完整、获得环境信息的速度快等优势;另一方面由于激光雷达和超声的原理都是通过主动发射脉冲和接受反射脉冲来测距的,多个机器人一起工作时相互之间可能产生干扰,同时它们对一些吸收性或者透明性强的障碍物无法很好的识别。

利用摄像机所拍摄的图像信息划分出机器人行进道路上的可行区域和障碍物区域,并得到障碍物的位置信息,提供给机器人导航的避障控制系统。

本课题基于新松公司的服务机器人项目研究。

完成环境建模和自定位工作。

2选题依据

2.1课题研究目的

自主式移动机器人要做到无人干预的情况下实现有目的的移动和完成相应任务,就需要各种传感器来感知周围的环境,从而完成任务和实现导航。

本课题研究的是基于双目立体视觉的障碍物检测系统。

根据周围环境信息,快速检测障碍物是移动机器人视觉导航的关键技术之一[1~2]。

应用立体视觉进行导航的自主机器人车利用多个(一般两个)摄像机获得场景的二维图像信息,通过立体视觉算法,确定自主机器人车所在位置的三维路况信息,从而起到导航作用。

2.2课题研究意义

近年来随着传感器等领域的技术进步,智能机器人系统开始应用在服务行业中,开辟了机器人自主服务的新领域。

以往服务机器人的研究和开发主要在大学和研究所中进行,如今越来越受到企业界和商业界的重视。

室内服务机器人的出现主要原因有:

一是人们想摆脱令人烦恼枯燥的重复性工作,如家务劳动、照料病人等等;二是电器设备成本的下降。

由服务机器人代替人完成家务劳动,是一项有良好应用前景的高技术行业[2~3]。

机器人要在某一环境中自主运动,一个基本问题就是确定自身及周围物体在环境中的障碍物。

障碍物检测技术在机器人的实际应用中是必不可少的,是实现运动和其他任务的基础,并且有较强的工程背景,涉及较多的领域,是一个具有重要研究价值的课题。

基于视觉的室内移动机器人室内障碍物检测将随着各种室内服务机器人的发展而不断发展,代表了国际自主移动机器人技术的发展方向[25]。

双目视觉系统能够获得场景的景深和三维信息。

对于基于主动视觉的移动机器人来说,双目视觉系统对目标物体位置的确定比单目视觉系统要容易的多,尤其是可以通过计算机重建周围景物的三维形状和位置。

双目视觉系统比单目视觉系统更加接近于人的双眼,易于确定景物中的重要信息。

但获取场景位置的三维信息需要从不同的角度,同时拍摄两幅景物的图像进行对应基元匹配。

由于两摄像机的观察位置不同,同一空间点在两幅图像上投影点的灰度值并不完全相同。

同时,完成两幅立体图像对应基元的匹配,计算复杂,实时性较差。

因此,与人眼能瞬时完成对双眼看到的图像的对应匹配相比,机器人双目立体视觉方法仍显得相当笨拙而且不准确,需要进一步的研究[3]。

本课题研究的基于双目立体视觉的服务机器人导航系统,利用安放在机器人本体上的双目立体摄像机,以达到视觉信息互补,扩大观察范围的目的;同时利用立体视觉的测距原理,实现移动机器人在己知环境的视觉自定位和未知环境的同时定位与地图创建。

双目立体视觉环境建模技术的研究成功,对解决家庭动态非结构环境下移动机器人的自主定位与导航具有十分重要意义[3]。

2.3国内外研究动态

智能移动机器人的研究在国外已经开展了几十年,许多公司和研究所都推出了自主研究的智能服务机器人;而在国内,智能移动机器人的研究处于起步阶段,有一些科研机构和院校取得了一些成果[24]。

2.3.1国外研究动态

日本、美国和韩国处在服务机器人领域的研究和应用的前沿。

日本索尼公司开发出世界上第一个会跑的机器人,机器人名字叫“QRIO”。

QRIO身长50厘米,和人一样长着两只脚,外形像人,如图2.1所示[4]。

图2.1索尼公司的QRIO

为了提高QRIO的导航和自定位能力,QRIO由两个CCD彩色摄像头提供视觉,让它可以立体地观察场景,并判断自身与目标间的距离,确定最优的路线。

三菱重工展示的家庭用机器人“wakamaru”能通过视觉系统识别家庭成员的脸部特征,并能在下一次见面时辨识出家庭成员的身份,wakamaru的导航主要通过在机器人顶部的摄像机辨识天花板的标志来完成的[7]。

美国iRobot公司推出室内地毯和地板清洁机器人,具有污物探测功能,可根据房间地面的具体情况进行有重点的清洁,主要利用超声波进行导航,并未配备视觉系统。

如图2.2所示[23]。

图2.2地板清洁机器人

韩国的“irobi”是一种既能看家又会唱歌的机器人,不仅可以自动避开障碍物,在房间内自由走动,而且家里无人的时候,可以通过外设的电脑装置确认大门是否上锁和煤气是否已经关闭。

假如有人闯进家门,irobi可以利用视觉系统将其拍摄下来,给主人发电子邮件。

如图2.3[5]。

图2.3韩国的IROBI

2.3.2国内研究动态

国内服务机器人的研究主要集中在科研机构和院校。

主要研究机构有中科院自动化所、北京理工大学、哈尔滨工业大学和新松公司。

中科院自动化所研制的CASIA-I是一种集多种传感器、视觉、语音识别与会话功能于一体的智能移动机器人。

北京理工大学所研制的“汇童”是具有视觉、语音对话、力觉、平衡觉等功能的自主知识产权的仿人机器人,如图2.4所示。

它突破了仿人机器的复杂动作设计技术,首次实现了模仿太极拳、刀术等人类复杂动作。

它的成功研制标志着我国继日本之后成为第二个掌握集机构、控制、传感器、电源于一体的高度集成技术的国家[1]。

图2.4北京理工大学“汇童”

哈尔滨工业大学研发的全方位智能服务机器人具有7个自由度仿人形机械手臂,如图2.5所示,可以完成像打招呼、倒水等复杂动作,独立行走无外接电源,通过操作系统就可遥控指挥。

机器人可实现一定范围内的机器人全方位自主移动,自动避障,路径规划,一定语言范围内的人机对话,通过语音控制或遥控方式控制机器人的移动、转向等动作。

机器人还可以进行跳舞、唱歌、背唐诗等表演,通过多媒体计算机还可进行查询及场景解说。

可广泛应用于宾馆、商场、科技馆、博物馆、游乐园等服务场进行宣传、迎宾服务、导游、导购等工作[3]。

图2.5哈尔滨工业大学的导游机器人

 

2.4目前存在的问题

目前,国内的许多研究主要集中在单目视觉导航方面,单目视觉导航的优点在于实现简单,在一些场合得到了广泛的应用,比如生产线的监控、产品的分类等等。

而单目视觉不足之处也很明显:

单个摄像机的观察范围相对有限,更为重要的是,单个摄像机的信息只能进行图像中的物体跟踪,而不能得到物体在真实世界中的位置[8]。

本课题研究的基于双目立体视觉环境建模技术,利用两个安放在车体上不同位置的摄像机,可以扩大系统的观察范围,这样可以达到视觉信息互补,扩大观察范围的目的;同时还可利用立体视觉的原理恢复物体的三维信息,实现移动机器人的视觉导航和其他一些任务。

双目立体视觉导航系统的研究成功,对降低移动机器人整体成本,提高机器人的整体可靠性,进而创造更多经济效益都是很重要的。

双目视觉所存在的关键问题是立体视觉的匹配问题,到目前为止还没有特别好的方法达到完美的匹配从而实现客观实际的三维重构[6]。

3课题研究拟采用方法和手段

3.1立体视觉技术综述

一个完整的双目立体视觉系统根据现实中最普遍的环境,选择在平行立体视觉系统中,从不同视点获取物体的序列图像。

双目视觉基本原理是从两个视点观察同一景物,以获取在不同视角下的感知图像,通过三角测量原理计算图像像素间的位置偏差(视差),从而获取景物的三维信息。

这一过程与人类视觉的立体感知过程相类似[1]。

3.2图像获取

图像获取是图像处理的前提和立体视觉的物质基础。

常用的硬件设备有扫描仪、数字相机、摄像头和视频采集卡。

在图像采集时不但要满足系统的应用要求,而且要考虑视点差异、光照条件、摄像机性能以及景物特点等因素的影响。

立体图像是对同一景物从不同视点捕获的多幅图像,其获取的方式很多,主要取决于应用的场合和目的。

对于双目立体视觉系统来说,有许多方法采集图像,获取这些图像的视点可以在一条直线上,也可以在一个平面上。

本课题中重点为障碍物的图像获取,采用立体视觉的方法检测障碍物,对需要判定的每一对左右图像像素点进行立体视觉的计算,得到其高度和深度信息,高度值高于地面一定阈值的点被认为是障碍点,深度值小于一定阈值则需要改变行进方向。

在感知范围不太大和遮挡范围比较小的情况下,可以采用光轴平行,基线共线的位置布置,将会大大简化后续图像处理的过程。

双目立体视觉的图像获取是由视觉坐标测量机带动摄像头通过移动或旋转来拍摄场景中的被测物体,最终获得双目立体图像对[11]。

3.3图像预处理

图像采集设备得到的图像是一幅含有较多噪声的图像,必须经过预处理,除去大量的噪声信号,使图像更清晰。

图像预处理包括图像变换、细节增强和图像恢复。

图像预处理技术主要是提高图像数据中的信噪比、进行背景的抑制等,目的是减轻后续处理部分的数据处理压力,以满足图像处理系统的实时性要求,而且预处理的好坏将直接影响到后面的特征体提取和匹配。

图像处理技术有两种方法:

空间域法和频率域法。

空间域法主要是在空间域内对象素直接运算处理,例如中值滤波、高通滤波等。

频率域法就是在图像的某种变化域内,对图像的变化值进行运算,如先对图像进行傅立叶变换,再对图像的频域进行滤波处理,最后将滤波处理后的图像变换值反变到空间域,从而达到消除噪声,抑制背景的目的。

3.4特征提取

为了确定场景中同一物点在两幅不同图像中的对应关系,要选择合适的图像特征进行匹配,目前尚没有一种普遍适用的理论可运用于图像特征的提取,从而导致了匹配特征的多样性。

常用的匹配特征主要有点状特征、线状特征和区域特征等。

一般来讲,大尺度特征含有较丰富的图像信息,在图像中的数目较少,容易得到快速匹配,但它们的定位精度差,特征提取与描述困难。

而小尺度特征数目较多,其所含信息较少,因而在匹配时需要较强的约束准则和匹配策略,以克服歧义匹配和提高运算效率。

良好的匹配特征应具有可区分性、不变性、稳定性、唯一性以及有效解决歧义匹配的能力。

3.4.1基于灰度特征提取

空间形状提取目标特征的方法。

图像的形状空间一般表现为区域、纹理的轮廓等形式,从这些空间分布提取目标特征的较为成熟的方法有边缘检测、区域分割的相关性检测等,每种方法又发展了许多具体的实现方式,如边缘检测中常用的有Robert算子、拉氏算子、Canny算子、Sobel算子等,区域分割算法有典型的区域生长法。

3.4.2统计方法的目标特征提取

采用统计方法描述和分析图像的统计特性。

如图像的直方图,然后再根据这些特性提取图像的统计特征。

将图像作为矩阵进行分析和计算,通过各种代数变换,得到图像矩阵的特征向量。

矩阵的特征向量是矩阵的不变特征,所以图像矩阵的特征向量一定程度上代表了图像的特征。

3.4.3基于彩色图像目标特征提取

彩色图像包含丰富的彩色信息,人们对彩色图像处理的研究多集中于对颜色信息的关注。

利用颜色空间各个颜色分量提取目标特征。

彩色图像颜色空间的各分量可以被当作灰度图像中的灰度值进行运算,所以这类目标特征提取方法可以采用基于灰度图像的目标特征提取方法。

如进行阈值分割,区域分割,直方图统计等。

3.4.4合成颜色信息的目标特征提取

根据颜色空间中各颜色成分的特性,采用一定的方法将各颜色成分合成为一个或者多个颜色信息,然后对各个颜色信息采用灰度图像目标特征提取的方法提取目标特征。

合成后的颜色信息都具有一定的代表性,它们不仅能够准确表达彩色图像的颜色特征,而且在减少图像处理的计算量。

当目标颜色单一,且与周围物体颜色不相似时,可以简化处理,只利用色度H进行目标的检测,这样大大的缩短了彩色图像的处理时间。

3.5摄像机标定

摄像机标定是为了确定摄像机的属性参数,建立立体视觉测量的成像模型和可以确定摄像机的位置,以便确定被测物体在空间坐标系中的特征点同它在图像平面上像点之间的对应关系。

立体视觉的基本任务之一是从摄像机获取的图像信息出发计算三维空间中物体的几何信息,并识别和重建物体,而空间物体表面某点的三维几何位置与图像中对应点之间的相互关系是由摄像机成像的几何模型所决定的,这些几何模型的参数就是摄像机的参数。

在大多数条件下必须通过实验才能得到这些参数,这个过程被称为是摄像机标定[12]。

摄像机的标定需要确定摄像机内部参数(即摄像机的几何和光学特性)和确定摄像机的外部参数(即相对一个世界坐标系的摄像机坐标系的三维位置和方向。

)根据测量任务和工作环境,确定传感器模型。

对于双目立体视觉测量技术,摄像机或数码相机是利用计算机图像处理技术对物理世界进行三维重建的基本测量工具。

对摄像机的标定是立体视觉领域里从二维图像提取三维空间信息必不可少的关键一步。

为了确定摄像机的位置、属性参数和建立成像模型,以便确定空间坐标系中物点同它在图像平面上像点之间的对应关系。

本系统采用的摄像机的角点检测标定方法,来得到摄像机的参数。

标定计算的复杂度与摄像机成像几何模型的复杂性有关。

摄像机标定是计算机视觉中的一个重要研究内容,摄像机模型建立的有效与否,将直接关系到空间景物三维重建的精度[5]。

在计算机视觉系统中涉及到以下几种坐标系,图像像素坐标系:

表示场景中三维点在图像平面上的投影。

表示场景中三维点在图像平面上的投影,其坐标原点在图像平面的左上角,

轴平行于图像平面水平向右,

轴垂直于

轴垂直向下。

坐标值用

来表示,且表示的是该像素在数组中的列数和行数。

图像物理坐标系:

图像坐标系只是表征像素的位置,而像素并没有实际的物理意义。

因此,需建立具有物理单位(如毫米)的平面坐标系。

其坐标原点在CCD图像平面的中心

轴分别平行于图像像素坐标系的坐标轴,坐标用

来表示。

摄像机坐标系:

以摄像机的光心为坐标系原点,

轴平行于成像坐标系的

轴,摄像机的光轴为

轴,坐标系满足右手法则。

光轴与成像平面的交点称为图像主点。

即以观察者为中心的坐标,将场景点表示成以观察者为中心的数据形式,用

表示。

世界坐标系:

也称为绝对坐标系,用于表示场景点的绝对坐标,用

表示。

图3.1摄像机坐标系

[1]

上式中

矩阵,称为投影矩阵;

称为扭转因子,

完全由

决定,

只与摄像机内部结构有关,称为摄像机内参数矩阵;

由摄像机相对世界坐标系的方位决定,称为摄像机外部参数。

根据摄像机的模型可以分为三种类型:

线性标定法,非线性标定法和两步标定法。

本课题初步定为使用opencv进行摄像机标定[21]。

求解出摄像机的六个外部参数,即摄像机的光心坐标和光轴方位的信息。

上式就是摄影测量学中最基本的共线方程。

说明物点、光心和像点这三点必须在同一条直线上。

这是针孔模型或者中心投影的数学表达式。

根据共线方程,在摄像机内部参数确定的条件下,利用若干个已知的物点和相应的像点坐标,就可以求解出摄像机的六个外部参数,即摄像机的光心坐标和光轴方位的信息。

3.5立体匹配

立体匹配是对所选特征的计算,建立特征间的对应关系,将同一个空间物理点在不同图像的映射点对应起来,并由此得到相应的视差图像,它是双目立体视觉中最重要也是最困难的问题。

当空间3-D物体被投影为2-D图像时,同一景物在不同视点下的图像会有很大不同,而且场景中的很多因素如光照条件、景物几何形状和物理特性、噪声干扰和畸变、摄像机特性等,都被综合成单一图像中的RGB值,因此要准确解决如此多干扰因素是十分困难的,在复杂场景中,如何提高算法的去歧义匹配和抗干扰能力,降低实现的复杂程度和计算量是立体匹配的关键所在。

3.5.1匹配准则

(1)外极线约束

由景物点P光心线构成的平面称为外极平面,光心连线与两个像平面的交点称为外极点,外极线平面与两个像平面的交线称为外极线。

若有外极点存在,则所有的外极线都通过其所在平面的外极点。

若两个像平面共面且焦距相等,则外极点不存在,但这不影响外极线的存在。

左图像中任意一个像点在右图像中的匹配点一定在右图像中的外极线上。

类似地,右图像中像点在左图像中的匹配点一定在左图像中的外极线上,这就是所谓外极线约束。

外极线约束将匹配搜索范围从二维缩小到一维,不仅大大降低了计算量,也减少了错误匹配的可能性,是立体视觉中最重要、鲁棒性最强的约束。

(2)唯一性约束

一般情况下,一幅图像上的一个特征点只与另一幅图像的特征点唯一对应。

(3)连续性约束

物体表面一般都是光滑的,因此物体表面上各点在图像上的投影是连续的,其视差也是连续的。

比如,物体上非常接近的两点,其视差也十分接近,因为真

深度值不会相差很大。

但是,在物体边界处,比如边界两侧的两个点,连续性约

束并不成立。

(4)相似性约束

空间物体的一点在两幅图像上的投影在某些物体度量上(如灰度、灰度梯度变化等)或几何形状上具有相似性。

比如,空间中某一个多面体的顶点,在图像中的投影应是某一多边形的顶点。

(5)顺序一致性约束

一幅图像的一条极线对应着另一幅图像中的一条极线,而且它们上面的对应点的排列顺序是不变的。

但是,如果视点的方位变化很大,这个约束条件可能不被满足。

3.5.2匹配算法

基于区域相关的匹配算法是目前最简单、易于用硬件实现的匹配方法。

它是把一幅图像中的某一点灰度邻域作为模板,在另一幅图像中搜索具有相同(或者相似)灰度值分布的对应点领域,从而实现两幅图像的匹配,在搜索过程中,通常是以相关函数作为两个搜索领域的相似性测度。

基于特征的匹配通过灰度导出符号特征来实现匹配。

其通过有选择的匹配能表示景物自身特性的特征,通过更多的强调空间景物的结构信息来解决匹配歧异性问题。

基于特征的匹配方法将匹配搜索范围限制在一系列稀疏的特征上。

利用特征间的距离作为度量手段,具有最小距离的特征对就是最相近的特征对,也就是匹配元素。

特征间的距离度量有最大最小距离、欧式距离等。

大多数方法都通过增加约束来减少对每一个特征可能的对应特征数量。

常用的有极线约束、唯一性约束以及连续性约束等。

关于特征的选取,首先应该使选取的特征对应可视景物的一定特征,并且这种景物特征能够在两幅图像中产生相似的结果;其次,对所处理的图像来说,所选取的特征的分布还应该能够尽可能地避免误匹配的产生。

常用得匹配特征有图像的边缘点、角点、拐点等灰度不连续点和边缘直线等。

另外还有基于相位匹配算法等。

(6)深度恢复。

己知立体成像模型和匹配视差后,三维距离的恢复是很容易的。

影响距离测量的因素主要有:

摄像机标定误差、特征检测与匹配定位精度。

一般来讲,距离的测量精度与匹配定位精度成正比,与摄像机基线长度成反比,要设计一个精确的立体视觉系统必须综合考虑各方面的因素,保证各个环节都有较高的精度。

3.6环境建模

为实现已知环境下移动机器人的定位导航,必须给定环境模型。

对于已有的各种环境模型描述,基于特征的环境模型以准确和简明的特点明显优于栅格式环境模型和拓扑模型,并且国内外的研究重点也集中到基于特征的环境模型上,因此这里也以基于特征的环境模型作为主要的模型描述形式。

而在未知模型环境下的定位导航,为了能够应用于大规模的环境,考虑构造拓扑模型和基于特征的几何模型的分级混合模型,局部环境以基于特征的几何模型描述,而全局环境则以拓扑模型来描述,但拓扑节点仍是基于特征的形式。

环境建模就是移动机器人通过传感器的感知信息,进行分析处理,从而创建环境地图或更新环境地图的过程[21]。

定位是确定机器人在其作业环境中所处的位姿的过程,更具体的说,是利用先验的环境地图信息、机器人位姿的当前估计以及传感器的观测值等输入信息,经过一定的处理和变换,产生更加准确的对机器人当前位姿的估计。

路径规划是按照某一性能指标搜索一条从起始状态到目标状态的最优或近似最优的无碰路径。

环境建模主要研究移动机器人所处环境的自主表达和模型的创建问题。

为了保证移动机器人在环境中安全地完成任务,必须了解其所处的环境信息,主要途径是对环境特征进行合理表达,建立起适当的环境模型,以此来指导移动机器人的导航和控制,安全可靠的完成既定的任务目标。

受移动机器人应用范围的局限,早期的环境建模研究主要针对室内外结构化环境,大多是建立在避障概念上的,通过地图创建的方法来解决[30][31]。

这些结构化环境通常考虑二维的情况,或者采取某些近似或简化将三维转化为二维表示。

随着室外非结构化环境中移动机器人的发展,对环境的建模对象从障碍物的分布扩大到了更广泛的范围,如环境的地形信息等。

从实时应用的角度上来说,环境模型应该满足一下三个条件:

便于实时计算,即时间复杂度问题;便于保持、更新和扩展,即空间复杂度问题;便于移动机器人依靠其信息来完成特定的任务,即环境表达的合理性问题。

主要的地图环境模型表示方法有以下几种:

3.6.1栅格地图模型

栅格地图最早由Elfes和Moravec提出。

其基本思路是:

对于2D的栅格地图,整个环境空间被分割成为均匀的单元栅格,每个栅格赋予一个概率值来表示其被障碍物占据的可能性。

从而,整个空间被分成了占用空间和空置空间。

这种二维栅格地图又通常被称之为占据栅格(OccupancyGrid)。

对于三维环境下的地形建模,由栅格地图发展出数字高程图(DigitalElevationModel,DEM)的概念,将地面划分为大小相同的栅格,每个栅格上赋予一个高度值来表示其地形的高度信息。

这种DEM地图通常用于遥感领域例如基于激光、超声的地形感知等。

栅格地图方法是一种近似描述,每个栅格直接对应实际的环境区域,具有稠密型,同时易于创建和维护,对障碍物的形状不敏感,因而得到了广泛的研究和应用。

但当在大型环境中或栅格单元划分较细以提高分辨率时,将要增加运算的时间和空间复杂度,使得计算机的实时处理变得困难。

由于传统的栅格表示方法的复杂性,可以采用更有效的四

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 自然科学 > 物理

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2