您的当前位置:首页机器人视觉伺服研究综述

机器人视觉伺服研究综述

来源:小侦探旅游网
维普资讯 http://www.cqvip.com 第3卷第2期 2008年4月 智 能 系 统学报 Vo1.3 No.2 Apr.2008 CAA1 Transactions on Intelligent Systems 机器人视觉伺服研究综述 方勇纯 (南开大学信息技术科学学院,天津300071) 摘要:首先对于3种机器人视觉伺服策略,即基于位置的视觉伺服、基于图像的视觉伺服以及2.5维视觉伺服进行 了讨论.然后,对于视觉伺服的研究方向和面临的主要问题,如机器人位姿提取、视觉伺服系统的不确定性研究、图 像空间的路径规划、智能视觉伺服等进行了分析和讨论.在此基础上,对_丁机器人视觉伺服领域的未来研究重点,包 括如何使参考点位于视场之内,高速伺服策略以及鲁棒视觉伺服技术进行了分析和展望. 关键词:机器人;视觉伺服;轨迹规划;鲁棒性 中图分类号:TP24文献标识码:A文章编号:1673 4785(2008)02—0109—06 A survey of robot visual servoing FANG Yong chun (College of Information Technical Science,Nankai University,Tianjin 300071,China) Abstract:In this survey of visual servoing in robotics three visual servoing strategies are discussed:posi— lion—based visual servoing。image—based visual servoing,and 2.5 D visual servoing.The main research di— rections and some challenging problems in the visual servoing field are discussed,including the extraction of position/pose information from images,uncertainties in visual servoing systems,path planning in an im— age space,and intelligent visual seroving.Additionally,possible future research areas are analyzed.Ex amples are the challenge of keeping reference points within camera images,fast servoing strategies,and robust visua1 servoing technologies. Keywords:robot;visual servoing;path planning;robustness 为了使机器人能够在不确定动态环境下工作, 必须提高它的学习能力与智能化水平,使其在恶劣 或者危险环境下完成自身定位、地图构建、自主搜索 等任务.为此,必须为机器人本体装配各种传感器, 踪 .这是一个集计算机、机器视觉、自动控制、机 器人、实时系统分析等领域于一体的新兴交叉学 科 .近年来,随着图像处理、模式识别等领域的快 速发展,图像中蕴含的信息被更多地挖掘出来并得 使它们能够获取关于外部环境的有关信息. 视觉传感器由于具有成本低、信息 #富、算法简 单、可靠性高等优点而被广泛应用于机器人控制系 统,因此基于视觉的机器人控制——视觉伺服逐渐 发展成为机器人领域最活跃的研究方向之~.所谓 以应用,视觉伺服的精度和可靠性也日益提高,因此 增强了机器人对周围环境的学习能力,使其能够根 据对环境的了解来进行智能决策,并完成指定的任 务. 机器人视觉伺服,就是采用视觉传感器来间接检测 机器人当前位姿或者其关于目标体的相对位姿,在 1 机器人视觉伺服策略 根据反馈信息类型的差别,机器人视觉伺服一 此基础上,实现机器人的定位控制或者轨迹跟 收稿日期:2007—09—20. 基金项目: 家自然科学基金资助项臼(60574027);天津市也用基础 研究计划资助项同(07J('YBJC05400);教育部新世纪优秀 人才支持计划资助项目(NCET一06 0210). 通讯作者:方勇纯.E—mail:yfang@robot.nankai.edu.cn. 般分为基于位置的视觉伺服( 维视觉伺服)和基于 图像的视觉伺服(二维视觉伺服)2种 .由于这2 种伺服方法各自存在不同的缺陷,后来又提 了将 两者相结合的2.5维视觉伺服方法. 1.1 基于位置的视觉伺服 基于位置的视觉伺服基本结构如图1所示,它 维普资讯 http://www.cqvip.com 智能系统学报 第3卷 利用摄像机的参数来建立图像信号与机器人的位 置 姿态信息之间的映射,然后存伺服过程巾,借助 于图像信号来提取机器人的位置 姿态信息.并将它 们与给定位姿进行比较,形成闭环反馈控制 .显 然,这种方法成功与否很大程度上取决于能否从 像信号中准确提取机器人的位置 姿态信息.而这又 决定于摄像机参数的准确性以及图像信号中噪声的 大小.此外.对于这种方法而言.由于冈像信弓 独立 于控制环节之外.r大1此在伺服过程中,无法保证机器 人或者参考物体始终位于摄像机的视野之内 . I攀J 1 于位置的视觉f司眼基本结构 Fig.1 Scheme of position—based visual serwfing 1.2基于图像的视觉伺服 卜j■维视觉伺服不同,基于图像的视觉伺服将 实时测肇得到的图像信号 给定图像信号直接进行 在线比较.然后利用所获得的图像误差进行反馈来 形成闭环柠制 .基于图像的视觉伺服系统的结 构如图2所示. 2基于网像的视觉伺 匣基本结构 Fig.2 gcheme of image based visual servoing 基于 像的视觉伺服系统。伺服律通常选择为 T一 、0 s—s). 式中:T是控制量,J 是当前位姿的图像雅可比矩 阵.而., 则是它的伪逆矩阵。s和s 则分别表示当 前罔像坐标和目标罔像坐标.由于图像雅可比矩阵 ., 中包含有未知的深度信息。因此无法得到。, 及其 伪逆矩阵.为此,一般通过深度估计等方法来求解图 像雅可比矩阵 ,或者直接利用目标位姿的图像稚 可比矩阵来近似代替时变矩阵., ,在这种近似处理 下.上述方法只有在初始位姿位丁目标位姿附近时。 才能完成伺服任务. 基于罔像的视觉伺服对于摄像机模型的偏差具 有较强的鲁棒性.通常也能较好地保证机器人或者 参考物体位于摄像机的视野之内,但是在没计视觉 伺服控制器时,这种方法又不可避免地遇到了图像 稚可比矩阵t, 的奇异性以及局部极小等问题 . 1.3 2.5维视觉伺服策略 考虑到以上2种视觉伺服方法的局限性,法国 机器人视觉控制专家F.Chaumette等人提出了2.5 维视觉伺服 ,其基本结构如图3所示.这种方法 能成功地将图像信号与根据图像所提取的位置/姿 态信号进行有机结合,并利用它们产生一种综合的 误差信号进行反馈: P—Le, P . 式中:P,表示平移误差,它主要根据图像信号,并结 合单应矩阵H分解得到的深度比来定义: P,一[“一“ log(r) . 式中:(“, )和(“ ,・U )分别表示当前图像和目标图 像坐标,而,一则是当前深度和同标深度之间的比值. 转动误差 定义为 P 一 . 式中:p表示单位转轴. 则是与之相对应的转 角,两者都可以通过H分解后得到的旋转矩阵计算 出来.上述误差定义方法使平移控制基本上存二维 图像坐标下完成.而姿态控制则需要利用 维信息 来文现。因此这是一种将二维信息与i维信息有机 结合的混合伺服方法,通常将其称为2.5维视觉伺 服.日本机器人专家Deguchi也提 了类似的分解 与伺服方法,不同的是.Deguchi分别采用 维信息 和二维图像信息来实现平移和姿态控制 ]. 3 2.5维视觉伺服基本结掏 Fig.3 Schemc of 2.5D visual servoing 2.j维视觉伺服可以存一定程度上解决以上 提到的鲁俸性、奇异性、局部极小等问题,因此它是 非常富有前景的一种视觉伺服策略.遗憾的是,这种 方法仍然无法确保在伺服过程中参考物体始终位于 摄像机的视野之内。另外,存分解单应矩阵时,有时 存在解不惟一的问题. 2 视觉伺服领域的主要研究方向 尽管近年来,视觉伺服得到了机器人以及}1动 控制领域专家的广泛关注。并存伺服策略和视觉伺 服实际应用方面取得了较大的发展,但是现有的机 维普资讯 http://www.cqvip.com 第2期 方勇纯:机器人视觉伺服研究综述 器人视觉伺服策略没有综合考虑系统中的各种不确 定因素,如摄像机内/外参数的标定误差、图像信号 中的噪声等,致使所设计的系统精度和可靠性不高, 对于环境因素的变化缺乏鲁棒性. 因此,如何有机地将各种先进控制方法应用于 视觉伺服系统,解决系统中存在的图像偏离摄像机 视野、图像误差、摄像机参数不确定性等问题,进一 步提高视觉伺服系统的精度、效率和可靠性,是当前 机器人视觉伺服的研究热点. 2.1从图像中获取机器人位姿方法研究 视觉伺服需要实现关于机器人位置和姿态的控 制目标,为此,必须从图像中提取位姿信息来实现反 馈控制.近年来,很多专家就如何从二维图像中尽可 能准确地得到机器人位姿信息进行了研究,所采用 的主要方法是特征点匹配和图像比较,即对当前图 像和目标图像进行分析和对比,从中获得机器人位 姿与目标值之间的偏差,具体算法包括单应矩阵计 算和分解[14 15]、本质矩阵分解等 ̄16 1 7].另外,在视觉 伺服过程中,当参考物体全部或者部分偏离于摄像 机的视野之外,或者出现自遮挡(self—occlusion)等 现象时,通常需要结合图像轨迹的特点来估计单应 矩阵或者本质矩阵,在此基础上,计算得到摄像机的 位姿信号 ]. 另一方面,为了从二维图像信号中提取机器人 的位置/姿态信息,可以利用深度传感器,如激光等, 来测量深度信号,并通过传感器之间的融合来获取 位姿信息;或者是采用多个摄像机,通过立体视觉方 法来获取三维信息l1 .这些方法具有较高的精度, 但是会提高系统设计与分析的复杂度.基于这种原 因,一些机器人领域的专家采用软测量的方法来在 线估计深度信息.他们通过对视觉系统的动态特性 进行详细分析,在此基础上,利用二维图像信号,并 结合其动态特性以及其他有关信号来设计观测器, 渐近估计伺服过程中的深度信息,并进而计算得到 参考点的三维笛卡儿坐标以及机器人的位姿信 息 船j.如W.Dixon和方勇纯等人采用李雅普诺 夫方法构造了一种具有滑模结构的非线性观测器, 这种观测器可以在线估计视觉系统中的深度信号, 并实现三维直角坐标估计误差的渐近收敛[2 .而 Y.Chen等人则通过将非线性视觉系统近似为一组 线性时变系统,然后采用标准的线性观测器来估计 得到深度信息[233. 2.2视觉伺服的鲁棒性和自适应性研究 视觉伺服是一个具有非线性特性的复杂过程, 并且伺服过程中存在各种不确定因素,例如摄像机 参数的标定误差,机器人动、静态特性中的不确定因 素,以及T作环境中地面平滑程度的差异等等.为了 提高机器人伺服系统的精度和可靠性,机器人领域 的许多学者对上述不确定因素进行了深入研究.他 们将非线性控制理论应用于机器人视觉伺服系统, 分别采用自适应控制和鲁棒控制等方法来提高机器 人视觉伺服系统对于这些不确定因素的适应能力. 很多专家针对视觉伺服系统中摄像机内外参数 的不确定性进行了深入研究[2,l 30].其中,方勇纯等人 采用李雅普诺夫方法设计了一系列视觉伺服策略, 分别实现了机器手臂和直角坐标式机器人对于摄像 机内外参数的鲁棒和自适应控制[26 28].Y.I iu等人 设计了一种基于图像的动态视觉伺服策略,它可以 通过自适应算法来在线估计未知的摄像机内/外参 数,在图像信号畸变与存在噪声等情况下实现了位 置误差的渐近收敛[ .而文献[30]中,G.L.Mari— ottini等人所设计的基于图像的视觉伺服算法对于 摄像机的部分内参数,如摄像机焦距等具有较强的 鲁棒性. 在视觉伺服过程中,机器人工作环境的地理特 性以及地面的光滑程度等都会影响到伺服的精度, 因此一些专家对此进行了研究[31 32].例如,K.1ag— nemma等人设计了一种实时观测算法来估计地面 的主要特性参数,并根据估计结果进行路径规划,寻 找到合适的路径以使机器人顺利达到目标点 . 2.3视觉伺服路径规划研究 为了提高伺服系统的效率,在保证参考物体位 于摄像机视野的同时,应该尽可能地实现直线或者 准直线伺服,使机器人快速准确地达到期望位置与 姿态_3引.为了实现上述目标,很多视觉伺服系统预 先在机器人起始位姿和目标位姿之间进行路径规 划,并设计合适的控制器使机器人沿规划好的路径 运动.为此,通常是将势场(potential field)和导航函 数(navigation function)等方法应用于视觉伺服系 统来规划图像平面的路径.例如,Y.Mezouar等人 应用势场方法在图像空间构造了一条路径,并利用 二维视觉伺服使机器人跟踪这条路径[3 。 .此外, 也可以利用几何方法,根据视觉图像的运动特点来 规划伺服路径.例如,Hashimoto等人在摄像机初 始位置与目标位置之间规划了一条近似于圆周运动 的轨迹 ,以确保伺服过程中,参照物体始终位于 摄像机的视野之内. 2.4智能视觉伺服方法研究 为了处理视觉伺服系统中存在的各种不确定 性,许多专家将各种智能算法,如神经网络、模糊控 维普资讯 http://www.cqvip.com 智能系统学报 第3卷 制、遗传算法等,引入到视觉伺服系统中,通过智能 视觉伺服来提高系统的可靠性.其中,基于神经网络 的视觉伺服充分利用神经网络对于非线性映射的逼 近能力,利用它来建立机器人空间与图像空间的对 应关系 。 .这种方法无需对视觉模型等进行理论分 析,但是通常需要对网络进行大量训练,并且其外推 能力不强。因此,对于不同的T作环境,网络需要重 新学习.基于模糊规则的伺服方法则根据人类视觉 及它们之间的一系列中间图像共同构成,这样可以 将大范同的视觉伺服问题分解为若干个小范围的视 觉伺服子任务,对每个子任务而言,其目标是控制机 器人,使其到达轨迹上的相邻一幅图像;另一方面, 也可以通过主动视觉等技术来解决特征点偏离视野 的问题.例如,在伺服过程中,根据机器人的运动特 性对下一时刻的图像进行预测,在此基础上,通过云 台等来调整摄像机的方向,使参考物体尽可能位于 像平面中心. 系统的经验来计算控制信号【船 .这种方法对于环 境中的不确定性适应性强,但是伺服的精度一般不 2)高速伺服策略研究.视觉信息非常丰富,但是 高,并f=L需要较长时间来总结伺服规则. 3 结论与展望 综述国内外的研究情况可以看出,视觉伺服是 一项多学科交叉的新兴研究领域,其研究进展将促 进机器人存SI AM(机器人同时定位与地图构建)、 智能搜索等方面的研究,从而为提高机器人的智能 化水平与T作能力,扩展其在家庭服务、反恐防暴等 方面的进一步应用提供良好的技术积累. 作为当前智能机器人领域一个方兴未艾的关键 研究方向,现在世界各国.如法国、日本、美国、意大 利等发达困家都存大力进行视觉伺服方面的研究. 并取得了较大的进展.但是,现有的各种视觉伺服方 法.包括基于图像的视觉伺服、基于位置的视觉伺服 以及2.5维视觉伺服,都存在奇异性、局部极小等不 同的缺陷.此外,通常的视觉伺服系统实时性较差, 并且其中的伺服算法都局限于解决问题的某一个方 面,一般都只能适用于某些特定的理想条件,特别是 当系统中存存各种不确定因素,包括外界光照条件 变化、摄像机参数误差、机器人未知的运动特性、图 像噪声等时,现有的视觉伺服系统很难获得满意的 伺服性能. 为了将视觉伺服技术真正应蚪】于机器人系统, 必须提高视觉伺服系统的速度和精确度、鲁棒性、可 靠性以及智能化程度,使其在具有各种不确定L大j素 的复杂环境下能够可靠地1_作.根据上述目标,视觉 伺服将可能在以下几个方面进行重点研究: 1)确保伺服过程中参考物体始终位于摄像机视 野之内.对于现有的视觉伺服系统而言,当机器人的 起始位姿与目标位姿相差较远时,在伺服过程巾,参 考物体经常偏离于摄像机视野之外,致使伺服失败. 这种缺陷严重地阻碍了视觉伺服技术的进一步应 用.为了解决上述问题以提高伺服系统的可靠性,一 方面。可以采用图像平面路径规划方法,即在图像平 面上构造一条}=_I标路径.它由起始图像、 标图像以 图像采集频率不高.此外,在伺服过程中,一般要通 过特征点提取、 配、分析、比较等方法来获取机器 人的位姿以实现反馈控制.整个过程计算量很大,周 期较长.上述原因导致常见的伺服系统实时性较差, 难以满足动态目标体跟踪等场合的需要.为了拓展 视觉伺服领域的应用前景,必须开展高速视觉伺服 策略研究.一方面,需要研究计算机视觉的有关算 法,降低特征点提取和匹配等环节的复杂度,从图像 中快速可靠地获取机器人位姿信息,同时在控制方 法上应该通过图像特征预测等措施来降低信息反馈 的时延;另一方面,可以充分利用其他辅助传感器, 如移动机器人上广泛配置的光电码盘、声呐等,将视 觉和其他传感信号互相融合来提高伺服的速度. 3)鲁棒视觉伺服技术研究.为了使视觉伺服系 统能够在复杂环境下工作,必须提高它对于各种不 确定因素的鲁棒性.为此,需要从理论上分析系统中 的各种不确定因素对伺服性能的影响,在此基础上, 采用李雅普诺夫等方法来设计自适应、滑模切换等 各种非线性反馈环节,或者采用神经网络等智能控 制方法,使伺服系统能够适应自身以及环境因素的 变化,使之在外界光照条件变化、摄像机参数突变、 存在图像畸变和噪声等情况下,仍然能够获得满意 的伺服性能. 参考文献: L1 CHAUMETTE F,HU'I、CHIN )N S.Visual servo con tro[part I:basic approachesEJ2.IEEE Robotics Au tomation Magazine,2006(12):82 9O. 2【CHAUMETTE F.HUT(:HIN )N S.Visual servo con~ trol part II:advanced approachesEJ ̄.IEEE Robotics 8 Automation Magazine。2007(3):1O9 118. [3:王麟琨.徐 德,谭 民.机器人视觉伺服研究进展 :J].机器人.2004,26(3):277 282. WANG I.inkun.XU I)e, FAN Min.Survey of research on robotic visual servoing ̄J].Robot,2004,26(3):277— 282 维普资讯 http://www.cqvip.com 第2期 方勇纯:机器人视觉伺服研究综述 [4]赵清杰,连广宇,孙增圻.机器人视觉伺服综述[J].控 制与决策,2001,16(6):849—853. ZHAO Qingj ie,LIAN Guangyu,SUN Zengqi.Survey of robot visual servoingEJ].Control and Decision,2001,16 (6):849—853. [5]薛定宇,项龙江,司秉玉,等.视觉伺服分类及其动态过 程[J].东北大学学报(自然科学版),2003,24(6):543— 547. XUE Dingyu,XIANG Longj iang,SI Bingyu,et a1. Classification of robotics visual servoing and its dynamics investigation[J].Journal of Northeastern University (Natural Science).2003,24(6):543—547. [6]TAYI OR G.KI EEMAN I .Hybrid position based vis ual servoing with online calibration for a humanoid robot [C]//Proc of IEEE/RSJ International Conference on In telligent Robots and Systems.Sandai,Japan,2004:686 691. [7]CHAuMETTE F.Potential problems of stability and convergence in image-based and position-based visual servoing[C]//The Conference of Vision and Control, Volume 23 7 of Lecture Notes an Control and Information Sciences.IS.1.]:Springer—Veriag,1998. [8]CONTICEI I I F,AI I ()TTA B.Nonlinear controllabili ty and stability analysis of adaptive image-based systems 『J I.IEEE Transactions on Robotics and Automation, 2001,17(2):208—214. [9]COWAN N J,wEINGARTEN J D,K()DITAcHEK D E.Visual servoing via navigation functions[J].IEEE Trans on Automatic control,2002,18(4):卜13. [1O]MARCHAND E,COMPORT A,CHAuMETTE F. Improvements in robust 2D visual servoing[C]//Proc of the 2004 IEEE International Conference on Robotics &Automation.New Orleans,USA,2004:745 750. [11]CHAUMETTE F,BOUKIR S.Structure from con— trolled motion[J ̄.IEEE Transactions on Pattern Anal— ysis and Machine Intelligence,1996,18(5):492 504. 12 lMAI IS E,CHAUMETTE F, )DET S.2 1/2 D vis ual servoing[J].IEEE Transactions on Robotics and Automation,1999,l5(2):238—250. [13]DEGUCHI K.Optimal motion control for image-based visual servoing by decoupling translation and rotation [C]//Proc of the Intl Conf on Intelligent Robots and Systems.Es.1.].1998:705 711. [14]FAN(;-Y,BEHAI A,DIXON W E,et a1.Adaptive 2.5D visual servoing of kinematically redundant robot manipulators[c]//Proc of the IEEE Conference on De cision and Contro1.Las Vegas,USA,2002:2860 2865. [15]FANG Y,DIXON W E,DAWSON D M,et a1.Homog raphFbased visual servoing of mobile robots[J].IEEE Transactions on Systems,Man and Cybernetics Part B: Cybernetics,2005,35(5):1041-1050. [1 6]HATI EY R.Multiple view geometry in computer vi— sion[M].Cambridge:Cambridge University Press, 2004. [17]WENG J,HUANG T,AHuJA N.Motion and struc ture from two perspective views:algorithms,error a nalysis,and error estimation EJ].IEEE Trans Pattern Analysis and Machine Intelligence,1989,11(5):45卜 476. [18]CHESII G.HAsHIM()T()K.Camera pose estimation from less than eight points in visual servoingEC]//Proc of the 2004 IEEE International Conference on Robotics Automation.New Orleans,USA,2004:733 738. [1 9]PARK J s,CHuNG M J.Path planning with uncali— brated stereo rig for image-based visual servoing under large pose discrepancy[J].IEEE Transactions on Ro botics and Automation,2003,19(2):250 258. 2O}DIX()N W E,FANG Y,DAWSON D M,FI YNN T J.Range identification for perspective vision systems [J].IEEE Transactions on Automatic Control,2003, 48(12):2232-2238. [21]KARAGIANNIs D,AsT()I FI A.A new solution to the problem of range identification in perspective vision systems[J].IEEE Trans on Automatic Control,2005, 50(12):2074-2077. [22]AGuIAR A P,HESPANHA J P.Minimum energy state estimation for systems with perspective outputs lJ].IEEE Trans on Automatic Control,2006,51(2): 226 241. [23]MA I ,cHEN Y,MOORE K I .Range identification for perspective dynamic systems using linear approxima— tion[C]//Proc of the 2004 International Conference on Robotics Automation.New Orleans,USA,2004: 1658—1663. r24]PIEPMEIER J A,MCMURRAY G V,I IPKIN H. Uncalibrated dynamic visual servoing[J].IEEE Trans— actions on Robotics and Automation,2004,20(12): 143—147.  ̄25]ZACHI A。I Iu H,()RTEGA R,et a1.Immersion and invariance adaptive visual servoing of manipulators with uncertain dynamicsEC]//Proc of the American Control Conference.Boston,USA,2004:151O 1515.  ̄26]FANG Y,DIXON W E,DAWSON D M,et a1.Robust 2.5D visual servoing for robot manipu1ators[C]//Proc of the American Control Conference.Denver,USA, 2003:3311 3316. [27]FANG Y,DIXON w E,DAwS()N D M,et a1.An ex— ponential class of model—free visual servoing controllers in the presence of uncertain camera calibration[J].In— 维普资讯 http://www.cqvip.com 智能系统学报 第3卷 ternational Journal of Robotics and Automation.20O6, [36]CHESI G,HASHIM()T()K,PRATTICHIZZ()D。et 2l(4):217—255. a1.Keeping features in the field of view in eye-in-hand E28]FAN(;Y,DIX()N W E.DAWSON I)M.Adaptive visual servoing:a switching approach EJ].IEEE Trans 2.5I)visual servoing of cartesian robots[C]/ /Proc of on Robotics,2004,20(5):908—91 3. the Eighth Internalional Conference on Cont ro1.Auto— [37]谢冬梅,曲道奎,徐方.基于神经网络的机器人视觉 mation.Robotics and Vision.Kunming,China.200,1: 伺服控 ̄llEJ].微计算机信息,2006,22(4):4-6. 68—73. XIE Dongmei,QU Daokui,XU Fang.Design of robot— [29]I Iu Y.WAN(5 I-I,I.AM K.Dynamic visual servoing ic visual,servo control based on neural network EJ]. of robots in uncalibrated environment[(、]//Proc of the Control and Automation,2006,22(4):4-6. IEEE(7onference on Robotics and Automation.Barcelo— [38]张玉沽,徐纲.基于神经网络的视觉机器人模糊控制 na,Spain,2003:.3142—31L17. J].深圳大学学报(理1二版),2004,21(4):301—305. E3o]MARI()T1、INI( I ,()RI()I ()( .PRA'I—I、ICHIZZ()I). ZHANG Yujie,XU Gang.Fuzzy control of visual robot Epipol ̄%ased visual servoing for nonholonomic mobile based on neural network[J].Journal of Shenzhen Uni— robots[C] Intemati[)nal(、(erference on Robotics and versity,2004.21(4):301—305. Automation.New()rleans,USA,200 l:497—503. [39 钟金明,徐 刚,张海波.模糊逆运动学控制方法在机 r31-)IA( NEMMA K,KAN(;S,SHIBI Y H,et a1.()nline 器l人 觉伺服中的应用[J].组合机床与自动化加工技 terrain parameter estimation for wheeled mobile robots 术.2003(7):48—51. with application to planetary roversEJ].IEEE Frans on ZH()NG Jinming,XU(}ang,ZHANG Haibo.A fuzzy Robotics.2004.20(5):921—927. inference resolved motion rate control for a visual servo _l=,{ 9 7YE(、,B()RENSTEIN J.A novel filter for terrain map— robotEJ].Modular Machine TooI&Automatic Manu— ping with laser rangefinders[J ̄.IEEE Trans on Robot— facturing Technique,2003(7):48—51. ics,2004,20(5):913—921. 作者简介: [33-CHESI G,PRATTIcHIzz()D.VICIN()A.Straight 方勇纯.男,1973年生,教授,博 line path-planning in visual servoing[J].Journal of I)y— 十生导师,IEEE高级会员,中同自动化 namic Systems.Measurement.and Control,2007,1 29: 学会智能自动化专业委员会委员,主要 541 j l3. 研究方向为复杂系统非线性控制、机器 [3 4]MEZ()UAR Y.CHAUMETTE F.Path planning for 人视觉控制等.2006年入选教育部“新 robust image-based control[J].IEEE Transactions on 世纪优秀人才支持计划”,发表论文6O Robotics and Automation,2002.18(4):534—349. 多篇,其中4()余篇被SCI或EI检索. Eas:MEZ()UAR Y.(、HAuMETTE F.Path planning in image space for robust visual servoing[C ̄//Proc of In— ternational Conference on Robotics and Automation. Piscataway,USA.2000:2759—2764. 第四届拟人系统大会 2 0 0 8 International Conference Humanized Systems 自涂序彦教授存国内首次发起“拟人系统”研究以来,拟人系统科学受到广泛关注和深入研究。2005年 召开了第一扁拟人系统大会。经过几年的沉淀和积累,第四届国际拟人系统大会将于2008年l0月l9—22 日存北京召开。会议主题涉及很多领域,包括人T生命、人T情感、复杂计算、脑科学、人_T神经网络、自适应 系统、非线性系统、智能Agent、认知科学等。期盼广大研究者从不同领域、不同学科、不同视角剖析拟人科 学的奥秘和精华。希望人T智能学会的各位理事能够积极参与到“拟人系统”的研究中来,踊跃投稿,以文会 友。论文将孑F 2008年6月1日截稿,会议文章1STP检索.部分优秀论文推荐EI检索杂志发表。 联系人:杜军平(junpingdu@126.CO ̄I)。郑金鑫(ichs08@gmail。CO ̄1),工大亮(greateking@gmail. COII1). 会议网址:http://caai.cn:8086 icI1s08. 

因篇幅问题不能全部显示,请点此查看更多更全内容