机器人无标定手眼协调 作者:苏剑波著出版时间: 2010年版内容简介 本书介绍机器人手眼关系无标定协调控制的研究成果,在总结已有工作的基础上,着重探索针对动态目标任务的手眼反馈控制策略。全书分三篇描述不同的策略,各自独立又相互关联。上篇以图像雅可比矩阵为工具,讨论图像雅可比矩阵在线估计算法在构建机器人图像反馈控制器中的作用;中篇通过非线性视觉映射模型,将图像特征空间与机器人运动空间联系起来,探讨利用人工神经网络实现映射的视觉控制方法;下篇进一步分析无标定手眼协调系统内在的非线性映射关系和耦合关系,利用扩张状态观测器在线估计系统总的未建模动态,在控制器设计中加以补偿。本书可供传感信息处理和机器人智能控制领域的教师、研究人员和工程技术人员阅读参考。目录上篇 Kalman滤波方法第1章 绪论1.1 引言1.2 机器人手眼协调1.2.1 手眼协调技术的历史发展1.2.2 手眼协调系统结构1.3 无标定手眼协调及其控制方法1.3.1 问题的提出1.3.2 传统的无标定方法1.4 本篇的主要工作第2章 基于图像雅可比矩阵的无标定手眼协调2.1 图像雅可比矩阵模型2.2 图像雅可比矩阵的例子2.3 应用图像雅可比矩阵建立视觉反馈控制2.4 基于图像雅可比矩阵的手眼协调系统的性能分析2.5 无标定环境下雅可比矩阵的辨识方法第3章 基于Kalman滤波的雅可比矩阵在线辨识3.1 图像雅可比矩阵的动态辨识3.2 Kalman滤波估计算法概述3.3 图像雅可比矩阵的在线Kalman滤波辨识第4章 眼固定+眼在手上的无标定二维运动跟踪4.1 系统与任务描述4.2 全局视觉的无标定手眼协调控制4.2.1 固定摄像机观察二维运动的图像雅可比矩阵4.2.2 固定眼图像雅可比矩阵的在线Kalman估计4.2.3 固定眼的视觉反馈控制4.3 眼在手上无标定视觉伺服4.3.1 手上摄像机的图像雅可比矩阵4.3.2 眼在手上图像雅可比矩阵的估计4.3.3 眼在手上的视觉反馈控制率4.4 两种反馈控制率的切换4.5 二维运动跟踪仿真第5章 固定双目无标定三维运动跟踪5.1 双目视觉的图像雅可比矩阵5.2 图像雅可比矩阵的在线Kalman.Bucv估计5.3 基于图像雅可比矩阵的反馈控制率5.4 三维运动跟踪仿真第6章 机器人手眼协调实验系统6.1 系统整体结构6.2 机器人本体6.2.1 机器人本体控制器6.2.2 机器人端控制程序6.3 机器人视觉子系统6.3.1 系统构成6.3.2 图像卡程序开发6.3.3 彩色图像处理6.3.4 图像预处理6.3.5 图像特征与目标识别6.4 通信子系统6.4.1 子系统结构与功能6.4.2 系统通信协议设计6.4.3 模块的具体实现第7章 无标定手眼协调运动跟踪实验7.1 眼固定+眼在手上无标定二维运动跟踪实验7.2 无标定三维运动跟踪实验本篇小结参考文献中篇 神经网络方法第8章 绪论8.1 视觉伺服系统分类8.2 视觉处理8.2.1 图像特征8.2.2 视觉估计8.2.3 图像雅可比矩阵8.3 视觉控制器8.4 无标定手眼协调8.5 本篇主要工作第9章 基于神经网络的图像雅可比矩阵估计方法9.1 图像雅可比矩阵方法原理9.2 神经网络方法原理9.3 图像雅可比矩阵分析9.4 改进的图像雅可比矩阵方法9.5 仿真结果第10章 眼固定机器人平面视觉跟踪10.1 平面视觉跟踪问题描述10.2 视觉映射模型10.3 控制策略10.3.1 实时运动规划10.3.2 神经网络映射器10.3.3 仿真结果10.4 基于在线自学习的视觉跟踪10.4.1 小脑模型神经网络10.4.2 仿真结果第11章 眼固定机器人三维视党跟踪11.1 基于立体视觉的3D视觉跟踪11.1.1 问题描述11.1.2 基于融合方程的视觉跟踪方法11.1.3 视觉映射模型11.1.4 控制策略11.1.5 仿真结果11.2 基于单摄像机的三维视觉跟踪11.2.1 问题描述11.2.2 视觉映射模型11.2.3 控制策略11.2.4 仿真结果第12章 眼在手上机器人平动视觉跟踪12.1 眼在手上无标定方法的现状12.2 机器人平面视觉跟踪12.2.1 问题描述12.2.2 眼在手上机器人视觉跟踪问题分析12.2.3 视觉映射关系模型12.2.4 控制策略12.2.5 仿真结果12.2.6 视觉定位问题12.3 基于立体视觉的3一DOF无标定视觉跟踪12.3.1 视觉映射关系模型12.3.2 控制策略12.3.3 仿真结果第13章 眼在手上机器人全自由度视觉跟踪13.1 全自由度视觉跟踪问题描述13.2 全自由度视觉跟踪问题分析13.3 视觉映射关系模型13.4 控制策略13.5 模糊神经网络13.5.1 模糊系统与神经网络的比较13.5.2 一种新的模糊神经网络13.6 仿真结果第14章 视觉跟踪系统的性能分析与改进14.1 动态视觉控制与运动视觉控制14.2 眼固定构型14.2.1 系统离散域模型14.2.2 跟踪误差分析14.2.3 控制系统稳定性14.2.4 速度前馈控制器14.3 眼在手上构型平面视觉跟踪14.3.1 系统离散域模型14.3.2 跟踪误差分析14.3.3 控制系统稳定性14.3.4 加速度前馈控制器14.4 眼固定构型与眼在手上构型的比较第15章 实验研究15.1 系统结构15.1.1 机器人及其控制器15.1.2 CCD摄像机15.1.3 图像采集卡15.2 实验设计15.3 实验步骤15.4 实验结果本篇小结参考文献下篇 扩张状态观测器方法第16章 绪论16.1 引言16.2 本篇主要工作第17章 基于扩张状态观测的控制器理论及参数调整17.1 扩张状态观测器17.2 传统PID控制器结构分析17.3 自抗扰控制器17.3.1 非线性跟踪微分器17.3.2 非线性状态误差反馈控制律(NLSEF)17.3.3 自抗扰控制器(ADRC)实现形式17.3.4 自抗扰控制器适用对象17.4 自抗扰控制器的参数调整第18章 手眼协调系统建模及ADRC控制器设计18.1 系统建模18.1.1 摄像机模型18.1.2 摄像机参数18.2 系统模型18.3 控制器设计第19章 系统仿真研究19.1 全局固定摄像头无标定二维运动跟踪19.2 眼固定与眼在手上相结合的无标定二维运动跟踪19.3 固定双目无标定三维运动跟踪第20章 手眼协调控制器的稳定性分析20.1 全局固定单眼构型情况下控制器形式20.2 一阶跟踪微分器的收敛性分析20.3 二阶扩张状态观测器的收敛性分析20.4 整个控制器的收敛性能分析第21章 无标定机器人手眼协调实验研究21.1 机器人手眼协调实验系统描述21.1.1 机器人子系统21.1.2 机器人视觉子系统21.2 单眼固定无标定二维运动跟踪试验21.3 眼固定与眼在手上相结合的无标定二维手眼协调实验21.4 无标定三维手眼协调实验第22章 自抗扰控制器和雅可比矩阵在线辨识联合控制的手眼协调研究22.1 控制思想描述22.2 控制器设计22.3 仿真研究22.4 二维跟踪实验本篇小结参考文献 上一篇: 非规范知识处理的基本理论和核心技术 下一篇: 机器人导论 英文版 国外高校优秀教材精选