Backstepping+Fuzzy方法在机器人视觉伺服系统中的应用

Backstepping+Fuzzy方法在机器人视觉伺服系统中的应用

一、Backstepping+Fuzzy方法在机器人视觉伺服系统中的应用(论文文献综述)

任晓琳[1](2021)在《基于图像的机械臂视觉伺服定位及跟踪控制方法研究》文中研究说明近年来,随着机器视觉等相关领域的研究不断深入,基于图像信息对机械臂进行视觉伺服控制,不仅加强了机械臂获取信息的多样性,拓展了机械臂的空间认知力和适应性,还提高了机械臂的精确识别与精细操作的能力。除了在工业和医疗领域的应用,机械臂视觉伺服已拓展至作业空间更复杂的领域,如深海探测、爆炸物处理、灾区勘探等。传统的工业机器人按照指定的程序完成伺服任务,然而受限于工作环境的变化,其无法做出有效的决策。由此可见,能够提取精确的图像信息并制定良好的运动决策是机械臂需要掌握的技能之一,也是机械臂视觉在目标定位和跟踪控制中经常面临的一个问题。因此,针对具有自主定位和跟踪能力的机械臂进行研究具有重要现实意义。在机械臂视觉伺服系统中,由于相机在成像过程中参数不能精确获取,标定过程繁琐且容易产生误差,获得的图像本身含有大量噪声,因此图像信息的获取过程需要高效的算法作为辅助;此外,由于相机成像范围存在约束、工作环境照明强度的变化以及图像遮挡等情况,可能导致伺服任务失败;进一步地,机械臂和相机都是复杂非线性系统,且存在强耦合性和动态不确定性。综合上述分析,本文考虑环境噪声、图像特征扰动、视野约束和综合能耗等因素,对机械臂视觉伺服系统的定位与跟踪控制方法进行了深入研究。主要内容包括:考虑图像噪声的机械臂视觉伺服定位及跟踪控制方法、基于面向图像特征约束的机械臂视觉伺服混合定位控制方法、基于受图像遮挡/干扰的机械臂视觉伺服双闭环跟踪控制方法以及基于自适应动态规划的机械臂视觉伺服最优跟踪控制方法,具体研究内容如下:(1)针对视觉伺服系统的运行精度易受环境噪声和外界干扰影响的问题,本文提出了基于改进的卡尔曼滤波的图像雅克比矩阵在线估计策略。在噪声统计特性未知的情况下,利用递推估计状态模型噪声协方差矩阵,选取三段函数描述的学习统计量作为自适应因子,采用自适应抗差卡尔曼滤波(ARKF)动态调整滤波增益。在非高斯噪声条件下,利用基于最大相关熵的卡尔曼滤波(MCKF)估计图像雅可比矩阵,提高了图像特征轨迹的跟踪性能。针对静态目标的定位控制及移动目标的跟踪控制进行了数值仿真及对比分析,进一步验证了系统性能的优越性。(2)为了解决基于图像的视觉伺服控制中的视野约束和噪声干扰而带来的伺服任务失败和系统发散的问题,提出了联合光滑变结构滤波器(SVSF)与双向极限学习机(B-ELM)的混合定位控制算法。该算法估计了交互矩阵,采用B-ELM算法估计图像特征与交互矩阵之间的非线性映射函数,进而提出SVSF算法对B-ELM算法的输出矩阵重新估计,提高了控制系统对噪声的鲁棒性。进一步地,考虑超椭圆边界平滑视觉约束边界,基于双曲正切函数设计了一种新的约束函数,通过划分不同的区域来动态调整运动速度,保证图像特征在运动过程中实时可见性。(3)针对视觉伺服控制中图像遮挡和特征干扰的问题,分析了图像特征被遮挡或出现干扰图像点的多种情行。通过双自适应强跟踪卡尔曼滤波器(ASTKF)调整图像观测数据,有效估计遮挡/干扰的视觉状态和图像雅可比矩阵,便于应用于实际的机械臂平台。同时,综合考虑机械臂视觉伺服的运动学和动力学行为,结合相机不确定性及机械臂模型不确定性等因素,分别设计比例微分和滑模(PD-SMC)算法的外环速度控制器和基于自适应滑模(ASMC)算法的内环关节控制器,提出了基于遮挡/干扰的双闭环图像跟踪控制方法,进一步提高视觉跟踪精度和鲁棒性。(4)针对机械臂视觉伺服系统的能耗优化问题,研究了基于自适应动态规划(ADP)算法的图像跟踪控制方法。基于图像与力矩的映射关系,建立了一个完备的系统模型,利用评判网络获得面向最优图像特征误差的反馈控制律,进而与理想跟踪控制律结合,实现视觉跟踪控制。设计状态观测器对包括建模动力学、外部干扰、关节摩擦等的总体不确定项进行实时观测,将观测值引入代价函数对其进行改进。然后,通过ADP算法提出最优图像特征跟踪误差控制策略,同时结合理想控制律,实现机械臂视觉伺服的图像轨迹的最优控制,并利用Lyapunov稳定性定理保证了机械臂视觉伺服系统的稳定性。

武慧莹[2](2021)在《基于无模型自适应预测控制的机械臂视觉伺服控制研究》文中认为随着计算机视觉的不断进步,视觉伺服技术被引入机械臂控制领域,成为机械臂控制领域研究的核心内容之一。机械臂在工作过程中通过摄像机获得图像信息,使得操作系统更加灵活,因此,机械臂视觉伺服控制系统具有非常重要的研究价值。本文以六自由度机械臂视觉伺服系统这种结构复杂的多入多出系统为研究对象,针对视觉模型参数和摄像机内部参数未知的问题,以多入多出紧格式无模型自适应控制算法为基础,对机械臂视觉伺服系统进行了研究,主要研究内容如下:首先,考虑到图像处理的结果直接影响到控制精度,研究了图像预处理、边缘检测和特征点提取方法,给出了基于图像处理的目标物体中心点像素坐标的确定方法。其次,为解决视觉伺服系统模型不确定性对控制系统性能的影响,提出了基于无模型自适应(Model Free Adaptive Control,MFAC)的机械臂视觉伺服控制方法。使用视觉伺服系统输入输出数据设计控制器,将目标物体的特征点信息和期望特征之间的差值作为反馈信息传递给控制器驱动机械臂运动,使得目标图像特征点像素坐标达到期望位置。仿真结果验证了无模型自适应视觉控制方法在视觉伺服系统模型不确定情况下的有效性。最后,为进一步提高系统的控制精度,本文提出了无模型自适应预测控制(Model Free Adaptive Predictive Control,MFAPC)的视觉伺服控制方法。通过在每一个时刻建立机械臂视觉伺服系统等价的动态线性化数据模型,利用机械臂视觉伺服系统输入输出数据估计系统的伪偏导数,同时应用预测控制算法计算最优控制量。仿真实验验证了无模型自适应视觉预测控制方法在无标定环境下和模型未知环境下的有效性。

符金鑫[3](2021)在《基于无标定视觉伺服的微动平台精密运动控制研究》文中研究说明视觉机器人伺服是一种控制系统,它使用收集的图像信息作为反馈信号来引导机器人执行任务。在基于图像的视觉伺服系统中,图像特征变化与机器人关节角变化之间的关系是非线性的,传统的标定方法在实际的生产生活中尤其是面临较为复杂的现场环境时往往难以取得较好的标定效果进而影响视觉伺服的精度和任务完成的速度。无标定技术自被提出以来就受到了广泛的关注,基于无标定技术的视觉伺服在未知的工作条件和较为复杂的工作任务时具有较强的适应性。本文以三菱机械臂为研究对象,设计了基于无标定技术的视觉伺服控制系统。首先对采集到的图像信息进行图像滤波、增强等预处理,利用Canny等算子对处理后的图像进行阈值分割,获取目标的轮廓信息,利用基于图像矩的改进模板匹配算法对目标图像进行识别工作;其次构建了基于反向传播神经网络和遗传算法(GA-BP)混合优化的视觉伺服控制器,利用遗传算法优化神经网络初始权重和阈值,加快了图像处理的速度和精度;最后提出了一种基于极限学习机和粒子群优化遗传算法(ELMPSO-GA)的机械臂逆解算法,结合了遗传算法全局搜索能力强和粒子群算法局部搜索能力强的特点,提高了机械臂逆解精度,实现了对机械臂的精密控制。本文设计并建立了基于无标定技术的视觉伺服控制系统,实验结果表明,所提控制器相较于传统控制方法而言具有更好控制效果,可以使末端执行机构以更快的速度完成更高精度的任务,实现了对其进行精密控制的功能,为机器人控制提供了一种有效的控制方法。

杨国财[4](2021)在《空间机械臂捕获失效翻滚目标的控制方法研究》文中研究表明空间轨道存在的失效飞行器,已经严重威胁到了在轨装备的安全运行,利用空间机械臂完成轨道清障具有重要意义。但失效飞行器没有特定的抓捕接口和视觉测量靶标,绝大多数目标处于自旋复合章动的翻滚状态,捕获这类大惯量失稳目标对机械臂的控制性能是巨大的挑战。在这一背景下,以空间机械臂捕获大惯量非合作失稳目标为对象,本文对空间机械臂阻抗控制、动力学参数辨识方法、状态观测技术、抗扰动设计和基于视觉反馈的运动规划方法开展了相关研究。空间机械臂的刚度,阻尼特性的调整是捕获大惯量失效翻滚目标的关键。捕获过程可分为三个阶段:预抓捕阶段、捕获阶段和组合体稳定阶段。在不同阶段中,对空间机械臂的刚度,阻尼特性有不同的要求:预抓捕阶段,空间机械臂应表现为高刚度特性以保证高精度的伺服跟踪;捕获阶段和组合体稳定阶段,空间机械臂应降低刚度并注入关节阻尼,耗散刚性捕获产生的能量,缓冲动量在组合体间的再分配过程。阻抗控制是解决高刚度伺服与低刚度捕获这一矛盾的理想方案。空间机械臂采用轻质的谐波减速器驱动,并安装有关节力矩传感器,关节弹性对阻抗控制的影响不可忽略,且空间机械臂臂杆长,长臂杆放大关节误差,同一末端精度指标下,对空间机械臂的控制要求更为严格。本文基于柔性关节机械臂模型,设计了空间机械臂的笛卡尔空间阻抗控制算法。该算法由关节弹性力矩镇定的运动内环和调整刚度阻尼特性的阻抗外环组成:内环负责消除运动过程中柔性传动环节导致的弹性震颤,使柔性关节机械臂等效为刚性机械臂;阻抗外环在任务空间建立位置阻抗方程和姿态阻抗方程,基于期望阻抗与末端力反馈对期望轨迹进行修正,由运动内环跟踪柔顺轨迹,实现末端阻抗调整。阻抗控制器的性能取决于对外力的感知精度,为了实现自由空间下阻抗控制器的高精度运动控制,应该从关节力矩传感器输出信号中剥离机械臂的惯性力矩和科氏力矩成分,这依赖于对机械臂动力学参数的辨识。本文提出了基于浸入与不变原理的参数辨识方法,参数更新律中引入参数估计修正项,以参数估计误差作为流形,以流形不变且吸引为条件构造修正项。相比于经典的基于确定等价原则自适应控制,该方法可获得更准确的动力学参数,对兼顾实现阻抗控制器高精度运动控制和低刚度软捕获控制具有重要意义。除动力学参数不确定性外,完整的阻抗控制器还需要解决状态观测与抗扰动问题。空间机械臂关节中仅安装有电机位置、关节位置传感器和力矩传感器,其中力矩传感器约有±2Nm的测量噪声,本文设计了基于布朗运动模型的Kalman观测器,完成了通用噪声模型下的关节力矩及其高阶信息、电机速度的统一观测,并由此推算出关节状态,仅利用电机位置信息获得了控制器所需的全部运动状态,解决了空间机械臂有限传感器配置与高精度控制之间的矛盾;另外,针对电机中非线性摩擦扰动,在运动控制内环中引入了滑模观测器,补偿电机中的粘滞摩擦与库仑摩擦,实现了闭环系统对摩擦扰动的鲁棒性,同时克服了一般滑模方法中控制量震颤的缺点。阻抗控制器赋予了空间机械臂良好的控制性能,提出的基于视觉测量反馈的运动规划方法则为机械臂接近并跟踪翻滚目标提供了正确的运动指令。方法分为粗伺服和精伺服两个阶段,粗伺服将视觉测量反馈作为标志位,通过对机械臂末端速度的加-减速调整,解决了远距离测量大噪声情况下的平滑接近动目标问题;精伺服在设定时间内消除臂末端与目标之间的初始偏差,实现了对动目标的稳定跟踪。最后,搭建地面实验系统开展在轨任务验证:在三维硬件在环半物理系统中,开展机械臂视觉跟踪非合作翻滚目标实验,验证了提出的规划算法的有效性和阻抗控制器的运动控制性能;在二维地面微重力系统中,开展空间机械臂捕获大惯量运动目标实验,验证了阻抗控制算法的软捕获性能。本文的研究内容面向机械臂捕获非合作翻滚目标,对空间臂的其他在轨任务、工业机械臂规划、运动及力控同样有参考价值。

段江哗[5](2020)在《面向机器人操作的示教学习与智能控制方法研究》文中认为机器人操作的应用场景广泛、潜力巨大。但就现阶段而言大部分机器人部署在结构化环境中按照人工预定义的规则从事单一、重复和具有规律性的工作。如何结合人工智能与机器人技术,实现机器人对操作技能的理解、学习,而无需繁琐的手工编程与调试是提高机器人智能化水平、降低机器人使用门槛和部署周期、促进产业升级的重要途径。当前,随着人工智能技术的快速发展,机器人操作学习技术已成为机器人前沿领域的研究热点。基于上述研究背景,本学位论文主要研究如何让机器人理解学习任务操作中的基本运动,包括点到点运动、轨迹追踪运动、柔顺运动以及手眼协调运动等,有效解决了点到点运动学习快速性、精度与鲁棒性的权衡问题,轨迹追踪运动学习的泛化问题,柔顺运动中力位混合学习与模型参数递归更新问题等。总体而言,本论文主要研究内容与贡献如下:(1)提出了一种基于前馈神经网络的点对点运动学习框架,该方法采用了超限学习机对人类示教动作进行建模和学习,并通过将李雅普诺夫稳定性判据融入到神经网络最优化过程的约束条件中,以确保到点运动稳定收敛到期望位置。所提出的方法不仅能够提高学习的速度,还在复现中展示出较高的鲁棒性和精度,相比于其他方法具有结构简单、计算效率高等特点。(2)在实现点到点动作的学习控制后,进一步地将学习策略扩展至复杂轨迹的准确追踪问题。针对这个问题,通过直接对轨迹追踪示教数据中的位置误差收敛策略进行学习,获得使运动轨迹收敛至期望轨迹的机器人速度控制律;然后利用李雅普诺夫理论,推导出了控制算法中相关参数的稳定性约束,并证明了所设计的速度控制律可以保证位置误差及速度误差最终均收敛于零。正是由于采用了误差收敛行为的学习,该方法展现了较好的学习和泛化能力,即学习了某一固定形状轨迹的追踪策略后,可随意应用至其他期望跟踪的轨迹上,而无需对控制器进行任何调整。(3)柔顺运动不仅包含动作轨迹也包含力觉的柔顺信息,本文提出一种联合运动轨迹与柔顺力行为的序贯学习控制框架。该学习框架通过一个低成本的示教接口在线收集示教者示范的力、位移、速度、加速度等信号,然后设计了序贯神经网络对机器人运动进行编码,并提出了基于示教力的可变阻抗学习算法来估计三个方向上的变阻尼和刚度矩阵。运动轨迹与柔顺力行为学习均采用了基于递归形式的在线更新策略,与传统的先收集后离线训练的模式相比,该更新方法不仅提高了示教学习的效率,还可避免离线收集数据不足或过多的问题。(4)提出了一种手眼协调运动学习框架。该框架可以在无事先手眼标定的情况下,根据人类示教数据,自动的学习基于图像的手眼协调抓取操作。通过采用像平面中可抓取位置学习、智能函数逼近器解决了传统伺服中期望像素位置需人为设定和手眼协调需事先标定的问题。此外,通过设计基于模糊逻辑规则的自适应调整模型参数,克服了由示教数据不同,而引起数据驱动型控制器收敛速度各异的问题,有效提高了手眼协调运动的收敛速度。

缪成宗[6](2020)在《基于高速图像反馈的机器人视觉伺服控制研究》文中研究表明迄今为止,将视觉技术融入机器人系统的案例越来越多。本文以机器人系统为背景,针对视觉处理与机器人融合领域展开研究,通过建立机器人视觉伺服系统模型、构建高速视觉系统的硬件平台、设计机器人视觉伺服控制算法,开发了一套完整的基于高速图像反馈的机器人视觉伺服系统。首先,分析并且建立系统模型。本系统采用实验室的六轴埃夫特工业机器人作为研究平台,利用基于指数积公式的运动学建模方法建立机器人正运动学模型,然后利用运动旋量和位姿矩阵的关系,导出机器人的的雅克比矩阵以及机器人末端和相机速度关系。再结合相机的数学模型,选取适当的图像特征,建立基于位置和基于图像的机器人视觉伺服系统的模型。由此,可以建立图像中的特征速度与机器人末端相机速度之间的关系。通过微分运动学与速度转换关系,得到视觉伺服系统中的各个坐标系之间的关系,从而将机械臂末端的相机坐标系中的速度转换为机器人各个关节的运动速度。其次,对机器人视觉伺服高速图像系统进行搭建。选用Eo Sens MC1362高速工业相机、Xilinx Kinte X Ultra Scale+系列的高性能FPGA开发卡搭建图像处理系统,用Camera Link协议的Full模式进行图像数据的传输。基于SDSo C进行图像处理的硬件加速,通过HLS提供的Pipeline、Unroll和Dataflow等指令将任务进行流水线展开,利用行缓存和窗口缓存策略,实现对图像处理中的卷积运算的加速。用Ar Uco标记作为目标图像,通过四八邻域混合的轮廓跟踪方式,找出Ar Uco标记的外轮廓;通过轮廓角度的变化,找出外轮廓的四个角点;利用外轮廓的四个角点,给出一种易于在FPGA中实现的位姿估计算法,得出理论误差为0的相位位姿。此外,提出一种基于历史信息的外轮廓检测方式,实现图像处理的加速。最后,分析视觉伺服系统,设计视觉伺服控制器。通过分析基于位置的视觉伺服系统和基于图像的视觉伺服系统,设计高速图像反馈下的视觉伺服控制器,并利用Lyapunov函数分析了经典控制算法的稳定性。通过仿真验证经典算法的不足,结合高速图像反馈的特点,对相机运动进行速度前馈补偿,仿真验证了该方法的优越性。对视觉伺服系统图像特征信息反馈时延进行分析,给出时延的计算方式,对目标定位和目标跟踪控制中时延问题进行研究,给出对视觉特征的估计补偿方法,仿真验证该方法能提升时延下视觉伺服系统的性能。最终,经过C60机器人的视觉伺服定位实验,验证了方法的正确性。

黄瑶[7](2020)在《自抗扰策略下的非完整移动机器人镇定控制研究》文中进行了进一步梳理轮式移动机器人因其简单的机械结构和突出的自主灵活性,得到广泛应用和研究。因受非完整性约束影响,传统控制理论无法解决和分析其镇定控制问题。此外,大部分移动机器人的工作环境是非结构性的,非结构性环境下存在各种未知扰动的影响,移动机器人系统本身也存在模型不确定性、车轮滑移等问题。如何同时克服非完整性约束和各种不确定性因素的影响,实现移动机器人的镇定控制一直是机器人领域和非线性控制理论研究的一个热点问题。自抗扰控制(ADRC)是用于克服系统非线性,大范围不确定性和外部扰动的控制方法。它继承并发扬了PID无模型的优点,以积分链式型作为标称模型,不对线性或非线性,时不变或时变系统进行区分处理。并且提出了包含系统所有内部不确定性和外部扰动的总扰动概念,可以通过扩张状态观测器(ESO)统一估计,进而在控制器中补偿。近年来,自抗扰控制方法在理论研究和实际应用中都取得了显着成果。但是该方法主要用于单输入单输出系统和输入输出维数相等的多输入多输出系统,而在输入输出维数不等的非完整系统中的应用,还有待拓展。本文采用ADRC策略,利用它的三个组成部分即跟踪微分器(TD)、ESO和非线性状态反馈各自的功能特性,从不同角度应对非完整性约束和系统不确定性的影响,实现移动机器人的镇定控制,并同时拓展了ADRC的应用范围。具体研究工作包括:(1)基于微分平坦的非完整系统运动规划方法存在固定时间约束问题,且主要用于模型精确已知的跟踪控制。因此,针对含模型参数不确定性的非完整移动机器人,提出利用TD进行运动规划的方法,将镇定控制问题转化为跟踪控制问题,因此可以克服非完整性约束的影响。首先基于精确的平坦输出线性化模型,采用TD安排镇定过程得到期望轨迹,该轨迹渐近到达目标位姿。其收敛速度可通过调节TD参数进行调整,不受固定时间约束限制。而后,设计基于ESO的跟踪误差反馈控制器,使含参数不确定性的移动机器人跟踪通过TD得到的期望轨迹,并最终镇定至目标位姿。(2)移动机器人内部传感器对外部环境不够鲁棒,车轮滑移时的位置推算存在偏差,引入视觉反馈可有效解决该问题,同时也可以从视觉层面解决非完整系统输入输出维数不等的问题。然而相机缺失了深度信息,还需要考虑内外参数的标定,相机的精确标定复杂繁琐,且易受环境影响。因此,在相机内外参数均未精确已知的条件下,提出基于图像的移动机器人无标定视觉镇定控制方法。首先,通过图像特征降维得到输入输出维数相等的系统模型,进而基于该模型,在内环设计广义ESO估计系统总扰动,外环通过切换策略克服系统矩阵在目标位姿奇异的问题。最后,基于双轮差速移动平台实验验证,该方法可以实现移动机器人的无标定视觉镇定,且对未精确已知的相机参数具有一定的鲁棒性。(3)具有两输入的不确定非完整系统代表了一大类机械系统包括移动机器人,针对其扰动链式模型的已有研究需要精确已知的不确定性边界函数,且不同时考虑系统外扰的影响。因此,针对一类两输入的扰动链式模型,提出一种系统性的ADRC设计方法,可以对系统中存在的多源不确定性进行统一处理,且不需要完全已知的不确定性边界函数。首先,采用输入状态尺度变换,得到上三角形式的可控子系统,再将其转化为积分链式型,转化后多出的部分视为等效总扰动。而后,直接设计线性ADRC实现系统的鲁棒镇定控制,并基于Lyapunov理论对闭环系统稳定性进行分析。

武晗[8](2020)在《肝癌消融穿刺手术机器人信息采集与控制技术研究》文中提出尽管光学导航和手术机器人在骨科、神经外科、耳鼻喉科等领域有着成熟的应用,但目前在肝肿瘤穿刺消融手术中医生仍在使用肉眼定位和手动穿刺的方式进行手术。光学导航和手术机器人在肝肿瘤穿刺的应用上并未取得很好的效果,主要原因是光学导航的核心部件定位仪存在产生伪点的问题,影响手术导航进程;同时呼吸运动会使器官发生形变导致靶点实时位移,直接应用神经外科机器人等穿刺机器人的固定轨迹伺服方法进行肝肿瘤穿刺的效果不理想。因此,为了在光学引导穿刺手术过程的流畅度与安全性,需解决商业定位仪产生伪点的问题,包括误识别伪点和误匹配伪点;为了使机器人能够在穿刺过程中补偿呼吸运动带来的组织形变和位移以提高穿刺精度,需研究合适的机器人位姿计算方法和机器人运动控制算法。本论文针对以上问题,完成相应研究内容:(1)研究了光学定位中伪点剔除的方法。使用图像分割和特征筛选的方法剔除误识别伪点,再利用相机针孔模型估算的空间坐标剔除误匹配伪点,最终提高了光学定位仪在使用过程中的鲁棒性,降低了后续导航过程的计算负担。通过实验对比其他商业化定位仪,实验结果证明本论文方法在剔除伪点方面表现更好。(2)研究了穿刺机器人最优目标位姿计算方法。利用规划路径和机械臂之间的约束关系求解出机械臂最优位姿,使机械臂带动穿刺针沿着规划路径精准穿刺,并在逆向运动学解关节角的过程中保留唯一解,避免运动过程中关节翻转的问题。穿刺刚性体模实验的结果显示,靶点和针尖之间的穿刺误差在1mm以内,证明了位姿计算方法的可行性。(3)研究了穿刺机器人的运动控制方法。采用PID控制和多信息反馈相结合的复合控制方法构建非线性控制系统,使机器人能够快速追踪实时移动的靶点。结合项目组提出的最佳间隙穿刺方法,使机器人在病人组织结构和术前CT影像最匹配的间隙内进针,降低穿刺误差。最后进行了手动和机器人穿刺带有呼吸运动的琼脂体模实验,手动穿刺误差的均值为10.3mm,机器人穿刺误差均值为4.9mm。

于欣波[9](2020)在《机器人自适应神经网络阻抗控制与人机物理交互研究》文中研究指明机器人研究的热点已逐渐转移到以“人为中心”的协作机器人上,人机协作已成为智能机器人领域的热点研究内容,在先进制造、医疗健康、社会服务等领域具有广泛应用。机器人系统在运行时存在固有非线性特性,且由于传感器噪声等容易出现模型失配与模型完全未知问题,同时系统还受到外界环境扰动的影响,因此基于机器人精确动力学模型的跟踪控制难以实现;另一方面,人和机器人进行物理交互时,人对于机器人是未知时变的动态交互环境,传统基于交互环境信息已知的交互控制方法难以应用。因此,考虑机器人自身不确定性与人行为不确定性的影响,提出有效的高精度闭环运动控制方法与具有环境适应性的交互控制策略对提升人机交互的安全性、柔顺性和智能性具有重要意义。本论文主要面向人与机器人通过物理交互完成协作任务的场景,考虑机器人动力学不确定性及扰动、系统状态约束、人机交互力调节、人类运动意图估计、人类阻抗参数学习等问题,开展了机器人自适应神经网络及模糊神经网络跟踪控制、机器人柔性关节自适应神经网络阻抗控制、机器人含人类运动意图估计与阻抗学习的人机交互控制、机器人基于贝叶斯估计的人机交互控制等研究,并且搭建了人机协作平台,实现人机高效协作,验证本文所提出的控制算法的有效性和实用性。主要内容和成果包含以下几个方面:(1)针对机器人外部环境未知扰动和自身系统存在的模型不确定性问题,提出了含扰动观测器的机器人自适应神经网络控制策略,研究了输出约束下的机器人全状态反馈和输出反馈自适应模糊神经网络控制策略,解决了机器人在受限空间下的精确跟踪问题。(2)针对机器人柔性关节难以调节自身柔顺特性的问题,提出一种机器人柔性关节自适应神经网络阻抗控制算法,集成了主动柔顺控制及被动机械柔性的优势,解决了柔性关节机器人动力学模型未知情况下的交互问题,使机器人能够调节自身柔顺性并避免突发碰撞带来的损失。(3)针对机器人与人交互时存在的人行为不确定问题,提出了机器人含人类运动意图估计与阻抗参数学习的人机交互控制策略,既能够实现对机器人的运动约束,保证人机协作时的安全性能,又能够提升人机协作柔顺程度。(4)针对机器人对人类阻抗参数学习与运动意图估计的难点问题,探索了基于贝叶斯理论的估计方法,设计了一种基于自适应神经网络的阻抗控制策略,并将人类运动意图估计与抗参数学习融入到控制框架,提升了机器人对人行为的学习能力。(5)针对机器人人机协作任务中的实际问题,开发了人机双臂协作装配平台与人机协作搬运平台,完成一些常见的人机协作任务,进一步验证本文所提出控制算法的有效性和实用性。本文的研究成果能够丰富目前对机器人交互控制的研究,进一步为解决人机协作系统中所存在的工程问题提供了一种可行的解决方案,也为人机物理交互领域的研究提供了新的研究方向。

冀东[10](2020)在《期望位姿设定的移动机器人视觉伺服方法》文中进行了进一步梳理伴着控制技术的不断进步,轮式移动机器人越来越多地应用于智能交通、家居服务、工业生产等领域。近几年,视觉传感器凭借其低成本和获取图像信息无需接触测量等特点,与智能化运动平台相结合构成的移动机器人视觉伺服系统,成为各领域研究的热点。但由于移动机器人自身受非完整性约束和摄像机内外参数不确定性等问题,机器人视觉伺服仍面临着巨大的挑战。移动机器人非线性控制方法和基于视觉的环境感知得到了深入研究。在已有的控制策略中,机器人期望位姿和目标特征点大多是固定的。但在实际应用的复杂任务中,在人为设置任务要求或外界干扰的情况下,特征点和期望位姿有可能会发生变动,因此研究机器人期望位姿随特征点的移动而合理调整的控制方法是必要的。本文主要在以下几个方面展开研究:1)期望位姿随目标特征变化的移动机器人视觉伺服方法。本方法完成了主动移动特征点使机器人期望位姿合理调整,或者在特征点受干扰移动时需保持期望位姿与特征点相对位置固定的任务目标。在任务场景中任意设置四个坐标已知的共面特征点,然后在目标特征变动的情况下,根据视觉伺服系统坐标系关系,运用单应矩阵分解和坐标系变换得出特征点移动后期望位姿和机器人当前位姿间的变换关系。由于特征点随意移动,所以变换后期望位姿通常与机器人运动平面不一致,所以根据投影原理设计了调整后的机器人期望位姿。利用极坐标控制律驱使机器人由当前位姿运动至目标位姿处。最后根据仿真和实验结果分析了该方法的有效性。2)场景深度未知的移动机器人动态视觉伺服方法。本文设计了控制策略来解决机器人期望位姿随三维坐标未知的特征点移动而合理变化的问题。本方法在场景中增加了一台固定监视摄像机,通过机器人机载摄像机和监视摄像机拍摄的目标特征移动前后的图像,运用六自由度的单应矩阵分解得到当前位姿与特征点移动后期望位姿的变换关系。针对目标变换矩阵中深度信息未知的情况,文中对两个未知深度做了比例处理。最后通过自适应控制器驱使轮式移动机器人至目标位姿。仿真结果和实验结果证明了该方法有良好的控制性能。3)基于无线通信的两期望位姿之间视觉伺服方法。本文利用无线通信模块,在上一个方法的基础上,完成了某些实际任务所需的特征点移动前期望位姿到原始期望位姿的视觉伺服任务。在对几种无线通信模块的分析后选用两个XBeePro通信模块,设计程序进行数据的发送与接收。将上一方法中移动机器人最终期望位置设为出发点,通过仿真和实验结果得出该控制策略能够有效地将移动机器人驱动至特征点移动前原始期望位姿处。

二、Backstepping+Fuzzy方法在机器人视觉伺服系统中的应用(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、Backstepping+Fuzzy方法在机器人视觉伺服系统中的应用(论文提纲范文)

(1)基于图像的机械臂视觉伺服定位及跟踪控制方法研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 课题研究背景及意义
    1.2 视觉伺服系统的研究概述
    1.3 视觉伺服系统的分类概述
        1.3.1 基于相机数目和安装位置的分类
        1.3.2 基于反馈信号和相机参数的分类
        1.3.3 基于视觉控制信号的分类
    1.4 基于图像的机械臂视觉伺服关键技术研究现状
        1.4.1 基于图像的视觉伺服运动学控制
        1.4.2 基于图像的视觉伺服动力学控制
        1.4.3 带有约束和不确定因素的视觉伺服系统
    1.5 本文的主要研究内容
第2章 考虑图像噪声影响的机械臂视觉伺服定位控制方法
    2.1 引言
    2.2 问题描述
    2.3 改进ARKF算法的图像雅可比矩阵估计方法
        2.3.1 传统的KF算法的图像雅克比矩阵估计问题
        2.3.2 改进ARKF算法的视觉伺服控制
        2.3.3 数值仿真与分析
    2.4 基于MCKF算法的图像雅可比矩阵在线估计方法
        2.4.1 MCKF方法概述
        2.4.2 基于MCKF算法的估计方法
        2.4.3 数值仿真与分析
        2.4.4 实验分析
    2.5 本章小结
第3章 基于图像特征约束的视觉伺服混合定位控制方法
    3.1 引言
    3.2 B-ELM-SVSF算法的雅克比矩阵估计方法
        3.2.1 B-ELM函数逼近方法
        3.2.2 SVSF状态估计方法
    3.3 考虑视野约束的视觉伺服控制方法
    3.4 基于特征约束的视觉伺服系统混合定位控制系统
    3.5 数值仿真与分析
        3.5.1 不同图像噪声类型的数值仿真
        3.5.2 B-ELM-SVSF算法与其它算法对比分析
        3.5.3 视野约束性能的仿真分析
    3.6 实验分析
    3.7 本章小结
第4章 基于双ASTKF算法的视觉伺服双闭环跟踪控制方法
    4.1 引言
    4.2 图像遮挡及图像干扰分析
    4.3 双ASTKF算法的遮挡/干扰图像估计方法
        4.3.1 系统模型描述
        4.3.2 基于ASTKF的状态估计方法
        4.3.3 数值仿真分析
    4.4 基于滑模控制方法的双闭环视觉伺服跟踪控制
        4.4.1 基于PD-SMC的运动控制器设计
        4.4.2 基于ASMC的动力学控制器设计
    4.5 考虑图像遮挡/干扰滤波的视觉伺服双闭环控制方法
    4.6 系统仿真及结果分析
        4.6.1 基于PD-SMC的运动学控制器对比仿真分析
        4.6.2 基于双闭环控制器的视觉伺服仿真分析
    4.7 本章小结
第5章 基于ADP算法的机械臂视觉伺服最优跟踪控制方法
    5.1 引言
    5.2 问题描述
    5.3 基于ADP算法的机械臂视觉伺服轨迹跟踪控制方法
        5.3.1 基于ADP算法的最优跟踪控制
        5.3.2 稳定性分析
    5.4 改进ADP算法的机械臂视觉伺服轨迹跟踪控制方法
        5.4.1 问题描述
        5.4.2 神经网络观测器设计
        5.4.3 评价网络设计
        5.4.4 稳定性分析
    5.5 数值仿真分析
        5.5.1 基于ADP算法的控制系统仿真分析
        5.5.2 基于改进的ADP算法的控制系统仿真分析
    5.6 本章小结
第6章 结论与展望
    6.1 全文总结
    6.2 研究展望
参考文献
致谢
作者简历及攻读学位期间发表的学术论文与研究成果

(2)基于无模型自适应预测控制的机械臂视觉伺服控制研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 引言
    1.1 研究背景和意义
    1.2 机器人视觉伺服系统概述
    1.3 基于图像的视觉伺服控制方法研究现状
    1.4 主要研究内容和结构安排
2 六自由度机械臂视觉伺服系统理论研究
    2.1 连杆坐标系
    2.2 六自由度机械臂运动学问题分析
    2.3 视觉伺服系统视觉模型
    2.4 本章小结
3 基于无模型自适应控制的视觉伺服控制方法
    3.1 目标物体中心点像素坐标提取
        3.1.1 图像预处理
        3.1.2 图像边缘检测方法
    3.2 目标物体中心点坐标
        3.2.1 目标物体角点检测
        3.2.2 目标物体中心点像素坐标
    3.3 无模型自适应控制系统设计
    3.4 仿真结果验证
        3.4.1 PUMA560机械臂视觉伺服定位
        3.4.2 PUMA560机械臂视觉伺服轨迹跟踪
    3.5 本章小结
4 基于无模型自适应预测控制的视觉伺服控制方法
    4.1 无模型自适应预测控制系统设计
        4.1.1 控制系统设计
        4.1.2 控制算法
        4.1.3 伪偏导数估计算法和预报算法
    4.2 仿真结果验证
        4.2.1 无扰动的PUMA560机械臂视觉伺服轨迹跟踪
        4.2.2 有扰动的PUMA560机械臂视觉伺服轨迹跟踪
    4.3 本章小节
5 总结与展望
    5.1 本文总结
    5.2 未来展望
参考文献
作者简历及攻读硕士学位期间取得的研究成果
学位论文数据集

(3)基于无标定视觉伺服的微动平台精密运动控制研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景
    1.2 研究的目的和意义
    1.3 基于视觉伺服的微动平台研究现状
        1.3.1 国外研究现状
        1.3.2 国内研究现状
    1.4 本课题研究内容及组织结构
        1.4.1 本课题研究的主要内容
        1.4.2 论文内容结构安排
第2章 常用视觉伺服控制方法概述
    2.1 视觉伺服控制原理
    2.2 视觉伺服控制分类
    2.3 视觉伺服模型标定法与无标定法
        2.3.1 标定法
        2.3.2 无标定法
    2.4 自动对焦系统设计
        2.4.1 图像清晰度评价函数
        2.4.2 自动对焦系统设计
    2.5 常用的视觉伺服控制算法
        2.5.1 逆雅克比矩阵法
        2.5.2 PID算法
        2.5.3 任务函数法
        2.5.4 自适应控制算法
        2.5.5 智能视觉伺服算法
    2.6 本章小结
第3章 目标图像处理与分析
    3.1 图像预处理与边缘检测
        3.1.1 颜色空间转换
        3.1.2 图像滤波
        3.1.3 图像灰度化与增强
    3.2 图像分割与轮廓提取
        3.2.1 图像二值化
        3.2.2 图像边界分割
        3.2.3 目标特征提取
    3.3 基于改进模板匹配的多目标识别
    3.4 实验分析
        3.4.1 图像边缘提取实验
        3.4.2 模板匹配实验
    3.5 本章小结
第4章 无标定图像视觉伺服控制器设计
    4.1 图像雅克比矩阵建立
    4.2 基于图像的视觉伺服框架设计与稳定性分析
    4.3 视觉伺服控制器设计
        4.3.1 神经网络结构基础
        4.3.2 遗传算法简介
        4.3.3 混合优化遗传BP网络视觉伺服控制器
    4.4 仿真实验
    4.5 本章小结
第5章 末端执行机构运动学求解算法设计
    5.1 机器人运动学基础
        5.1.1 位置描述
        5.1.2 方位描述
        5.1.3 坐标变换
        5.1.4 运动位姿表示
        5.1.5 运动学方程推导与模型建立
    5.2 正逆运动学分析与求解
        5.2.1 正运动学分析
        5.2.2 逆运动学分析
    5.3 机器人动力学
    5.4 基于ELM-PSO-GA末端执行机构逆解算法
        5.4.1 极限学习机ELM
        5.4.2 PSO-GA算法
        5.4.3 基于ELM-PSO-GA的机械臂逆解算法
    5.5 实验分析
        5.5.1 ELM与 ANN对比分析
        5.5.2 主流优化算法逆解性能对比分析
        5.5.3 ELM-PSO-GA算法逆解结果及对比分析
    5.6 本章小结
第6章 总结与展望
    6.1 全文总结
    6.2 工作展望
致谢
参考文献
作者简介
攻读硕士期间研究成果

(4)空间机械臂捕获失效翻滚目标的控制方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题研究的目的和意义
    1.2 空间机械臂捕获失效翻滚目标的相关研究综述
        1.2.1 SUMO/FREND在轨验证项目
        1.2.2 Restore-L在轨验证项目
        1.2.3 RSGS在轨验证项目
        1.2.4 空间机械臂捕获失效翻滚目标的难点分析
    1.3 空间机械臂捕获失效翻滚目标的控制研究综述
        1.3.1 跟踪目标的运动控制研究综述
        1.3.2 软捕获目标的柔顺控制研究综述
        1.3.3 基于视觉反馈的跟踪翻滚目标的规划方法研究综述
        1.3.4 捕获失效翻滚目标的机械臂的关键技术总结
    1.4 本文主要研究内容
第2章 空间机械臂捕获翻滚目标动力学分析及阻抗控制器设计
    2.1 引言
    2.2 空间机械臂系统组成
    2.3 捕获翻滚目标动力学分析
        2.3.1 空间机械臂建模
        2.3.2 失效翻滚目标特性分析
        2.3.3 抓捕过程动力学分析
        2.3.4 捕获翻滚目标的刚度控制需求
    2.4 捕获翻滚目标的阻抗控制器
        2.4.1 刚性机器人阻抗控制器
        2.4.2 空间机械臂阻抗控制器
    2.5 仿真验证
        2.5.1 捕获翻滚目标的仿真系统
        2.5.2 阻抗控制方法捕获翻滚目标仿真
    2.6 本章小结
第3章 空间机械臂动力学参数辨识方法
    3.1 引言
    3.2 动力学参数对控制器性能的影响分析
        3.2.1 阻抗控制器自由空间下的控制精度分析
        3.2.2 模型参数对基于模型的控制方案的影响分析
    3.3 基于确定等价原则自适应控制的参数辨识方法
    3.4 基于浸入与不变原理自适应控制的参数辨识方法
        3.4.1 浸入与不变的非线性理论简介
        3.4.2 基于浸入与不变原理自适应控制的参数辨识方法
    3.5 实验验证
        3.5.1 单关节-单连杆参数辨识实验
        3.5.2 七自由度机械臂参数辨识实验
    3.6 本章小结
第4章 空间机械臂阻抗控制器状态观测与抗扰动技术
    4.1 引言
    4.2 实际系统中不确定性对控制器性能的影响分析
        4.2.1 状态测量的不确定性对控制器性能影响
        4.2.2 电机非线性摩擦扰动对控制器性能影响
    4.3 关节力矩及运动状态的Kalman观测器设计
    4.4 抗非线性摩擦的扰动抑制器设计
    4.5 实验验证
        4.5.1 单关节-单连杆实验
        4.5.2 七自由度机械臂实验
    4.6 本章小结
第5章 基于视觉反馈的空间臂伺服翻滚目标运动规划
    5.1 引言
    5.2 视觉系统的测量信息反馈
    5.3 基于视觉反馈的机械臂伺服翻滚目标方法
        5.3.1 粗伺服方法
        5.3.2 精伺服方法
        5.3.3 笛卡尔空间的轨迹插值方法
    5.4 仿真验证
        5.4.1 视觉测量仿真模拟
        5.4.2 基于视觉反馈的运动规划仿真
    5.5 本章小结
第6章 捕获失效翻滚目标的实验系统与验证
    6.1 引言
    6.2 三维半物理系统及视觉跟踪目标实验
        6.2.1 硬件在环半物理系统组成与原理
        6.2.2 阻抗控制器视觉跟踪翻滚目标实验结果
    6.3 二维微重力气浮系统及软捕获运动目标实验
        6.3.1 微重力气浮系统组成与原理
        6.3.2 阻抗控制器软捕获翻滚目标实验结果
    6.4 本章小结
结论
附录 单刚体的线性化动力学中回归矩阵的具体表达式
参考文献
攻读博士学位期间发表的论文
致谢
个人简历

(5)面向机器人操作的示教学习与智能控制方法研究(论文提纲范文)

摘要
abstract
第1章 引言
    1.1 研究背景及意义
    1.2 研究现状
        1.2.1 机器人点到点运动学习研究现状
        1.2.2 机器人轨迹追踪运动的研究现状
        1.2.3 机器人柔顺控制的研究现状
        1.2.4 机器人手眼协调运动的研究现状
    1.3 本文章节结构安排
第2章 基于示教学习的机器人点到点运动控制
    2.1 引言
    2.2 点到点运动学习算法
    2.3 到点运动学习的稳定性分析
        2.3.1 局部渐近稳定
        2.3.2 全局渐近稳定
        2.3.3 精度的提高
    2.4 实验验证
    2.5 本章小结
第3章 基于示教学习的机器人复杂轨迹追踪
    3.1 引言
    3.2 针对位置误差输入的轨迹追踪问题描述
    3.3 针对位置误差输入的轨迹追踪策略
        3.3.1 基于学习人类策略的控制律设计
        3.3.2 轨迹追踪策略学习控制系统稳定性分析
    3.4 实验验证
        3.4.1 2D轨迹追踪实验
        3.4.2 3D轨迹的追踪
    3.5 本章小结
第4章 基于示教学习的机器人柔顺运动控制
    4.1 引言
    4.2 基于阻抗控制器的柔顺操作学习问题描述
    4.3 联合控制器的序贯学习
        4.3.1 柔顺操作示教接口
        4.3.2 运动轨迹的序贯学习
        4.3.3 变阻抗参数学习
    4.4 变阻抗控制稳定性分析
    4.5 实验验证
        4.5.1 任务操作轨迹学习实验
        4.5.2 变阻抗参数学习
        4.5.3 柔顺操作学习
    4.6 本章小结
第5章 基于示教学习的机器人无标定手眼协调运动控制
    5.1 引言
    5.2 基于图像的无标定视觉伺服问题的提出
    5.3 眼在手的机器人无标定视觉伺服控制算法
        5.3.1 像平面下基于概率模型的期望抓取位置的学习
        5.3.2 基于图像的智能视觉伺服系统
    5.4 实验验证
        5.4.1 抓取操作示教与数据收集
        5.4.2 像平面中可成功抓取位置学习
        5.4.3 矩阵(?)智能逼近器训练
        5.4.4 自适应λ的模糊控制器设计
        5.4.5 手眼协调实验
    5.5 本章小结
第6章 总结
    6.1 主要工作与贡献
    6.2 研究展望
参考文献
作者简历及攻读学位期间发表的学术论文与研究成果
致谢

(6)基于高速图像反馈的机器人视觉伺服控制研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 课题来源及研究的背景和意义
        1.1.1 课题来源
        1.1.2 课题研究的背景和意义
    1.2 国内外研究现状
        1.2.1 视觉伺服的发展和研究现状
        1.2.2 高速视觉系统的研究现状
    1.3 现有研究的不足以及亟待解决的问题
    1.4 本文的主要研究内容
        1.4.1 机器人视觉伺服模型的建立
        1.4.2 高速视觉系统的构建
        1.4.3 机器人视觉伺服控制算法的设计与稳定性分析
第2章 机器人视觉伺服的运动学模型建立
    2.1 引言
    2.2 三维空间中刚体运动的数学基础
        2.2.1 三维空间中刚体的位姿描述
        2.2.2 刚体的运动旋量和伴随变换
    2.3 机器人正向运动学模型建立
        2.3.1 基于指数积公式的机器人正向运动学建模方法
        2.3.2 C60机器人正向运动学模型
    2.4 机器人微分运动学模型建立
        2.4.1 机器人微分运动学的推导
        2.4.2 相机速度与机器人末端速度关系
    2.5 本章小结
第3章 机器人视觉伺服高速图像处理系统及算法
    3.1 引言
    3.2 高速图像处理系统的硬件构成
        3.2.1 高速工业摄像机
        3.2.2 Camera Link图像传输协议
        3.2.3 Xilinx KINTEX Ultra SCALE+高性能开发板
    3.3 基于SDSo C的 FPGA的硬件加速策略
        3.3.1 SDSoC简介
        3.3.2 HLS加速方法
        3.3.3 行缓存和窗口缓存策略
    3.4 相机模型的建立
        3.4.1 相机坐标系与图像坐标系的关系
        3.4.2 图像坐标系与像素坐标系的关系
        3.4.3 相机坐标系与世界坐标系的关系
    3.5 视觉系统的图像处理策略
        3.5.1 ArUco标记轮廓跟踪算法
        3.5.2 ArUco标记顶点检测算法
        3.5.3 基于历史信息的图像检测方法
        3.5.4 基于ArUco标记的位姿估计
    3.6 本章小结
第4章 视觉伺服系统的标定与模型建立
    4.1 引言
    4.2 机器人视觉伺服系统的手眼标定
    4.3 视觉伺服系统模型建立
    4.4 视觉伺服系统中的速度关系
        4.4.1 基于位置的视觉伺服系统
        4.4.2 基于图像的视觉伺服系统
    4.5 本章小结
第5章 高速图像反馈下的视觉伺服控制
    5.1 引言
    5.2 视觉伺服经典控制算法的设计与性能分析
        5.2.1 基于位置的视觉伺服控制器设计与分析
        5.2.2 基于图像的视觉伺服控制器设计与分析
    5.3 高速图像反馈下的视觉伺服的速度补偿与分析
    5.4 考虑视觉反馈时滞的视觉伺服
        5.4.1 视觉伺服系统图像信息反馈时延计算
        5.4.2 考虑图像信息反馈时延的视觉伺服目标定位控制
        5.4.3 考虑图像信息反馈时延的视觉伺服目标跟踪控制
    5.5 高速视觉反馈下的视觉伺服定位实验
    5.6 本章小结
结论
参考文献
攻读硕士学位期间发表的论文及其他成果
致谢

(7)自抗扰策略下的非完整移动机器人镇定控制研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 非完整控制系统
        1.2.2 移动机器人视觉伺服策略
        1.2.3 自抗扰控制技术概述
    1.3 现有工作存在的问题
    1.4 本文主要研究工作
        1.4.1 研究思路
        1.4.2 研究内容与论文结构
第二章 基于微分平坦的移动机器人镇定过程安排
    2.1 引言
    2.2 系统模型
    2.3 基于微分平坦的控制策略
        2.3.1 跟踪微分器安排过渡过程
        2.3.2 基于扩张状态观测器的闭环跟踪控制
    2.4 仿真案例
        2.4.1 规划期望轨迹
        2.4.2 闭环反馈结果
    2.5 本章小节
第三章 基于视觉反馈的移动机器人镇定控制
    3.1 引言
    3.2 系统建模
        3.2.1 机器人模型
        3.2.2 特征降维
        3.2.3 系统模型
    3.3 控制器设计及稳定性分析
    3.4 仿真案例
    3.5 双轮差速移动平台视觉镇定控制
        3.5.1 实验设备
        3.5.2 控制约束
        3.5.3 实验结果
    3.6 本章小结
第四章 一类两输入不确定非完整系统的鲁棒镇定
    4.1 引言
    4.2 问题描述
        4.2.1 模型定义
        4.2.2 输入状态尺度变换
    4.3 x_0子系统控制器设计
        4.3.1 x_0初值不为零
        4.3.2 x_0初值等于零
    4.4 针对x子系统的自抗扰控制器设计
        4.4.1 系统分析
        4.4.2 等效总扰动
        4.4.3 自抗扰控制器设计
    4.5 系统性能分析
    4.6 双线性移动机器人案例
    4.7 移动机器人视觉伺服案例
        4.7.1 系统建模
        4.7.2 控制器设计
        4.7.3 仿真结果
    4.8 本章小结
第五章 总结与展望
    5.1 本文研究工作总结
    5.2 相关研究工作展望
附录A 基于时间多项式的参数化轨迹生成
参考文献
致谢
攻读学位期间发表的学术论文目录
攻读学位期间参与的项目

(8)肝癌消融穿刺手术机器人信息采集与控制技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 选题背景及研究意义
    1.2 国内外研究现状
        1.2.1 光学定位技术和伪点问题概述
        1.2.2 手术机器人和视觉伺服控制概述
    1.3 研究内容和文章结构
第二章 系统构建
    2.1 引言
    2.2 机器人平台设计
        2.2.1 多信息融合
        2.2.2 光学定位
        2.2.3 多空间注册模块
        2.2.4 呼吸门控模块
    2.3 本章小结
第三章 光学定位中伪点去除技术研究
    3.1 引言
    3.2 方法研究
        3.2.1 系统构建
        3.2.2 基于边缘特征的标记点检测算法研究
        3.2.3 基于投影尺寸和镜物距离关系的立体匹配方法
        3.2.4 基于前后帧生成ROI的图像处理加速算法
        3.2.5 方法小结
    3.3 实验验证
        3.3.1 标记点检测算法实验验证
        3.3.2 基于针孔模型立体匹配方法的实验验证
        3.3.3 图像处理加速方法实验验证
    3.4 本章小结
第四章 穿刺机器人视觉伺服控制研究
    4.1 引言
    4.2 软件通讯
    4.3 位姿计算与视觉伺服控制
        4.3.1 最优目标位姿求解
        4.3.2 逆向运动学求目标关节角
        4.3.3 机器人控制技术研究
    4.4 机器人执行最佳间隙穿刺
    4.5 实验验证
        4.5.1 最优位姿计算方法验证
        4.5.2 运动控制方法验证
        4.5.3 机器人穿刺精度验证
    4.6 本章小结
第五章 总结与展望
    5.1 总结
    5.2 展望
参考文献
攻读硕士学位期间取得的研究成果
致谢
附件

(9)机器人自适应神经网络阻抗控制与人机物理交互研究(论文提纲范文)

致谢
摘要
Abstract
1 引言
    1.1 研究意义与研究目的
    1.2 国内外研究概述
        1.2.1 阻抗控制研究现状
        1.2.2 自适应神经网络控制研究现状
        1.2.3 人机物理交互研究现状
    1.3 主要创新点
    1.4 结构布局
    1.5 本章小节
2 预备知识
    2.1 机器人建模
        2.1.1 基于D-H方法的机器人运动学建模
        2.1.2 基于拉格朗日-欧拉方程的机器人动力学建模
    2.2 函数逼近理论
        2.2.1 径向基函数神经网络
        2.2.2 模糊逻辑系统
    2.3 系统稳定性分析与非线性系统控制器设计方法
        2.3.1 基于李雅普诺夫函数的系统稳定性分析
        2.3.2 反步设计法
    2.4 研究平台简介
        2.4.1 Baxter机器人简介
        2.4.2 Kinect v2深度摄像头
        2.4.3 ATI Nano 17六轴力/力矩传感器
    2.5 本章小节
3 机器人自适应神经网络及模糊神经网络跟踪控制研究
    3.1 引言
    3.2 机器人含扰动观测器的自适应神经网络跟踪控制设计
        3.2.1 控制器设计与稳定性分析
        3.2.2 仿真分析
        3.2.3 实验分析
    3.3 机器人输出约束下的自适应模糊神经网络跟踪控制设计
        3.3.1 机器人全状态反馈自适应模糊跟踪控制
        3.3.2 机器人输出约束下的自适应模糊跟踪控制
        3.3.3 仿真分析
        3.3.4 实验分析
    3.4 本章小节
4 机器人柔性关节自适应神经网络阻抗控制研究
    4.1 引言
    4.2 机器人柔性关节建模与自适应神经网络阻抗控制研究
    4.3 仿真分析
    4.4 本章小节
5 机器人含人类运动意图估计与阻抗学习的人机交互控制研究
    5.1 引言
    5.2 机器人人类运动意图估计与阻抗学习方法
    5.3 机器人输出约束下的自适应神经网络交互控制器设计
    5.4 仿真分析
    5.5 实验分析
    5.6 本章小节
6 机器人基于贝叶斯估计的人机交互控制研究
    6.1 引言
    6.2 人机协作搬运动力学模型
    6.3 机器人基于贝叶斯估计的人类刚度学习与意图估计
    6.4 控制器设计与稳定性分析
    6.5 仿真分析
    6.6 实验分析
    6.7 本章小节
7 人机协作平台
    7.1 引言
    7.2 人机双臂协作装配平台
        7.2.1 平台设置
        7.2.2 实验结果
    7.3 人机协作搬运平台
        7.3.1 平台设置
        7.3.2 实验结果
    7.4 本章小节
8 总结与展望
    8.1 研究工作总结
    8.2 未来工作计划
参考文献
作者简历及在学研究成果
学位论文数据集

(10)期望位姿设定的移动机器人视觉伺服方法(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 课题背景与研究意义
    1.2 视觉伺服的研究现状
        1.2.1 传统视觉伺服研究现状
        1.2.2 视觉伺服其他方面研究现状
    1.3 移动机器人视觉伺服研究内容和存在的问题
        1.3.1 移动机器人视觉伺服研究内容
        1.3.2 存在的主要问题
    1.4 本文内容和结构安排
第二章 期望位姿随目标特征变化的移动机器人视觉伺服方法
    2.1 引言
    2.2 问题描述
        2.2.1 系统坐标系描述
        2.2.2 变换关系表示
        2.2.3 控制策略
    2.3 坐标系关系
        2.3.1 c和obj的关系
        2.3.2 *和obj的关系
        2.3.3 p和c的关系
    2.4 控制器
    2.5 仿真
    2.6 实验
        2.6.1 实验平台
        2.6.2 实验验证
    2.7 总结
第三章 场景深度未知的移动机器人动态视觉伺服方法
    3.1 引言
    3.2 问题描述
        3.2.1 系统坐标系描述
        3.2.2 控制策略
        3.2.3 图像表示
    3.3 坐标系关系
        3.3.1 监视摄像机坐标系与特征点移动后期望位姿的关系
        3.3.2 当前位姿与监视摄像机坐标系的关系
        3.3.3 未知深度信息处理
        3.3.4 当前位姿与特征点移动后期望位姿的关系
        3.3.5 当前位姿与投影后最终期望位姿的关系
    3.4 控制器
        3.4.1 可测信号
        3.4.2 运动学模型
        3.4.3 自适应控制器
    3.5 仿真与实验
        3.5.1 仿真验证
        3.5.2 实验验证
    3.6 本章小结
第四章 基于无线通信的两期望位姿之间视觉伺服方法
    4.1 引言
    4.2 问题描述
        4.2.1 系统坐标系描述
        4.2.2 无线通信模块
        4.2.3 控制策略
    4.3 坐标系关系
    4.4 仿真与实验
        4.4.1 仿真验证
        4.4.2 实验验证
    4.5 本章小结
第五章 总结与展望
    5.1 总结
    5.2 展望
参考文献
发表论文和参加科研情况说明
致谢

四、Backstepping+Fuzzy方法在机器人视觉伺服系统中的应用(论文参考文献)

  • [1]基于图像的机械臂视觉伺服定位及跟踪控制方法研究[D]. 任晓琳. 中国科学院大学(中国科学院长春光学精密机械与物理研究所), 2021
  • [2]基于无模型自适应预测控制的机械臂视觉伺服控制研究[D]. 武慧莹. 北京交通大学, 2021(02)
  • [3]基于无标定视觉伺服的微动平台精密运动控制研究[D]. 符金鑫. 长春工业大学, 2021(08)
  • [4]空间机械臂捕获失效翻滚目标的控制方法研究[D]. 杨国财. 哈尔滨工业大学, 2021(02)
  • [5]面向机器人操作的示教学习与智能控制方法研究[D]. 段江哗. 中国科学院大学(中国科学院深圳先进技术研究院), 2020(07)
  • [6]基于高速图像反馈的机器人视觉伺服控制研究[D]. 缪成宗. 哈尔滨工业大学, 2020(01)
  • [7]自抗扰策略下的非完整移动机器人镇定控制研究[D]. 黄瑶. 上海交通大学, 2020(01)
  • [8]肝癌消融穿刺手术机器人信息采集与控制技术研究[D]. 武晗. 华南理工大学, 2020(02)
  • [9]机器人自适应神经网络阻抗控制与人机物理交互研究[D]. 于欣波. 北京科技大学, 2020(01)
  • [10]期望位姿设定的移动机器人视觉伺服方法[D]. 冀东. 天津工业大学, 2020(02)

标签:;  ;  ;  ;  ;  

Backstepping+Fuzzy方法在机器人视觉伺服系统中的应用
下载Doc文档

猜你喜欢