基于旋量和李群李代数的SCARA工业机器人研究
- 格式:pdf
- 大小:2.24 MB
- 文档页数:60
第3期王寅等:基于深度强化学习与旋量法的机械臂路径规划517及其衍生算法、PRM(probabilistic road maps)[8]及其衍生算法、退火算法[9]等都是基于采样的,环境发生改变后需要重新采样才能得到可行路径,难以适用于多变的机械臂工作场景.因此,如何提高机械臂在复杂环境的泛化性能成为了机械臂路径规划中的一个难点.深度强化学习(deep reinforcement learning,DR-L)[10–11],将深度学习的感知能力和强化学习的决策能力相结合,近年来被广泛运用在包括机械臂路径规划的各领域中.文献[12]将深度强化学习与机器人逆运动学融合实现了无碰撞的路径规划;文献[13]提出了一种基于SAC(soft actor-critic)算法的多臂机器人周期运动障碍物路径规划算法;文献[14]采用了一种基于DRL的混合控制算法,并通过了真实机械臂进行的测试;文献[15]使用了一种无模型深度强化学习算法进行训练;文献[16]提出通过深度强化学习让机器人具有自主获取进行复杂装配的能力,证明了通过DRL 模型可以提高机器人的智能水平;文献[17]提出了一种面向果园复杂环境的基于深度强化学习的快速、鲁棒的无碰撞路径规划方法;文献[18]提出使用深度强化学习方法来学习机械臂的控制器,即通过机械臂的控制器的反馈数据进行训练,将机械臂引导到目标地点;文献[19]通过奖励函数的设计来解决面向路径规划的DRL算法在障碍物环境中性能差的现象;文献[20]提出一种基于六自由度机械臂运动规划的改进DRL算法,通过添加成功经验池和碰撞经验池、改进奖励函数、优先训练前三轴等方法提升了训练效率和模型性能.这些研究通过DRL进行机械臂的路径规划研究,并通过经验池改进、奖励函数改进等方法使DRL更适用于机械臂,但仍然存在明显的获取样本成本过高问题,且随着机械臂轴数增多、环境复杂程度增大,样本获取成本将成指数式增长.因而,提升样本利用率对于深度强化学习在机械臂领域的应用有着不可忽视的作用.利用学习过程中不断生成的自然轨迹作为实际示例来进行训练,是目前机械臂训练过程中获取样本的常见方法,但样本获取成本大,且常存在样本利用效率过低的问题.文献[21]提出经验回放方法,将与环境交互所得样本存储至重放缓冲区,使样本多次用于训练.深度学习中的数据增强方法,是在已有样本集的基础上进行样本的扩充,但由于强化学习的样本是在探索过程中即时得到,故对强化学习并不适用,但可以通过数据增强的思路对样本进行有效扩充.例如HER(hindsight experience replay)算法[22],此算法将采集所得智能体的状态作为该轨迹的新目标,以此生成有效人工轨迹.除此以外还有HER的衍生算法、对称等扩充样本的方法,但这些方法只通过改变智能体状态的方式进行样本扩充,提升样本利用率.本文基于数据增强的思想提出了一种面向机械臂领域的离线策略强化学习通用算法:DRL与旋量法的融合算法(screw method in DRL,SMIDRL).具体贡献如下:1)通过旋量法[23]对机械臂与环境交互得到的自然轨迹进行有效扩充,从而使得样本利用率得到了更高效的提升,总体流程如图1所示.因为SMIDRL需要将即时采集到的轨迹进行扩充再存入回放经验池,故只能局限于离线策略DRL算法;2)SMIDRL在扩充轨迹的同时还可以通过改变障碍物等物体姿态的方式对交互环境进行同步改变,从而提升智能体对动态复杂环境的应对能力;3)SMIDRL可以与HER算法这类样本扩充算法进行结合,这样可以使样本利用率和训练效率得到更显著提升.图1旋量法与离线策略DRL的融合算法Fig.1Fusion algorithm of screw method and off-policy DRL 本文的组织结构如下:第1部分介绍了DRL在机械臂路径规划领域的研究现状以及提升样本利用率的必要性;第2部分介绍了深度强化学习算法在机械臂路径规划中的应用;第3部分介绍了SMIDRL理论;第4部分在OpenAI Gym[24]的Mujoco平台下,通过Fe-tch机械臂[25]和UR5机械臂的仿真环境,使用DDPG (deep deterministic policy gradient)算法[26]进行实验分析,证明本算法不仅可以提高模型训练效率,还能提高机械臂在复杂动态环境的泛化能力;第5部分进行了总结.2DRL在机械臂路径规划中的应用2.1马尔可夫决策过程马尔可夫决策过程(Markov decision process,MD-P)[27]是强化学习的基础,用于系统状态具有马尔可夫性质的环境,模拟智能体可实现的随机性策略与回报.给定一个随机过程的当前状态和所有过去状态,如果未来状态的条件概率分布且仅与当前状态有关,则称该随机过程具有马尔可夫性质.本文考虑将连续状态和动作空间模拟为多目标马尔可夫决策过程,即{S,A,G,T,R,p,γ}.其中:S是连续的状态空间;A指的是一个连续的动作空间;G是一组目标;T:S×A×S→[0,1]代表描述环境动态的未知转换函数;R{s,a,s′,g}是当智能体目标为g∈G时,执行动作a∈A后从状态s∈S达到状态s′∈S 所得到的即时奖励;γ∈[0,1]是折扣因子.在该框架518控制理论与应用第40卷下的机械臂学习目的是获得一个策略π:S ×G ∈A ,使预期折扣奖励的总和对于任何给定的目标都能达到最大化.2.2DDPG 与机械臂路径规划基于DDPG 的机械臂路径规划方法如图2所示.行动者当前网络负责机械臂动作选择策略的更新,评判家当前网络负责对机械臂所执行动作评判策略的更新.两个目标网络则是借鉴了DDQN (double deep Q-learning)算法[28]的双网络框架模式,通过目标框架评判当前框架的方式解决单个网络框架收敛慢、算法不稳定的问题.经验回放将机械臂与环境交互所得转移样本(s,a,r,s ′)存放到经验池中,训练时再从经验池中随机采样,以此将采集样本碎片化存储,避免了样本之间的相关性,同时也提高了样本利用率.图2基于DDPG 的机械臂路径规划方法[26]Fig.2Path planning method of manipulator based on DDPG [26]3DRL 与旋量法的融合旋量法是一种基于李群的解决机械臂运动学的方法.SMIDRL 算法如图1所示,即通过旋量法将机械臂探索过程中收集到的自然轨迹进行复制、筛选,以此得到廉价的可行人工轨迹,在不进行额外探索的前提下得到更多的训练样本,达到提高样本利用率的目的.每次转换得到的人工轨迹必须通过自然轨迹生成,否则可能会使训练结果有很大偏差.3.1旋量法进行旋量运算需要参数ξ和θ,其中θ为旋转角度,ξ=[νω]T ∈se (3)⊂R 6为旋量系数,ν=−ω×q ,ω=[w 1w 2w 3]T ∈so (3)⊂R 3表示旋转轴(如z 轴为旋转轴时ω=[001]T ),q ∈R 3为旋转体到旋转轴的垂直向量.ξ和θ对应的旋量矩阵g (ξ,θ)表示为g (ξ,θ)=[e ˆωθ(I −e ˆωθ)(ω×ν)01]∈SE (3),(1)其中:ˆω=0−ω3ω2ω30−ω1−ω2ω10,(2)e ˆωθ=I +ˆωsin θ+ˆω2(1−cos θ)∈SO (3),(3)其中:SO (n )⊂R n ×n 为n 维的特殊正交群,SE (n )⊂R (n +1)×(n +1)为系统位形空间R n 与SO (n )的乘积空间,so (n ),se (n )为李群SO (n ),SE (n )的李代数.3.2机械臂参数本文所使用机械臂仿真环境参数如下:1)状态空间s =(s f ,s ob ,s ob2g ,s obs ),其中:s f 包含夹具位置(x f ,y f ,z f ),线速度(x ′f ,y ′f ,z ′f ),手指的相对距离d f 和相对速率d ′f ;s ob 包括可移动物体的位姿(x ob ,y ob ,z ob ,αob ,βob ,γob ),线速度和角速度(x ′ob ,y ′ob ,z ′ob ,α′ob ,β′ob ,γ′ob );s ob2g 表示可移动物体与目标的距离差(x ob2g ,y ob2g ,z ob2g );s obs 表示障碍物的位姿(x obs ,y obs ,z obs ,αobs ,βobs ,γobs ),若环境中无障碍物,则s obs 为空集;2)动作空间a =(x a ,y a ,z a ,d f ),其中:d f 为夹爪手指的相对距离,(x a ,y a ,z a )表示机械臂下一步将运动到的位置;3)目标g =(x g ,y g ,z g )表示目标位置;4)奖励函数R 如式(4)所示,未完成任务则给予惩第3期王寅等:基于深度强化学习与旋量法的机械臂路径规划519罚“−1”,反之反馈值为“0”.R =−1,d (ob ,g ) ϵ,0,d (ob ,g )>ϵ,(4)其中:d (ob ,g )为可移动物体与目标之间的距离标量;ϵ为距离阈值,d (ob ,g ) ϵ时判定任务完成.3.3自然轨迹与人工轨迹的映射假定一条长度为h 的轨迹τ={g,(s 0,a 1,r 1,s 1,a 2,r 2,s 2,···,s h )},g ∈G ,s 0∈S ,∀i =1,2,···,h ,s i ∈S ,a i ∈A ,r i =R (s i −1,a i ,s i ,g ).假定所有在真实存在的机械臂中的轨迹的长度不大于H ∈N (即每个操作长度有限),则所有轨迹集合为L =H ∪h =1G ×S ×(A ×R ×S )h .所有可行轨迹集合为L ⊆L .对于τ∈L ,都有T (s i −1,a i ,s i ),则判定τ∈L .对于τ∈L ,若满足条件R (τ)>R min 或r i >R min ,则判定τ为成功轨迹.其中:R (τ)=h ∑i =1γi −1R (s i −1,a i ,s i ,g ),R min 为阈值.本文中的成功条件为r i >R min ,阈值为R min =−1.成功轨迹集合为L +⊆L .定义可行轨迹L 的映射为f :L →L ,使得f (L ,θ)=L ,其中f (L ,θ)={τ∈L|∃τ′∈L ,f (τ′,−θ)=τ}(下文将f (L ,θ)简化为f (L )表示).对于任意轨迹τ∈L 进行映射f 时,其元素也存在映射f G :G →G ,f S :S →S ,f A :A →A .换言之,状态、动作和奖励都可进行单独映射,即对于任意τ∈L 都存在f (τ)=τ′∈L .定义自然轨迹为τ={g,(s 0,a 1,r 1,s 1,a 2,r 2,s 2,···,s h )},所得人工轨迹为τ′={g ′,(s ′0,a ′1,r ′1,s ′1,a ′2,r ′2,s ′2,···,s ′h )},则τ与τ′中的元素满足以下映射关系:g ′=f G (g ),s ′0=f S (s 0),∀i =1,2,···,h ,a ′i =f A (a i ),s ′i =f S (s i ),r ′i =R (f S (s i −1),f A (a i ),f S (s i ),f G ).在SMIDRL 算法中,对于任意τ∈L 通过映射f 得到的人工轨迹τ′∈L ,其内部元素之间的相对距离并未改变(例如机械臂末端相对于目标的距离并未改变,即d (ob ,g )=d (f S (ob),f G (g ))),因此自然轨迹τ映射得到人工轨迹τ′后奖励值不变,即r ′i =r i .所有成功轨迹L +⊆L 同样适用可行轨迹L 的映射关系.3.4SMIDRL 算法旋量法的本质是旋转,通过旋量法对轨迹映射(简称为旋量映射)后,可能会生成工作区外的无效轨迹,因此设置参数θmax 来提高生成轨迹的有效性.SMIDRL 算法将机械臂与环境交互得到的自然轨迹通过旋量法进行扩充得到人工轨迹,在加以筛选后,与自然轨迹共同放入到经验回放库中.需通过旋量法进行映射的轨迹元素包括第3.2节中介绍的状态、动作、目标,其中包括位置矢量、线速度矢量、欧拉角、角速度以及夹具相对距离和相对速度等元素.夹具相对距离和相对速度是刚体内的元素,在经过旋量映射以后并不会被改变,因此不对其进行映射.在仿真环境中,因为机械臂底座坐标系未与世界坐标系重合,故需将机械臂底座坐标系简单转换至世界坐标系,接下来的介绍将默认已进行转换.每条自然轨迹可同时进行多次映射,在此定义每条自然轨迹进行旋量映射次数的参数n tw ,具体如下所示:Θ={θj |θj ∼(0,θmax ],j =1,2,···,n tw },(5)其中Θ表示在(0,θmax ]采样n tw 次所得角度的集合.每次旋量映射除了旋量参数ξ和角度θ以外并无改变,接下来仅介绍单次旋量映射.为了方便介绍,下文所有位置和线速度皆以(x,y,z )表示,所有弧度和角速度皆以(α,β,γ)表示.首先,将对应的(x,y,z )和(α,β,γ)(如障碍物的位置和姿态、可移动物体的线速度和角速度定义为对应)转换为以下SE (3)矩阵形式:g 0=[R 0p 001],(6)其中:R 0=Eul(α,β,γ),p 0=[x y z ]T .再根据式(1)得到该轨迹参数ξ,θ对应的旋量矩阵g (ξ,θ),则可得(x ′,y ′,z ′)和(α′,β′,γ′)的SE (3)矩阵g =g (ξ,θ)g 0=[R ′p′01],(7)从而可得到映射后的(x ′,y ′,z ′)和(α′,β′,γ′):[x ′,y ′,z ′]=(p ′)T ,(8)[α′,β′,γ′]=Eul −1(R ′),(9)其中:Eul(·)为将欧拉角映射为旋转矩阵SO (3)的运算,Eul −1(·)为Eul(·)的逆运算.以上为单次旋量映射的过程,下文将由Sc 表示,如将状态s 映射为s ′,可用s ′←Sc (s )表示.旋量映射完成后,需通过生成轨迹是否在工作空间内等条件来判断该轨迹是否有效,如有效才可存放至经验池.SMIDRL 算法的伪代码见算法1所示.SMIDRL 算法将已得到的自然轨迹进行复制扩充,在不进行额外探索的情况下获得更多廉价的有效人工轨迹,从而提高样本利用率和学习效率;在复制轨迹的同时,对障碍物等环境元素进行同步改变,以此提升机械臂对随机环境的泛化性能.4实验与验证4.1实验环境实验环境如下:仿真环境为Mujoco 平台中具有双指平行夹具的模拟7自由度Fetch 机械臂和6自由度520控制理论与应用第40卷UR5机械臂;深度强化学习算法为DDPG 算法;神经网络框架为Pytorch;显卡为GeForce GTX 2080Ti;CPU 为Intel(R)Core(TM)i9-9900X CPU @3.50GHz;操作系统为Ubuntu16.04;GPU 为32G.算法1:DRL 与旋量法的融合算法(SMIDL)Input :离线策略DRL 算法D ,容量为N 的经验回放库R ,回合数(episode)M ,每回合步数T ,采样样本数m ,最大角度θmax ,旋量参数ξ,旋量映射次数n tw .1初始化离线策略DRL 算法D 和经验回放库R 2for episode =1,2,···,M do3获得目标g 和初始状态s 1.4for t =1,2,···,T do5通过算法D 获得动作a t 并执行;6到达下一状态s t +1,计算得奖励值r t ;7将转移样本(s t ,a t ,r t ,s t +1)存入R ;8end9for j =1,2,···,n tw do10采样获得角度θj ∼(0,θmax ];11根据θj 和ξ映射g 和s 1:12g ′←Sc (g ),s ′1←Sc (s 1);13for t =1,2,···,T do14根据θj 和ξ映射a t 和s t +1:a ′t ←Sc (a ′),s ′t +1←Sc (s t +1);15if 该人工轨迹为有效轨迹then16将(s ′i ,a ′i ,r i ,s ′t +1)存入R 17end18end19end20for t =1,2,···,T do21从R 进行随机采样m 个转移样本(s,a,r,s ′);22使用算法D 和采样转移样本进行优化23end 24end仿真环境包括如图3–5所示的Fetch 机械臂仿真环境以及如图6所示的UR5机械臂仿真环境.Fetch 机械臂仿真环境包括推动、滑动、拾取和放置任务,UR5机械臂仿真环境为拾取和放置任务.在所有任务中,每一回合都会使可移动物体和障碍物在桌上进行随机初始化.图3–6中可移动物体为黑色方块,预设目标为红色球体,障碍物为黄色方块.状态、动作及奖励函数等如第3.2节定义.1)推动:该任务通过机械臂末端将物体推动至桌上的预设位置.2)拾取和放置:该任务先使用机械臂末端的夹爪将物体拾取,再将物体放置到工作空间中的预设位置.3)滑动:该任务通过机械臂末端对物体施加一个力,使物体在存在摩擦力的前提下滑动到桌子上的预设位置(目标位置在机械臂的工作区之外).(a)无障碍物任务(b)有障碍物任务图3推动任务的环境Fig.3Environment of the pushingtask(a)无障碍物任务(b)有障碍物任务图4拾取与放置任务的环境Fig.4Environment of the pick-and-placement task第3期王寅等:基于深度强化学习与旋量法的机械臂路径规划521(a)无障碍物任务(b)有障碍物任务图5滑动任务的环境Fig.5Environment of slidingtask图6UR5机械臂的拾取与放置任务环境Fig.6Pick-and-placement task environment of UR5manipulator4.2神经网络超参数设置在本文实验所使用的算法中,其网络框架超参数设置如表1所示,除非有特殊说明,否则超参数值不做改变.4.3算法评判标准在强化学习中,一回合(epoch)由固定大小的连续步(episode)组成,因此可以通过计算每回合(即每迭代一次)中成功的步数来计算该回合的成功率.以此为基础,在本文实验中,算法每次更新完成后,都会通过当前的训练模型控制机械臂执行10次任务并求得其平均成功率,该平均成功率则为当前时刻的训练模型优劣性的评判标准.表1神经网络框架超参数Table 1Hyperparameter of neural networkframework超参数符号超参数名称具体数值α策略网络学习率0.001β评价网络学习率0.001τ目标网络软更新参数0.1γ衰减因子0.98m 小批量采样样本数128N 经验回放池容量1×106M 回合数200T每回合步数504.4实验与分析本文实验中,分别给推动、拾取和放置任务8倍加速,由于滑动任务更加困难,因此给它24倍加速.前文提到SMIDRL 与HER 算法融合后可使样本利用率提升更高,接下来将使用HER 算法中效果最好的“未来策略”进行验证,HER 算法的使用次数为4.为了更好介绍SMIDRL 算法的性能,本文将通过无障碍情况下有无HER 算法、不同次数的旋量映射、存在障碍物情况这3种情况进行实验对比并验证.同时为了证明SMIDRL 的通用性,本文通过solidworks 导出的UR5机械臂模型,保存UR5机械臂的物理参数,在存在障碍物环境下让该UR5机械臂进行“拾取与放置”实验.本实验中所展示数据图皆截取至Tensor-board,为方便对比已用Tensorboard 自带插件进行拟合,其中被虚化部分为原始数据,实体部分为拟合后数据.4.4.1无障碍情况下有无HER 算法的性能比较本实验将通过DRL,SMIDRL,DRL+HER 以及S-MIDRL+HER 这4种情况进行对比,来验证SMIDRL 算法提升性能的有效性,且与HER 算法融合后性能可使提升更高.其中推动任务、拾取与放置任务进行旋量映射的次数n tw =16,滑动任务进行旋量映射的次数n tw =24.实验结果如图7所示,实验分析如下:1)在推动任务中,DRL 算法的成功率呈微下降趋势;SMIDRL 算法的成功率在160回合开始上升,最高达到30%;HER+DRL 算法的成功率于60回合开始上升;HER+SMIDRL 算法在60回合时成功率就达到90%以上,并于80回合左右达到峰值且大致平稳;2)在拾取与放置任务中,DRL 算法的效果较差,成功率无上升趋势且均低于10%;SMIDRL 算法在100回合处成功率开始上升;HER+DRL 算法的成功率522控制理论与应用第40卷虽有增长,但相对缓慢,200回合时成功率都未高于90%;HER+SMIDRL 算法在120回合左右成功率就已达到峰值,并大致保持平稳;3)滑动任务相对其他两个任务更为困难,相对于HER+DRL 算法,HER+SMIDRL 算法仅得到微弱的提升;但在未融入HER 算法的情况下,SMIDRL 算法对比DRL 算法的优势较为明显:DRL 算法成功率无上升趋势,而SMIDRL 算法在130回合后成功率开始增高.(a)拾取与放置任务(b)滑动任务(c)推动任务图7无障碍任务下SMIDRL 算法的性能Fig.7Performance of SMIDRL without obstacle综上,在无障碍情况下,SMIDRL 算法的效率明显高于DRL 算法,且融入HER 算法后SMIDRL 算法提升更为显著.4.4.2不同次数旋量法对性能的影响本实验将通过进行不同次数旋量映射的实验,来比较在无障碍物的情况下不同次数旋量映射对算法性能的影响.在此次实验中,将在HER+SMIDRL 算法的基础上,通过0次、1次、8次、16次及32次旋量映射来进行比较.实验结果如图8所示,实验分析如下:1)在推动任务中,单次旋量映射的算法与未进行旋量映射的相比,训练效率得到大幅提升;而n tw =1到n tw =32的区别不大,在训练前期(60回合前)随着旋量映射次数增多成功率提升越快,在60回合左右达到最高值;2)拾取与放置任务与推动任务相似,n tw =1相对于n tw =0,其算法性能提升明显:n tw =0的成功率均低于90%,而n tw =1的成功率于140回合左右达到峰值;而n tw =1到n tw =32虽对算法的训练效率虽有提升,但提升幅度随着旋量映射次数的增加而减少;3)滑动任务相对更为复杂,随着旋量映射次数增多,训练效率虽能得到提升,但提升幅度降小.(a)拾取与放置任务(b)滑动任务(c)推动任务图8无障碍环境下进行不同次数旋量映射的比较Fig.8Comparison of screw-mapping with different times inbarrier-free environments在这3个任务中,在一定的旋量映射次数范围内,随着旋量映射的次数增加,成功率随之升高,但提升第3期王寅等:基于深度强化学习与旋量法的机械臂路径规划523效果逐渐降低.4.4.3存在障碍物情况的性能比较本实验将在仿真环境中加入障碍物,以此验证SMIDRL 算法在障碍物环境中也是可行有效的.为了方便对比,本实验将融入HER 算法,即通过HER+DRL 算法与HER+SMIDRL 算法进行对比分析.实验结果如图9所示,由于障碍物的加入使环境变得复杂,导致HER+DRL 的训练模型成功率均处于较低的状态.实验分析如下:1)在推动任务中,HER+DRL 算法成功率低于10%,但HER+SMIDRL 算法成功率逐步上升,在90回合开始成功率保持在90%以上;2)在拾取与放置任务中,HER+DRL 算法的成功率上升缓慢,在130回合处才开始有明显上升趋势;HER+SMIDRL 算法的成功率在40回合左右开始稳步上升,在120回合后保持在90%左右;3)由于滑动任务相对其他两个任务难度更大,故仅有小幅度的性能提升.(a)拾取与放置任务(b)滑动任务(c)推动任务图9存在障碍任务下SMIDRL 算法的性能Fig.9Performance of SMIDRL with obstacle综上,SMIDRL 算法在存在障碍物的非结构化下同样具备提升样本利用率和模型泛化性能的能力.4.4.4UR5机械臂的性能验证前3个实验已经验证SMIDRL 在Fetch 机械臂环境中的可行性,本实验将通过UR5机械臂在障碍物环境下进行拾取与放置实验,验证SMIDRL 的通用性以及在现实环境的可行性.在本实验中,旋量映射参数n tw 设置为16,为了方便对比观察,此实验都将融入HER 算法,即通过HER+DRL 与HER+SMIDRL 进行分析.实验结果如图10所示.由于UR5机械臂为六自由度,在障碍物环境中运动受限,因而成功率较低.HER+DRL 算法成功率低于10%,而HER+SMIDRL 算法在130回合左右将成功率稳定在42%左右.图10UR5机械臂下的SMIDRL 性能验证Fig.10SMIDRL performance verification in UR5manipulator5结论针对深度强化学习在机械臂路径规划的应用中仍面临的样本需求量大和获取成本高的问题,本文提出了SMIDRL 算法,并通过Fetch 机械臂和UR5机械臂在非结构化环境下的仿真实验进行了验证.SMIDRL 算法通过旋量法与DRL 算法的融合,在同样的探索次数下,能够复制更多的有效轨迹并投入训练,使训练效率得到提升;并且在进行轨迹扩充的同时,通过对目标、障碍物等环境元素进行同步复制的方式,对交互环境进行相应改变,从而提高了机械臂在复杂随机环境中的适应能力,提高训练模型的泛化性能.实验结果表明,在未融入HER 算法的情况下,旋量法对训练模型有质的提升;在与HER 算法结合后,加快了在推动、拾取与放置任务中的学习速度,大幅提高了机械臂的成功率.在滑动任务中也有一定的性能提升,且在有障碍物的复杂环境中,采用SMIDRL 算法的性能提升效率更为明显.参考文献:[1]YANG C,ZENG C,CONG Y ,et al.A learning framework of adap-tive manipulative skills from human to robot.IEEE Transactions on Industrial Informatics ,2018,15(2):1153–1161.524控制理论与应用第40卷[2]YANG C,WU H,LI Z,et al.Mind control of a robotic arm with vi-sual fusion technology.IEEE Transactions on Industrial Informatics, 2017,14(9):3822–3830.[3]NUBERT J,KOHLER J,BERENZ V,et al.Safe and fast tracking ona robot manipulator:Robust mpc and neural network control.IEEERobotics and Automation Letters,2020,5(2):3050–3057.[4]PIAZZI A,VISIOLI A.Global minimum-jerk trajectory planningof robot manipulators.IEEE Transactions on Industrial Electronics, 2000,47(1):140–194.[5]SARAMAGO S F P,JUNIOR V S.Optimal trajectory planning ofrobot manipulators in the presence of moving obstacles.Mechanism and Machine Theory,2000,35(8):1079–1094.[6]SARAMAGO S F P,STEFFEN JR V.Optimization of the trajectoryplanning of robot manipulators taking into account the dynamics of the system.Mechanism and Machine Theory,1998,33(37):883–894.[7]KARAMAN S,WALTER M R,PEREZ A,et al.Anytime motionplanning using the RRT.IEEE International Conference on Robotics and Automation.Shanghai:IEEE,2011:1478–1483.[8]CANNY J.The Complexity of Robot Motion Planning.Canbridge:MIT press,1988.[9]BARRAL D,PERRIN J P,DOMBRE E,et al.An evolutionary simu-lated annealing algorithm for optimizing robotic task point ordering.Proceedings of the IEEE International Symposium on Assembly and Task Planning(ISATP’99)(Cat.No.99TH8470).Porto:IEEE,1999: 157–162.[10]ZHAO Dongbin,SHAO Kun,ZHU Yuanheng,et al.Summary ofdeep reinforcement learning:Also on the development of computer go.Control Theory&Applications,2016,33(6):701–717.(赵冬斌,邵坤,朱圆恒,等.深度强化学习综述:兼论计算机围棋的发展.控制理论与应用,2016,33(6):701–717.)[11]TANG Zhentao,SHAO Kun,ZHAO Dongbin,et al.Progress in deepreinforcement learning:From Alphago to Alphago zero.Control The-ory&Applications,2017,34(12):1529–1546.(唐振韬,邵坤,赵冬斌,等.深度强化学习进展:从AlphaGo到AlphaGo Zero.控制理论与应用,2017,34(12):1529–1546.)[12]ZHONG J,WANG T,CHENG L.Collision-free path planning forwelding manipulator via hybrid algorithm of deep reinforcement learning and inverse plex&Intelligent Systems, 2022,8(3):1899–1912.[13]PRIANTO E,PARK J H,BAE J H,et al.Deep reinforcementlearning-based path planning for multi-arm manipulators with peri-odically moving obstacles.Applied Sciences,2021,11(6):2587.[14]SANGIOV ANNI B,INCREMONA G P,PIASTRA M,et al.Self-configuring robot path planning with obstacle avoidance via deep re-inforcement learning.IEEE Control Systems Letters,2020,5(2):397–402.[15]SANGIOV ANNI B,RENDINIELLO A,INCREMONA G P,etal.Deep reinforcement learning for collision avoidance of robotic manipulators.European Control Conference(ECC).Limassol, CYPRUS:IEEE,2018:2063–2068.[16]LI F,JIANG Q,ZHANG S,et al.Robot skill acquisition in assemblyprocess using deep reinforcement learning.Neurocomputing,2019, 345:92–102.[17]LIN G,ZHU L,LI J,et al.Collision-free path planning for a guava-harvesting robot based on recurrent deep reinforcement learning.Computers and Electronics in Agriculture,2021,188:106350.[18]IRIONDO A,LAZKANO E,SUSPERREGI L,et al.Pick and placeoperations in logistics using a mobile manipulator controlled with deep reinforcement learning.Applied Sciences,2019,9(2):348.[19]WEN S,CHEN J,WANG S,et al.Path planning of humanoid armbased on deep deterministic policy gradient.IEEE International Con-ference on Robotics and Biomimetics.Kuala Lumpur:IEEE,2018: 1755–1760.[20]LI Z,MA H,DING Y,et al.Motion planning of six-dof arm robotbased on improved DDPG algorithm.The39th Chinese Control Con-ference IEEE.Shenyang:IEEE,2020:3954–3959.[21]LIN L J.Self-improving reactive agents based on reinforcementlearning,planning and Teaching.Machine Learning,1992,8(3/4): 293–321.[22]ANDRYCHOWICZ M,WOLSKI F,RAY A,et al.Hindsight experi-ence replay.The31th Conference on Neural Information Processing Systems(NIPS2017),Long Beach,CA,USA:2017,30:5048–5058.[23]MURRAY,RICHARD M,ZEXIANG LI,et al.A Mathematical In-troduction to Robotic Manipulation.Boca Raton:CRC press,2017: 61–66.[24]BROCKMAN G,CHEUNG V,PETTERSSON L,et al.OpenAIGym.arXiv Preprint,2016:1606.0154OVI.[25]PLAPPERT M,ANDRYCHOWICZ M,RAY A,et al.Multi-goalreinforcement learning:Challenging robotics environments and request for research.ArXiv Preprint,2018:arXiv:1802.09464.[26]LILLICRAP T P,HUNT J J,PRITZEL A,et al.Continuous con-trol with deep reinforcement learning.International Conference on Learning Representations(Poster).Santiago:ICLR,2015.[27]SCHAUL T,HORGAN D,GREGOR K,et al.Universal value func-tion approximators.International Conference on Machine Learning.Lile:ICML,2015:1312–1320.[28]V AN HASSELT H,GUEZ A,SILVER D.Deep reinforcementlearning with double q-learning.Proceedings of the AAAI Conference on Artificial Intelligence.Texas:AAAI,2016,30(1):2094–2100.作者简介:王寅硕士研究生,目前研究方向为深度强化学习、串联机械臂、路径规划,E-mail:*********************;王永华副教授,博士,目前研究方向为信号处理、机器学习、智能测控,E-mail:********************.cn;尹泽中硕士研究生,目前研究方向为移动机械臂、深度强化学习、运动规划,E-mail:*********************;万频教授,博士,目前研究方向为智能测控技术、信号处理、物联网,E-mail:***************.第40卷第3期2023年3月控制理论与应用Control Theory&ApplicationsV ol.40No.3Mar.2023基于双边闭环函数的网络化采样控制系统稳定性分析曾红兵,颜俊杰,肖会芹†(湖南工业大学电气与信息工程学院,湖南株洲412007)摘要:考虑数据通信时延不确定环境下网络化采样控制系统的稳定性问题.首先基于输入时滞方法,建立包含采样周期信息的网络化采样控制系统的数学模型,在此基础上,采用双边闭环函数方法和自由矩阵积分不等式技术,得到网络传输时滞变化区间依赖稳定性新准则,并进一步讨论了网络化采样控制系统中网络时延与采样周期之间的关系.仿真结果表明减小采周期可以增强网络控制系统对网络通信时延的鲁棒性.关键词:网络控制系统;双边闭环函数;自由矩阵积分不等式;不确定数据传输时滞引用格式:曾红兵,颜俊杰,肖会芹.基于双边闭环函数的网络化采样控制系统稳定性分析.控制理论与应用, 2023,40(3):525–530DOI:10.7641/CTA.2022.11008Stability analysis of networked control system based ontwo-sided looped functionalsZENG Hong-bing,YAN Jun-jie,XIAO Hui-qin†(School of Electrical and Information Engineering,Hunan University of Technology,Zhuzhou Hunan412007,China) Abstract:The stability of a class of networked sampled-data control systems with data transmission delay is studied. Firstly,based on the input delay method,a model of networked control systems with periodic sampling is established.On this basis,a new stability criterion with uncertain transmission delay is obtained by using the two-sided looped function method and the free matrix integral inequality technique.Furthermore,the relationship of uncertain data transmission delay and the sampling period in networked sampled-data control system is investigated.Simulation results show that reducing the sampling period can improve the robustness of networked control system.Key words:networked control system;two-sided looped-functionals;free-matrix-based integral inequality;uncertain delayCitation:ZENG Hongbing,YAN Junjie,XIAO Huiqin.Stability analysis of networked control system based on two-sided looped functionals.Control Theory&Applications,2023,40(3):525–5301引言伴随着计算机和网络通讯技术的迅速发展,网络控制系统(networked control system,NCS)得到了广泛的关注[1].在网络控制系统中,采样作为信息处理的前端,在网络通讯、数据传输的过程中起着重要作用.增大采样周期可以降低信息的传输量,从而有效的节约网络通讯资源.此外,系统元件执行的速度和网络带宽是有限的,在信号的采集和传输中不可避免的会产生拥堵,从而导致数据传输时滞.因此,在具有数据传输时滞的网络环境下研究不确定时滞与保证系统稳定允许的最大采样周期之间的关系对实际网络控制系统的设计具有指导意义.目前,采样控制系统已经被学者们广泛研究并取得了许多重要成果[2–6].针对采样控制系统问题的稳定性问题,主要采用以下3种方法:1)离散时间系统方法[3],此方法主要应用于确定采样区间,它将采样系统构建为一个离散的时间系统模型,并基于离散时间系统理论进行分析;2)脉冲系统方法[4],此方法将采样系统建立成一个脉冲系统进行分析;3)输入时滞方法[5–6],此方法是将采样系统转化为具有输入时滞的连续时间系统,并基于连续时间系统理论进行分析.2012年,针对采样控制系统的稳定性问题,文献收稿日期:2021−10−21;录用日期:2022−07−27.†通信作者.E-mail:xiaohq***********;Tel.:+86731-22183270.本文责任编委:施阳.国家自然科学基金项目(62173136),湖南省自然科学基金项目(2020JJ2013,2021JJ50047)资助.Supported by the National Natural Science Foundation of China(62173136)and the National Natural Science Foundation of Hunan Province (2020JJ2013,2021JJ50047).。
基于SCARA机械手的采茶机器人研究共3篇基于SCARA机械手的采茶机器人研究1随着现代工业技术的日新月异,机器人技术也得到了迅猛的发展。
在传统农业生产领域,机械采摘技术的应用越来越广泛,特别是在茶叶采摘领域,机器人技术也成为研究的热点之一。
本文将着重介绍基于SCARA机械手的采茶机器人研究。
1. SCARA机械手概述SCARA机械手是一种基于三维空间直角坐标系的机械手,它既可以实现横向线性移动,也可以在垂直于此平面内的任意方向上运动,同时它的各关节旋转自由度也比较大。
SCARA机械手在工业自动化领域被广泛应用,在电子制造、汽车工业、药品生产等方面都有很好的表现。
2. SCARA机械手在茶叶采摘中的应用在传统的茶叶采摘工作中,一般都是由人工进行的,由于茶叶采摘要求劳动者手臂的力度和力量是相对稳定的,同时手指的灵活性也要求非常高,所以对于人力的要求是很高的。
在这种情况下,机器人采摘茶叶成为了必然趋势。
SCARA机械手在茶叶采摘中的应用主要是在手臂的伸缩、提取、放置等方面,通过激光等技术将机器人所需要的茶叶进行识别,然后通过SCARA机械手的各种操作方式将茶叶采摘下来。
由于SCARA机械手具有较大的自由度,所以它可以灵活地处理茶叶的摘取和放置,从而提高机器人的采茶效率。
3. SCARA机械手在采茶机器人中的优势(1)高度自动化SCARA机械手采用电脑程序控制,可以实现全自动操作,采摘前不需要特殊的说明和指导,减少人工干预,提高作业效率。
(2)高速度和高精度机器人采用的SCARA机械手具有较高的速度和精度,可以实现高效且准确的操作,大大提高了采茶效率。
(3)可靠性强SCARA机械手机械结构较为简单,由于自身的稳定性和不易受环境因素的影响,因此不容易出现问题,可靠性高。
(4)适应性强机器人可以根据不同的茶叶品种和不同的采摘场地进行灵活的调整和操作,采茶场地的大小和环境条件不会对操作产生影响。
4. 发展前景目前,机器人采茶技术仍处于研究和实验阶段,大多数机器人厂家正在致力于新型的采茶机器人的开发、设计和研究。
机器人李群李代数意义摘要:一、引言二、机器人技术的发展与李群李代数的联系三、李群李代数在机器人技术中的应用四、李群李代数对机器人技术发展的意义五、结论正文:一、引言随着科技的飞速发展,机器人技术逐渐成为人们关注的焦点。
在我国,机器人技术的研究与发展也取得了显著成果。
在这个过程中,数学领域的李群李代数发挥着重要作用。
本文将探讨李群李代数在机器人技术中的意义。
二、机器人技术的发展与李群李代数的联系机器人技术的发展离不开数学理论的支持。
李群李代数作为数学中的一个重要分支,为机器人技术提供了丰富的理论基础。
李群李代数研究的是具有一定对称性的数学对象,这种对称性在机器人运动学、动力学等方面具有很强的应用价值。
三、李群李代数在机器人技术中的应用1.机器人运动学:李群李代数可以用来描述机器人的运动学模型,从而为机器人运动控制提供理论依据。
通过对李群李代数的研究,可以更精确地控制机器人的姿态和轨迹,提高机器人的运动性能。
2.机器人动力学:李群李代数在机器人动力学中也发挥着重要作用。
通过对李群李代数的研究,可以更好地分析机器人的动力学特性,为机器人动力学控制提供理论支持。
3.机器人控制:李群李代数在机器人控制领域也有广泛应用。
利用李群李代数,可以设计出更高效、更稳定的控制器,从而提高机器人的性能。
四、李群李代数对机器人技术发展的意义1.提高机器人性能:李群李代数为机器人技术提供了丰富的理论基础,有助于提高机器人的性能,使机器人更加精确、高效地完成各种任务。
2.促进机器人技术发展:李群李代数在机器人技术中的应用,有助于推动机器人技术的创新与发展,为我国机器人产业提供强大的支持。
3.拓宽应用领域:李群李代数在机器人技术中的应用,不仅可以提高机器人在工业、医疗等领域的性能,还可以推动机器人向更广泛的领域发展,如家庭服务、环境监测等。
五、结论总之,李群李代数在机器人技术中具有重要意义。
通过深入研究李群李代数,可以为机器人技术的创新发展提供理论支持,推动我国机器人产业走向更高端、更先进。
SCARA机器人动力学参数辨识及轨迹跟踪控制方法探究一、引言SCARA(Selective Compliance Assembly Robot Arm)机器人是一种常见的工业机器人,具有高刚性和高精度的特点,在装配、焊接、喷涂等工业领域中得到广泛应用。
为了实现机器人的精确控制,探究机器人的动力学参数辨识和轨迹跟踪控制方法显得尤为重要。
二、动力学参数辨识方法机器人的动力学参数辨识是指通过试验或模型计算来确定机械臂的动力学参数,包括质量、惯性矩阵和关节摩擦力等。
常用的参数辨识方法有逆动力学方法、最小二乘法和辨识模型拟合法等。
1.逆动力学法逆动力学法是一种基于测量输入输出信号的方法,通过测量机器人的位置、速度和加速度等信息,利用动力学方程求解未知参数。
该方法需要精确的测量设备和较高的计算能力,但可以得到较精确的参数预估结果。
2.最小二乘法最小二乘法是一种统计学中常用的参数预估方法,通过最小化实际输出值与模型猜测值之间的差异来确定动力学参数的预估值。
该方法不需要测量输入信号,但需要对机器人的动力学方程进行显式建模,且对噪声敏感。
3.辨识模型拟合法辨识模型拟合法是一种基于数据采集的非参数辨识方法,通过采集机器人在不同工作空间中的输入输出数据,利用神经网络、遗传算法等拟合方法来确定动力学参数。
该方法不需要对机器人的动力学方程进行显式建模,有较好的适用性。
三、轨迹跟踪控制方法轨迹跟踪控制是指将机器人的末端执行器按照给定的轨迹进行精确控制,并实现高精度的姿态和位置跟踪。
常用的轨迹跟踪控制方法有PID控制、模型猜测控制和自适应控制等。
1.PID控制PID控制是一种经典的反馈控制方法,通过比较机器人的实际运动状态与期望轨迹来调整控制量,使机器人能够跟踪给定轨迹。
PID控制简易易实现,但对于非线性系统和参数变化较大的系统效果较差。
2.模型猜测控制模型猜测控制是一种基于系统状态猜测的控制方法,通过建立机器人的数学模型来猜测将来一段时间的系统状态,并依据期望轨迹进行优化控制。
轻型抓取机器人的优化设计与路径规划郭盛;于智远;曲海波【摘要】针对一种轻型抓取机器人,对其进行了构型优化设计和相关工作路径的研究.在各臂旋转到同一条直线上时,以对各个关节的转动惯量最小为优化目标,得出轻型抓取机器人各臂的最优臂长,并针对抓取时的稳定性进行了设计.运用三次多项式对机器人的点到点运动和有中间点的运动进行了轨迹规划,得到了各个关节的位移和角速度方程,并用实例进行了计算.利用Matlab Ro-botics工具箱对轨迹规划的结果进行了验证.%The paper does the research of optimize design and trajectory planning on light grasping robot.The optimization objective is to minimize the moment of inertia that the arm exerts on every joint when all of the arms rotate to a line.The optimal length of each arms of the grasping robot could be obtained.The grasping ability and grasping stability of the grasping robot are optimized.The trajectory planning has been done in the circumstances of movement of point-to-point and movement with middle point.The functions of angular velocity and angular acceleration could be achieved.The correctness of the trajectory planning has been validated with the Matlab Robotics Toolbox.【期刊名称】《北京交通大学学报》【年(卷),期】2017(041)001【总页数】6页(P101-106)【关键词】抓取机器人;优化;轨迹规划;Matlab Robotics工具箱【作者】郭盛;于智远;曲海波【作者单位】北京交通大学机械与电子控制工程学院,北京100044;北京交通大学机械与电子控制工程学院,北京100044;北京交通大学机械与电子控制工程学院,北京100044【正文语种】中文【中图分类】TH112抓取机器人作为工业生产线上最常见的机器人,是工件抓取、搬运、装配及码垛的主要工具.抓取操作就是要在极短的时间内将目标物体从一个位置搬运到另一个位置,某些情况下还要同时完成对目标物体的姿态的调整.对于轻型抓取机器人,国内外许多学者已经做过许多研究,轻型抓取机器人在设计、制造方面都有了很大的突破.在SCARA机器人运动学和动力学方面,王科等[1]提出了以旋量、李群李代数为基础进行SCARA机器人的正解、逆解和雅克比矩阵的求解方法.并在此基础上,基于旋量理论,结合了拉格朗日法和牛顿-欧拉法的优点,建立了SCARA机器人的动力学模型,并进行了求解,得到了SCARA机器人的动力学方程参数.针对SCARA机器人的轨迹规划问题,赵登步等[2]提出一种基于时滞指数函数的速度轨迹规划方法.通过与S形速度轨迹规划方法的对比发现其计算量较小,产生的轨迹连续平滑.左富勇等[3]利用Matlab Robotics工具箱,对SCARA机器人进行了轨迹规划与仿真.Pajak[4]提出了一种针对末端执行器振动的无碰撞的移动机械臂的点对点轨迹规划方法,在减小末端执行器振动的同时提高了定位精度.上述轨迹规划的方法均存在一定的局限性,导致了总的规划时间较长,精度较差等.针对SCARA机器人优化设计问题,Mashagbeh[5]基于MapleSim软件实现了对SCARA机器人阻尼和刚度的模拟,对控制算法进行验证,使机器人在投入使用前就能对其表现进行评估.Jean-Francois[6]提出了一种新的设计SCARA机器人的方法,这种方法考虑了机器人的几何和关节的重复性,在保证工作空间和传感器成本不变的情况下,使其获得了更好的可重复性.上述研究主要从定位精度、控制算法方面对SCARA机器人进行了优化,对SCARA机器人的杆长尺寸考虑较少.本文作者在给定的轻型抓取机器人的基础上首先建立了优化目标函数,得到了大臂和小臂的最优化尺寸.其次,设计了轻型抓取机器人的工作平台,提高了其抓取的稳定性.然后,利用三次多项式对机器人进行了轨迹规划.最后,利用Matlab Robotics工具箱对规划的结果进行了验证.1.1 轻型抓取机器人模型建立本文所设计的轻型抓取机器人是由4个运动关节组成的一种水平搬运的机械手臂,如图1所示.3个转动关节轴线互相平行,实现平面内定位和定向,此外,附加一个移动关节,实现末端垂直运动.1.2 尺寸优化由图1可知当抓取机器人的大臂臂长l1和小臂臂长l2展开呈一条直线的时候,机器人对各个关节的转动惯量达到了最大值.如果以最大的角加速度运动,根据T=J·β(其中:T表示转矩;J表示转动惯量;β表示角加速度)可以得出,此时电机的转矩最大,为了保证最大角加速度不变的同时减小电机的最大转矩,就要保证大臂和小臂在这个位置的时候机器人对各关节的转动惯量最小[7].根据平行轴定理,可以得到大臂和小臂绕关节1和关节2的转动惯量为式中:JGi=Mil2i/12表示各臂绕自重心轴的转动惯量;Mi=ρli表示各臂的质量,其中,ρ表示臂的线密度,取ρ=1.这是一个多目标最优化问题,在此采用线性加权和法将多目标的优化问题转化为单目标的优化问题.因为J1和J2的数量级相同,取加权因子ωi=.因此,目标函数为满足小臂末端在X-Y平面内与原点距离的平方为因机器人结构限制,小臂无法实现全周转动,小臂运动范围为±135°且机器人底座半径为200 mm,则当θ2∈[-135°,135°]时,可以得到定义轻型抓取机器人工作空间性能指标为h= hmax-hmin,要求抓取机器人工作空间大于500mm,如图2所示,则臂长应满足:由此可得此优化设计的数学模型的约束条件为目标函数可行域如图3所示.由式(2)、式(8)利用Matlab优化工具箱可以求出最优解为:l1=410 mm,l2=390 mm.为了使抓取机器人在平台上工作时能够更加稳定,可以通过调节两边的支撑柱的长度来调整整体的中心位置,使其零力矩点落在支撑面内,增加整体结构的稳定性[8].同时,行走机构可以使抓取机器人在非工作状态时自由移动,具有更好的灵活性.行走机构结构如图4所示.对于设计的机器人要执行空间内点对点的抓取任务,最简单的抓取路径是直线,但要使抓取机器人末端走直线,需同时协调控制2个电机,这加大了对电机的控制难度,而且走直线运动不平稳,需要急转急停,易磨损清扫臂零部件,降低清扫臂的使用寿命.为了更好的完成抓取工作,要对抓取机器人进行轨迹规划,在满足机器人运动学的条件下,获得连续、平滑的轨迹,本文采用三次多项式进行轨迹规划[9].2.1 基于三次多项式的轨迹规划关节空间的轨迹规划适用于抓取机器人手腕从空间的某一个位置运动到目标位置,路径中无障碍物,属于点到点的运动.运动要求机器人各关节在初始时刻和结束时刻的关节角速度和角加速度均为0.首先建立两个关节的位移与时间三次多项式对式(9)求一阶导可以得到角速度与时间的函数,求二阶导可以得到角加速度与时间的函数关系通常,操作臂需要通过某些中间点来避开障碍,最终达到目标位置.与单目标点的情形类似,中间点通常是用工具坐标系相对于工作台坐标的期望位姿来确定的,应用逆运动学把中间点转换成一组期望的关节角.然后考虑每个关节求出平滑连接每个中间点的三次多项式.建立两个关节在两个时间段内的位移与时间的三次多项式.再根据已知的初始时刻关节1和关节2的关节角、中间时刻的关节1和关节2的关节角及结束时刻的关节1和关节2的关节角,可以分别确定两个关节的位移与时间的三次多项式的系数.2.2 数值计算假设轻型抓取抓取机器人末端操作手从初始位置A(θ1a=0°,θ2a=0°)运动到结束位置B(θ1b= 100°,θ2b=90°),分别对点对点运动和有中间点的运动进行规划.设点对点运动的运动时间t=2.5 s.基于给定的关节角数值,可以唯一确定两个关节的三次多项式,将约束条件代入式(9)和式(10),可得到关节1和关节2的运动函数如图5所示.对式(11)求一阶导数可以得到各个关节速度的函数如图6所示.具有中间点的运动时,在中间位置O点时,关节1和关节2的关节角(θ1o=45°,θ2o=80°),起始位置到中间位置运动时间t1=1.5 s,从中间位置到结束位置运动时间t2=1.5 s.基于给定的关节角数值可以唯一确定两个关节的运动函数如图7所示.关节1从A运动到B:关节1从O运动到B:关节2从A运动到O:关节2从O运动到B:对式(13)、式(14)、式(15)和式(16)求一阶导数可以得到各个关节速度的函数如图8所示.关节1从A运动到O:关节1从O运动到B:关节2从A运动到O:关节2从O运动到B:用Matlab Robotics工具箱对本文所设计的抓取取机器人进行运动轨迹仿真,首先应建立相应的机器人对象如图9所示,程序为构建完成后,可通过drivebot函数来驱动抓取机器人的运动,通过控制滑块的位置可以实现关节的转动和移动[10].驱动界面如图10所示.采用Matlab Robotics工具箱的[q,qd,qdd]= jtraj(qa,ab,t)命令对抓取机器人进行仿真.对于无障碍的点对点运动,jtraj函数采用的是7次多项式插值,默认初始和终止速度为0.关节1和关节2的位移、角速度和角加速度曲线如图11所示,机器人在终止时刻的位置如图12所示.由图11(b)可以看出,关节1和2的角速度为一条光滑且连续的曲线,并且起始结束时刻的角速度均为0.因此,AB段轨迹整体运行平稳.图12显示了在终止时刻,抓取机器人的位置.1)对所研究的抓取机器人进行了杆长的最优化设计,使机器人对各个关节的转动惯量最小,并设计了轻型抓取机器人的工作平台以提高其抓取稳定性.2)对机器人手臂进行了轨迹规划,抓取机器人臂各关节速度、位置均变化连续且平缓,无振荡现象,避免了运动过程中的关节失控.3)利用Matlab软件的Robotics工具箱对轻型抓取机器人进行了轨迹规划,验证了基于三次多项式的轻型抓取机器人轨迹规划的正确性.【相关文献】[1]王科.基于旋量和李群李代数的SCARA工业机器人研究[D].杭州:浙江大学,2010.WANG Ke.Research on SCARA robot based on screw theory and Liealgebra[D].Hangzhou:Zhejiang University,2010.(in Chinese)[2]赵登步,白瑞林,沈程慧,等.SCARA机器人点对点运动轨迹规划方法[J].计算机工程,2015,41(8):306-312.ZHAO Dengbu,BAI Ruilin,SHEN Chenghui,et al. Trajectory planning method of point-to-point motion for SCARA robot[J].Computer Engineering,2015,41(8): 306-312.(in Chinese) [3]左富勇,胡小平,谢珂,等.基于MATLAB Robotics工具箱的SCARA机器人轨迹规划与仿真[J].湖南科技大学学报:自然科学版,2012,27(2):41-44.ZUO Fuyong,HU Xiaoping,XIE Ke,et al.Trajectory planning and simulation of SCARA robot based on MATLAB-Robotics toolbox[J].Journal of Hunan U-niversity ofScience&Technology:Natural Science Edition,2012,27(2):41-44.(in Chinese)[4]PAJAK I,PAJAK G.Mobile manipulators collision-free trajectory planning with regard to end-effector vibrations elimination[J].Journal of Vibroengineering,2015,17 (6):2896-2906.[5]Al MASHAGBEH M,KHAMESEE M B.Modeling and simulation of an industrial SCARA robot:performance evaluation prior to real-world task[C]//ASME 2014 Conference on Information Storage and Processing Systems,2014:V001T07A002.[6]BRETHéJ F.Op timizing SCARA Design for Higher Repeatability[J].Journal of Mechanisms&Robotics, 2011,3(2).[7]郭盛,邹超平,曲海波,等.一种箱式结构清扫臂的尺寸优化及轨迹规划[J].北京交通大学学报,2014,38 (4):44-50.GUO Sheng,ZOU Chaoping,QU Haibo,et al.Size optimization and trajectory planning for a kind of box-type structure cleaning arm[J].Journal of Beijing JiaotongUniversity,2014,38(4):44-50.(in Chinese)[8]杨东超,汪劲松,刘莉,等.基于ZM P的拟人机器人步态规划[J].机器人,2001,23(6):504-508. YANG Dongchao,WANG Jinsong,LIU Li,et al.Gait planning of humanoid robot based on ZMP[J].Robot, 2001,23(6):504-508.(in Chinese)[9]徐海黎,解祥荣,庄健,等.工业机器人的最优时间与最优能量轨迹规划[J].机械工程学报,2010,46(9):19-25.XU Haili,XIE Xiangrong,ZHUANG Jian,et al.Global time-energy optimal planning of industrial robot trajectories[J].Journal of Mechanical Engineering,2010,46 (9):19-25.(in Chinese)[10]谢斌,蔡自兴.基于MATLAB Robotics Toolbox的机器人学仿真实验教学[J].计算机教育,2010(19):140 -143.XIE Bin,CAI Zixing.Simulation and education of robot based on MATLAB Robotics Toolbox[J].Computer Education,2010(19):140-143.(in Chinese)。
步态康复机器人动力学李群李代数建模及仿真
郭冰菁;韩建海;李向攀;闫琳
【期刊名称】《系统仿真学报》
【年(卷),期】2020(32)6
【摘要】结合刚性支撑与柔性驱动设计气压驱动步态康复机器人,为探究机器人和患者构成的人机共融系统动力学特性,基于李群李代数理论建立了不同步态相下人体步行动力学模型、机器人和人机系统动力学模型,对被动、主动助力、主动抗阻3种不同康复训练模式中的驱动特性和能量特性进行了分析。
仿真求解出机器人关节驱动力矩、人体关节主动力矩,验证了李群李代数法建模的正确性及动力学模型的有效性,为驱动控制系统构建及交互控制策略设计提供理论参考依据。
【总页数】10页(P1126-1135)
【作者】郭冰菁;韩建海;李向攀;闫琳
【作者单位】河南科技大学机电工程学院;河南省机器人与智能系统重点实验室;机械装备先进制造河南省协同创新中心;武汉库柏特科技有限公司
【正文语种】中文
【中图分类】TP242.6;TP391.9
【相关文献】
1.基于李群李代数的复杂机械系统的实时动力学
2.厚积而薄发格物以致知--戴建生教授新著《机构学与机器人学的几何基础与旋量代数》与《旋量理论与李群、李代数》评述
3.基于李群李代数的主被动关节机器人动力学及控制
4.用李群李代数分
析具有空间柔性变形杆件的机器人动力学5.具有弹性关节和空间复合变形杆件的机器人的李群李代数分析方法
因版权原因,仅展示原文概要,查看原文内容请购买。
基于旋量理论的仿人机械臂正运动学与可操作性分析李文威;周广兵;陈再励;吴亮生;黄炜聪;陈惠纲【摘要】为研究仿人机械臂的运动性能,采用旋量理论对SRU构型仿人机械臂进行正运动学与可操作性分析.首先基于指数积公式对机械臂进行正运动学分析,获得通用的正解解析式;其次基于运动旋量计算机械臂的雅克比矩阵,并通过雅克比矩阵获得机械臂操作空间中任意一点的全局相对可操作度;最后以某六自由度仿人机械臂为算例,对该机械臂进行正运动学和可操作性分析,给出可视化计算结果.【期刊名称】《自动化与信息工程》【年(卷),期】2018(039)005【总页数】5页(P1-4,9)【关键词】仿人机械臂;旋量理论;正运动学;指数积;雅克比矩阵【作者】李文威;周广兵;陈再励;吴亮生;黄炜聪;陈惠纲【作者单位】华南智能机器人创新研究院;华南智能机器人创新研究院;广东省智能制造研究所;华南智能机器人创新研究院;华南智能机器人创新研究院;华南智能机器人创新研究院;华南智能机器人创新研究院【正文语种】中文D-H参数法和基于旋量理论的指数积(product of exponential,POE)公式是机器人运动学分析的2种重要方法,并在机械臂的运动学分析中广泛应用[1-2]。
D-H参数法需要针对每个杆件建立局部坐标系,然后在局部坐标系下,基于杆件的4个参数建立相邻杆件间的位姿变换矩阵,继而以首端到末端一系列变换矩阵的乘积表示机器人的末端位姿。
D-H参数法建模过程复杂,当局部坐标系建立不恰当时,易产生奇异性;当自由度增多时,易形成累积误差。
应用基于旋量理论的POE公式进行机械臂的正运动学分析,基本过程是:1)分别在机械臂的基座和末端建立基坐标系S和工具坐标系T;2)在基坐标系S下,确定机器人的初始位姿、关节的位置向量和轴向量;3)将关节位置向量和轴向量变换为运动旋量;4)通过POE矩阵指数连乘形式表达机械臂的末端位姿。
可见,机械臂末端位姿误差只来源于位置向量和轴向量,可从根本上避免奇异性和累积误差的产生。
基于旋量理论的三指机器人灵巧手逆运动学分析裴九芳;许德章;王海【摘要】为提高三指机器人灵巧手逆运动学的求解效率,提出了基于旋量理论的逆运动学新的求解算法.以Shadow三指灵巧手为例,在无法直接利用单纯的Paden-Kahan子问题求解逆运动学的条件下,食指(无名指)的逆解采用Paden-Kahan子问题与代数解相结合的算法,拇指的逆解采用数值法与Pa-den-Kahan子问题相结合的算法.最后通过计算实例证明了算法的有效性和可行性.该算法在保证精度的前提下,几何意义明显,耗费时间短,效率高.%A novel inverse kinematics algorithm was proposed based on screw theory in order to improve operation efficiency of inverse kinematics for 3-finger robot dexterous hand.Taking Shadow 3-finger robot dexterous hand as an example,because inverse kinematics might not be solved directly by Paden-Kahan sub problem,an inverse solution of index finger(ring finger) was combined with algebraic solution and Paden-Kahan sub problem.The inverse solution of thumb was combined with numerical method and Paden-Kahan subproblem.Finally,validity and feasibility of the algorithms were proved by an example.Under the premise of ensuring accuracy,the algorithms have obvious geometric meaning,less computation,and high efficiency.【期刊名称】《中国机械工程》【年(卷),期】2017(028)024【总页数】6页(P2975-2980)【关键词】旋量理论;灵巧手;逆运动学;Paden-Kahan子问题【作者】裴九芳;许德章;王海【作者单位】安徽工程大学机械与汽车工程学院,芜湖,241000;安徽工程大学机械与汽车工程学院,芜湖,241000;安徽工程大学机械与汽车工程学院,芜湖,241000【正文语种】中文【中图分类】TP242机器人灵巧手的逆运动学分析是根据各手指末端的期望位置,求解出各手指关节的转角。