监测插装机器人的插件个数任务书
- 格式:docx
- 大小:120.51 KB
- 文档页数:1
特高压直流输电工程控制保护系统<金华站培训资料汇编>上海管理处金华换流站二〇一四年五月修订历史日期版说明作者校核本2013/9/25 1.0 文档建立黎慧HCM3000测量系统插件培训教材1. HCM3000测量机箱功能概述PMI1A机箱布置图以极1测量接口屏PMI1A机箱为例,极测量数据——换流变进线电压、直流电压、极区域除光CT之外的CT测量电流都会经由ESP10B板卡面板下方的X1模拟量输入接入口送进板卡内,光CT测量数据和BMI送过来的双极区域测量数据(包括极中性母线零磁通CT)经由EOT11B合并之后再发送到ESP10B板卡中。
在ESP10B板卡中对测量数据进行接收和处理。
多块ESP10B通过其上的ITM11B插件级联组建成一个TDM通道,该TDM通道传输的测量数据最后通过EOT10B分配板卡发送到极的控制主机和保护主机当中去。
2. HCM3000测量系统各插件功能说明EOT11B插件EOT11B插件是一种光分配插件,具有TDM 输入接口和光互感器IEC60044-8 接口,用于转发测量系统的TDM 总线信号,接入光互感器数据并转换插入到TDM 总线中。
EOT11B必须作为TDM 总线的最后一个站号使用,可以通过面板上的10 位旋转码开关TS1完成站号设置(旋转码开关TS2为备用),仅可工作在数据插入模式,且已经固定设置为从模式。
EOT11B 不使用背板总线。
EOT11B面板示意图EOT11B 插件有一个TDM 输入接口X1,一个光互感器输入接口X2。
BMI1A送到PMI1A的TDM 总线信号从X1 接收,光互感器数据从X2 接收。
EOT11B 解码转换接收的光互感器数据,并根据旋转码开关设置的站号插入到TDM 总线中。
HCM3000系统模拟量采集传输所采用的是插入式TDM总线,每块TDM采集板块作为一个节点形式存在与数据结构中,每个节点最多可采集25个模拟量,最多10个节点,每个节点依次分配了从0-9的站号,按相应的站号插入到TDM总线报文中。
7th International Conference on Energy and Environmental Protection (ICEEP 2018)Spatial position and posture of component detectionsystem based on binocular stereo visionLiuyuan1,a* Feiyunfeng2,b Wang wei1,c Songyinhao2,d1 Xi’an Research Institute of High Technology, Xi’an 710025, Shaanxi Province, China2 Beijing Special Engineering Design Institute, Beijing 100011, Chinaa********************,b******************,c**********************,d**************** Keywords: binocular stereo vision, position and posture detection, automatic dockingAbstract. With the continuous improvement of the manufacturing level in the aerospace, automobile, shipbuilding and other fields, higher requirements for the assembly precision and speed of the components in the manufacturing process are raised. However, the manual operation method is generally adopted in the work of large mechanical parts assembly in our country. Through the visual feedback of the human eye to the operation interface, the labor intensity is large, the efficiency is low, and the assembly cycle is long. To solve this problem, spatial position and posture of object detection system based on binocular stereo vision is proposed. On the basis of the predecessors, the traditional calibration method is improved, the calibration of the binocular camera is realized and the position and position deviation of the component is measured by the binocular camera. The difference of the position detection system of the binocular vision is less than 0.1mm in the three space positions, and the difference between the three rotation angles is less than 0.15 degrees. It lays the foundation for automatic docking of components.IntroductionIn recent years, the level of aerospace, automotive, shipbuilding and other fields, which is closely related to the manufacturing industry, has developed rapidly in the design and manufacture of large mechanical parts. With the continuous improvement of the factory manufacturing level, the assembly accuracy and speed of components in the manufacturing process are higher. But at present, the work of large mechanical parts assembly in our country mainly depends on manual completion, that is to put each part on the bracket or trailer platform first, then according to the bolts and screw holes at different positions on the combination surface of each component, and rely on a number of workers to push one of the parts slowly close to another part, and pass through continuously. Observe and adjust the relative position of bolt and screw hole to complete the alignment and insertion operation of components. Moreover, the docking effect of this way often depends on the experience and operation level of the personnel. The docking accuracy is low, the installation speed is slow, and the operation stability is poor.With the development of machine vision measurement technology [1-3], laser tracking measurement technology [4,5] and robot technology [6] and so on, automatic docking has become an inevitable trend of development [7], in the docking of large and irregular large mechanical parts. Binocular vision is an important form of machine vision. It is simple, reliable, flexible and widely used. In this paper, binocular vision position and position detection technology is used to propose a binocular vision component space pose detection method, which lays the foundation for automatic docking of components.Construction of binocular vision position detection systemStructure model of binocular stereo vision systemThe structure model of the binocular vision system is shown in Fig. 1. 1o and2o are the optical centers of lenses 1 and 2 respectively. The distance between them is called the baseline andrepresented by B. 1O and 2O are the center of the left and right image planes, respectively. Set two CCD camera horizontally, use CCD1 and CCD2 to represent the image plane of the left and right cameras respectively, and the left and right image coordinate systems are 111Y X O −and 222Y X O −respectively. 11o O is the left camera axis and 22o O is the right camera axis. The spatial points P are respectively imaging on the left and right image plane, and the coordinates corresponding to the image points are ()111,Y X P and ()222,Y X P respectively. It is now used xyz o −1 as the coordinate system of the binocular system. The effective focal length of the camera is 1f and 2f respectively. The angle of the optical axis and the baseline are 1α and 2αrespectively. The horizontal projection angles of the space point P are 1ω and 2ωrespectively. The vertical projection angles are 1φ and 2φ respectively. According to the geometric structure relations, the coordinates of the P points can be obtained as follows:+===+=212211211cot cot sin tan sin tan cot cot cot θθθφθφθθθB z z z y B x (1) 111ωαθ+=,222ωαθ+= (2) 111cos /tan ωφY =,222cos /tan ωφY = (3) ()111/arctan f X =ω,()222/arctan f X =ω (4) The structure parameters of the system constitute the important parameters of the system. By analyzing the error composition of the above formula and the precision requirements of the actual assembly, the configuration of the binocular system can be determined.Fig. 1 Structure Model of binocular stereo vision systemExperimental verification Based on the above theoretical analysis, we build a dual vision component space pose detection system. The main equipment is: industrial camera (Microvision MV-EM200M), industrial lens (Computar M1614- MP2), MITSUBISHI manipulator (RV-3SQ), linear guide rail (single degree of freedom guide, precision =0.01mm). According to the equations(1) to (4), the camera hassymmetrical distribution, the camera's baseline distance is 360mm, and the angle between the camera and the baseline is 67.5°.The realization of calibrationThe traditional camera calibration method can be used for any camera model with high calibration accuracy, but the calibration process is complex and requires expensive high precision calibration equipment. Zhang has proposed a simple, flexible and practical camera calibration method [8]. This paper has made improvements on the basis of previous predecessors, and realized the calibration of the binocular camera. The total size of the calibration board is 100mm*100mm, the checkerboard formation area is 70mm*60mm, and the checkerboard size is 10mm*10mm, the error is 20μm. There are 30 inner corners in the whole checkerboard. Before each shot, it is necessary to change the position and posture of the calibration board until 20 pictures are taken, then the calibration button on the interface is used to get the inside and outside parameters of the camera, and the calibration work is completed. The camera calibration interface is shown in Fig. 2.Fig. 2 The camera calibration interfaceAfter calibration, the internal matrices of camera 1 and camera 2 are (5) and (6) respectively, and the binocular matrix R and T matrix are (7) and (8) respectively.(5) (6)(7)13717.66,0,788.130,3717.35,627.7150,0,1R =23735.48,0,767.9730,3734.93,604.1720,0,1R= -0.03079904083105934,0.007236546355386415,0.99949940044040710.01628958022339765,0.9998446185183378,-0.006737091068492179-0.9993928500144637,0.01607392972381081,-0.03091213553285763R =(8)Measurement component of position and posture error of six degrees of freedom in spaceIn order to verify the measurement accuracy of the position and posture detection system based on binocular vision, the error of the measurement results on the space six degree of freedom is calculated by the experimental method. The error distribution of binocular measuring system in three directions of x, y and z is drawn by comparison of linear guide rail (single degree of freedom guide rail and precision =0.01mm). The error of the binocular measurement system on three rotational degrees of freedom (pitch angle, roll angle, yaw angle) is used in the experiment. In the experiment, the posture of the calibrated plate is used as the detection object, and the result of the posture calculation of the calibrated plate obtained by the high precision manipulator is taken as the reference value, and the binocular vision is compared with the binocular vision measurement results. After 100 time measurements, the difference of the position detection system of the binocular vision is less than 0.1mm in the three space positions, and the difference between the three rotation angles is less than0.15 degrees. Fig.3 is the experimental scene when the error is measured. Fig. 4 is the result of the test.(a)Position error detection (b) Posture error detection Fig. 3 The error measured experimental sceneFig. 4 The error detection result of the position and posture.ConclusionThis paper makes a theoretical study and experiment on the position and posture detection system based on binocular stereo vision. The difference of the position detection system of the binocular vision is less than 0.1mm in the three space positions, and the difference between the three rotation-216.80184487031451.314678751945799233.6980553202565T =angles is less than 0.15 degrees. It is proved that the design method of the system is simple and the structure is easy to be realized. It can detect the position and pose of the components in high precision, which has a good prospect of application.Reference[1] Chen X. N., Guo J., Yao Y. Y. Sichuan Journal of ordnance industry, 34 (2013),P.99 (in Chinese).[2] Gou W. T. Xie W. Q. Journal of Ordnance Equipment Engineering, 2 (2016),P.105 (in Chinese).[3] Li J. Journal of Modern Optics, 39 (2017),P.1.[4] Li J. Q., Zhao R. H., Chen J. L., et al. Iet Science Measurement & Technology, 10(2016),P.704.[5] Cattini S., Rovati L. Instrumentation and Measurement Technology Conference Proceedings. IEEE, 2016, P.1.[6] Mergler H. IEEE Journal on Robotics & Automation, 3(2003),P.87.[7] Huang G. Q., Mak K.L. Computers in Industry ,38(1999),P.17.[8]Lin D.M. Zhang A., Wang P., et al. Journal of Lanzhou University of Technology, 42 (2016),P.78 (in Chinese)。
机器人类型:C 类 (可编程控制的空中飞行器 (飞行机器人))。
在参与活动完成任务的整体过程中,任何时候都要切记安全第一,人的生命是最宝贵的。
1. 使用交流电的工具及设备在使用前需进行安全检查,发现有问题或不符合安全要求时,一律不使用。
不用湿手接触带电工具或电源插座,不使用质量低劣或有问题的电源接线板。
2. 带电工具长时间不用时应切断电源,电池充电过程须注意通风散热。
3. 提前明确交流电源总开关的位置及关闭方法。
若发生触电事故,应立即切断电源并采取相应的急救措施。
4. 谨慎使用工具,使用电烙铁、热熔胶枪或其他发热元器件时,注意不触及高温发热部分,以免烫伤。
使用刀具等锐利工具时,注意做好防护,避免伤及自身或他人。
(三) 飞行安全1. 飞行器为旋翼结构时,调试以及飞行过程中,在场所有人员必须佩戴护目镜等防护用品,女生长发须扎起或藏于防护帽内。
2. 飞行时尽量避免他人围观并提醒他人远离飞行区域。
3. 提交的视频文件里,在场的所有人员均应佩戴防护用品。
没有相应防护措施时,将被认作具有安全隐患,结果视为无效。
整个任务由场地搭建和项目任务两部分组成。
飞行机器人的飞行动作必须由程序控制自主完成,在执行任务过程中如果动用遥控设备来操作则视为任务失败。
( 一) 场地搭建图 1 飞行场地搭建平面示意图图 2 飞行场地搭建侧视示意图1. 根据上面示意图及具体尺寸要求,在相对平坦的场地 (如地面、台面) 上完成任务场地的搭建,所有线条可采用宽约 1.5cm 的黑色电工胶带粘贴,其余材料及重量不限。
场地搭建需要学生全程参与,允许他人提供部分帮助。
2. 任务边框用胶带粘贴成边长约为 500cm×300cm 的长方形。
3. 起飞区用胶带粘贴成边长约为40cm 的正方形。
4. 任务区用胶带粘贴围成边长约为 200cm 的正方形,正方形中再由胶带粘贴形成米字形。
任务点分别是米字形的 8 个顶点、中心点和 6 个障碍物点,须如图所示在各点附近明显加以标注,引导飞行用的二维码或其他标记不能将标注字母遮盖。
HELP2000G稳定控制装置测试装置说明书HELP2000G稳定控制装置测试装置 前言使用产品前,请仔细阅读本章节!本章叙述了使用产品前的安全预防建议。
在安装和使用时, 本章内容必须全部阅读且充分理解。
忽略说明书中相关警示说明,因不当操作造成的任何损害,本公司不承担相应负责。
在对本装置做任何操作前,相关专业人员必须仔细阅读本说明书,熟悉操作相关内容。
l操作指导及警告本手册中将会用到以下指示标记和标准定义:危险! 意味着如果安全预防措施被忽视,则会导致人员死亡,严重的人身伤害,或严重的设备损坏。
警告! 意味着如果安全预防措施被忽视,则可能导致人员死亡,严重的人身伤害,或严重的设备损坏。
警示! 意味着如果安全预防措施被忽视,则可能导致轻微的人身伤害或设备损坏。
本条特别适用于对装置的损坏及可能对被保护设备的损坏。
警告!为增强或修改现有功能,装置的软硬件均可能升级,请确认此版本使用手册和您购买的产品相 兼容。
警告!电气设备在运行时,这些装置的某些部件可能带有高压。
不正确的操作可能导致严重的人身伤 害或设备损坏。
只有具备资质的合格专业工作人员才允许对装置或在装置临近工作。
工作人员需熟知本手册中 所提到的注意事项和工作流程,以及安全规定。
特别注意,一些通用的工作于高压带电设备的工作规则必须遵守。
如果不遵守可能导致严重的 人身伤亡或设备损坏。
危险!在一次系统带电运行时,绝对不允许将与装置连接的电流互感器二次开路。
该回路开路可能会 产生极端危险的高压。
HELP2000G 稳定控制装置测试装置警告!l 曝露端子在装置带电时不要触碰曝露的端子等,因为可能会产生危险的高电压。
l 残余电压在装置电源关闭后,直流回路中仍然可能存在危险的电压。
这些电压需在数秒钟后才会消失。
警示!l 接地装置的接地端子必须可靠接地。
l 运行环境该装置只允许运行在技术参数所规定的大气环境中,而且运行环境不能存在不正常的震动。
l 额定值在接入交流电压电流回路或直流电源回路时,请确认他们符合装置的额定参数。
机器人双创项目课程任务书
1、爬杆机器人
设计一款可以自由上下直径30cm的硬质铁杆,如路灯杆,斜拉桥拉索等。
要求机器人使用电池供电,自重小于30kg,载重6kg以上,连续工作时间不低于2小时。
以满足机器人清洁铁杆或完成对铁杆的测试。
2、爬山机器人
设计一款可以负重爬山的机器人,以减轻或替代挑山夫,满足国内各名山旅游景点内宾馆的物品供应。
要求机器人可以自主或遥控操作,可以行走于盘旋山道,山道台阶高度可能不进相同。
机器人行走时不应对行人造成影响。
使用电池供电,可以连续工作2小时以上。
成本要控制在3万以内。
3、玻璃墙清洁机器人
设计一款可以在楼房玻璃外壁自由上下,并可以清洗玻璃的机器人。
要求机器人要有非常高的可靠性和稳定性,保证在任何情况下都不会脱离墙面坠落伤人。
机器人的大小和重量应该能比较好的满足清洁墙壁的需要。
设计要求:
从上述三个机器人任选一个作为设计主题,或者选择其他的比较
具有市场潜力机器人作为主题。
1、设计报告应包含首页、任务书、正文三部分。
2、其中,首页为课程名称,项目名称,班级,姓名等。
3、正文应不低于6页。
主要包括研究意义,国内外的研究现状,设计方案的创新点。
4、可以总结模仿或者评价,但严禁抄袭。
5、可以搜索该项机器人的国内外视频,并撰写各机器人分析报告。
6、第十一周周五(11月11日)之前务必提交论文。
Harbin Institute of Technology综合课程设计Ⅱ报告题目:SCARA工业机器人设计院系:机电工程学院班级: *******姓名: ****学号: ***********指导教师: ***哈尔滨工业大学2017年10月26日目录第1章SCARA机器人简介 (1)第2章SCARA机器人的总体设计 (2)2.1 SCARA机器人的驱动方式 (2)2.1.1液压驱动 (2)2.1.2气压驱动 (2)2.1.3电力驱动 (3)2.2 SCARA机器人驱动方式的确定 (4)2.3 SCARA机器人的减速器选择 (4)2.4 SCARA机器人传动机构的对比与分析 (5)2.5 SCARA机器人机构杆件参数初定 (6)2.6 SCARA机器人运动空间计算 (7)2.7 SCARA机械臂材料初定 (9)第3章SCARA机器人关节元件设计计算 (10)3.1 滚珠丝杆滚珠花键的计算及选型 (10)3.1.1 计算滚珠丝杆花键的负载 (10)3.1.2 计算滚珠丝杠花键的转速 (11)3.1.3 螺母的选择 (11)3.1.4 计算滚珠丝杠花键的最大动载荷 (11)3.1.5 刚度的验算 (12)3.1.6 计算传动效率 (12)3.1.7滚珠丝杠花键选择 (13)3.1.8 滚珠丝杠花键驱动电机的选择与计算 (13)3.2 3轴同步齿形带的设计与选型 (14)3.2.1 确定同步齿形带的计算功率 (14)3.2.2 选定带型和节距 (15)3.2.3 大小带轮齿数及节圆半径。
(15)3.2.4 同步带带速计算 (16)3.2.5 初选中心距 (16)3.2.6 带长及齿数确定 (17)3.2.7 基本额定功率 (17)3.2.8 带宽计算 (18)3.2.9 作用于轴上的力计算 (18)3.3 4轴同步齿形带的设计与选型 (19)3.3.1 确定同步齿形带的计算功率 (19)3.3.2 选定带型和节距 (19)3.3.3 大小带轮齿数及节圆半径。
Harbin Institute of Technology综合课程设计Ⅱ报告题目:SCARA工业机器人设计院系:机电工程学院班级:*******:****学号:***********指导教师:***哈尔滨工业大学2017年10月26日目录第1章SCARA机器人简介 (1)第2章SCARA机器人的总体设计 (2)2.1 SCARA机器人的驱动方式 (2)2.1.1液压驱动 (2)2.1.2气压驱动 (2)2.1.3电力驱动 (3)2.2 SCARA机器人驱动方式的确定 (4)2.3 SCARA机器人的减速器选择 (4)2.4 SCARA机器人传动机构的对比与分析 (5)2.5 SCARA机器人机构杆件参数初定 (6)2.6 SCARA机器人运动空间计算 (7)2.7 SCARA机械臂材料初定 (9)第3章SCARA机器人关节元件设计计算 (10)3.1 滚珠丝杆滚珠花键的计算及选型 (10)3.1.1 计算滚珠丝杆花键的负载 (10)3.1.2 计算滚珠丝杠花键的转速 (11)3.1.3 螺母的选择 (11)3.1.4 计算滚珠丝杠花键的最大动载荷 (11)3.1.5 刚度的验算 (12)3.1.6 计算传动效率 (12)3.1.7滚珠丝杠花键选择 (13)3.1.8 滚珠丝杠花键驱动电机的选择与计算 (13)3.2 3轴同步齿形带的设计与选型 (14)3.2.1 确定同步齿形带的计算功率 (14)3.2.2 选定带型和节距 (15)3.2.3 大小带轮齿数及节圆半径。
(15)3.2.4 同步带带速计算 (16)3.2.5 初选中心距 (16)3.2.6 带长及齿数确定 (17)3.2.7 基本额定功率 (17)3.2.8 带宽计算 (18)3.2.9 作用于轴上的力计算 (18)3.3 4轴同步齿形带的设计与选型 (19)3.3.1 确定同步齿形带的计算功率 (19)3.3.2 选定带型和节距 (19)3.3.3 大小带轮齿数及节圆半径。
《监测插装机器人的插件数量》3.教学设计《监测插装机器人的插件数量》教学设计教学环节教学内容及过程评价手段设计意图时间分配学【课前】教师在校园网络学习平台发布:微课和电子试卷。
学生登陆学习平台,通过微课学习本课新知识——INC DEC CMP指令,随后通过电子试卷检测自身学习成果。
【课上】教师公布课前学生电子试卷结果,为让学生进一步学会INC DEC CMP指令的使用,分发三种难度不同的案例flash文件,并利用动画演示和数学区间集合概念对学生学习中出现的问题进行讲解。
案例1 案例2 案例3学生根据电子试卷结果和自身实际情况,在三菱学习软件中选做不同的flash文件,巩固INC DEC CMP指令的用法。
依据电子试卷检验学生学习三种指令的结果。
由于学生厌倦填鸭式教学,好奇网络学习,为此以微课的方式为学生打造网络自主学习环境,投其所好,实现翻转教学。
为进一步巩固学生对新知的掌握,结合个体差异性,为学生量身打造不同难度学习素材,实现分层教学。
35’议教师发布工作任务书—某移动电源工厂委托对生产线上插装机器人增加计数功能,引导学生制定方案。
学生明确任务要求后,参照企业工作模式,自由组队成立项目组,经比较分析、内部讨论后各组均制定出合理编程方案。
引用企业工作机制和管理模式,让学生提前感受岗位真实环境,预知工作流程,做好就业准备。
15’仿教师开放宇龙仿真软件平台,并引导学生在软件中正确搭建系统模型,辅助各小组进行程序编辑和仿真。
学生在软件平台上搭建插装机器人的模型,后进行程序编辑,把程序下载进虚拟PLC中进行模型仿真运行,通过观察仿真结果调整程序直至程序无误。
依据《任务功能实现表》对仿真中各组程序进行评价。
为保证程序设计质量提高工作效率,同时也为了学生安全性和设备的可靠运行,采取设备调试前先模拟仿真的办法。
65’调教师巡回指导各小组进行安全有效的设备调试,对学生调试中突发问题提前做好了预案。
学生在设备上进行单步调试、空载调试和系统调试等工作,在老师指导下正确解决调试中的突发问题。
中职组机器人技术应用任务书一、任务目标本次任务旨在培养学生掌握机器人技术应用的基本知识和技能,提高团队协作和问题解决能力。
任务目标如下:1. 了解机器人技术应用的基本原理和流程;2. 掌握机器人硬件和软件的操作和调试;3. 学会分析问题和解决问题的方法;4. 培养团队协作和沟通能力。
二、任务背景本次任务背景为某智能配送机器人项目。
项目要求学生在有限时间内完成机器人的配送任务,要求机器人能够自主规划路径、避开障碍、准确送达目的地。
任务难点包括如何规划最优路径、如何处理路况变化、如何保证机器人安全等。
三、任务内容1. 机器人硬件组装和调试:学生需要按照要求组装和调试机器人硬件,包括机器人底盘、移动装置、传感器等。
要求机器人能够自主移动、避开障碍。
2. 机器人软件编程:学生需要编写机器人软件程序,包括路径规划、传感器数据处理、指令发送等。
要求程序能够根据实际情况规划最优路径、处理路况变化、准确送达目的地。
3. 任务测试和优化:学生需要在模拟环境中进行多次测试,发现问题和不足,并进行优化和改进。
同时,学生需要与其他团队成员进行沟通和协作,共同解决问题。
四、任务评估标准1. 机器人硬件组装和调试:评估学生是否按照要求正确组装和调试机器人硬件,是否能够自主移动、避开障碍;2. 机器人软件编程:评估学生编写的软件程序是否能够根据实际情况规划最优路径、处理路况变化、准确送达目的地,以及程序运行效率和稳定性;3. 任务完成时间和质量:评估学生完成任务所需时间以及任务完成质量,包括配送数量、准确率、速度等;4. 团队协作和沟通能力:评估学生与其他团队成员的协作和沟通能力,以及问题解决能力。
五、任务奖励完成任务的学生将获得相应的奖励,包括荣誉证书、学分奖励、实践经验等。
六、任务注意事项1. 确保学生安全操作机器人,避免意外伤害;2. 强调任务纪律,要求学生按时完成任务;3. 鼓励学生发挥创意和想象力,提高任务完成质量;4. 引导学生正确对待任务中的困难和挑战,培养解决问题的能力。