收藏 分销(赏)

基于3D视觉的机器人分拣实验系统研究与设计.pdf

上传人:自信****多点 文档编号:1899386 上传时间:2024-05-11 格式:PDF 页数:8 大小:4.19MB
下载 相关 举报
基于3D视觉的机器人分拣实验系统研究与设计.pdf_第1页
第1页 / 共8页
基于3D视觉的机器人分拣实验系统研究与设计.pdf_第2页
第2页 / 共8页
基于3D视觉的机器人分拣实验系统研究与设计.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、D0I:10.13878/ki.jnuist.20230212001赵岚唐国寅温秀兰1号张腾飞 余媛基于3D视觉的机器人分抹实验系统研究与设计摘要针对智能制造工程专业多学科交叉融合特点,开展了基于3D视觉的工业机器人分栋实验系统研究与设计:采用Kinect相机、工业机器人、PC机、末端执行器搭建了系统硬件实验平台;采用支持向量机算法识别目标物体,提出了将中值滤波预处理和最近邻插值修复相融合的空洞毛刺修复方法;针对待识别物体是否重叠相互遮挡设计了基于霍夫变换计算物体中心点位置及基于点云配准的位姿估计定位策略;在上位机交互界面引导下完成机器人分栋系列实验.实验结果表明:该系统能够准确识别快速稳定分

2、栋出特定形状和颜色的目标物体,实验内容涉及机器人、机器学习、图像处理、软硬件设计等多门课程知识与技术,综合性强、开放性好,为智能制造工程专业实验室建设提供了一种综合性创新型实践平台关键词智能制造;机器人3D视觉;支持向量机;点云配准;分栋系统中图分类号TP241.2文献标志码A收稿日期2 0 2 3-0 2-12资助项目国家自然科学基金(5 16 7 5 2 5 9);江苏省产学研合作项目(BY2022076);江苏省研究生科研与实践创新计划项目(SJCX221071)作者简介赵岚,女,博士,讲师,主要研究方向为机器视觉技术、机器人技术温秀兰(通信作者),女,博士,教授,主要从事机器视觉及控制

3、标定技术、精密计量等,zdhxwxl 1南京工程学院自动化学院,南京,2 1116 70引言智能制造是先进制造技术和新一代信息技术的深度融合,代表着我国制造业高质量发展的主要方向.为了适应国际制造业发展新趋势、促进我国制造业转型升级、培养智能制造领域高素质人才,2 0 17年教育部首次审批通过开设智能制造工程专业.智能制造具有引领性、交融性、创新性、跨界性和发展性等内涵和特征 ,涉及创新人才培养理念、培养模式、培养目标、培养体系、课程内容、实践平台、教学方式等一系列必须面对且普遍存在的核心和重大问题.其中,实践教育教学体系是智能制造工程教育的重要组成部分,对智能制造创新人才的培养至关重要 2

4、.如何建设一个能够全方面训练智能制造领域的高级工程人才,让学生能够将所学知识加以实践的综合实训平台,是各高校面临的重大问题 3.文献4 以新工科建设理念为指导,将智能制造生产线和虚拟仿真教学软件相结合,开发设计了“虚实结合”的智能制造虚拟仿真实训教学平台,取得了较好的实施效果.文献5构建了“自动化+数字化”为核心的汽车轮毂设计及生产智能制造实训平台,以解决高校智能制造工程专业缺乏系统化实践教学平台的问题.为提升学生综合创新实践能力,文献 6 研究设计了基于双目视觉的双臂协作教学机器人本文研究设计了基于3D视觉的机器人分实验平台,实验内容涵盖与智能制造密切相关的机械与机器人技术、机器视觉与图像处

5、理算法、传感器与控制技术、软硬件设计等,设计了抓取不同类型物体的多种末端执行器,能够实现对不同颜色和形状物体识别与分栋.1机器人分栋实验系统总体设计针对智能制造工程新专业综合实验教学平台紧缺、学生综合创新实践能力急需提升的迫切需求,本文设计了基于3D视觉的机器人分抹实验系统,系统总体设计方案如图1所示.Kinect相机采集待分栋物体现场输出彩色和深度3D图像,通过USB2.0传送至计算机,上位机软件经系统初始化、物体识别、物体定位和通信,输出分抹目标物体的颜色、形状和位姿信息.上位机软件与工业机器人控制器CS8C通过RS232串口通信方式传递目标物体信息,控制器通过PLC控制机械臂运动及末端执

6、行器完成分栋任务:南京信息工统大学学报(自然科学版),2 0 2 3,15(5):6 0 4-6 11Journal of Nanjing University of Information Science&Technology(Natural Science Edition),2023,15(5):604-611上位机软件USB;2.01系统初始化相机Fig.1 Overall design scheme of the experiment system1.1硬件实验平台设计机器人按照关节连接方式不同分为串联机器人和并联机器人 7 .在自动化工业生产中,串联机器人结构设计简单、运动空间范围大

7、并且成本较低,广泛应用于3C、焊接、码垛等领域;并联机器人具有刚度大、承载能力强和末端件惯性小等优点,多应用于高速和大承载力场合.考虑本实验的实际使用场景及需求,机器人选择小型串联史陶比尔TX60六自由度机械臂,视觉传感器选择Kinect相机,它由彩色相机和深度相机组成,通过计算光飞行的时间来获取目标深度信息 8 系统硬件实验平台组成如图2 所示.Staubli机器人末端执行器标定模板图2 机器人分栋硬件实验平台Fig.2 Hardware experiment platform for robot sorting该实验平台设计了气动吸盘和MHZ2-32D气动二指夹爪两种末端执行器,学生可自主

8、选择完成对不同颜色和形状的圆柱体、长方体塑料块和齿轮的识别与分栋.1.2分栋系统软件架构目前常用操作系统有Windows、U NI X、Li n u x 和Mac OS X,考虑到学生对操作系统熟悉程度以及创建快捷人机交互界面需求,本实验系统选择Windows操作系统、编译环境VS2010,使用MFC上605位机平台进行软件开发.系统使用开源计算机视觉未端执行器分栋串物体识别物体定位图1实验系统总体设计方案库(OpenCV)和点云库(PCL)作为基础库,其中:口PLC控制器机信通OpenCV处理彩色图片和深度图片信息生成点云数械臂Kinect相机上位机控制系统据,PCL用来处理点云数据,估计分

9、栋目标物体的位姿信息.软件设计采用模块化编程思路,整体架构如图3所示,包含系统初始化、功能测试和主程序运行三大模块.系统初始化操作主要完成分栋系统标定和通信参数设置.采用棋盘标定法完成深度相机的内外参数标定、手眼标定及相机配准.通信设置用来测试和保存串口号、波特率、数据位和发送方式等基本参数.功能测试模块包含深度修复、物体识别、位置确定和姿态估计4部分,是分抹系统算法的核心部分:主程序运行模块将各个功能模块及与工业机器人控制器通信等集成在一个系统程序进程中,通过与机器人控制器CS8C通信来控制机器人完成分抹作业开始系统初始化功能测试模块7通信设置系统标定Fig.3Overall archite

10、cture of the system software2系统标定为了完成对相机视野内的目标物体定位任务,需要明确相机像素坐标系到系统世界坐标系之间的转换关系,将物体中心点的像素坐标转换成世界坐标系中的坐标,即完成Kinect相机的内外参数标定、手眼标定等工作.2.1相机内参数标定及配准本文采用模型通用性较好的张正友标定法对相机参数进行标定工作 9,即将黑白方格个数为10 7、每一方格为2 9 mmx29 mm的标准棋盘格作为标定模板,采集现场环境下相机视野内足够多的彩色图片和景深图片,通过标定程序分别计算彩色摄像头和景深摄像头的内参数矩阵.为了将深度图像和彩色图像对齐,使彩色图像拥有深度信息

11、,需要完成相机的配准工作,即计算彩色相机和深度相机之间的旋转矩阵和平移矩阵使深度图像与彩色图像统一到一个坐标系中.主程序运行深度修复物体识别图3系统软件整体架构位置确定姿态确定机器人分栋结束赵岚,等.基于3D视觉的机器人分抹实验系统研究与设计606ZHAO Lan,et al.Robot sorting experiment system based on 3D vision.2.2相机外参数标定深度图像对比原图图像质量有了明显的提升.相机外参数标定的目的在于确定相机坐标系与世界坐标系的映射关系,将物体从相机坐标系转换到系统的世界坐标系.为了缩短系统运算时间,在进行外参数标定时选择与相机坐标系

12、平行的棋盘所在的工作桌面来建立相机系统的世界坐标系.2.3系统手眼标定机器人分栋系统手眼标定的目的是建立机械臂所在的基坐标系与相机坐标系之间的关系,标定精度决定了机械臂是否能够到达指定的位置.常见的手眼标定有眼在手外标定即Eye-to-Hand 和眼在手内标定即Eye-in-hand10.本实验系统相机安装于工作区域上方固定位置,所以采用眼在手外方式进行手眼系统标定,获得相机到机器人基坐标系之间的映射关系.3图像预处理图像预处理的目的在于增强有用信息的可检测性和最大限度地简化数据,消除图像中无关的信息,以提高物体识别与定位的精度及分抹的可靠性.3.1深度图像修复Kinect相机深度数据获取采用

13、PrimeSense公司发明的激光散斑(laserspeckle)技术,即通过红外光照射到毛玻璃得到随机衍射斑点,再进行立体编码生成对应深度图,通过不同深度值来表示物体到相机的距离.若分栋目标物体表面非常光滑,激光散斑会发生镜面反射导致Kinect接收不到返回照射在物体表面上的激光散斑.若分栋目标物体的材质为吸光材料,则会吸收相机发射的激光散斑,导致空洞现象产生.同时,由于Kinect发射的是随机斑点,当激光斑点打在物体上时,虽然整个物体上面都均匀分布散射斑点,因斑点具有随机性,目标物体边缘处红外散斑并非均匀分布,在获取图像深度值时,在物体边缘处深度值会缺失,从而造成边缘毛刺产生 .空洞和毛刺

14、将影响点云数据处理结果,需要进行修复处理.本文提出了将中值滤波预处理和最近邻插值修复相融合的空洞毛刺修复方法.首先通过中值滤波算法修复深度图像中小区域空洞毛刺点,再经最近邻插值法修复较大区域的空洞毛刺噪声点,修复效果如图4所示.为了进一步比较修复效果,表1列出了原图、中值滤波图和本文方法的峰值信噪比(PSNR)和信噪比(SNR).由图4和表1可见,经中值滤波处理后的深度图像比原图图像质量有较小的改善,但经本文提出的修复算法处理后的a.原图Fig.4Results of depth image inpainting表1不同方法深度图像修复结果Table 1 Depth image inpaint

15、ing performanceof different methods指标原图PSNR15.46SNR11.813.2图像裁剪Kinect相机拍摄的是整个视野范围图像,输出的原始彩色图片和深度图片像素均为6 40 48 0,而标定板所在的桌面区域即分栋区域远小于输出图片,因此需要裁剪其他多余信息,提取感兴趣区域(R e g i o n o f I n t e r e s t,R O I),通过 OpenCV裁剪函数来提取指定像素范围的图像.3.3图像分割为了进一步减少图像处理所需时间,采用图像分割算法去除ROI 的背景信息并提取目标物体,将所需分抹的物体与工作平面分离.本文采用基于边缘的分割方

16、法,以Canny边缘检测算子为主体,引人分水岭算法实现对彩色图像的ROI区域背景的准确分割.4物体识别与定位机器人能否在系统工作区域内准确地识别与定位目标物体,是机器人分栋实验系统的关键环节.4.1物体识别支持向量机(SupportVectorMachine,SVM)是根据统计学习理论中结构最小化原则以及VC维(Va p n i k-Ch e r v o n e n k i s D i me n s i o n,VC 维)理论提出的.SVM算法适合处理小样本、非线性、高维数和局部最优解等问题 12 .本实验系统分栋对象为不同形状和颜色的物体,使用SVM分类器进行物体识别,考虑到分对象均为规则几

17、何形状,为了提高系统实时性、减少程序计算量,形状识别采用边缘信息进行特征表述,颜色识别采用颜色特征直方图表述,物体识别流程如图5 所示.b.中值滤波图4深度图像修复效果中值滤波15.5311.92c.本文方法本文方法17.8412.62南京信息工统大学学报(自然科学版),2 0 2 3,15(5):6 0 4-6 11Journal of Nanjing University of Information Science&Technology(Natural Science Edition),2023,15(5):604-611训练样本98 98.9997.5 96.8 97.8载人形状训练图

18、片载人颜色训练图片边缘特征表述直方图特征表述确定核函数和确定核函数和其他参数其他参数训练形状支持向量训练颜色支持向量图5 物体识别流程Fig.5Flow chart for object recognition分别对2 0、5 0、10 0 和15 0 张圆柱体、长方体和齿轮物体的样本图片进行测试,实验中物体轴线与工作台面垂直摆放,其识别成功率如图6 所示,平均为96.6%,标准差为1.40,说明物体识别算法准确性与稳定性都很高,能够满足实验要求.4.2物体定位机器人控制器采用点到点运动形式,在驱动机械臂末端到达指定点完成分栋动作时,需要将末端位姿点坐标(x,y,z,R,R,R)传送给机器人控

19、制器,实现物体定位.本系统设计了两种位姿估计策略如图7 所示.当被分抹物体独立摆放时采用策略一,即姿态设定为机器人零位状态,采用霍夫变换计算中心点位置.针对有重叠相互遮挡的物体采用策略二,即采用基于点云配准计算物体位姿.4.2.1基于霍夫变换的位置确定本系统待分抹目标物体为规则形状,因此采用霍夫变换检测图像中的直线和圆,其中直线检测采用累积概率霍夫变换,圆检测采用霍夫梯度法.实验607物体识别圆柱体100开始载人原始图片提取ROI区域获取测试图片完成识别功能结束长方体95.995.2.9680%/率唱Y6040200深度图像深度数据修复过程如图8 所示,采用霍夫变换方法检测二值化后齿轮95.1

20、94.7 95.62050样本数量/张图6 样本识别结果Fig.6 Sample identification results策略彩色图像霍夫变换确定最小包围轮廓廊确定中心点位置确定指定姿态物体位姿确定图7 物体定位设计Fig.7Object positioning design100策略深度图像彩色图像物体点云点云直通滤波计算点云法向量点云分割模板点云SAC-IA粗配准ICP精配准NDT精配准1505,28)a.原图b.裁剪图图8 基于霍夫变换的位置计算Fig.8 Position calculation based on Hough transformc.灰度图d.边缘提取e.图形包围f.

21、中心计算赵岚,等.基于3D视觉的机器人分抹实验系统研究与设计.608ZHAO Lan,et al.Robot sorting experiment system based on 3D vision.图片中的直线和圆,用矩形和圆拟合目标物体边缘,系统初始化根据包围矩形和圆形,计算其中心点并显示在图片上.图8 d边缘提取后右侧图未能得到完整图,原因是图像获取时光照不均匀,导致右侧图边缘亮度不够,与背景色接近,边缘提取不完整.解决该问题常用的方法是在图像预处理阶段对图像进行增强或者滤波,使得物体的边缘更加明显。4.2.2基于点云配准的位姿估计点云配准时首先将获取的原始点云数据进行直通滤波,再计算点

22、云法向量,将法线方向一致的归为一类点云数据,由最近邻查询点产生协方差矩阵C:(p:-p)(p:-p)T,C=k台C.7,=入,7,j e(0,1,2),式中,k是离p;点最近邻点的数目,p表示最近邻点的三维质心,入,是协方差矩阵C的第j个特征值,可是第j个特征向量.点云分割时先用欧几里得分割法对点云数据进行预处理,将单个分栋目标分离出来,对于有重叠部分的点云使用基于法线和基于颜色两种区域生长法进行分割.点云配准时首先对点云数据采样,获得原始点云和目标点云;接着采用采样一致性初始配准算法(Sample Consensus Initial Alignment,SAC-IA)13 进行粗配准,将经过

23、 SAC-IA粗配准后的点云作为新的原始点云,目标点云保持不变再经迭代最近点算法(It e r a t i v e Cl o s e s t Po i n t,ICP)【14 进行精配准及正态分布变换(Normal Distribution Transform,NDT)精配准 15 ,使原始点云数据最大限度地接近目标点云数据,输出配准结果即原始点云数据相对于目标点云数据的旋转和平移矩阵,完成姿态估计实验,5机器人分栋系统实验及结果分析5.1分栋系统测试实验分栋实验系统软件初始界面包括“系统初始化”、“功能模块测试”、“开始”“停止”和“结束”按钮.5.1.1系统初始化实验系统初始化实验模块如图

24、9所示,分为系统标定和通信实验两部分.系统标定用于完成相机内外参数标定和手眼标定.通信模块用于设置通信相关参数及测试机器人控制器与上位机之间通信是否正常.根据界面提示,载入Kinect相机视野范围内的X本步骤设置系统的相关参数:主要是设置系统的手眼标定参数和通讯参数系统标定载入图片摄像机标定手眼标定保存标定结果完成图9系统初始化实验模块Fig.9 System initialization experiment module20张不同位姿棋盘格图片,完成摄像机及手眼标(1)定,结果如图10 所示.标定设置系统手眼标定相机参数:50517.79756外验数:f51.2074O:315.83786

25、v0:260.87028工件坐标系:0X:297.54原点:oy374.2702:F12本系统机器人控制器数据传输类型为双精度浮点型,输入输出的位姿点均转换成8 位双精度浮点型存储,通信测试实验如图11所示,右边区域为测试区域,通过比较测试位姿点与示教器读取位姿点来判断PC机与机器人控制器之间的通信结果.通讯设X系统通讯设置通信够数串口号:0 OM3波特率:96 0 0口数据位:同校验位:NONE停止位:清除热收断开清除发送PHEX发送口HEX接收厂自动换行定时发送定时时间:5 0描收计载:0发送计款:96图11通信测试实验Fig.11 Communication test experimen

26、t5.1.2功能模块测试实验根据分抹系统总体方案框架,该实验系统分为通讯实验通讯设置保存设置退出11:J0.9990.006961内参数:2 1:r31:0.010950327.51:F01.51x轴:xy:375.59y轴:y:284.36-F12.2y:F12.01计算完成图10 标定实验结果Fig.10Calibration experiment results搬收区405e000000000-4030d9999999999a4065acccccccccd40508666666发送区405e000000004048c28f5c28f5c3409334000006666712:0.0088

27、93r22:-0.999941r32:0.0062260测试参数:图像像素坐标系:摄像机坐标系:工件坐标系:U:328xc:28.021439303yc96.9684442e:193退出通讯测试28f5c3409334那试位妥点:1209.52122916.85Ry:173466.1保存接收发送测式克成退出r13:0.011005r23:-0.006128r33:0.99921示教器读取位姿点:X:12049.521229RX16.85Ry:173.4RZ:66.1F-27.753535ty:392.544261202.72821x9:|363.56802y9:80.89596220:0.08

28、43312斯式结果:正确南京信息工经大学学报(自然科学版),2 0 2 3,15(5):6 0 4-6 11Journal of Nanjing University of Information Science&Technology(Natural Science Edition),2023,15(5):604-611深度修复、物体识别、位置确定和姿态确定四大功能模块.根据各模块按钮提示进行操作,即可完成相关实验.其中物体位置和姿态确定实验结果分别如图12、13所示.609a.零位状态b.定位完成图12 位置确定实验Fig.12Position determination experimen

29、tc.执行分栋d.定位完成tde.执行分栋为图14机器人分栋实验图13姿态估计实验Fig.14Robot sorting experimentFig.13Attitude estimation experiment表2 点云处理生成的位姿点5.2机器人分栋实验机器人分栋分为识别和抓取两个动作,根据被分栋物体是否有重叠相互遮挡,系统自动选择策略一或策略二完成智能分.图14为目标物体有重叠且相互遮挡,系统经点云配准完成智能分栋实验过程图.由图14可见,本实验系统能够对不同形状和颜色的物体进行准确分栋.LeicaAT960测量精度为15 m+6m/m,配置有TMAC探测器及 Spatial Anal

30、yzer(SA)测量软件,能够同时完成末端位置和姿态测量 16 .为了验证系统的定位精度,采用LeicaAT960激光跟踪仪测量塑料块中心点获得理论位姿,经点云处理生成实际位姿如表2 所示.由表2 可见,本系统提出的将SAC-IA粗配准、ICP精配准和NDT精配相融合的点云处理算法,获得的实际位姿精度高,能够满足系统分栋需求.6结论针对新工科专业前沿性、交融性和实践性强的特点,本文研究设计了基于3D视觉的机器人分栋实f.分栋完成Table 2 Pose points generated by point cloud processing参数理论位置/mm467.24,-113.55,44.30

31、 440.74,-199.37,29.86实际位置/mm466.99,-115.13,46.45 438.63,-197.57,32.04位置误差/mm-0.25,-1.58,2.05理论姿态/()-5.43,174.25,-34.84-17.12,173.30,-32.76实际姿态/()-4.28,175.22,-34.09-15.54,174.91,-33.58姿态误差)1.15,0.97,0.75验平台,包括硬件实验平台搭建、软件系统及算法设计,实验结果证实了该平台能够完成相机标定、通信测试、图像预处理、物体识别、位置及位姿确定、智能分栋等系列实验.实验系统融合了机械与机器人、机器视觉与

32、图像处理、软硬件设计等多种知识与技术,综合性强、开放性好,能够很好地提升学生的综合实践及创新能力,适于在智能制造、人工智能、机器人工程等新工科专业中推广应用.参考文献References1林健.多学科交叉融合的新生工科专业建设J.高等物体1物体2-2.11,1.8,2.181.58,1.61,0.82赵岚,等.基于3D视觉的机器人分栋实验系统研究与设计610ZHAO Lan,et al.Robot sorting experiment system based on 3D vision.工程教育研究,2 0 18(1):32-45CAO Junyi.Design of robot image

33、acquisition and pro-LINJian.Newproducedengineeringspecialtycessing system based on Kinect D.Changchun:Jilin U-construction with multidisciplinary cross and fusion J.niversity,2018Research in Higher Education of Engineering,2018(1):9Zhang Z Y.Aflexible new technique for camera32-45calibration JJ.IEEE

34、 Transactions on Pattern Analysis2 王书亭,李昕,张芬,等.面向大工程观培养的智能制造实践教学体系构建J.机械工程学报,2 0 2 2,5 8(18):319-332WANG Shuting,LI Xin,ZHANG Fen,et al.Constructionof intelligent manufacturing training practice teachingsystem for the cultivation of big engineering perspectiveJ.Journal of Mechanical Engineering,2022

35、,58(18):319-3323唐堂,滕琳,吴杰,等.全面实现数字化是通向智能制造的必由之路:解读智能制造之路:数字化工厂J.中国机械工程,2 0 18,2 9(3):36 6-37 74刘海峰,庞在祥,王晓东,等.新工科背景下智能制造虚拟仿真实训教学平台建设与应用 J.实验技术与管理,2 0 2 0,37(10):2 5 5-2 5 8,2 6 2LIU Haifeng,PANG Zaixiang,WANG Xiaodong,et al.Construction and application of virtual simulationteaching platform for intell

36、igent manufacturing underbackground of new engineering J.Experimental Tech-nology and Management,2020,37(10):255-258,2625 行徐飞,黄国泰,曲晓海,等.面向智能制造工程专业的本科生实训平台建设 J.实验技术与管理,2 0 2 1,38(4):285-289XU Fei,HUANG Guotai,QU Xiaohai,et al.Constructionof undergraduate training platform for intelligent manu-facturi

37、ng engineering J.Experimental Technology andManagement,2021,38(4):285-2896温秀兰,胡仰,姚波,等.基于双目视觉的双臂协作教学机器人研究与设计 J.南京信息工程大学学报(自然科学版),2 0 2 1,13(3):30 4-310WEN Xiulan,HU Yang,YAO Bo,et al.Design of dual-arm cooperative teaching robot based on binocular vision J.Journal of Nanjing University of Information

38、 Science&Technology(Natural Science Edition),2021,13(3):304-3107韩建海.工业机器人M.5版.武汉:华中科技大学出版社,2 0 2 28曹军义.基于Kinect的机器人图像采集处理系统的设计 D.长春:吉林大学,2 0 18Robot sorting experiment system based on 3D visionZHAO LanTANG GuoyinSHE Yuan1 School of Automation,Nanjing Institute of Technology,Nanjing 211167,ChinaAbstr

39、act In view of the multi-disciplinary integration of intelligent manufacturing engineering,a robot sorting ex-periment system based on 3D vision are designed.The hardware experiment platform is built using Kinect camera,industrial robot,PC,and end-effector,while a Support Vector Machine(SVM)algorith

40、m is designed to recognizetarget objects.Additionally,a method of cavity burr repair is proposed which combines median filter preprocessingwith nearest neighbor interpolation.To check whether the target objects overlap or block each other,a strategy basedand Machine Intelligence,2000,22(11):1330-133

41、410 Muis A,Ohnishi K.Eye-to-hand approach on eye-in-handconfiguration within real-time visual servoing J.IEEE/ASME Transactions on Mechatronics,2005,10(4):404-41011 陈蓉.深度图像修复算法研究 D.哈尔滨:哈尔滨工业大学,2 0 18CHEN Rong.Research on depth map recovery algorithmsD.Harbin:Harbin Institute of Technology,201812 王李祺

42、,张成,侯宇超,等.基于深度学习特征融合的遥感图像场景分类应用J.南京信息工程大学学报(自然科学版),2 0 2 3,15(3):346-35 6WANG Liqi,ZHANG Cheng,HOU Yuchao,et al.Remotesensing image scene classification based on deep learningfeature fusion J.Journal of Nanjing University of Infor-mation Science&Technology(Na t u r a l Sc i e n c eEdition),2023,15(3

43、):346-35613 Rusu R B,Blodow N,Marton Z C,et al.Aligning pointcloud views using persistent feature histograms C/2008 IEEE/RSJ International Conference on IntelligentRobots and Systems.September 22-26,2008,Nice,France.IEEE,2008:3384-339114Besl P J,McKay N D.A method for registration of 3-Dshapes J.IEE

44、E Transactions on Pattern Analysis andMachine Intelligence,1992,14(2):239-25615Magnusson M,Andreasson H,Nuchter A,et al.Appearance-based loop detection from 3D laser datausing the normal distributions transform C/2009 IEEEInternational Conference on Robotics and Automation.May 12-17,2009,Kobe,Japan.

45、IEEE,2009:23-2816 温秀兰,康传帅,宋爱国,等.基于全位姿测量优化的机器人精度研究J.仪器仪表学报,2 0 19,40(7:81-89WEN Xiulan,KANG Chuanshuai,SONG Aiguo,et al.Study on robot accuracy based on full pose measurementand optimizationJ.Chinese Journal of Scientific Instru-ment,2019,40(7):81-89WENXiulan2ZHANG Tengfeil南京信息工统大学学报(自然科学版),2 0 2 3,1

46、5 5):6 0 4-6 11Journal of Nanjing University of Information Science&Technology(Natural Science Edition),2023,15(5):604-611on Hough transform is designed to calculate the objects center position and another strategy based on point cloudregistration to estimate the objects pose.Then a series of robot

47、sorting experiments are carried out under the guid-ance of upper computer interactive interface.The experiment results show that the system can accurately identify andstably sort the target objects of specific shape and color.The designed experiments involve knowledges and technolo-gies related to r

48、obot,machine learning,image processing,software&hardware design,etc.In view of its strong com-prehensiveness and openness,the proposed system can provide a comprehensive and innovative practice platform forintelligent manufacturing engineering laboratory.Key words intelligent manufacturing;robot;3D vision;support vector machine(SVM);point cloud registration;sorting system611

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服