收藏 分销(赏)

基于改进PointNet++的大规模猪体点云部位分割.pdf

上传人:自信****多点 文档编号:635260 上传时间:2024-01-20 格式:PDF 页数:8 大小:1.99MB
下载 相关 举报
基于改进PointNet++的大规模猪体点云部位分割.pdf_第1页
第1页 / 共8页
基于改进PointNet++的大规模猪体点云部位分割.pdf_第2页
第2页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 51 卷总第 403 期2023 年第 5 期计算机与数字工程Computer&Digital EngineeringVol.51 No.5收稿日期:2022年11月8日,修回日期:2022年12月24日基金项目:国家自然科学基金面上项目“猪表型体尺无接触测量中三维点云处理关键技术研究”(编号:32172780)资助。作者简介:胡昊,男,硕士研究生,研究方向:三维点云处理。尹令,女,博士,副教授,硕士生导师,研究方向:农业信息化与数据挖掘。张素敏,男,博士,讲师,研究方向:数据挖掘。温志坤,男,研究方向:三维点云处理。朱纪民,男,硕士研究生,研究方向:农业信息化。林润恒,男,硕士研究生,研

2、究方向:三维建模、机器学习。1引言点云分割作为三维点云处理任务中的关键技术,在三维计算机视觉场景下得到了非常广泛的应用。在通过激光雷达获取的城市场景点云中,将马路、建筑、路灯、花坛、行道树等场景中的元素进行区分,实现了对大规模场景中的各种物体进行精细化处理12。在医疗数据处理领域,使用基于深度学习的点云模型分割三维颈椎骨的各组成部分3,在分割的基础上再进行生物力学分析,提高了医疗辅助诊断的自动化水平。在建筑建模领域,采用多视图CNN能够将建筑元素类型进行自动化分类,并取得了良好的效果4。在无人机精准飞行领域,基于深度学习的点云网络对激光雷达扫描到的物基于改进 PointNet+的大规模猪体点云

3、部位分割胡昊1尹令1,2张素敏1,2温志坤1朱纪民1林润恒1(1.华南农业大学数学与信息学院广州510642)(2.国家生猪种业工程技术研究中心广州510642)摘要PointNet+点云分割网络能直接处理点云并有良好的分类和分割效果,然而对于自由运动状态下获取的大型牲畜点云,存在较大姿态差异,PointNet+无法难以直接捕捉其局部特征,对牲畜体点云各部位分割效果不佳。针对此问题论文采用Octree结构改进了PointNet+集合抽象层中的分组与采样层,使得网络能够更好地捕捉目标点云的非刚性变化,充分提取不同层次下的局部信息,实现对大规模牲畜点云数据的自动分割。采用Octree改进的Poin

4、tNet+模型分割活体猪点云数据的头部、耳朵、尾部、躯体和四腿。实验表明,500组猪体点云数据,采用320组不同姿态下的猪体点云进行网络训练,180组分割测试结果的平均mIoU达到了88.06%,OA达到了96.57%。关键词点云分割;PointNet+;Octree;三维点云处理中图分类号TP393DOI:10.3969/j.issn.1672-9722.2023.01.028Segmentation of Large-scale Pig Body Point Cloud Parts Based onImproved PointNet+HU Hao1YIN Ling1,2ZHANG Sumi

5、n1,2WEN Zhikun1ZHU Jimin1LIN Runheng1(1.College of Mathematics and Informatics,South China Agircultural University,Guangzhou510642)(2.National Engineering Research Center for Swine Breeding Industry,Guangzhou510642)AbstractThe PointNet+point cloud segmentation network can directly process point clou

6、ds and has good classification andsegmentation effects.However,for large livestock point clouds obtained in a free motion state,there is a large difference in postures,and PointNet+cannot directly capture its local features.The segmentation effect of each part of the point cloud is not good.Aiming a

7、t this problem,the Octree structure is used to improve the grouping and sampling layer in the abstraction layer of PointNet+,so that the network can better capture the non-rigid changes of the target point cloud,fully extract the local information atdifferent levels to realize automatic segmentation

8、 of the large-scale livestock point.The head,ears,tail,body and four legs of pigpoint cloud data are segmented by improving PointNet+model.Experiments show that 500 groups of pig body point cloud data areused for network training with 320 groups of pig body point clouds in different poses.The averag

9、e mIoU of 180 groups of segmentation test results has reached 88.06%,and the OA has reached 96.57%.Key Wordspoint cloud segmentation,PointNet+,Octree,3D point cloud processinClass NumberTP39311302023 年第 5 期计算机与数字工程体进行了精准分割,且具有良好的实时性5。在智慧农业领域,采用深度相机对植物点云进行采集,再将采集到的数据送入神经网络将植物的叶和茎进行分割,有助于选择育种以及性状分析6。一

10、种基于二维图像以及深度信息的点云二次分割方法被提出用于在复杂背景中提取出水果的轮廓7。基于三维点云的牲畜尺参数自动测量是目前智能养殖业的研究热点。但在现实场景中,通过深度设备获取的牲畜点云存在数据散乱、密度大的特点,因此数据处理的效果不佳。采用深度学习的方法先对猪体点云各部分进行分割,在分割的基础上再进行体尺测量点定位,将有助于提升测量的准确率。基于深度学习的点云分割方法是计算机三维视觉的研究热点之一,按照其基本思想可分为以下三类2628。第一类是将三维点云数据转化为二维图像的处理方法811,其主要通过在不同角度将原始点云投影到二维平面,从而得到多个二维图像,再通过神经网络对多视图进行聚合,最

11、后输出结果。第二类是基于体素网格的方法1214,该类方法将原始点云转化为了体素小立方体,再通过3D卷积神经网络进行分割。前两种方法均需要消耗大量时间和资源进行数据预处理,而第三类方法是直接对原始点云进行处理。PointNet15首次采取了端到端的处理模式,主要解决了点云通过深度网络进行编码过程中,保证其原有的置换不变性,能够直接将原始点云作为深度网络的输入进行分割。然而,PointNet不具备在度量空间点中捕捉布局信息的能力,极大地限制了对细节的识别能力以及对大规模复杂场景的普适性。为改进PointNet的不足,PointNet+网络16增加了逐层抽象结构,通过计算度量空间中的距离,增加上下文

12、比例来提取目标点云的局部空间特征,取得了更好的效果。马利等17通过在PointNet中引入跳跃连接,提取不同层次的特征,更好地捕捉了三维手部姿态。姚钺等18在PointNet+的基础上加入了自顶向下的网络分支,将原网络的中间特征融入最终预测网络,获得了更好的分类效果。为了增强获取局部特征的能力,吴军等19将自注意力机制引入了PointNet+,提高了场景语义分割的精度。活体牲畜获取的点云数量庞大,且局部会存在空洞或者缺失,不同姿态使得牲畜点云各部分分割特征不明显,因此为对猪体点云进行部分精确的分割,本文在PointNet+的基础上采用了Octree结构改进了采样层和分组层,使其能够更好地在大规

13、模点云数据中捕捉到猪体由于不用姿态所引起的非刚性变化,充分提取不同层次下的局部信息,获得了更好的部分分割效果。2方法2.1猪体点云获取与预处理在试验场地采集通道的上、左、右三个方向分别设置Kinect相机,当目标猪体进入数据采集区域时,三个方向的相机会同时采集点云,再经过配准,去除背景以及去噪等预处理后,即可获得完整的猪体三维点云数据2021。所获得的猪体点云因个体不同,在进入采集区域的姿态不同,因此数据之间存在较大差异。2.2PointNet+基本原理PointNet+采用了逐层抽象结构,如图 1 所示。相比于 PointNet结构,PointNet+具备了在不同尺度下提取空间信息的能力,代

14、替了PointNet直接提取整体点云特征的做法,能够在不同尺度局部区域使用PointNet对点云进行特征提取,再进行特征拼接。PointNet+分割网络结构包括分层点集特征学习和集合分割点特征传播两个部分。分层点集特征学习分为两个集合抽象(Set Abstraction)模块,每个集合抽象模块又包含采样层(SamplingLayer)、分组层(Grouping Layer)、PointNet层22。其中,采样层使用最远点采样(Farthest Point Sampling,FPS)选取点云数据的部分特征点。分组层的作用是按照球查询(Ball Query)方法选取采样中心点的邻域点,将选出的各个

15、子点云送入PointNet层,运用局部区域的信息编码成特征向量。跳跃链接2跳跃链接1采样及分组1 PointNet 采样及分组2 PointNet集合抽象模块1集合抽象模块2部分分割插值1 Unit PointNet 插值2Unit PointNet图1PointNet+网络结构1131第 51 卷2.3基于改进PointNet+猪体点云分割网络2.3.1基于八叉树的点云划分与采样PointNet+通过最远点采样的方法提取局部特征点进行编码,在ShapeNetCore23数据集上取得了很好的部分分割效果。然而,虽然与随机采样相比,在给定相同数量的采样点情况下,最远点采样方法能更好地提取Shap

16、eNetCore数据集中的特征点,但是对于在真实场景下通过Kinect相机所采集到的猪体点云数据,最远点采样无法精确捕捉不同姿态下猪体点云的非刚性形变,因为最远点采样更关注的是点与点之间的距离,而八叉树下采样法是基于空间结构的均匀采样,能够很好地保留猪体点云空间结构信息,其本身层次化的树结构不仅能划分出体素相邻点,且更适合后续PointNet层进行逐层的局部特征提取。采用八叉树进行猪体点云分组及采样算法步骤如下:步骤1)采用最小立方体对猪体点云包围。步骤 2)设置最大八叉树深度即最多可细分的次数N,将初始点云包围盒的立方体划分为8个均匀大小的子立方体。步骤 3)判断没有子节点的立方体内是否包含

17、点云。若包含点云且没有达到最大递归深度,继续对该立方体进行细分,划分到8个子立方体。若没有或达到最大递归深度则停止细分。步骤 4)若子立方体所分配到的单位元元素数量为0或为1,则该子立方体停止划分。步骤5)重复步骤3)和步骤4)进行递归划分直到达到最大递归深度,使用不同层数八叉树划分猪体点云过程如图2所示。One layerTwo layersThree layersSix layersFive layersFour layers图2不同层数八叉树结构划分猪体点云八叉树划分特征点提取红色图3采用八叉树进行猪体点云采样及分组步骤6)假设任意立方体内包含n个点,那么此立方体内第i个点的坐标则为()

18、xiyizi,计算中点pmid坐标()xmidymidzmid。步骤 7)计算体素内所有点到中点pmid的距离并进行排序,将距离中点pmid最近点作为特征点pfeature进行采样,选取第2到k+1个距离较小值点作为特征点pfeature的邻近点:f()p1p2pn=Sort()d()p1pmidd()p2pmidd()pnpmid(1)式(1)中Sort为排序函数,d为距离函数。如图3所示,红色点为采样特征点,与红色点在同一立方体内的黑色点为其邻域点。2.3.2改进PointNet+的分割网络算法采用八叉树改进 PointNet+采样和分组方式的猪体点云部位分割网络具体结构如图4所示,算法步

19、骤如下:步骤 1)输入为经过预处理后的单个完整猪体点云数据Nnpoint6,其中N为批处理输入猪体点云数据的数量,npoint为单个猪体点云的点云点数。步骤 2)将猪体点云进行八叉树采样及分组。其中,采用5层八叉树结构进行采样及分组,采样中心点的个数为n1,中心点邻域内的点的最大数量(nsample)为64。胡昊等:基于改进PointNet+的大规模猪体点云部位分割11322023 年第 5 期计算机与数字工程步骤 3)对同一分组内的局部点云进行卷积(Convolution,Conv),其中一维卷积公式如下:yt=k=1Kwkxt-k+1(2)式(2)中w1w2wk为滤波器,x1x2xk为信号

20、序列,K为滤波器长度。为简单起见,这里假设卷积的输出yt的下标t从K开始。二维卷积的公式如下:Yij=u=1Uv=1VWuvXi-u+1j-v+1(3)式(3)中XRMN,滤波器WRUV,一般UMVN,这里假设卷积的输出Yij的下标()ij从()UV开始。步骤4)采用批量归一化(Batch normalizaion,Bn)的方法提高网络的学习效率。假设有N个样本x()nNn=1,对于每一维的特征x,先计算其均值和方差:=1Nn=1Nx(n)(4)2=1Nn=1N(x()n-)2(5)然后,将特征x()n减去均值,再除以标准差,得到新的特征值x()n:x()n=x()n-(6)步骤 5)采用 R

21、elu函数对神经网络的线性层进行激活,再通过最大池化(Max Pooling)对卷积层提取到的局部特征的进行特征选择,降低特征维度,得到局部特征向量N1024256。具体地,对于一个局部区域Rdmn,选择该区域所有神经元的最大值表示该区域:ydmn=max(xi)iRdmn(7)式(7)中xi为局部区域Rdk内每个神经元的值。步骤6)重复步骤2)5),这里采用4层八叉树结构进行采样及分组,采样中心点的个数为n2,中心点邻域内的点的数量为 128,得到特征向量N256512。步骤7)采用PointNet对整体点云进行全局特征向量编码。步骤8)经过分层点集特征学习后,对输入的特征点进行二次抽样,利

22、用 IDW(Inverse DistanceWeighted)插值算法,将采样点的特征传递回原始点集,得到N4096256的数据。其中,IDW插值的公式如下:f(j)(x)=i=1kwi(x)f(j)ii=1kwi(x)wi(x)=1d()xxipj=1C(8)式(8)中,f为插值的特征值,d()xxi为xxi的距离,p为d()xxi的指数,k为邻域点的个数(默认情况使用p=2,k=3),wi为xxi距离平方的倒数,j为点云的索引编号,C为任意常数。输入点云Input shape:Nnpoint6八叉树采样与分组layers=5npoint=n1nsample=64Output shape:n

23、ew_xyz:N10243new_points:N1024643八叉树采样与分组layers=4npoint=n2nsample=128Output shape:new_xyz:N2563new_points:N256128262N102464256N1024256Conv+Bn+Relu 3Kernel:11Mlp:128,128,256PointNetConv+Bn+Relu 3Kernel:11Mlp:128,128,256N256128512N256512整体点云Output shape:new_xyz:N13new_points:N1256518PointNetN12562048Co

24、nv+Bn+Relu 3Kernel:11Mlp:512,1028,2048Max_poolingKernel:1512N4096256N40968N4096256FP1FP2FP3通过深层网络每个点的特征,计算浅层网络每个点的插值特征。IDW表示计算逆距离权重,得到插值后的特征点。FPIDW插值算法PointNet与集合抽象模块中的PointNet+类似,区别是输入的特征值被规范化。Conv1d+Bn+Relu+DpKernel:11Output:256Conv1dKernel:11Output:8分割结果图4改进后的PointNet+具体网络结构1133第 51 卷步骤9)再对原始点集特征

25、向量进行卷积,批量标准化和激活函数处理,并使用反向传播(Backpropagation,Bp)算法对卷积网络中参数进行调整,当l+1为 卷 积 层 时,假 设 特 征 映 射 输 入 为Z(l+1)RMNP,其中第p()1pP个特征映射的输入为Z(l+1p)=d=1DW()l+1pdX()ld+b(l+1p)(9)式(9)中W(l+1p)和b(l+1p)为第l+1层的卷积核以及偏置,共有PD个卷积核和P个偏置。第l层的第d个特征映射的误差项为()ldZ()ld=fl()Z(ld)P=1P(rot180(W(l+1d)()l+1P)(10)式(10)中为宽卷积,rot180()表示旋转180。步

26、骤10)使用Softmax回归对猪体点云每个点进行分类预测,其中类别标签y12C C=8分别对应着猪体的八个部位(左前腿、右前腿、左后腿、右后腿、耳朵、头部、尾巴、身体)。给定一个点x,采用Softmax回归预测的属于c的条件概率为p()y=c|x=Softmax(wcx)=exp()wcxc=1Cexp(wcx)(11)式(11)中wc是第c类的权重向量,则Softmax决策函数可以表示为y=argmaxc=1C(p(y=c|x)=argmaxc=1C(wcx)(12)3实验结果与分析本 文 训 练 模 型 系 统 环 境 为 Intel i5-11400CPU,RTX2060 GPU,6G

27、B 显存,深度学习框架 Pytorch1.4,Cuda10.0。设置模型初始学习率(Learning Rate)为 0.001,衰减率(Learning Rate Decay)为0.5,每20轮迭代轮数衰减一次,模型训练每次输入点云数量批尺寸(Batch Size)为4。图5对比了采用八叉树改进后的PointNet+网络与PointNet+基础网络训练过程的mIoU与OA变化。由图5所示,改进后的PointNet+获得了更好的学习能力,在经过40轮左右的训练后,几乎已经收敛,在100轮的训练中最佳的 mIoU为 88.27%,OA为 96.97%。而原PointNet+网络在60轮训练后才逐渐

28、收敛,在100轮的训练中最佳 mIoU 为 85.12%,OA 为 94.45%。实验结果证明,改进后的PointNet+网络在猪体点云数据集上具有更强的学习能力。0.900.850.800.750.700.650.60mIoU020406080100EpochOctree-PointNet+PointNet+(a)mIoU变化0.970.960.950.940.930.920.910.900.89OA020406080100EpochOctree-PointNet+PointNet+(b)OA变化图5训练过程性能指标变化采集的活体猪点云其姿态呈现多样性,从不同视角观察可以分为不同姿态,俯视图

29、的猪体点云姿态可大致分为直线型、左扭头型、右扭头型,侧视图的猪体点云姿态可大致分为平视型、微低头型、重低头型,共9种姿态。为了进一步验证本文采用八叉树结构对PointNet+网络改进的有效性,以9种姿态的猪体点云为测试样本,在PointNet+基础上采用平面拟合的方法计算法向量(+Normal),在第一个逐层抽象模块使用Octree的采样与分组方式(+Octree1),在第二个逐层抽象模块使用Octree的采样与分组方式(+Octree2)进行不同模块组合下的消融实验,如表1所示。表2为在不同模块组合下的分割结果。由表 2 可知,相比于基础模型PointNet+的分割结果,采用平面拟合的方法计

30、算法向量信息(+Normal)后,除去Post8外其他类别的mIoU均有提升,法向量作为点云各点的属性包含了重要的空间信息。在第一个逐层抽象模块改用八叉树结构进行采样与分组(+Octree1)之后,对所有类别的分割精确度均有提高,尤其对于 Post6,Post9等扭头且低头的不规则姿态猪体点云的分割效果提升更为明显。第二个逐层抽象模块改用八叉树结构进行采样与分组(+Octree2)的方式,从各个姿态的分割结果上来看,相比于PointNet+基础结构虽有提高,但是提升效果不如前者(+Oc胡昊等:基于改进PointNet+的大规模猪体点云部位分割11342023 年第 5 期计算机与数字工程tre

31、e1),原因是第一次采样在原始猪体点云上进行的,基于八叉树的采样方式比最远点采样能保留更多猪体点云的空间结构信息,而第二次采样是在第一次采样的基础上再进行采样,是第一次采样更细节化,因此第一次采样更关键。两个逐层抽象模块均使用 Octree 的采样与分组方式并使用法向量(Octree-PointNet+)的模型,在除了 Post4 的其他姿态的猪体点云分割结果上均取得了最佳,总体的平均 mIoU 和 OA 相较于原 PointNet+模型分别提升了3.04%、4.54%。表1用于消融实验的不同模块说明模型PoinNet+Normal+Octree1+Octree2Octree-PointNet

32、+模块基础模型采用平面拟合的方法计算法向量在第一个逐层抽象模块使用Octree的采样与分组方式在第二个逐层抽象模块使用Octree的采样与分组方式两个逐层抽象模块均使用Octree的采样与分组方式并使用法向量表2不同姿态的猪体点云数据的消融实验结果(单位:%)模型PoinNet+Normal+Octree1+Octree2Octree-PointNet+mIoU85.0285.5186.9185.7288.06OA92.0393.5695.0994.8196.57单类精度Post188.1288.2589.3688.2190.12Post286.6986.9387.2886.8989.73Po

33、st383.4384.2185.8784.3786.98Post486.5586.7790.0886.9390.02Post583.2883.3285.1784.9687.28Post682.2483.1184.4682.8985.27Post787.3787.6588.9387.5589.84Post885.6386.3986.2985.9387.49Post981.8682.9384.7483.7885.81注:粗体表示最优结果,Post1为直线平视型、Post2为直线微低头型、Post3为直线重低头型、Post4为左扭头平视型、Post5为左扭头微低头型、Post6为左扭头重低头型、Po

34、st7为右扭头平视型、Post8为右扭头微低头型、Post9为右扭头重低头型。(a)输入(b)PointNet+(c)+Normal(d)+Octree1(e)+Octree2(f)Octree-PointNet+(g)人工标记数据图6部分姿态猪体点云部分分割可视化效果对比1135第 51 卷图6所示为部分姿态猪体点云的可视化结果,图中每列表示一类姿态,每行表示对应结果。从第1、2列相对简单的姿态来看,原始的PointNet+模型会把部分头部的点云分成是耳朵,还会把部分身体的点云分成是尾巴。+Normal分割效果虽有提升,但是对于头部和耳朵的分割仍然不理想。+Octree1和+Octree2对

35、于局部细节的捕捉能力明显更强,基本可以将耳朵与头部分割开来。第3、4列为较复杂的扭头且重低头的姿态,PointNet+网络对于此类姿态的分割结果较为糟糕,由于猪在低头时腿部离头部很近,还会出现左右脚交叉的现象,因此会把部分头部点云看成是腿部,左腿分为了右腿。+Normal的分割结果虽有所改善,但仍然不理想,会把头部分为了后腿。+Octree1和+Octee2分割的效果要明显由于前二者,但是对于一些细节的分割仍然存在不足。可以看出 Octree-PointNet+无论是对于复杂姿态还是相对标准的姿态,其分割效果都理想,除去分割边界不如人工数据处理得平滑之外,基本与手工标记无异。不同的点云分割算法

36、在我们采集的数据集上的分割效果如表3所示。PointNet+根据其点云采样及分组方式的不同分为单一范围分组(ssg,single-scale grouping),即通过深度网络提取在相同半径下的点云局部空间特征,以及多尺度范围分组(msg,Multi-scale grouping),即在不同分组半径下提取点云局部信息,再编码成特征向量。从结果上看,msg版本的平均分割精确率要略优于ssg。相比于PointNet直接对原始点云整体提取特征的方法,PointNet+的层次化特征提取模式具备了更好的分割效果。3D Point in 2D Space24是将三维点云降维为 二 维 数 据,再 通 过

37、U-Net 网 络 进 行 分 割,DG-CNN25则是先对原始输入点云构建图结构,增强了点之间的关联性,再送入 Edge-Conv 进行处理。然而,在实际的猪体点云分割实验中,两者的分割效果均不如 PointNet+网络算法。原因可能是其对不同姿态猪体点云变化不敏感,缺乏对非刚性形变目标物体的特征学习能力。表3各算法在我们数据集上的性能对比模型算法PointNetPointNet+(ssg)PointNet+(msg)3D Point Clouds in 2D Image SpaceDG-CNN组织数据方式-FPSFPSGraph DrawingKNN网络输入PointPointPoint(

38、x,y,z)-ImageGraph网络结构MLPMLPMLPMulti-scale U-NetEdge-ConvmIoU70.62%83.03%85.02%75.15%78.82%OA80.88%91.18%92.03%86.12%85.21%4结语针对现有的 PointNet+网络不能很好地提取不同姿态猪体点云数据的局部特征问题,采用八叉树结构改进了其采样及分组方式,实验结果表明,改进后的网络更加适合于大规模点云数据中提取猪体不同姿态的非刚性变化特征,能够更加精确地对不同姿态的猪体点云数据进行部位分割,尤其是对于复杂姿态的猪体点云数据,分割精确度的提升更为明显,且可视化效果与人工标记几乎无异

39、。参 考 文 献1 Vo A V,Truong-Hong L,Laefer D F,et al.Octree-based region growing for point cloud segmentationJ.ISPRS Journal of Photogrammetry and Remote Sensing,2015,104:88-100.2Vosselman G.Point cloud segmentation for urban sceneclassificationJ.Int.Arch.Photogramm.Remote Sens.Spat.Inf.Sci,2013,XL-7/W2(

40、7):257-262.3Zhang L,Wang H.A novel segmentation method for cervical vertebrae based on PointNet+and converge segmentation J.Computer Methods and Programs in Biomedicine,2021,200:105798.4Koo B,Jung R,Yu Y.Automatic classification of walland door BIM element subtypes using 3D geometric deepneural netw

41、orksJ.Advanced Engineering Informatics,2021,47:101200.5Kowalczuk Z,Szymaski K.Classification of objects inthe LIDAR point clouds using Deep Neural Networksbased on the PointNet modelJ.IFAC-PapersOnLine,2019,52(8):416-421.6Elnashef B,Filin S,Lati R N.Tensor-based classification and segmentation of th

42、ree-dimensional point cloudsfor organ-level plant phenotyping and growth analysis J.Computers and Electronics in Agriculture,2019,156:51-61.7Wu G,Li B,Zhu Q,et al.Using color and 3D geometryfeatures to segment fruit point cloud and improve fruit recognition accuracy J.Computers and Electronics in Ag

43、riculture,2020,174:105475.胡昊等:基于改进PointNet+的大规模猪体点云部位分割11362023 年第 5 期计算机与数字工程8Su H,Maji S,Kalogerakis E,et al.Multi-view convolutional neural networks for 3d shape recognitionC/Proceedings of the IEEE International Conference on Computer Vision,2015:945-953.9Feng Y,Zhang Z,Zhao X,et al.Gvcnn:Group-

44、viewconvolutional neural networks for 3d shape recognitionC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018:264-272.10Lawin F J,Danelljan M,Tosteberg P,et al.Deep projective 3D semantic segmentation C/International Conference on Computer Analysis of Images and Patt

45、erns.Springer,Cham,2017:95-107.11Boulch A,Guerry J,Le Saux B,et al.SnapNet:3Dpoint cloud semantic labeling with 2D deep segmentationnetworks J.Computers&Graphics,2018,71:189-198.12Maturana D,Scherer S.Voxnet:A 3d convolutional neural network for real-time object recognitionC/2015IEEE/RSJ Internation

46、al Conference on Intelligent Robotsand Systems(IROS).IEEE,2015:922-928.13Huang J,You S.Point cloud labeling using 3d convolutional neural network C/2016 23rd International Conference on Pattern Recognition(ICPR).IEEE,2016:2670-2675.14Wang L,Huang Y,Shan J,et al.MSNet:Multi-scaleconvolutional network

47、 for point cloud classificationJ.Remote Sensing,2018,10(4):612.15Qi C R,Su H,Mo K,et al.Pointnet:Deep learning onpoint sets for 3d classification and segmentation C/Proceedings of the IEEE Conference on Computer Visionand Pattern Recognition,2017:652-660.16Qi C R,Yi L,Su H,et al.Pointnet+:Deep hiera

48、rchical feature learning on point sets in a metric space J.Advances in Neural Information Processing Systems,2017,30:5105-5114.17马利,金珊杉,牛斌.基于改进PointNet网络的三维手姿估计方法J.计算机应用研究,2020,37(10):3188-3192.MA Li,JIN Shanshan,NIU Bin.3D hand pose estimationmethod based on improved PointNet J.Application Research

49、 of Computers,2020,37(10):3188-3192.18姚钺,任明武.基于PointNet+改进的点云特征提取与分类网络架构 J.计算机与数字工程,2021,49(10):2052-2056,2112.YAO Yue,REN Mingwu.Improved Point Cloud FeatureExtractionandClassificationNetworkArchitectureBased on PointNet+J.Computer&Digital Engineering,2021,49(10):2052-2056,2112.19吴军,崔玥,赵雪梅,等.SSA-Po

50、intNet+:空间自注意力机制下的3D点云语义分割网络 J.计算机辅助设计与图形学学报,2022,34(03):437-448.WU Jun,CUI Yue,ZHAO Xuemei,et al.SSA-PointNet+:A Space Self-Attention CNN for the SemanticSegmentation of 3D Point Cloud J.Journal of Computer-Aided Design&Computer Graphics,2022,34(03):437-448.20Shuai S,Ling Y,Shihao L,et al.Research

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服