收藏 分销(赏)

基于计算机视觉的学生智能体测系统.pdf

上传人:自信****多点 文档编号:2352612 上传时间:2024-05-28 格式:PDF 页数:8 大小:3.38MB
下载 相关 举报
基于计算机视觉的学生智能体测系统.pdf_第1页
第1页 / 共8页
基于计算机视觉的学生智能体测系统.pdf_第2页
第2页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023 年第 10 期186智能技术信息技术与信息化基于计算机视觉的学生智能体测系统顾 轩1 王传伟1 徐 华1 张 威1 杨赵华1 曾国伦1GU Xuan WANG Chuanwei XU Hua ZHANG Wei YANG Zhaohua ZENG Guolun 摘要 为激励学生积极锻炼身体,促进学生体质健康发展,体测结果已纳入学业考试范围。目前体测仍采用传统的人工记录方式,该方式效率低下,需要占用较多教师资源,也难以契合后续的体测大数据分析。对此,提出利用人工智能算法实现体测数据的智能化测量方法。首先,通过计算机视觉进行人脸识别,完成身份验证并辨识学生举手准备动作;其次,通过人工智能

2、算法对各体测项目进行测试,以利用人体关键点检测实现跳绳计数和利用人体姿态估计检测、透视变换实现跳远测量为研究对象;最后,将测试结果上传保存以便于后续分析。项目能很好地节约时间成本并解放教师资源,具有良好的发展前景。关键词 体测;人工智能;人脸识别;人体关键点检测;人体姿态估计;透视变换 doi:10.3969/j.issn.1672-9528.2023.10.0401.南京工程学院信息与通信工程学院 江苏南京 2111670 引言现代科技的发展很大程度上改变了当代年轻人的生活方式,为激励学生积极锻炼身体,从德、智、体、美、劳全方面培养学生,2014 年教育部印发高等学校体育工作基本标准规定了建

3、立健全国家学生体质健康标准管理制度,要求各学校每学年开展各级学生体测工作,并将体测结果纳入学业考试范围。目前大部分高校体测仍采用传统的人工测量记录方式,体测结果需要纸质记录,最后人工按纸质记录将结果录入电脑进行保存再上传至教务系统。这样就会消耗过多的人力资源和教师资源且效率低下,过程较为繁琐容易出错,从而造成学生成绩不真实的情况。而采用人工智能与大数据相结合,不仅可以极大程度上解决这些问题,同时还能保证实验结果的科学性与准确性。例如利用人脸识别技术完成学生身份认证的过程,就无需事先准备学生信息名单了1。在获得体测数据后,还可以利用机器学习和人工智能算法对体测成绩进行深度分析2-3。因此,为了改

4、善传统体测方法,根据现代人工智能在各个领域的推广与应用,本文提出一套利用人工智能算法实现体测智能化的系统。通过人脸识别技术进行学生身份认证,减少前期准备学生名单的时间,利用计算机视觉技术,实现跳绳、跳远等项目的智能化、无人化测量。该系统可以有效节省时间成本,减少不必要的人力资源,解放教师资源。1 系统结构及系统流程如图 1 所示,该系统主要分为两个主要部分:图中左侧的检测柱和右侧的运动区域。检测柱主要由顶端的摄像头以及下部的工控板构成,摄像头主要负责采集到人脸信息和右侧运动区域的有效画面;右侧的运动区域划分有不同体测项目的测试区域。图 1 体测场景效果图智能体测系统的主要测试流程如图 2 所示

5、。学生首先进入摄像头所对应的检测区域内,面对摄像头,并举手示意已准备就绪,如果一段时间内未检测到举手示意,会有语音提示学生进行准备示意。在检测举手示意的同时,会利用人脸检测算法捕获画面中的人脸图像数据,进行身份认证,以便后续测试成绩与个人信息一一对应。如果身份认证失败,会有语音提示并退系统,此时需要与管理员联系,确认系统中有无该学生的待测信息。身份认证成功后,语音会提示学生,2023 年第 10 期187智能技术信息技术与信息化可以开始进行项目测试。根据不同体测项目,设计不同的人工智能算法进行智能化测试,各体测项目的智能化测试方法详见第 2 节。测试完成后,系统会自动保存测试成绩结果,并语音提

6、示学生测试结束。图 2 智能体测系统主要流程2 计算机视觉在体测中的具体应用本文主要以计算机视觉在跳远项目和跳绳计数项目中的应用为例来介绍其在体测中的具体应用。2.1 人体关键点检测OpenPose4是一组由美国卡耐基梅隆学院(CMU)研究团队采用卷积神经网络与监督学习技术,利用 caffe 构建的开放式数据集,它能够有效地检测出人类行为,如肢体活动、脸部表情、手指移动等。这款二维姿态估算应用,采用了深度学习技术,可以同时支持个体或多目标的识别,其鲁棒性较高的特点使其成为全球首个通过深度学习实现的二维姿态估算技术。VGG195卷积神经网络可以有效地从一幅图片上抽取出重要的特征,并且可以把它们划

7、分成两个独立的模块,一个模块可以从 CNN 网络获取置信度(part confidence maps),另一个模块可以从 CNN 中获取匹配亲和度(part affinity fields),最终可以利用偶匹配算法来计算两个模块之间的相互影响,从而实现对人体重要关节的准确识别。通过综合,可以构建出这个人的完美框架。该算法共检测了 18 个人体关键点,如图 3 所示。图 3 人体关键点OpenPose 主要算法流程结构如图 4 所示。将输入图像经过 CNN 网络提取置信度和匹配亲和度,其中 F 为原输入图像经过基础卷积过后输出的 Feature Map;St是 t stage 输出的关节点置信图

8、 PCM;Lt是 t stage 输出的两两关节点亲和度PAF;stage 1 输入为 F,之后 stage t 的输入为 F,St-1,Lt-1;每个 stage 的 loss 为 S,L 的预测值和真实值(S*,L*)之间的L2 范数,W(p)为 0 或 1,为 0 时表示某个关键点标注缺失,loss 不计算该点。每个 stage 单独的 loss 计算公式为:=CcpptcLptcLpWtLfpSjptjSJjppWftS1,22|)()(|)(,22|)(*)(|1)((1)最终 loss 计算公式为:(2)图 4 OpenPose 主要流程2.1.1 举手检测在开始体测之前,按照流程

9、需要学生通过举手示意来表示自己已经准备完毕,而举手检测就是上文中人体关键点检测的具体应用:人在举手时,由于手腕的位置相对于对应的肩膀要高出一些距离,即如果以图像的左上角为坐标原点,2023 年第 10 期188智能技术信息技术与信息化那么左/右手首关键点的纵坐标位置小于左/右肩的坐标位置,只要这种坐标之间的相对位置关系存在并且能被持续监测达到一段时间,系统就会判定为举手成功。如图 5 所示,人体上的线段和点代表人体关键点检测的结果,人体外围的方框表示是否检测到人。举手检测的结果显示在每个人运动区域的下方。图 5 举手判别示意图2.1.2 跳远测距人在进行立定跳远时,可以通过人体关键点检测来确定

10、人的跳远的落点。其关键是检测到脚腕关键点位置在水平方向上的移动。移动距离可以通过视频中相邻两帧的帧差计算获得。当起跳后,人体关键点在水平方向的移动十分显著,相邻帧之间的差值也比较大。由于在起跳和落地静止后,相邻帧的差值趋于零,便依据这一点来捕获落地时刻。但是在立定跳远这个项目的测试过程中,由于学生落地时的姿势各有差异,可能会出现落地后,人整体后仰,导致手掌撑地等情况发生,致使落地点不是脚后跟,而变成了手首关节点。为此,落地后还需扼要持续监测全身所有在脚部后侧的关键点,一旦有关键点在纵向上接近两只脚踝关键点的纵向坐标,则视为该关键点触地。即持续计算落地后所有帧,一旦检测到有关键点触地,则对比该触

11、地的关键点是否为最左边的触地点,如果是,则更新触地点。图 6 和图 7 分别为两种不同状态下的落地姿势效果检测。图 6 正常落地图 7 手掌撑地2.2 人脸检测与识别由于学校学生群体基数往往较大,很难将学生的全部信息同步到资源有限的设备终端中,因此本套系统中的终端设备只负责采集人脸数据并发送给后台,进行相应的人脸识别,完成身份认证。此系统中的人脸检测使用了 MTCNN6模型。这个模型由三个不同的网络结构组成,分别是P-Net、R-Net和O-Net7。在开始使用这些网络之前,需要考虑到原始图像中人脸的尺寸差异,例如有的人脸比较大,有的人脸比较小。为了更准确地检测人脸,需要将原始图像放大到一定的

12、尺寸,并创建一个“图像金字塔”模型。然后,使用神经网络来重复计算每个尺寸的图像,从而更好地检测出人脸的大小。2.2.1 P-NetP-Net 是 MTCNN 算法的第一级网络,其主要作用是生成初步候选框。P-Net 由许多卷积层、池化层和 ReLU 激活函数构成。它接受原始图像作为输入,并输出一组候选框,每个候选框都与其对应的人脸区域相似。P-Net 的输入是一个任意尺寸的图像,经过卷积和池化后,输出的是一组大小不等的特征图,这些特征图可以帮助提取出不同大小的目标。在特征图上,P-Net 会对每个像素进行分类,以确定该像素是否属于人脸。同时,P-Net 还会在特征图上滑动一个固定大小的窗口,以

13、生成一组初始候选框。这些候选框的位置和大小都根据窗口中心点周围像素的信息计算得出,并且通过一个回归器进行微调,以更接近真实的人脸位置。最后,P-Net 会将这些候选框和分类结果送到下一级网络 R-Net 中。P-Net 需要处理一个 RGB 图像,其宽度和高度均为 12个像素,并具有 3 个通道。在处理过程中,P-Net 要检测图像中是否包含人脸,并确定人脸的框架和关键点的位置。如图 8,输出由三部分组成。图 8 P-Net 网络结构一是人脸分类结果(face classification)。这一部分输出表示输入图像中是否存在人脸。P-Net 采用了二分类的方式,将该部分的输出视为一个概率值,

14、用于判断当前图像区域是否包含人脸。如果输出值大于一个阈值,则认为该区域存在人脸,否则认为不存在。在训练过程中,该部分输出的目标 2023 年第 10 期189智能技术信息技术与信息化是尽量准确地区分出人脸区域和非人脸区域,以实现对人脸的初步筛选。二是人脸边界框回归结果(bounding box regression)。这一部分输出是一个四维向量,表示当前图像区域的人脸边界框位置。具体来说,该向量包含四个元素:左上角 x 坐标、左上角 y 坐标、右下角 x 坐标和右下角 y 坐标。通过将该向量加到当前图像区域的初始边界框(通常为网络的感受野)上,即可得到该区域的最终人脸边界框。在训练过程中,该部

15、分输出的目标是尽量准确地预测人脸区域的位置和大小,并使其与真实边界框之间的误差最小化。三是人脸关键点位置结果(facial landmark localization)。这一部分输出表示当前图像区域内人脸的五个关键点位置,包括左眼、右眼、鼻子和嘴巴的两个角点。具体来说,该部分输出是一个十维向量,其中每两个元素表示一个关键点的x、y 坐标。通过将该向量加到当前图像区域的初始边界框上,即可得到该区域内人脸关键点的最终位置。在训练过程中,该部分输出的目标是尽量准确地预测人脸关键点的位置,并使其与真实关键点之间的误差最小化。2.2.2 R-NetR-Net 是 MTCNN 算法的第二级网络,其任务是对

16、 P-Net生成的候选框进行进一步筛选和微调。与 P-Net 相比,R-Net更加复杂,具有更多的层数和更多的特征。R-Net 的输入是 P-Net 输出的每个候选框,经过一系列卷积层、池化层和ReLU 激活函数后,输出该候选框是否包含人脸,以及该候选框相对于真实人脸框的坐标偏移量。其中,分类器用于确定候选框是否包含人脸,回归器则用于微调候选框的位置和大小。在训练阶段,R-Net 会从 P-Net 的候选框中选择一些正样本(包含人脸的候选框)、负样本(不包含人脸的候选框)和部分样本(既包含人脸也包含背景的候选框)。然后,它将使用这些样本来训练分类器和回归器。在测试阶段,R-Net会通过筛选出的

17、候选框来检测人脸,并使用回归器微调候选框的位置和大小。(如图 9)图 9 R-Net 网络结构2.2.3 O-NetO-Net 主要包含三个部分:卷积层、全连接层和输出层,具体介绍如下。(1)卷积层(convolutional layer):O-Net 采用了多层卷积操作来提取图像的特征信息,并逐渐降低输入图像的大小。与 P-Net 和 R-Net 不同的是,O-Net 中的卷积核更加精细,通常使用 3*3 的卷积核进行操作,以进一步提高网络的感知能力。(2)全连接层(fully connected layer):在卷积层特征提取的基础上,O-Net 将特征向量展开成一个一维向量,并通过多层全

18、连接层进行分类和回归操作。这些全连接层通常包含数百个神经元,用于学习更加复杂的特征表示和分类决策。(3)输出层(output layer):与P-Net和R-Net类似,O-Net也包含了三个输出层,分别对应着人脸分类、人脸边界框回归和人脸关键点位置。不同的是,O-Net 采用了更加精细的分类和回归方式,以提高检测结果的准确性和稳定性。O-Net网络结构如图 10 所示。图 10 O-Net 网络结构P-Net 作为初步筛选器,能够快速识别出所有可能存在人脸的区域;R-Net 则进一步对候选框进行筛选和精细化的检测,提高了检测的准确性和稳定性;O-Net 则通过更加深层次的卷积神经网络和更加复

19、杂的分类和回归算法,进一步提高了检测的精度和稳定性,同时输出更加精细的关键点信息。三个网络模型形成了一个级联结构,既方便了数据流的传递,又保证了高效的计算和准确的检测结果。当系统从终端设备中获取人脸图像时,它会将其转换为一个“特征”向量,以便更好地表达信息。人脸识别的本质就是检测数据库中与给定人脸图片最相似的人,相似度可通过向量之间的距离来衡量。通过引入中心损失,可以更好地优化人脸识别模型,使得各个类之间的中心距离尽可能远。由此,训练的模型部署于后台上,用于提取人脸特征,从而识别人脸身份信息,并将识别结果反馈给终端设备。2.3 跳远测距立定跳远检测需要极高的精确度,而且本系统使用的是单目摄像头

20、,虽然单目摄像机也有单目测距算法,但是精度很难达到体测的要求,同时为了整个算法的复杂度,通过在跳远运动区域中绘制距离刻度线,摄像机只需要识别并检测刻度线和落点位置即可获得跳远成绩。由图 11 可以看出,跳远检测中检测用的摄像头并非从正上方进行拍摄跳远运动区域的,为了能够获得相对精确的跳远距离,就需要先进行透视变化操作,将运动区域转变为垂2023 年第 10 期190智能技术信息技术与信息化直的俯视角度,如图 12 所示,接着通过数字图像中的形态学操作,获取刻度线的位置信息。机器针对距离的读取依赖的是刻度线在图像中从起跳线开始排列的次序,因为距离稍远,摄像机就很难辨别数字符号,但是较粗的刻度线会

21、相对容易识别,所以才采用刻度线来进行距离测量。通过形态学操作就能获得如图 13 所示的刻度线信息,实际测量时,建议较粗的刻度线之间间隔为 5 cm,落地点介于刻度线之间时,可以按比例近似计算获得,最终的测量误差在 1 cm 左右。过密的刻度线有可能会影响远距离摄像机的辨识,过疏的刻度线同样也会影响测量精度。在实际测量过程中,可获得类似图 13所示的测量结果。图 11 透视变换后的俯视效果图 12 形态学操作获得的图像图 13 落地点标注结果图透视变换8是一种图像处理技术,它可以将一幅图像从一个视角变换到另一个视角。它的原理是通过改变图像的投影方式,来改变图像的形状和大小。透视变换的基本原理是,

22、将一个图像从一个视角变换到另一个视角,这个变换是通过改变图像的投影方式来实现的。投影方式的改变会导致图像的形状和大小发生变化,从而实现透视变换。透视变换的原理基于相似性和投影法则,包括四个基本步骤:确定投影平面,确定视点,确定物体位置和方向,以及计算投影坐标。其中,投影平面是指图像最终呈现的平面,通常是屏幕或相机传感器的平面;视点是指观察者所处的位置,也称为摄像机位置;物体位置和方向是指被观察物体在三维空间中的位置、姿态和大小;投影坐标是指最终呈现在投影平面上的物体坐标。透视变换的原理公式为:111213212223313233,aaax y wu v waaaaaa=(3)式中:u,v 是原

23、始图片,对应得到变换后的图片坐标(x,y),经过透视变换后的图片通常不是平行四边形(除非映射视平面和原来平面平行的情况)。重写之前的变换公式可以得到:112131132333a ua vaxxwa ua va+=+(4)122232132333a ua vayywa ua va+=+(5)根据已有的数据,可以计算出相应的变换公式,从而得到新的变换结果。另外,如果没有特定的变换公式,也可以使用原有的图像。2.4 形态学操作图像的形态学操作9是一种基于形状的图像处理技术,它通过对二值或灰度图像进行像素级别的操作,可以改变其形态、提取形状特征、去除噪声等。常用的形态学操作包括腐蚀、膨胀、开运算、闭运

24、算等。在形态学操作中,最基本的操作是腐蚀和膨胀。腐蚀操作可以将目标物体边界内部的像素点向外侵蚀,从而使目标物体变小或消失。膨胀操作则相反,可以将目标物体边界外部的像素点向内扩张,从而增加目标物体的大小或填充空洞。开运算和闭运算分别由腐蚀和膨胀操作组成,可以用于去除噪声、平滑边界、连接断裂等操作。开运算可以先使用腐蚀操作去除小的噪点,再使用膨胀操作平滑边界;闭运算则相反,先膨胀再腐蚀,可以填补目标物体内部的小孔洞和裂缝。形态学操作的原理是基于结构(structuring element)的概念。结构元素是一个小的二值矩阵,可以用于对图像进行局部的像素级别操作。在腐蚀和膨胀操作中,结构元素沿着图像

25、的每一个像素进行滑动匹配,如果与结构元素相交的像素都是前景(或后景),则该像素被视为前景(或后景);否则视为背景。通过对图像 A 进行腐蚀处理,将对该图像的所有像素进行“与”操作,若所有像素均等,则将它们设置为 1;若不等,则将它们设置为 0。这样,就能够去掉物体的边缘,减少对目标的影响,并且能够抑制比原始图像更大的噪音。具体情况请参考图 14。图 14 腐蚀操作前后图像变化通过对图像进行扩展,需要在不改变原始尺寸的情况下,2023 年第 10 期191智能技术信息技术与信息化对相邻的像素进行“和”操作,即在原始尺寸的基础上,对相邻的像素进行“和”,从而实现对整个图像的扩展。这种方法的优势在于

26、,它能够把相邻的像素和相邻的像素的尺寸和位置进行整合,从而实现对目标的扩展。(如图 15)图 15 膨胀操作前后图像变化3 实验及实验结果分析该智能体测系统主要分为跳绳区域及跳远测距区域两个区域,因此实验也分为跳绳验证实验和跳远验证实验,并且两种实验中均采用 OpenPose 提供的人体关键点检测算法进行检测,为后续的计数及测距功能提供数据。3.1 跳绳验证实验由于在实际跳绳过程中,学生的跳绳方式常常分为两种,一种是双脚并立跳绳(如图 16 中二号),另一种是双脚交替跳绳(如图 16 中一号)。在一般情况下,这两种跳绳方式在利用人体关键点检测算法进行检测时略有不同,绝大多数情况下,在每两次双脚

27、并立跳绳的循环之间,所检测的人体关键点坐标在图像中的移动距离往往小于每两次双脚交替跳绳中检测处的人体关键点坐标移动距离。图 16 不同学生跳绳可能出现的两种情况3.1.1 双脚并立跳绳测试实验本实验使用带有计数器的跳绳进行实验,通过该体测系统的相同人体关键点在两次跳绳之间的近似周期性运动,即人体关键点坐标在图像中的纵坐标变化来检测跳绳个数,采用人体脚踝关键点作为 Key1 和人体颈部关键点作为 Key2 关键点。记录实验目标在一分钟跳绳期间的实际有效跳绳个数以及中断次数,并绘制如表 1 与表 2 来记录实验数据。表 1 双脚并立跳绳测试实验(第 1 5 次)第 1 次第 2 次第 3 次第 4

28、 次第 5 次Key1/个147143145140135Key2/个142142141138133Key1+Key2/个138140139136133标准/个137142139135133中断/次30311表 2 双脚并立跳绳测试实验(第 6 10 次)第 1 次第 2 次第 3 次第 4 次第 5 次Key1/个139137152136140Key2/个134133142136131Key1+Key2/个133131142135130标准/个135130140133129中断/次12413表 1 和表 2 中,Key1 行表示体测系统使用人体颈部关键点作为检测目标记录下的有效跳绳个数,Key

29、2 行表示体测系统使用人体脚踝关键点作为检测目标记录下的有效跳绳个数,(Key1+Key2)行代表在 Key1 和 Key2 同时满足的条件下体测系统记录的有效跳绳个数。在实际测量中,学生在双脚并立跳绳的情况下跳绳,起跳高度并不像双脚交替跳绳那样,关键点不会有太大的高度变化,如表格中 Key1 行所示,单独采用 Key1 关键点作为检测目标来进行计数的十次结果与标准值比较平均误差大约在 4.5%,而单独采用 Key2 关键点作为检测目标来进行计数的十次结果与标准值比较误差在1.5%,因此单独采用 Key1 关键点或单独采用 Key2 关键点作为检测目标关键点与实际跳绳计数器标准结果有较大出入。

30、为此,在计算机系统中采用了 Key1 关键点与 Key2 关键点同时检测出来的有效次数进行计数,发现误差能缩小到 0.9%,因此在这种情况下采用(Key1+Key2)联合检测的条件下记录所得数据相比之下较为准确。3.1.2 双脚交替跳绳测试实验本实验流程中,除了学生跳绳方式采用双脚交替跳法外,其他的实验流程以及实验数据记录方法均与双脚并立跳绳测试实验一致。实验测得的数据如表 3 和表 4。表 3 双脚交替跳绳测试实验(第 1 5 次)第 1 次第 2 次第 3 次第 4 次第 5 次Key1/个126131128133131Key2/个123127124126123Key1+Key2/个121

31、127122123121标准/个120127121124117中断/次10223表 4 双脚交替跳绳测试实验(第 6 10 次)第 1 次第 2 次第 3 次第 4 次第 5 次Key1/个127131129127128Key2/个121126125126125Key1+Key2/个120121119125123标准/个119118115126125中断/次244012023 年第 10 期192智能技术信息技术与信息化在实际实验测试过程中,学生进行双脚交替跳绳时,智能体测系统采用的关键点检测方法中 Key1 测量结果和 Key2测量结果之间存在一定差距,其主要原因是双脚交替跳绳时,脚踝关节点

32、的近似周期性活动的幅度值较大,而在相同时间下颈部关键点的起伏较小,且由于学生在跳绳过程中难免会出现跳绳中断的情况,在中断的情况下学生需要重新调整站姿。在此调整过程中,学生脚踝关键点的变化相比于正常跳绳时变化幅度较小,而学生的颈部关键点在二维图像上的变化相比于正常跳绳时来说较为明显,因此在这两种不同关键点的检测方法之间,采用脚踝关键点检测出来的数据更为接近实际测量数据。除了这两种检测方法外,同双脚并立跳绳测试实验一致,也采用了同时满足 Key1 和 Key2 的联合检测情况下系统的测量数据。将这三种选取不同关键点作为检测标准的方法进行对比,发现采用 Key1 作为关键点检测的误差在 5.4%,采

33、用 Key2 作为关键点检测的误差在 2.8%,而采用(Key1+Key2)的联合检测情况下的误差只有 2.2%。综上所述,在双脚并立的情况下,选择 Key2 关键点检测或者(Key1+Key2)联合检测的方式,效果均能将误差控制在 2%以内,而在双脚交替的情况下,跳绳选择 Key2 关键点或者(Key1+Key2)联合检测的方式,效果均能将误差控制在 3%以内。考虑到整个体测测试系统应该具有更好的泛化性与通用性,所以最终采用(Key1+Key2)联合检测的方式效果最好,学生通过这两种方式中的任何一种方式进行跳绳,都可以得到最为接近真实值的测量结果。3.2 立定跳远测距实验在体测过程中,学生立

34、定跳远的情况一般会分为三种:正常双脚落地(如图6)、屁股落地(如图17)和手掌撑地(如图 7)。因此,将实验情况分为三种不同情况,所有的跳远距离均测量从起点到人体跟地面接触面的最近直线距离,如图 17 中表示落地后如果屁股落地,就测量屁股处标红点与起点线之间的垂直距离。图 17 立定跳远中屁股落地的情况3.2.1 跳远双脚落地在学生立定跳远,动作标准的情况下,立定跳远结束后应该是双脚落地(如图 18),根据传统体测方法使用卷尺测量的距离应该为从起点线到学生所穿鞋子的脚底后跟处的距离,即测量的是图 18 中下面这条双向箭头线表示的距离。由于本系统采用人体关键点检测的方法测量距离,所以在跳远中常使

35、用脚踝关键点到起点线之间的距离作为测量结果,由于人体脚踝关键点与实际人体穿鞋后的脚底后跟之间存在一定距离,所以在本系统中做了一定量的校准操作。图 18 立定跳远中正常落地的情况在实际实验中,智能体测系统所测得的数据往往是大于常规体测测量所得数据(如图 19),其中的误差除了来源于上述所说的人体关键点与鞋子后跟之间的距离外,还来源于在系统针对采取的图像进行透视变换(如图 11)和形态学操作(如图 12)时,由于系统所能检测出的两根最近刻度线之间的刻度值差为 5 cm,而在这两根刻度线之间的落点刻度只能通过按照距离两端可确定刻度线之间的大致比例来计算出。而这两种情况综合下来的误差通常在 3 4 c

36、m 之间,因此,在针对系统做测量结果校正的时候,采用将体测系统测量出来的跳远结果减去 3 4 cm 来作为最终的体测结果。图 19 立定跳远中正常落地的两种测量方式作比较3.2.2 跳远屁股落地在这种实验情况下,智能体测系统测量点为人体髋关节,实际测量点为屁股与地面接触点,将两种情况的测得数据绘制成表 5 和折线图(图 20)。表 5 屁股落地测量结果 单位:cm实验次数 i体测系统测量数据ai实际测量数据bi误差iiicba=校准x校准后测量数据iiybx=+校准后误差iiidby=1215212-3-421112196193-3-419213229226-3-422514216213-3-

37、421415199195-4-419506181176-5-4177-17241238-3-423718206202-4-420209215212-3-4211110211208-3-42071 2023 年第 10 期193智能技术信息技术与信息化图 20 立定跳远中屁股落地的两种测量方式比较从表 5 和图 20 中的实验结果可以看出,智能体测系统测得的数据总是略大于传统体测所测得的数据,其误差大约也为 3 4 cm。所以,针对该情况下系统的校正同跳远双脚落地校正方法一致。处理后的数据从折线图(图 20)中的虚线线条(校正后的数据)与实线线条(实际测量数据)对比可以看出,通过校正后的数据与传

38、统方法测量出来的实际数据十分接近,因此,这种数据处理的校正方法是可行的。3.2.3 跳远手部撑地该种情况下,学生是落地时手部撑地,系统采用的观测关键点为手首关键点,此关键点的测量与传统体测方法测量结果十分接近(如图 21),实际测量距离如图 22 所示。图 21 立定跳远中手部撑地的情况图 22 立定跳远中手部撑地的测量距离通过折线图(图 21)可以看出,在手部撑地的情况下系统检测出来的跳远距离与传统标准测量方法的跳远距离误差几乎可以忽略不计。因此,在这种情况下,并未对系统最终的输出结果进行校正处理。4 总结利用当今计算机视觉和人工智能相结合10的方法来进行智能体测的应用,能极大地便利学校体测

39、的进行,对传统人工体测计量成绩可能产生误差的问题提供了一种全新的解决思路。利用人脸识别与检测来进行学生举手示意检测、身份验证,再通过人体关键点检测及相关的机器视觉操作进行跳远测距等,整个流程实现了自动一体化,不需要进行人为干预,便可完成体测的整套流程并将数据上传保存。该系统对体测效率的提升有着极大的帮助,并且在一定程度上保证了体测的公平性,具有良好的应用前景。参考文献:1 曹明利,王亚丽,李萌利,等.基于计算机视觉的体测测评打分系统 C/天津市电子工业协会.天津市电子工业协会 2022 年年会论文集.天津市电子工业协会:天津市电子工业协会,2022:11-14.2 林艺俊,沈良忠.基于决策树技

40、术的大学生体测成绩分析研究 J.电脑知识与技术,2018,14(2):230-231,270.3 叶子健,刘士文,景冰璇,等.基于神经网络和支持向量机的体测分析模型 J.科学技术创新,2021(34):55-57.4 CAO Z,HIDALGO G,SIMON T,et al.Realtime multi-per-son 2D pose estimation using part affinity fieldsJ.IEEE transactions on pattern analysis&machine intelligence,2021,43(1):172-186.5 李明攀.基于深度学习的

41、目标检测算法研究 D.杭州:浙江大学,2018.6 龚锐,丁胜,章超华,等.基于深度学习的轻量级和多姿态人脸识别方法 J.计算机应用,2020,40(3):704-709.7 陈雨薇.基于改进 MTCNN 模型的人脸检测与面部关键点定位 D.上海:东华大学,2019.8 孙山河.透视变换矩阵与三点透视 J.湖南大学学报(自然科学版),1995(5):95-100.9 袁春兰,熊宗龙,周雪花,等.基于 Sobel 算子的图像边缘检测研究 J.激光与红外,2009,39(1):85-87.10 田雪文,师丹玮,徐培明,等.全民健身一体化智能平台的构建 Z.泰山体育产业集团有限公司.2017.【作者简介】顾轩(2001),男,江苏苏州人,本科生,研究方向:人工智能。王传伟(2001),男,江苏南京人,本科生,研究方向:机械电子工程。徐华(2002),男,江苏南通人,本科生,研究方向:人工智能。张威(2001),男,四川达州人,本科生,研究方向:人工智能。杨赵华(2002),男,山西运城人,本科生,研究方向:新能源科学与工程。曾国伦(2000),男,江苏徐州人,本科生,研究方向:人工智能。(收稿日期:2023-05-22 修回日期:2023-06-10)

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服