收藏 分销(赏)

体育裁判人工智能化的正当性困境与应对_徐伟康.pdf

上传人:自信****多点 文档编号:457275 上传时间:2023-10-11 格式:PDF 页数:8 大小:1.55MB
下载 相关 举报
体育裁判人工智能化的正当性困境与应对_徐伟康.pdf_第1页
第1页 / 共8页
体育裁判人工智能化的正当性困境与应对_徐伟康.pdf_第2页
第2页 / 共8页
体育裁判人工智能化的正当性困境与应对_徐伟康.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2022年(第42卷)第11期Vol.42,No.11,90-封三,2022体 育 科 学CHINACHINA SPORTSPORT SCIENCESCIENCE体育裁判人工智能化的正当性困境与应对徐伟康(清华大学 法学院,北京 100084)摘要:随着以大数据、机器学习为代表的人工智能技术在体育领域应用的兴起与发展,体育裁判人工智能化渐成趋势,机器开始部分取代人类做出裁判。综合运用文献资料、逻辑分析等方法,从正当性角度反思体育裁判人工智能化的趋向。研究认为,体育裁判人工智能化在主体正当性上存在着主体地位、主体能力、主体责任的缺失,在手段正当性上面临着数据基础设施和能动创新不足的困境,在程序正

2、当性上存在着知情程序、亲历程序削弱的问题,在结果正当性上面临着结果一致性、结果客观性、结果效率性的悖论。由此之故,体育裁判人工智能化在当下的定位还只能是一种辅助性的工具,其“善假于物”作用的发挥还有赖于适用范围的厘定、裁判数据和算法的优化、正当程序的因应、裁判结果的控制等必要步骤。关键词:体育裁判;人工智能;大数据;正当性中图分类号:G80-05 文献标识码:A自 1956 年达特茅斯会议(Dartmouth Conference)上,信息论创始人克劳德艾尔伍德香农等人首次提出“人工智能”概念以来,人工智能深刻地嵌入了人类社会发展的进程中。21 世纪初,随着数据的积累和算法的革新,人工智能迎来

3、了第三次发展浪潮,呈现出深度学习、人机协作、跨界融合、自主控制等人类过去使用的技术所不具备的新特点(腾讯研究院 等,2017)。体育一直是人工智能的天然“试验场”(郑芳 等,2019),近年来,各大赛事相继推出了一系列人工智能裁判系统,例如,2018 年俄罗斯足球世界杯引入了人工智能视频辅助裁判系统,2019年美国棒球大西洋联盟开始采用机器人裁判判定好坏球,2021 年东京奥运会和 2022 年北京冬奥会中也都引入了人工智能评分系统(光明网,2022)。在学术研究上,诸多观点也开始憧憬实现体育裁判的人工智能化,如 Mataruna(2020)提出了“虚拟裁判”(virtual referees

4、)的概念,即人类裁判的作用仅限于赛场上运动员部分行为的管理,而将具体判罚决策交予人工智能处理。还有诸多学者系统归纳了体育裁判人工智能化可能的显著优势,包括及时修正错误、弥补人类的信息差(information gaps)、保持裁判的一致性、具有可预测性以及中立性等(Madison,2021)。体育裁判人工智能化的愿景是美好的,然而竞技体育不同于围棋博弈,人工智能是否真的契合体育裁判场景、涉及的手段条件是否具备、是否会给体育裁判带来程序风险和结果风险,这些问题都需要进一步厘清。鉴于此,本文尝试从正当性角度对体育裁判人工智能化予以反思,从深层次探寻当前体育裁判人工智能化所遇到的困境,进而构建合理的

5、应对方案,以期促进体育裁判人工智能化更好地发展。1 体育裁判人工智能化的内涵与运作机理 1.1 体育裁判人工智能化的内涵体育裁判是体育赛事的重要组成部分,裁判员代表着规则的应用,通过对场上行为的判断裁决是非,保护球员安全和比赛的完整性,以使比赛进入某种“适当的轨道”(proper course)(Catteeuw et al.,2009)。而人工智能所欲追求的是探索人类智能活动的规律,构建智能系统,使机器完成人类所能完成的任务(张国英 等,2010)。拉塞尔等(2010)将人工智能纷繁复杂的技术性定义总结归纳为4个方面:拟人思考、拟人行为、理性思考、理性行为。因此,人工智能化意味着机器可以像人

6、类一样,对外部世界做出准确的反应或抽象的思考,并通过自己独特的“大脑”文章编号:1000-677X(2022)11-0090-08DOI:10.16469/j.css.202211011收稿日期:2022-04-06;修订日期:2022-09-29基金项目:国家社会科学基金重大项目(20&ZD337)。作者简介:徐伟康(1994-),男,在读博士研究生,主要研究方向为体育法学,E-mail:。90徐伟康:体育裁判人工智能化的正当性困境与应对和“神经系统”在复杂的情况下做出审慎的判断。需要说明的是,根据人工智能和人类智能的比较,人工智能的发展被划分为“弱人工智能”“强人工智能”“超人工智能”3

7、个阶段。按照设想,在“强人工智能”和“超人工智能”阶段,人工智能将接近或超越人类智能(何立民,2020),但对于当下而言二者过于遥远,人工智能技术仍然且将长期处于“弱人工智能”阶段。AlphaGo能够在围棋领域击败人类,并不是因为它在主观能动性方面优于人类,主要是缘于它在获取海量数据的基础上模仿或“理解”了人类行为,使机器能够独立完成一些原本依赖人类智慧的决策(Schmidt,2020)。因此,本研究的“体育裁判人工智能化”所要探讨的不是计算机程序拥有某种类似甚至超过人类裁判员的智能,而是计算机程序模仿体育裁判的思维,模拟体育裁判的实施过程,全部或部分代替人类裁判员决定实质性的事实问题、应用裁

8、判规则、做出处罚等。1.2 体育裁判人工智能化的运作机理体育裁判人工智能化的运作主要是通过对赛场情况的获取,即利用计算机视觉、图像识别以及各类传感技术“看见”“听见”“感受到”比赛过程,将体育赛场的关键事实提取出来。例如,东京奥运会体操比赛的人工智能评分系统通过将红外光投射到运动员的身体及其周边,捕捉运动员的瞬间动作和身体扭转角度,并将其实时转换为三维图像(魏依晨,2021)。而后将提取出来的有效赛场实时场景转化为数据进行建模分析,输出相应结果。在具体技术上主要有 2种方法,第一种是明确编码的封闭式算法,即通过专家系统模拟人类推理并将其应用于体育裁判的决策中。详言之,一是提前在计算机中建立一个

9、包含相关素材(如运动项目规则、以往比赛场景出现的判罚、各类突发情况的处理、裁判执裁习惯等)的数据库;二是技术化处理这些素材,搭建索引,使其可按关键要素进行搜索;三是建立一个搜索引擎,可以对获得的素材进行自动检索,查找与数据库相似的情景,进而输出裁判结果。例如,在体操比赛中,人工智能可以分析运动员身体的旋转动作,并与数据库中的现有材料相结合,以确定运动员技术动作的完成程度。在体育裁判人工智能化的进程中,专家系统很长一段时间都占据主导地位。但机器学习,特别是深度学习的兴起,推动人类技术范式由“大定律,小数据”向“大数据,小定律”转变(金观涛,2019)。在体育裁判中也出现了第二种人工智能路径,即通

10、过算法学习,让机器在大数据中自行学习如何“像人类一样”进行裁判,其核心要素便在于建构一种能够实现对裁判进行预测的算法模型,找寻人类裁判员的模式和规律,从而实现对这些裁判行为的自主模拟。总体而言,体育裁判人工智能化的本质在于按照设定的目标探索和分析非结构化和半结构化的数据(如体育规则、过去的裁判情形和结果),揭示背后所蕴藏的规律性,并进一步构建模型,以便为具体裁判场景提供适当的解决方案。2 体育裁判人工智能化的正当性困境 人工智能的正当性通常是指其目标和行为在整个运行过程中符合社会现行规范和政策要求,符合社会发展的客观需要,符合人类的基本利益(郑曦,2020),即人工智能的正当性需要从整个运行过

11、程中的目标和行为的合理性和合法性层面去理解(彭中礼,2021)。考虑到体育裁判运行过程主要涉及裁判主体、裁判手段、裁判程序、裁判结果,本文主要从主体是否适格、手段是否有效、程序是否正义、结果是否合理4个方面去审视正当性问题。2.1 主体的正当性困境从主体地位来看,人工智能难以具有身份权威。裁判员身份权威亦被称为裁判员本体论权威或身份特权,指的是裁判员在比赛中通过特许或其他方式获得的区别于其他主体(如运动员、教练员、观众等)的特殊权利。这种身份权威赋予了裁判员规则执行者、比赛管理者和比赛流程监督者的角色和权力,是裁判员执裁的基础(张琪,2018)。体育裁判人工智能化对这一身份权威提出了挑战,因为

12、从裁判员身份权威的来源来看,其不仅是源于裁判员本身的专业能力,也是一种体育参与者授权的结果。在大型体育赛事活动中,裁判员的身份权威是由国际单项体育联合会的章程所授权的,在一些小型或非正规的赛事活动中,也是通过明示或暗示的契约授权所取得的,这缘于人类作为法律主体的地位,而作为技术的人工智能,未能也难以作为被授权的主体。从主体能力来看,人工智能难以具有价值判断。人工智能可以发挥作用的领域主要是理性计算的范畴,就人主体性的其他方面,人工智能并无所长。在感知层面,虽然人工智能似乎具备了一定的感知能力,例如对应人类听觉的语音识别技术、对应人类视觉的图像识别技术、对应人类读写的自然语言处理技术,但无论从数

13、据科学还是智能科学的角度来看,这些技术都处于“数据收集”阶段,即对各种格式的数据进行收集和汇总,然后服务于后续的“认知”阶段。换言之,人工智能只是一种机器方法,它利用数据收集、分析和计算来实现人类智能,但并不了解人类智能的运行机制(沈向洋 等,2018)。约翰希尔勒(John Searle)的“中文房间”假设很好地说明了这一点:房间外的人测试人工智能系统是否真的理解其手中的象形文字,而房间内的人工智能系统则根据象形文字的手册或字典机械地告诉房间外的人准确答案。虽然它给人以智能的形象,但并不能真正理解接收到的信息,也不能整合自己的意识判断(陈敏光,2020)。然而,体育裁判有着区别于理性计算的逻

14、辑,它是一个伴随着评价和价值判断的过程,一个判罚的做出涉及以下 2 个层面:一是对判罚事实的争议,二是对体育规则的解释。于判罚事实争91 体育科学 2022 年(第 42 卷)第 11 期议而言,可能不太会掺杂评价和价值判断,拆解和标注是人工智能的专长,所以人工智能可以很好地处理这种争议。但是,对体育规则文本含义的规范性解释以及对规则之间冲突和矛盾的解决,就不可避免地涉及对价值的考量和判断。如 Jones 等(2018)研究了美式足球、棒球、高尔夫和网球的体育规则,认为至少包含戏剧性(drama)、逆境(adversity)、习俗(custom)、诚信(integrity)、人性(humani

15、ty)和尊严(dignity)的价值判断。在体育裁判中,典型的就有“违反体育精神的犯规”,即运动员的行为超出了体育精神和意图的范畴。这种“精神和意图”是要根据裁判员的价值判断来衡量的。同时,体育规则中本身就带有很多涉及价值判断的描述,如足球比赛中的任意球判罚,根据国际足联规则,如果一名球员以裁判员认为的草率、鲁莽或使用过分力量的方式对对手做出某些行为,将判给对方踢直接任意球。“草率”“鲁莽”“使用过分力量”都包含价值裁量,受制于裁判员基于场上因素的考量。此外,某些判断明确或隐含地要求裁判员评估运动员的心理状态,如运动员可能试图通过假摔或者隐藏动作来欺骗裁判。故而体育判罚不仅仅需要理性计算,还需

16、要直觉、感觉、良知等人类的判断以及鲜活且自然的同感心。从主体责任来看,人工智能难以承担出错责任。我国中华人民共和国体育法(2022 年修订)第 112 条规定了裁判员违反体育道德和体育赛事规则的法律责任。体育竞赛裁判员管理办法(2015 年发布)也规定了裁判员的权利和义务,要求裁判员不得弄虚作假、营私舞弊,并规定了相应的处罚措施。体育裁判人工智能化必须面对的一个问题是,如果机器犯错了,该由谁来负责,又该如何纠错?机器决策与人类决策不同,人类决策往往是个性化的,而机器决策是标准化的,机器在某一特定情况下出错,可能意味着所有类似的情况都会出错。如前所述,人的理性和意志是体育判罚的重要要素,理性和意

17、志所固有的有限性和薄弱性,一方面意味着裁判员在决策中不可避免地会遇到困难,甚至可能做出错误的决定;但另一方面,也意味着裁判员有隐含的义务和责任,需要对自己的决定负责。虽然目前也有观点认为鉴于人工智能系统具有自主性和认知特征,应该让人工智能系统为其行为的疏忽承担部分或全部责任(吴高臣,2020)。但是理性主体是现代法律制度的底层逻辑,人工智能是人类技术的延伸,把人工智能拟设为责任主体,会带来整个法律秩序的重构。而且,机器是自动决定而非自主决定,无价值判断能力和反思能力,机器不能知道自己“犯了错误”,甚至可以说,对于机器而言,没有所谓的“错误”,因为它们都是在预先设定的代码基础上做出判断的(宋旭光

18、,2020)。2.2 手段的正当性困境一方面,手段不能脱离自身基础。人工智能最基本的手段是根据历史数据预测未来的行为,这也就意味着,人工智能有个特定的假设前提,即人类的行为和决策是有规律可循的,通过大数据分析,可以发现此种规律,从而实现对行为和决策的预测。例如,AlphaGo 在围棋领域之所以如此成功,是因为算法可以通过数据分析来预测下一步棋的模式,找到制胜策略。同样,在体育裁判领域实现人工智能化的关键在于,计算机程序能够从海量的体育判罚场景中发现特定的模式并构建相应的“判断模型”,从而在面对新的判罚场景时,机器可以根据已经掌握的“判断模型”对该场景的结果做出判断(吴军,2018)。从手段应用

19、来看,要实现此种“判断模型”,核心在于人工智能自身基础条件,即数据、算法是否具备(李帅帅 等,2021)。就体育裁判人工智能化而言,不得不面临的就是自身数据条件的欠缺。首先是数据转换的难题。非结构化的文本数据,如裁判的判罚结论或体育规则文件中的语言,只有转化为结构化的数据,才能被计算机“阅读”。虽然可以通过人工标注的方式实现机器的语义分析,但这还远远不能满足体育裁判人工智能化对机器理解能力的要求(Jessop et al.,2019)。体育规则中往往不会直接出现“如果”“和”“或”等逻辑连接词,但这些都是计算机代码赖以运行的基础。加之体育规则的逻辑关系,包括单个规则内部、条款与条款之间错综复杂

20、的关系,经由机器对其还原绝非易事。其次,目前体育裁判数据的来源非常有限,其数量无法满足机器学习的“海量”要求。虽然近年来体育视频和判罚场景数据的收集有了很大的进步,但仍然不能称之为“海量”,在面对某些缺乏数据支持的判罚类型时,人工智能可能会“束手无策”(姚海鹏,2017)。再者,在数据质量方面,由于体育裁判数据采集的区域和类别不同,机器的分析结果不一定全面。例如,篮球比赛中打手犯规数量明显高于“进攻犯规”等其他类别,导致数据类型出现结构性偏差,基于这些数据的人工智能分析结论也必然是不完整的。此外,不同国家的单项体育联合会或协会,以及不同联赛的裁判规则都存在一定程度的地方差异,同样的动作在不同联

21、赛中的判罚并不一致。例如,篮球比赛中“3秒违例”的判罚在不同赛事中就存在着差异,再加上因体育规则的宽泛、模糊而造成的裁判结果不统一,甚至有时会出现大相径庭的结果,实现有效的预测存在一定的困难。另一方面,手段不能逾越既定历史。人工智能的目的不是为了对既定的训练样本做出更好的解释,而是为了对未知的样本做出更好的预测,且人工智能的工具属性确有优势,这主要表现为信息的多维性,即通过对多维信息的汇总和分析,帮助人们提高认知高度,尽可能地消除认知盲点或认知误区。但人工智能对未知样本的“泛化”手段本质上也是一种归纳推理,即从有限数据集推广到整个样本空间。从大数据的角度来看,人工智能处理的92徐伟康:体育裁判

22、人工智能化的正当性困境与应对是已经存在或正在实时生成的数据,而不是尚未生成的数据。换句话说,它是基于人类既定的经验,也就是人们常说的“有多少人工就有多少智能”。但是体育裁判具有能动适应性,作为重要裁判依据的体育规则在相当大的程度上是开放性的,规则的形式和应用有一个广泛的空间,运动员的想象力引导着他们的“表演”,从而推动竞技体育不断突破固有的能力边界。例如,为了加快比赛速度,国际足联曾大幅修改越位规则,以澄清处于越位位置的运动员只有在以身体的某一部分触球时,才构成越位。这种改变对比赛判罚产生了深远的影响,因为它基本终结了防守队员向前一步并将进攻队员“困在”自己防线后面的能力(Madison,20

23、21),故而需要裁判员及时地做出能动的调整和适应。同时,体育规则也只是当前运动能力和运动技术发展的产物,不可避免地带有一定的历史特征。随着对健身和饮食的关注,以及设备、场地维护和比赛条件的改善,所有级别的比赛,无论是职业比赛还是业余比赛,其速度和对抗都在快速提升(朱彦明,2021)。这些变化,以及未来可能发生的进一步变化,都对裁判员的能力提出了新的要求,即从身体素质和认知能力的角度,有效地跟踪比赛,确保比赛判罚合理,这有时需要一种创造性,而人工智能并不像人类一样具有这样的能动创新性(郑曦,2020)。2.3 程序的正当性困境一方面,体育裁判人工智能化削弱了裁判过程中的知情程序。虽然传统的人类裁

24、判员不会例行公事地逐一解释判决犯规、警告或驱逐运动员的理由。但在传统裁判的情况下,规则是明示的,并且是事先公布的,裁判员也会通过定期的人际对话与球场上的运动员和教练员沟通,对争议判罚做出合理的释明。但是人工智能化具有“黑箱”问题,在体育裁判人工智能系统中,机器直接从赛场情况出发,自动生成裁判结果,在输入赛场数据和反馈裁判答案之间,存在着一个运动员和教练员等相关主体难以洞悉的“黑箱”。这里的“黑箱”不仅意味着无法观察,而且即使机器试图向运动员和教练员等相关主体解释,相关主体也可能无法理解算法如何从训练数据中得到模型,以及模型如何预测结果,这意味着相关主体不得不猜测罚球、驱逐出场或进球无效的原因,

25、尤其是当涉及决定比赛的关键判罚时,可能导致相关主体与人工智能裁判之间的紧张关系。另一方面,体育裁判人工智能化减少了裁判过程中的亲历程序。体育裁判强调裁判员的亲历性,即裁判员应亲身经历整个裁判过程,直接接触各类事实,对于同一个动作,从现场亲历和从录像观察,通常会存在截然不同的结论(张琪,2022a)。从体育裁判的实践场景来看,体育裁判并不是一个单方面的过程,而是存在着与运动员、教练员等的直接互动。例如,比赛中在一次侵略性的擒抱后响哨,运动员会戏剧性地与裁判员争论,恳求或反对发放黄牌或红牌。在一些体育文化中,与裁判员的争辩,往往被认为是比赛的一部分。裁判员也只有深入争端,察言观色地听取双方意见,才

26、能准确地辨别出真与假、是与非。而相比之下,人工智能直接做出决策,取消了当事人言说的机会和权利,运动员和教练员无法同人工智能“讲道理”,这大大削弱了相关主体在体育裁判中的程序性权利。2.4 结果的正当性困境一是关于人工智能化可以保证裁判结果一致性的反思。支持人工智能化最重要的理由是确保裁判的一致性,当面对特定判罚场景时,人工智能可以自动链接类似判罚,将类似结果应用于待决判罚中,实现判罚结果的一致性。但是,首先,该观点混淆了体育裁判的规则和规律。人工智能的一致性建立在规律的基础之上,但体育裁判是规则之治,规则是各类比赛中行为衡量和成绩判断的唯一标准。竞赛场上裁判员的执裁行为,其实质是根据事先制定并

27、向社会公布的一般规则进行裁决的活动。裁判员执裁是以体育规则为推理的大前提,以具体场景为推理的小前提,从大前提和小前提的牵连关系中判断运动员的竞技行为合乎或违反规定的要求,而非基于规律。由于人工智能只能根据从海量数据中获得的特征得出结果,以这个结果作为结论的裁判,就不是基于规则的裁判,而是根据隐藏在裁判大数据中的规律进行裁判,本质上就与体育裁判的运行原理相悖。其次,体育裁判追求个案正义,人工智能确实可以通过对事实的拆解,抽取相似的关键事实进行对比,从而判断待决判罚与之前判罚之间是否具有“相似性”,但是其决策过程中难以纳入个案正当化考量。体育裁判是个性化的,可能因比赛场景而异,但基于大数据的规律是

28、群体化的,面向的是一整类人或事件,难以因场景而变。因此,体育裁判人工智能化即使可以保证对相同情况做出一致处理,也并不能代表做出了正确的裁判,人工智能裁判可能与裁判的实质正义和道德要求相冲突。最后,不能忽视的问题是,如果几个事实上相似的判罚对同一规则采取了不同的解释,从而形成了若干个不同的结果,伴随着类似判罚数据库的扩大,人工智能就会按照不同结果的概率高低来预测待决判罚的结果。这种概率判断显然是一种随机正义,无异于抛硬币或掷骰子的方式。二是关于人工智能化可以保证裁判结果的客观性,特别是消除人类自由裁量空间的反思。人类裁判员确实可能会受到贿赂或其他形式腐败的影响,可能有意识或无意识地存在对特定国家

29、、地区或联合会的运动队和俱乐部的偏见,裁判员也可能容易偏向于支持或反对特定的运动员,如在职业篮球比赛中,裁判可能会对那些有急躁脾气或行为陋习(如假摔)的运动员存有偏见,而“明星”球员则有可能成为某些判罚的受益者。但人工智能本身就93 体育科学 2022 年(第 42 卷)第 11 期隐藏着威胁客观性的预设(曹宇 等,2018),人工智能的客观性对大数据的无偏见性提出了极高的要求,但是大数据是基于历史统计和对过去的模仿,数据本身就隐藏着某种偏见,这些偏见同样会被纳入人工智能裁判中(Fister et al.,2019)。即使数据是完全的、客观的,机器学习所做出的决定也不一定是无偏见的,因为不能忽

30、视的是算法本身并不是绝对客观的。人们曾认为算法决策具有技术中立的显著优势,不受情感和私欲的干扰,但事实上这只是一种浪漫的幻想(丁晓东,2020)。一方面,算法的设计者是人,生活背景、教育背景、成长经历等潜移默化地形成了每个人的价值偏好和主观立场,其在进行算法设计时可能会有意识或无意识地将自己对于体育裁判中某一问题已有的刻板观念嵌入算法的程序设计中。实证研究也表明,在数据条件、技术信息和计算方案相同的背景下,2组不同的程序员分别设计算法,最后输出的形式“各有千秋”(罗纳德巴赫曼 等,2017)。另一方面,实践中多数算法的设计者通常并非接受过系统体育训练、对体育执裁有深入了解的从业人员,其对体育执

31、裁可能会存在认知上的偏差或局限性,而这种认知上的偏差或局限性也会不可避免地反映在算法的设计过程中,从而导致算法出现偏差。至于对人工智能裁判能够消除人类裁判员自由裁量空间的肯定,这种想法的背后隐藏着对体育判罚某种负面预设,即判罚具有武断性,需要进行限制(乔一涓,2013)。但是,在体育领域,自由裁量不一定是负面的,如上所述,体育裁判规则本身具有一定的开放性。在赛场上,还有一种自我管理的公平竞赛观念,即球员自己应该在很大程度上决定比赛的形式和风格(FIFA,1997)。在这种观念背景下,裁判员长期以来扮演着相对温和的角色。当体育裁判最初被引入赛场的时候就被赋予了自由裁量权,这种框架也一直在延续(G

32、leaves,2010)。特别是在职业体育比赛中,考虑到体育的竞争平衡性,为了不使比赛过早失去悬念,有时需要裁判员的自由裁量,正如有观点指出,裁判中存在人为错误的可能性可能在球场上保留了一种人文的“运动机会”(sporting chance)(冯洁,2021)。三是关于人工智能化可以提升裁判效率性的反思。效率是人工智能的一大优势,比赛场上有大量的声音和运动画面,几乎没有一个是静态的,在时间和空间上既是移动的,又是快速变化的。大部分产生判罚的活动都是在高速下进行的,有时还会被其他运动员的活动所掩盖,或者是以人类生物学所提供的普通能力难以察觉。故而在人工执裁中,即使是训练有素、积极性很高的裁判员也

33、无法同时看到球场上的一切,或以足够的速度和广度看到所有重要的东西,不可避免地会有漏判或错判现象。而人工智能能最大限度地弥补人类裁判员的信息差,提高执裁效率。但是,这在一定程度上也打破了原有执裁的密度均衡,使得犯规行为,特别是对比赛的影响可能微乎其微的轻微犯规行为,被以空前的范围和严格性进行处理。这一方面会破坏比赛的流畅性,人工智能不断的因为细微的犯规吹停比赛,使得一场比赛支离破碎;另一方面会削弱比赛的对抗性,过密的执裁力度不可避免地造成运动员“畏首畏尾”,削弱竞技体育应有的对抗性,导致比赛观赏性下降。3 体育裁判人工智能化正当性困境的应对 通过上述对体育裁判人工智能化的反思,可以发现人工智能在

34、给体育裁判创造机遇的同时,也存在诸多正当性困境。但从发展的视角来看,伴随着技术迭代和升级的不断深入,不论各界对体育裁判人工智能化的态度如何,智能化已然是大势所趋。对体育裁判人工智能化正当性的思考,并不是要拒绝人工智能进入体育裁判,而是希望在反思的基础上思考可能的解决办法,设计一套体育裁判人工智能化的运行体系,以最大限度的发挥人工智能“善假于物”的功能并减少“工具异化”的风险。3.1 适用约限:人工智能化的范围厘定一方面,明确人工智能化的辅助地位。在讨论体育裁判人工智能化适用范围前,厘定人工智能和人类裁判员的关系确有必要,二者之间的关系决定了体育裁判人工智能化的运用空间和前景。体育裁判的知识和技

35、能往往是在裁判实践中逐渐学会的,囿于当下的技术水平,这种学习过程难以被形式化为数据语言并输入计算程序,也难以从大数据中分析得出。体育比赛的判罚只能由中立的人类裁判员利用规则和其他知识(如价值意向性和经验判断)以特定的程序来评判,用人工智能代替人类裁判员作为决策主体是不合适的。质言之,至少在可预见的未来,体育裁判中人工智能还只能是一种辅助的定位,体育裁判最终只能由人来解决,机器不能代替人成为价值选择的主体(张琪,2022b)。唯有此,才能确保整个赛事竞技性与公平性的平衡,也避免责任承担真空现象的出现。另一方面,划定人工智能化的应用领域。为保证人工智能切实履行辅助工具之职而不会造成工具的“喧宾夺主

36、”,应当对其运用领域作出划定,令其“有所为有所不为”。在具体判断上,主要可以考虑两方面的因素。一是运动项目所依据的裁判考虑因素是否充裕。鉴于人工智能在数据不充分场合的运作缺憾,体育裁判人工智能化首先应当考虑该运动项目的信息化程度,包括是否积累了足够的裁判数据等。二是运动项目的复杂程度。运动项目通常可以划分为速度/力量型(如各类田径项目)、隔网对抗型(如网球、羽毛球等)、表现难美型(如体操、花样滑冰等)、同场对抗型(如篮球、足球等)等。对于速度/力量型,裁判主要依据时间、距离、质量等物理指标,在判断上较为直观和简单,因此可以介入人工智能;对于隔网对抗型,裁判主要依据规则,通过有效得分的多少来衡量

37、,人工智能可以通过对赛场情况的捕捉,分析判断出有效的94徐伟康:体育裁判人工智能化的正当性困境与应对得分,进行胜负判定,因而也存在人工智能的应用空间;对于表现难美型,裁判主要依据评分标准对运动员完成的动作进行评分,由于评分涉及较多的情感分析和价值判断,难以统一量化,而且运动员高难度的创新动作可能会超过历史数据的范畴,故而应当谨慎使用人工智能;对于同场对抗型,裁判主要基于比赛中的行为和击中目标的数量来评判,由于同场对抗中运动员行为多样,赛场情况多变,人工智能难以根据具体情景随机应变,可能无法在常识、经验的指引下做出正确的选择,因而也需要对人工智能的运用做出限制。3.2 手段保障:人工智能化的技术

38、完善一方面,完善体育裁判数据基础设施。海量数据是人工智能的前提,人工智能能否相对准确地呈现要素之间的关系,有赖于大数据的支撑(徐伟康 等,2021)。体育裁判人工智能化也离不开体育裁判数据库的构建。具体而言,一是要注重体育裁判数据的数量,需要完整梳理体育裁判场景,对体育规则、裁判幅度进行综合收集,尽可能多地收集历史裁判数据并保证其完整性。如在内容方面,除了判罚内容,数据库的构建应尽量涵盖影响体育裁判的其他因素,如体育比赛的流畅性。二是注重体育裁判数据的质量,应针对体育裁判数据内容形成严格的准入筛查程序。准入筛查作为前置性程序,意指进入数据库的体育裁判数据均要通过人工筛选,审查内容侧重于形式上的

39、准确性,如关注具体裁判场景和结果内容的合理性、判罚是否有明显错误等。三是注重体育裁判数据的及时性,体育裁判数据并非一成不变,体育规则等的变化都会对数据库提出随时调整的要求,这意味着体育裁判数据库应实时进行动态更新。具体而言,新的体育规则出台、裁判尺度的变更,都要求相应数据库内容的增加,实践的变化亦可能致使数据库中的部分历史数据失去效力,此时应将其排除,以保障体育裁判系统依据的数据兼具完整性与准确性。另一方面,优化技术解决方案。体育裁判人工智能化在依赖数据基础设施完善的同时,还应当转向主体能动性的范畴,即由人类主动构造作为基础设施的要件知识。其一是在算法中介入体育裁判规则的解释论,以适应体育裁判

40、的开放性。体育裁判规则的解释是裁判员的重要技艺,随着竞技体育的快速发展,此类解释论在应对赛场新变化、新场景下作用更加凸显。就其本质而言,解释论在于对先验的“裁判规范”进行先验的“诠释研究”,可以在确定性推理和紧密性逻辑的基础上,在体育裁判算法中融入体育裁判可能面对的未来场景,搭建动态化的体育裁判知识体系。其二是在算法中内嵌体育的基本价值,以弥补人工智能价值判断缺失的问题。算法是没有道德想象力的,为了保障算法的有益性,将更好的价值嵌入其中,从而建构出符合人类道德准则的模型是必要的(石颖,2022)。在体育裁判人工智能算法设计时应当将体育基本价值预设嵌入算法之中,从而保障体育裁判决策符合体育基本价

41、值导向。例如,可以通过价值判断论证预测模型优化体育裁判人工智能的判罚,其工作原理是:寻找当前裁判场景与以往裁判场景之间共有的价值区间,并通过权衡这些共有的价值判断在以往裁判中的权重,以类比的方式建立当前裁判价值选择的论证模型(王文玉,2022)。价值判断论证预测模型虽然难以完全模拟人类的价值判断,但一定程度上可以帮助体育裁判人工智能化拥有基本的体育价值选择。3.3 程序因应:人工智能化的程序调和一方面,加强体育裁判人工智能化的公开透明。人工智能决策的透明度一直是人工智能应用过程中的重要关注点,不透明的人工智能不仅直接侵害相关当事人的知情权,还导致难以对算法进行审核(李训虎,2021)。“自动智

42、能系统伦理全球倡议”(Global Initiative on Ethics of Autonomous and Intelligent Systems)就将透明度视为人工智能应用的一项基本原则(IEEE,2021)。由于体育裁判对公平、公正的天然追求,技术的可见性显得更为重要。正如Harmsel(2021)所言,裁判员的说服作用在任何时候都是至关重要的,包括在场内和场外的沟通,使裁判员的裁量权得到公正和公平的行使。赛事组织者必须通过一定的方式,以清晰易懂的语言向运动员等利益相关主体公开披露人工智能裁判系统的基本信息,如系统的操作流程、结果输出的逻辑、判罚做出的因素权重和赋值规则等,让利益相关

43、方了解人工智能裁判系统的设计、部署和运行过程。另一方面,构建算法影响评估,促进公众参与。作为人工智能系统的基础语言,算法的效能不仅决定了体育裁判效率、质量(Hildebrandt,2018),而且在人工智能系统中,握有技术的赛事组织方居于优势地位,相形之下,运动员等利益相关主体则处于算法的操纵和支配之下,为提升算法效能,扭转不平等地位,算法影响评估作为驯服算法的一个重要方案被寄予厚望(张恩典,2021)。在人工智能体育裁判系统运行中,亦应引入算法评估制度,一方面赋予运动员等利益相关主体以参与渠道,创造人工智能裁判运行中信任沟通机制;另一方面预先识别并系统追踪算法中的内置或潜在的可能错误,以提高

44、人工智能裁判运行的准确性和稳健性(张欣,2021)。在具体制度建构上,可以从元规制理念出发,基于体育裁判算法模型的特征,以赛事运行周期为节点,在保证公众参与和报告披露的基础上,建构兼具动态性、全周期性、开放性和参与性的体育裁判算法影响评估,进而寻求减缓和消除负面影响和风险的应对方案和措施。3.4 结果控制:人工智能化的多阶段矫正1)提前审核。目前很多职业体育联盟都建立了应对新技术的专门组织机构,如美国职业棒球大联盟(Major 95 体育科学 2022 年(第 42 卷)第 11 期League Baseball,MLB)成立了智能技术联合委员会,委员会成员由 MLB 和球员工会共同任命,委员

45、会的目的是评估联盟引进新兴智能技术的可能风险,并就是否批准引进该技术向比赛规则委员会提供建议(Brown et al.,2020)。鉴于体育裁判结果可能会致使运动员等利益相关主体的权益发生重大变化,也应在体育组织内建立专门、中立的技术委员会,在体育裁判智能化系统正式运行前进行提前的审核批准。关于审核的内容,一是适应性判断,判断体育裁判智能化系统的设计是否契合该运动场景,相关赛事数据的采集、输入和处理能否最大程度地减少质量缺陷;二是内容性审查,审查体育裁判人工智能化的决策依据及其过程,判断算法是否存在偏见、漏洞等问题;三是必要性判断。系统审查过程亦伴随着系统测试,通过测试不断改进系统设置,例如在

46、执裁密度上,采用温和的执裁密度设计,最终选择负面影响最小的系统,以最大限度地降低技术不确定性,保证体育裁判人工智能化决策结果的最大可靠性。2)过程介入。定位于辅助地位的体育裁判智能化需要充分发挥人的主观能动性,在机器裁判过程中保证人的介入渠道。需要说明的是,过程介入并不意味着在特定情况下,体育裁判脱离人工智能系统,回到传统的决策模式,而是在体育裁判人工智能化的过程中开放一定的渠道,通过特殊的程序设计对机械化裁量的弊端进行矫正。具体而言,可以设置“补录环节”和“勘误功能”。“补录”“勘误”均涉及机械裁量流程的回溯,前者指根据新发现的、对体育裁判结果产生影响的赛场情况或其他证据,随时在系统中重新回

47、到相应环节勾选裁量要素,后者指当赛场情况出现重大变化或发现勾选的裁量要素有误时,通过系统设定的纠错途径对已勾选要素进行调整,2 个流程均避免了体育裁判人工智能化陷入“一条道走到黑”的误区,提升了裁量结果的可靠性(古雪,2021)。3)结果监督。在人类裁判执裁研究中,诸多观点提出要“健全多维立体监督体系”(颜海波 等,2014),体育裁判人工智能化亦需要引入外部监督机制,对裁判风险进行控制。如设定定期考核机制,要求对体育裁判人工智能系统运行予以完整记录,赛事相关方定期组织裁判专家及技术代表将机器裁判结果与人的裁判结果进行比对,若对于某一运动项目或场上行为,机器与人的裁判结果总是存在较大偏差,应回

48、溯算法模型搭建阶段,检查该类运动项目参数设计是否有误,必要时对人工智能裁判系统相关参数予以调整,尽可能地纠正体育场景与代码规则转化中产生的错误或偏差,通过考核机制对人工智能赖以运转的算法模型予以完善,弥补人工智能在理解及裁量能力上的缺陷,将更广泛、更适应的体育场景的裁判因素纳入考量范围。4 结语不同于以往技术的“工具化”应用,当前的人工智能技术本身开始呈现出极大的智能性和自主性,这在相当程度上改变了人与机器之间的关系,机器不再仅仅停留于工具层面。这一发展,为体育裁判的模式革新带来了重要的机会。但体育裁判人工智能化还存在诸多应用的障碍和风险,面对体育裁判人工智能化的趋势,在肯定其“善假于物”作用

49、的同时,应充分反思技术赋能所带来的挑战,明确人工智能在体育裁判中的辅助地位及适用范围,以数据和算法为着力点推进技术的优化,加强智能化的制度规制,进而实现人工智能在体育裁判中的合理运用。参考文献:曹宇,刘正,2018.人工智能应用于体育的价值、困境与对策 J.体育文化导刊,(11):31-35.陈敏光,2020.司法人工智能的理论极限研究 J.社会科学战线,(11):194-204.丁晓东,2020.论算法的法律规制 J.中国社会科学,(12):138-159,203.冯洁,2021.大数据时代的裁判思维 J.现代法学,43(3):41-55.古雪,2021.裁量自动化:危机、反思及化解 J.研

50、究生法学,(6):44-56.光明网,2022.走近冬奥|AI辅助评分 中国花样滑冰AI辅助评分系统 1.0 发布 EB/OL.2022-01-23.https:/ J.单片机与嵌入式系统应用,20(8):87-89.金观涛,2019.赛先生的梦魇:新技术革命二十讲 M.北京:东方出版社:118.拉塞尔,诺维格,2010.人工智能:一种现代的方法 M.第3版.殷建平,祝恩,刘越,等,译.北京:清华大学出版社:20-22.李帅帅,董芹芹,沈克印,2021.我国智能体育应用的实践困境与推进策略 J.体育文化导刊,(3):21-27,95.李训虎,2021.刑事司法人工智能的包容性规制 J.中国社会

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服