收藏 分销(赏)

人脸识别技术的算法偏差及其多元治理.pdf

上传人:自信****多点 文档编号:2681330 上传时间:2024-06-04 格式:PDF 页数:6 大小:1.37MB
下载 相关 举报
人脸识别技术的算法偏差及其多元治理.pdf_第1页
第1页 / 共6页
人脸识别技术的算法偏差及其多元治理.pdf_第2页
第2页 / 共6页
人脸识别技术的算法偏差及其多元治理.pdf_第3页
第3页 / 共6页
人脸识别技术的算法偏差及其多元治理.pdf_第4页
第4页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、当前,由于人脸识别技术的快速普及,人脸识别技术的弊端也逐渐呈现出来,这些弊端的出现就是算法偏差所致。由此可知算法绝非公正,人脸识别算法所带来的偏差问题不容忽视。一、人脸识别技术算法偏差的表现人脸识别技术中的算法就是将输入转为输出的一系列计算步骤,它将识别到的人脸与人脸数据库内的人脸进行比对,从而对个人身份进行鉴定,它是一种完全受数学逻辑所驱使的电脑程序,具有公平与客观的本质。但随着时代的发展,人脸识别技术算法逐渐出现偏差,极容易放大社会不公。人脸识别技术的算法偏差主要表现在以下几个方面。(一)隐性歧视隐性歧视是将软件指令中含有偏差的数据集,进行有目的的选择、设定标签、选取特征等掩蔽行为,从而产

2、生的不平等现象。人脸识别技术算法偏差中蕴含隐性歧视,在人工智能的“客观、公平、科学”的包装下,歧视被隐藏在算法的黑箱之下,它通常难以防范1。在这个人脸识别的年代,人脸识别技术的发展与普及,让种族歧视、性别歧视、弱势群体歧视等问题再度浮出水面。麻省理工学院的一项研究表明:通过使用人脸识别技术鉴别性别时,有34.7%的人把皮肤深色的女人误认为是男人,而对于浅色皮肤的女人,最大的误差在1%以内2。这些数据的背后,极有可能导致有色人种的新型伤害愈发突显,或是女性的偏见逐渐加深,进而引发社会不公平。人脸识别算法偏差也容易对弱势群体产生歧视。对于一些面部受到损害的人,可能无法达到人脸识别技术的面部特征标准

3、。有数据表明,截至2022年中国面瘫人群已达到6 200万,每年约新增65万面瘫患者。这些面瘫患者无法使用人脸识别转账,无法用人脸打开小区门禁。随着人脸识别技术在各个领域的不断使用,这些“弱势群体”面对的社会包容性问题也愈演愈烈。这些“弱势群体”本身就有自卑感,人脸识别技术的“鸿沟”使人脸识别技术的算法偏差及其多元治理杨珺铭(武汉理工大学马克思主义学院,武汉430070)摘要:人脸识别技术的快速发展让人们的生活变得越来越便利,但是人脸识别技术中存在着算法偏差,这种算法偏差所引起的技术缺陷、歧视现象、隐私泄露等问题十分隐蔽且不易察觉。其原因主要在于算法设计者对主体观念的继承、数据录入偏差、企业利

4、益诉求以及算法自身的不可预测性。要消除算法偏差所产生的伦理和社会问题需要强化伦理道德建设、成立伦理委员会、建立和完善算法立法、推进算法的优化升级,为人脸识别技术的健康发展创造良好的环境。关键词:算法偏差;人脸识别;算法歧视中图分类号:TP391文献标识码:A文章编号:2095-6584-(2024)02-0088-06收稿日期:2023-11-11作者简介:杨珺铭(1999-),女,湖北宜城人。在读硕士,研究方向:科技哲学。2024年4月第23卷第2期襄阳职业技术学院学报Journal of Xiangyang PolytechnicApr.,2024Vol.23 No.288杨珺铭:人脸识别

5、技术的算法偏差及其多元治理他们无法正常“刷脸”,导致这类群体被动“边缘”化。由此,隐性歧视是算法偏差的内在表现,其本质是由算法设计者的主观认识偏向引起的。(二)识别错误人脸识别技术在利用算法对人脸进行分析、决策、协调、组织等一系列活动中,由于人脸识别的精度不仅受限于视频质量,其分辨率等指标也易受面部特征变化及外界环境的影响,在这种情况下极易导致人脸识别错误。就其自身而言,无论是计算机算法还是图像处理技术,都还不够完善,而且有关的技术公司也会设置技术壁垒,很难开发出一种能够同时满足各种技术优点的人脸识别系统,这就导致部分人脸识别技术无法正确识别同卵双胞胎的脸部,存在着较高的安全风险。人脸识别的具

6、体应用中,人脸防伪是最主要的问题。未来人脸识别算法将从“识别人的身份”转变成“判断在系统面前的脸是不是一个真人”。随着3D打印技术的广泛应用,如今的黑客,在技术层面上,已经实现了远程模拟别人的脸来进行身份验证的操作。他们主要通过人工照片建造了一个人脸3D模型,模型建好后竟然有八成的概率可以完成验证。面对这种情况,人脸识别算法的技术缺陷就一览无余,这更需要后期不断的完善和升级。(三)隐私泄露随着人脸识别技术的不断普及,人们每天频繁地出现在镜头前,脸部数据早在不知不觉的情况下被采集。这些人脸数据具有强大的经济价值,部分商家为了占有尽可能多的信息,他们通过人脸识别技术算法将采集来的信息通过大数据进行

7、数据整理、存储和分析,从而预测和分析出用户的个人兴趣、爱好、习惯和行为模式,以提取未在互联网上“公开”的信息,导致人们的隐私泄露3。目前由于人脸识别算法导致的隐私泄露主要体现在两个方面,一是在未经用户同意的情况下,窃取用户的信息;二是尽管个体是数据的生产者和所有者,但是当数据被网络公司获得之后,它的原始所有者就失去了对其的掌控,个人不仅不知道自己的数据被用在哪里,还会给自己的财产和生命带来极大的伤害4。隐私的泄露很容易导致价格上的不公平现象。2021年央视315晚会上曝光了人脸识别被滥用的情况,某位商家在未经客户允许的情况下偷用人脸识别技术,对使用者的消费行为、消费习惯、消费能力进行了研究,并

8、对其进行了定价敏感性和消费相关性的测算,从而实现了对原有顾客的提价。对不同的顾客实行差别价格,这样的不公正竞争也是个人信息泄漏的体现5。二、人脸识别技术算法偏差产生的原因随着人脸识别技术的广泛使用,人脸识别算法偏差问题越来越严重,一定情况下侵害人们的财产安全、隐私安全、人权尊严。因此,厘清人脸识别技术算法偏差滋生的原因利于AI算法行业健康发展。(一)算法对价值主体观念的继承算法本质上是数学逻辑的产物,本身应该是客观、中立的,但是算法机器决策程序都是由人创造出来的,它不可避免地会受到各种价值主体利益和价值观的影响1。在设计和编写算法来解决问题的过程中,这些价值主体都会有意无意地将自己的主观因素,

9、比如自己的文化价值观、世界观、道德观等输入算法之中,而算法不仅会继承主体的价值观念,还可能导致算法对主体观念不断强化和放大,从而导致了多重的歧视性后果6。人脸识别算法主要是特定的价值主体设计、编写的,而特定的价值主体就是算法设计者。算法设计者的主观感受是否合理,认知原则和价值标准是否正当,决策过程是否恰当,将直接对人脸识别算法的公平性和公平程度产生重要的影响。因此,人脸识别算法的客观性、公正性主要依赖于算法设计者有意识地将人类的基本价值观念和道德准则融入智能系统中。即使算法设计者的观念不存在性别歧视、种族歧视、弱势群体歧视等概念,但是也很难做到彻底消除歧视或偏见。究其原因,主要是因为算法设计人

10、员的技术能力和逻辑思维能力,使得他们很容易落入“只见数字不见人”的唯技术性陷阱1。与此同时,由于人脸识别算法设计者也存在知识盲区,他们不能充分了解算法模型适用领域所涉及的相关知识背景及价值观准则,所以很难将该领域的全景与细节用合适且准确的代码来表示。社会实践的复杂性决定了人脸识别算法很难89第23卷第2期襄阳职业技术学院学报2024年第2期得到客观、公正的结果,尽管人们从理论上给算法列出了多项“理想”的价值,但在现实之中各种“理想”的应然安排与现实中的各种实然选择注定是无法准确匹配的7。客观上讲,人脸识别技术的使用者思想水平高低不齐,如若对人脸识别算法缺乏足够深入的了解,就会导致设计者所秉持的

11、设计理念与所需的算法设计初衷呈现背道而驰的境况,进而深化算法偏差。(二)数据录入存在瑕疵数据是算法的基础,它能够在特定条件下通过特定的算法成功地推导出相应结果8。但是数据资料的来源如何;它依据的是什么原理、标准、步骤;数据来源是否具有完整性、准确性和可靠性;数据资源的使用是否合法、是否能及时得到更新,这些问题都需要商榷。因为数据并非公开的,只要以上任何一环出现不公平不公正现象,都将不同程度地影响算法公正6。如果一个算法系统是基于有偏差的数据进行训练的,那么该系统就有重现这种偏差的风险。因此,如何选择合适的数据样品是非常关键的,它直接关系到算法的信度与效度。样本和训练数据经常被称为“教科书”,而

12、人脸识别的正确与否直接关系到训练样本的数量。训练的样本数目不能过少,而且不同种类的样本数目也不能相差太大,否则就不能很好地表现出整个数据的分布状况,很可能导致过度拟合。所以机器学习算法需要大量数据才能完美理解,如果数据源失真、被污染、有偏差,那么计算出来的结果就会变得不真实,输入偏差,则输出偏差。某些人脸识别技术的设计者在进行人脸识别算法训练时,考虑的问题比较狭隘,忽视其他人或外界环境,因自身或情境的原因使得知觉结果出现失真的现象。由于不同的姿势、照明条件和遮挡,人脸识别系统在捕获人脸的过程可能会导致面部图像出现具有挑战性的变化。其次,人脸之间存在内在差异,无论是遗传特征(面部特征、年龄、种族

13、)还是面部的变化(表情)或配饰(眼镜、太阳镜、围巾、帽子、耳环)都会给人脸识别系统产生影响9。某些人脸识别门禁系统,当阳光照到人脸时,机器无法精准识别人的面部,这就需要人脸识别算法在进行数据训练时就考虑天气因素,否则极其容易出现无法识别的情况。(三)企业的利益诉求之所以研究和开发算法,其本质是盈利,因此,研发公司和购买企业的意愿必然会在算法的设计中得到很好的体现。一些公司若将对利益的追逐置于对公司的社会责任和社会道德的追逐之外,那么,也就无可避免地存在着算法偏差。企业作为一种以追求经济利益最大化为目的的市场组织,所研发设计的算法功能,势必要为其经济目的服务。当前很多人脸识别系统出现识别错误的问

14、题,主要是由于设备不精准。常见的人脸识别技术主要分为2D人脸识别技术与3D人脸识别。目前3D人脸识别在市场上根据使用摄像头成像原理主要分为:3D结构光、TOF、双目立体视觉。该系统利用3D摄像头对立体图像进行分析,将视场范围之内的每一个点与3D坐标点进行定位,从而精确地表示出目标的各个角度的特性,提高了对该目标分析判断的精准度和安全性,尽管被识别的面部被大范围遮挡,它都能精准识别。而2D人脸识别算法以2D图像为基础,该设备的算法只需要让人脸与数据库人脸进行简单比对。由于3D人脸识别技术感知模组成本相对较高,一些企业为了节约时间和成本,基本采用2D人脸识别技术。而2D人脸识别技术安全系数很低,在

15、暗光环境下无法解锁,甚至虚假照片、视频或人脸硅胶面套都可以识别成功或化妆之后无法识别。企业作为一个以经济效益为目的的市场主体,其开发和设计的算法功能必然为其经济效益服务。因此部分企业会通过多种途径获取使用者的数据资料,以便让这些数据资料产生更多的价值。我国信息安全标准化技术委员会等机构发布的 人脸识别应用公众调研报告 显示,在两万多名受访者中,九成的受访者称使用了人脸识别技术;六成的受访者觉得人脸识别科技正在被滥用;三成的受访者表示,由于人脸信息泄露、滥用等原因,他们遭受了经济上的损失和个人隐私的侵害。即便部分企业在设计人脸识别算法时,并无主观恶意,但是只要企业将利润最大化作为其所要达到的终极

16、目的,那么算法也会经过自我学习、不断迭代从而产生新版本,甚至会与现有法律和社会伦理道德相悖。90杨珺铭:人脸识别技术的算法偏差及其多元治理(四)算法自身的不可预测性随着人工智能技术的不断发展,人脸识别技术的设计者只需要给出一个合适的算法而无需自己手动编写详细代码,算法便可以自己调整、修改决策规则。正是因为算法有自动决策的能力,导致算法的结果难以预测,有时可能是出乎意料的结果。人脸识别算法之所以产生不可预测性主要是源自“人的局限性”、算法应用后果的不确定性10。人们的认知水平总是有限的,但是事物总是在不断地发展,人们的思维活动可能跟不上事物的发展水平。因为人们内在的认知能力受到限制,所以对算法进

17、行评价在技术发展方面是合乎逻辑的,但是从伦理道德上看则是出乎预料的。算法应用后果的不确定性来自算法本体的不确定性算法本身内在的具有不能被规避的不确定性11。“一般的演算方法,只需要依照指示将资料输入至设定的结论,而机器学习演算方法却反其道而行,为的是要让演算人员了解问题的答案。因此,在一个机器学习算法中,虽然我们能够观测到其输入与输出,但无法对其机理进行说明。”12更为重要的是学习能力赋予算法某种程度的自主权,这种自主权是否会让人脸识别系统变得自负和武断,是否会忽略与之有关的利益,是否甚至还会使当事人丧失知情权、人格尊严权、自主权,这些都是未知的,且在某种程度上必然使算法输出结果难以预测与解释

18、。由于自主性的算法系统过于复杂,涉及大量专业知识,难以理解,对于普通人来说,若想洞悉某一种算法的奥秘,难度可想而知。这使得对其结果进行预测和解释变得更加困难,即便我们可以对其工作机理进行全面的说明,但是他们实现解决方案的具体机理依然是不清楚的,因此依然不能对其应用结果进行预测和解释11。当自动决策的算法发生错误时,算法的客观性就无法持续维持,偏见或歧视就会随着自动算法被带入机器。三、人脸识别技术算法偏差的多元治理面对人脸识别算法的歧视与偏差,越来越多的个人或组织机构纷纷加入算法歧视治理的行列。只有更好地治理人脸识别算法偏差,才能为人脸识别产业的健康成长营造良好的环境。(一)强化伦理道德建设强化

19、责任伦理意识培育的最终目的,就是让参与主体对当前科技行为需要承担的未来后果有一定程度的认识,并建立起一系列清晰的公众道德规范,明确哪些该做,哪些不该做,让人们心中有数13。人们在享受高科技便捷的同时,其中的矛盾与冲突已经慢慢凸显出来。在这个充斥着算法风险的时代,以塑造和培育人们责任意识为目的的责任伦理培养是应对人脸识别算法偏差的有效策略14。这不仅是现代社会科技发展和当代伦理学理论实践的需求,也是约束科技人员和科技使用者权利、提高社会公众道德修养的重要方法13。当前人脸识别算法的责任伦理主体不同于以往,不再是单一的个人或者单一的公司,而是一个完整的利益链条,其涉及的人数多、风险大且具有一荣俱荣

20、、一损俱损的特点。在人脸识别算法的使用过程中,设计者、商家、企业、社会都需要承担不同的责任。人脸识别算法的设计者需要强化价值自觉,始终绷紧正确价值观这根弦,在算法设计、编写和运用过程中,积极主动地弘扬和践行公道正派、恪守基本道德底线的价值观;商家应该让顾客具备知情权,告知客户此处有人脸识别系统,不能采用诱导的方式引诱客户进行人脸识别;企业应当严格管理数据并且定期做好维护,确保数据安全;社会需要确立公正价值观的主导地位,提供平等、公正、法治的社会环境,对非法使用人脸识别算法的商家进行严厉地打击,这样才能逐步形成广泛的价值共识。对某些价值主体以利益为核心、可能导致社会不公的逐利性行为纳入常规审计范

21、围,对一些别有用心滥用算法、巧取豪夺之人予以必要的惩处。强化责任伦理意识培育的最终目的,是要通过制度的形式,让参与主体对当前科技行为需要承担的未来后果有一定程度的认识,并建立起一系列清晰明了的伦理制度框架。技术的设计者、商家、企业通过伦理自我约束,遵循信息采集的透明度、信息的公平处理和信息的安全流动等准则15。(二)成立伦理委员会多角色协同监督人脸识别技术主要依靠算法进行日常的人脸识别,虽然它确实给我们的生活带来便利,但是由于设计者的文化价值观存在偏差、企业及研发公91第23卷第2期襄阳职业技术学院学报2024年第2期司的利益需求,导致数据训练考虑不周到,存在偏见,从而引发社会不公平。多元主体

22、参与协同治理的方式通常指专业人士进行有效参与,既要防止人们将历史与现实中的一些社会歧视现象视为理所当然,不由分说地强加给相关的个体、群体和社会,又要保证决策的公开性、包容性、公平性。人脸识别技术算法偏差需要多元主体参与治理是因为我们必须确保算法树立人的价值主体地位,必须始终坚持“以人为本”的价值观立场,依法依规地维护人们的人格与尊严。多元主体由科技专家、伦理学家、法学家、产业家、公众等代表共同组成,这样有助于听取来自不同行业的各种声音,尽最大可能地对算法进行限制,并保证人脸识别技术能够为人类提供最大的服务,为人的自由、平等发展创造条件,避免单一行业专家讨论和决策时的“扎堆犯傻”16。此外,多元

23、主体参与治理不仅可以防止政治、经济与技术领域的精英利欲熏心,还能特别关注人脸识别算法是否对弱势群体造成伤害,如果该技术确实对弱势群体造成负面影响,就需要多元主体进行反歧视监察,以保证弱势群体的合法权益。彻底消除人脸识别技术的算法歧视问题任重而道远,多元主体参与就是让我们从哲学、经济学、法学等学科中进行开放性、综合性的思考,确立全体人民的主体地位。在算法中“内嵌”公平的价值观念,持续地排除各种歧视和潜在的危险,为边缘化的弱者创造更大的生活空间,为他们带来更多的关爱和包容3。(三)建立与完善算法立法对于人脸识别技术算法偏差的治理,不仅仅需要伦理道德规范,也需要用法律对人脸识别算法偏差进行“刚性”监

24、管。首先针对算法在设计、使用、管理过程中所涉及的利益相关方,确定相应的问责标准,对其适用范围、方式和底线进行深度规范。为保证人脸识别技术保持客观性,法律需要制定算法的设计标准,当人脸识别算法产生偏差之后,法律也需要建立起问责机制。为防止企业影响人脸识别算法的设计、编写、应用,对那些处于高位的精英阶层必须进行伦理道德规制和法律规范学习,避免他们向各类算法中加入某些特殊的利益,尤其是算法的内容,同时考虑人脸识别算法偏差所带来的侵权现象的赔偿机制。此举能够从法律层面约束算法设计者,使其谨守法律底线和伦理规制,避免“算法歧视”的出现。在人脸识别算法使用过程中,必须明确限定人脸识别算法在合法、正当、必要

25、的场景下才可以使用,商家及企业必须尊重用户的知情同意权。在使用过程中,用户必须尊重和保障个人的自主性和控制能力,对于客户端收集的个人信息,如果用户认定算法存在歧视,个人应当有权说“不”,这就是个人对技术的拒绝权17。对于企业利用人脸识别算法对线下用户进行差别定价,消费者需要提高维权意识,在遇到价格歧视的时候,要在最短的时间内保存好自己的证据,这样才能在之后更好地使用法律手段来保护自己的合法权益1。在对人脸识别算法进行监督管理时,可以雇用第三方服务商或组建一个专家组来审核公司的资料和算法是否合法合规,赋予监管机构一定的权力。当人脸识别算法在应用中产生歧视或偏差性后果时,监管者将有权利要求其整改,

26、同时监管机构兼顾算法解释等义务。(四)及时推进算法的优化升级人脸识别算法技术自身是有偏差的,换句话说,仅仅依靠伦理和法律进行改变,是不够的,因此需要对算法进行改造和创新。推进算法优化就需要对人脸识别技术的时间复杂度、空间复杂度、正确性、健壮性等有关性能进行优化。随着大数据时代的来临,算法模型不仅需要面对更多的数据,也需要面对更多、更复杂的问题,要提高该方法的求解性能,必须对其进行适当的优化。人脸识别技术的算法升级,首先需要从算法模型上进行改进,将眼部、眉毛等局部特性融入面部全局特征中,并引入注意力机理进行眼部特征的强化,对眼部重要部位进行建模,以提高被遮挡情况下的面部识别能力。其次,对人脸识别

27、系统算法后台的升级,可以节约成本,因为它可以尽可能少地对硬件系统做改进,最终实现了多项新功能的添加,当人面部出现其他遮挡时,也同样能够精准鉴别。国外许多学者为了应对算法的不可预测性开始对算法进行升级改造。例如:加利福尼亚大学伯克利分校和马克斯普朗克信息学研究所合作提出了一种能够自我解释的算法,这种被称92杨珺铭:人脸识别技术的算法偏差及其多元治理为“指向和对齐”的系统有助于让人类理解机器学习的决策过程,防止机器出现自主决策1。但是人脸识别技术算法的优化升级最终还是需要设计者主体参与,这就需要算法的设计者具有良好的伦理道德规范,否则歧视问题很难解决。无论是从价值理性还是工具理性角度看,对人脸识别

28、技术的规制,必须在追求技术赋能的同时,把持住技术向善的方向,否则就会出现主客体异化的悲剧。参考文献:1 汪怀君,汝绪华.人工智能算法歧视及其治理 J.科学技术哲学研究,2020(2):101-106.2 BUOLAMWINIJ,GEBUT.Gender shades:intersectional accuracy disparities in commercial gender classification J.Proceedings of machine learning research,2018(81):1-15.3 宋阳,李慧.人工智能发展的社会风险问题研究 J.北京联合大学学报(人文

29、社会科学版),2023(3):109-115.4 李晓华.数字时代的算法困境与治理路径 J.人民论坛,2022(Z1):64-67.5 闫坤如.人工智能的算法偏差及其规避 J.江海学刊,2020(5):141-146.6 孙伟平.价值哲学视域中的算法歧视与社会公正 J.哲学研究,2023(3):46-55,126-127.7 伊卫风.算法自动决策中的人为歧视及规制 J.南大法学,2021(3):79-92.8 阎静,朱晓颖.数字时代算法性别歧视及其多元化治理 J.江汉大学学报(社会科学版),2023(3):43-52,126.9 Azzopardi G,Foggia P,Greco A,et

30、al.Gender recognition from face images using trainable shape and color features C/2018 24th International Conference on Pattern Recognition(ICPR),2018.10 周映锋,朱尚品.算法的伦理之踵及其消解进路 J.工业控制计算机,2022(10):138-140.11 刘培,池忠军.算法的伦理问题及其解决进路 J.东北大学学报(社会科学版),2019(2):118-125.12 Tutt Andrew.an fda for algorithms J.Ad

31、ministrative Law Review,2017(1):83-123.13 张峰.大数据时代隐私保护的伦理困境及对策 J.人民论坛 学术前沿,2019(15):76-87.14 蒋福明,曾慧平.人脸识别技术应用中的隐私伦理问题及其消解路径 J.山西高等学校社会科学学报,2020(9):19-24.15 程思凡.生物识别信息传播伦理问题研究 J.中国出版,2023(1):34-38.16 郭春镇.数字人权时代人脸识别技术应用的治理 J.现代法学,2020(4):19-36.17 韩勇.算法歧视的成因及治理路径 J.青年记者,2021(8):94-95.Algorithm Bias and

32、 Multivariate Governance of Face RecognitionTechnologyYang Junming(Wuhan University of Technology,Wuhan Hubei 430070,China)Abstract:The rapid development of face recognition technology makes people s life more and moreconvenient,but there are algorithm deviations in face recognition technology,and t

33、he technical defects,discrimination,privacy leakage and other problems caused by this algorithm deviation are very hidden anddifficult to detect.The main reasons lie in the inheritance of the main idea of the algorithm designer,the deviationof data entry,the interest demands of the enterprise and th

34、e unpredictability of the algorithm itself.In order toeliminate the ethical and social problems caused by the algorithm deviation,it is necessary to strengthen theconstruction of ethics and morality,establish an ethics committee,establish and improve the algorithmlegislation,promote the optimization and upgrading of the algorithm,and create a good environment for thehealthy development of face recognition technology.Keyword:algorithm bias;face recognition;algorithmic discrimination(责任编辑:张英杰)93

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服