ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:15.47KB ,
资源ID:4782221      下载积分:5 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/4782221.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     留言反馈    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【二***】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【二***】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(人工智能与科技伦理建设.docx)为本站上传会员【二***】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

人工智能与科技伦理建设.docx

1、人工智能与科技伦理建设导语:从目前的技术成熟度看,通过道德编码,将AI变 为“有道德”的AI,还有很长的路要走。因此,为了防范AI道 德伦理风险,在目前阶段仍主要依靠制度规范、行业自律和 自我约束。这需要政府机构、司法部门、学术机构、行业组 织、AI公司一起共同努力。当前,人工智能(AI)正广泛应用于商业智能、无人驾 驶、智能家居、电子商务、物流仓储、物联网、医疗诊断、 刑事司法、金融、广告等领域。我们的生活也因此变得更加 美好。但与此同时,人工智能的身份以及伦理问题引起了广 泛的关注,主要集中在与人的关系以及处理这些关系的规则 o随着人工智能的发展,如何正确处理智能机器人与人的 伦理关系,防

2、止人工智能对人的侵犯、伤害和异化,正在成 为重要的科技伦理课题。AI道德伦理风险与挑战据质量,保障数据的无偏性和准确性。应建立严格的问责机 制,清晰界定各相关主体职责,使AI相关各方在完善的治理 框架内有序规范发展。AI的技术失控风险。目前所应用的深度学习模型高度复 杂,拥有数百万甚至数亿个参数,且为关联关系而非因果关 系,人们难以真正理解和解释AI行为背后的动机和原理,那 么也就无法完全预知和控制它的行为。AI的不可知性和不可 解释性容易导致AI行为的不可控性。史上首个获得公民身 份的机器人“索菲亚”在被问及“是否爱人类”时,退疑了几秒, 随后回答“爱人类”,但又补充一句“不知道为什么”,在

3、这一 过程中,“索菲亚,到底进行了怎样的“思考”,我们不得而知, 她的迟疑令人玩味。需要强调的是,在某些特定领域,AI若 不可控,将可能导致严重后果。比如,2017年8月,一些人 工智能公司的创始人和首席执行官向联合国写了一封公开 信,建议禁止“杀手机器人”(即自动化武器,如无人机、无 人战车、哨兵机器人、无人驾驶军舰等)的研发与使用。他 们认为,这些机器人有成为恐怖武器的可能。伊隆马斯克 (Elon Musk)担心人工智能崛起,将研发人工智能比作“召 唤恶魔”。史蒂芬霍金(Stephen Hawking)则断言,彻底开 发人工智能可能导致人类灭亡。他们的不信任或许源于对AI 失控风险的担忧。

4、AI的技术滥用风险。AI技术可能会被不正当使用,甚至 被操纵,从而损害用户和社会公众的利益。包括侵犯个人隐 私、技术歧视、技术偏见、技术鸿沟等。AI内嵌的算法可能 存在偏见,训练数据也可能有问题。因为训练数据是既有的, 是历史形成的,其中有可能包含既存的偏见和歧视信息,比 如,性别、种族、肤色、年龄、国度、民族、宗教等。另外, 数据标注的过程也可能存在无意或有意的错误,从而导致识 别偏差和结果误差。AI的人机对立风险。AI可以极大提高社会生产率,但对 人类也产生了替代。如果说AI完全替代人类,有些危言耸 听,但AI取代一些基层性、重复性的人力工作,却是正在发 生的事实。未来随着AI在各个领域的

5、发展与蔓延,AI对人 类的替代有可能是多方位的。在此情况下,社会失业人群将 可能迅速增加,引发贫困等社会性问题。对于人类个体而言, 自我价值实现是最高的社会需求。AI的替代不仅带来个人经 济收入的减少,还带来个体的精神损害,影响人类的心理健 康。此外,以超越人类能力为导向、追求更快更强的技术唯 上论,某种意义上也可能引致紧张的人机“对立关系。应该 说,战胜人类并不是发展AI的终极目标,更好地服务人类才 是AI的终极使命。总之,如何在人工智能应用的过程中,避 免人机“对立”,使科技不因技术创新的深度而失去本应有的 人文温度,正成为当下重要的科技命题。如何编写AI的道德代码。美国著名科幻作家阿西莫

6、夫 提出可考虑将道德规范编码,直接嵌入机器人,使机器人成 为“有道德”的机器人。这是一种思路,不过我们虽然可以用 自然语言描述道德规范,但却很难用计算机语言对其精确定 义。即便随着未来自然语言处理(NLP)技术的发展,道德规 范可以用计算机语言描述,但AI仍会面临着一些人类自身 都无法解决的道德伦理困境。比如,一个经常被引述的AI伦 理问题是电车难题:“一个疯子把五个无辜的人绑在电车轨道 o 一辆失控的电车朝他们驶来,片刻后就要碾压到他们。 你可以拉一个拉杆,让电车开到另一条轨道上。但问题在于, 那个疯子在另一个电车轨道上也绑了一个人。在这种状况, 你是否应拉杆? ”对于这样的“悲剧”选择问题

7、,在不同的情景 和条件下,人们可能会有不同的答案,即便在相同的情景和 条件下,不同的人也无法在道德方面形成完全一致的看法。 像这样的道德伦理困境,首先需要在社会层面形成统一的共 识,形成标准,然后才有可能编写为AI的内置代码。显然, 这项工作无疑具有巨大的挑战。如何认定AI的道德责任。有这么一个经常被提到的案 例:2018年3月18日,伊莱恩赫茨伯格(Elaine Herzberg) 在美国亚利桑那州坦佩市骑车横穿马路,被一辆自动驾驶汽 车撞倒,不幸身亡。虽然车上有安全驾驶员,但当时汽车完 全由自动驾驶系统(AI)控制。这起事故提出了一系列的道 德和原始法律问题:谁应该为赫茨伯格的死负责?是测

8、试那 辆汽车的公司?是该AI系统的设计者?是车载感应设备的 制造商?还是坐在驾驶位上的安全驾驶员?回答这些问题, 需要清晰合理地界定AI各方的责任边界。但这其实并不容 易,甚至有人提出,如果未来AI有了公民身份(就像前述的 “索菲亚”),它是否需要承担法律责任,如果承担又当如何界 定,是否因此而减轻相关方的法律责任,以及这样做是否合 理,这些问题均值得我们认真研究。各国对AI道德伦理的监管进展目前,各国高度重视AI的道德伦理建设,出台了许多准 则、规范和指引。从国际看,欧盟委员会人工智能高级专家 组编制了人工智能道德准则(AI Ethics Guidelines), 倡导“以人为中心”的AI发

9、展方向,并提出了具体的实施指引 和操作指导。新加坡个人数据保护委员发布人工智能监管 框架范例(A Proposed Model Al Governance Framework) 从内部监管、AI应用中的人工干预程度、营运管理以及利益 相关者的互动与沟通等方面提出具体的AI道德指导原则及 措施。英国上议院人工智能特别委员会的人工智能伦理准 则(AI Code)提出AI应服务于人类的共同利益和福祉,遵 循可理解性和公平性原则,不能削弱个人、家庭和社区的数 据权利或隐私,不应被赋予任何伤害、毁灭或欺骗人类的自 主能力,同时,还提出所有公民都有权利接受相应的教育和 培训以便能够在精神、情感和经济上适应

10、人工智能的发展。 日本人工智能学会的伦理准则(The Japanese Society for Artificial Intelligence Ethical Guidelines) 对其 会员进行了相关规范,规定日本人工智能学会会员不得以伤 害他人为目的使用人工智能,在设计、研发和使用AI过程中 应当尊重个人隐私,避免歧视,消除人工智能对人类安全的 威胁,应尽最大努力,保证其研发的人工智能可为人类公平 地使用。新加坡金融管理局发布促进FEAT原则在新加坡金 融行业人工智能与数据分析方面的应用(Principles to Promote Fairness, Ethics, Accountabi

11、lity and Transparency ( FEAT ) in the Use of Artificial Intelligence and Data Analytics in Singapores Financial Sector),提出了确保在金融领域使用人工智能 和数据分析的FEAT原则:公平性(Fairness)、道德规范 (Ethics )、可问责性(Accountability )和透明度 (Transparency)o从国内看,中央全面深化改革委员会第九次会议通过了 国家科技伦理委员会组建方案,提出加快建立健全科技 伦理审查和风险评估制度,并制定了严格的法律法规。全国 信息安

12、全标准化技术委员会秘书处编制了网络安全标准实 践指南一人工智能伦理安全风险指引,提出开展人工智能 研究开发、设计制造、部署应用等相关活动的规范指引。上述AI道德伦理准则遵循以人为本的理念,针对AI技 术可能导致的失控风险、技术滥用风险、人机对立风险、责 任追究等风险与挑战,提出了基本准则,为行业实践提供了 顶层指导。但相对来说,颗粒度还较粗,而且只是指导性文 件,没有强制性和法律效力,还需要进一步细化和强化,以 便能够在具体行业和具体场景中落地实施。协同合作共同推进AI道德伦理建设从目前的技术成熟度看,通过道德编码,将AI变为“有 道德”的AI,还有很长的路要走。因此,为了防范AI道德伦 理风

13、险,在目前阶段仍主要依靠制度规范、行业自律和自我 约束。这需要政府机构、司法部门、学术机构、行业组织、 AI公司一起共同努力。合理的评价体系和正向的道德伦理文化。AI不是为了替 代人类,而是为了解放人类。在技术研究上,可以超越人类 能力为目标,但在产品应用上,要以用户友好度和接受度为 第一评价标准。同时,应倡导“以人为本”的AI伦理文化,不 倡导战胜人类、替代人类的唯技术论,避免人机对立。应着 重强调和发挥AI增进人类福祉的功能,比如,要提升AI的 情感温度,不仅在体力和智力上帮助人类,而且在情感上也 可为人类尤其是弱势群体提供温暖。比如,研发面向空巢群 体的情感机器人、用于自闭症等人群心理干

14、预的机器人等。完备的监管机制和及时的干预机制。建立各层级AI道 德伦理委员会,有效评估AI道德伦理风险。建立完备的监管 机制,加强AI道德伦理监管审查,明确提出对于存在重大伦 理风险的AI产品,严禁推出。充分评估AI产品对社会人力 资源结构的影响,必要时可出台相关政策,适当控制和干预 AI对人类工作的取代速度,为数字时代人才结构升级留出缓 冲空间,并加强相关人才培训,解决因AI发展而带来的结构 性失业问题。同时,各行业组织要建立细致的AI道德伦理原 则、规范、指南和标准,加强行业自律。AI公司应全流程监 控AI研发、部署与应用,确保AI不偏离设定的道德伦理框 架,并建立拒绝或停止使用AI的人工干预机制。健全的法律体系和严格的问责机制。加强相关法理研究 和法律建设,建立体系化的法律法规制度,使AI伦理工作有 法可依。AI公司应对AI的道德伦理风险负主体责任,与伦 理学家配合,设定AI道德伦理边界,制定具体的可操作的道 德伦理技术指导方针,保证AI应用的公平性、透明性、可解 释性、可追溯性和可控性。同时,AI公司要加强技术人员的 道德伦理规范培训。在应用过程中,相关主体应注重提升数

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服