收藏 分销(赏)

机器人是道德僵尸:可作出救助行为但不理解.doc

上传人:w****g 文档编号:11418321 上传时间:2025-07-22 格式:DOC 页数:1 大小:42.88KB 下载积分:5 金币
下载 相关 举报
机器人是道德僵尸:可作出救助行为但不理解.doc_第1页
第1页 / 共1页
本文档共1页,全文阅读请下载到手机保存,查看更方便
资源描述
机器人是道德僵尸:可做出救助行为但不理解   9月16日报道,机器人能分辨对错吗?想让机器人、自动驾驶汽车和军用机械有道德观念实在是太难了。   我们能否教育机器人做个“好人”?带着这个想法,机器人实验室的机器人专家为机器人制造了一个道德陷阱,而接下来,机器人的反应则令人震惊。   在一个实验中,专家为机器人设定了一个程序:阻止其他拟人机器人掉进洞里。这是科幻小说家提出的机器人三大定律之一——机器人必须防止人类受伤害——的简版。   一开始,机器人还能顺利完成任务:当拟人机器人向洞口移动时,机器人会冲上前去将其推开,防止其掉到洞里。随后,研究小组又添加了一个拟人机器人,两个拟人机器人同时向洞口移动,救人机器人则要被迫做出选择。有时,它成功地救了一个“人”,而另一个掉进了洞里;有几次,它甚至想要两个都救;然而在33次测试中,有14次因为在救哪一个的问题上不知所措而浪费了时间,以至于两个“人”都掉进了洞里。研究人员向世人展示了他们的实验。   科学家形容他的机器人是“道德僵尸”,虽然根据设定的行为程序,它可以对他人进行施救,但它根本不理解这种行为背后的原因。专家说,他曾经认为让机器人自己做出道德伦理选择是不可能的。现如今,他说:“我的答案是:我不知道。”   随着机器人日益融入我们的日常生活,这一问题也需要答案。例如一辆自动驾驶汽车,某天或许要在保全车内人员安全和给其他驾驶员或行人造成伤害这一风险之间进行权衡。或许很难给机器人设置处理这种情况的相应程序。   然而,为军事战争设计的机器人或许能够为我们提供解决这一问题的初步答案。计算机科学家专门针对名为“道德监督员”的军事机器人研制了一套运算法则,这套运算法则可帮机器人在战场上做出明智的抉择。科学家已经在模拟战斗中进行了测试,结果显示,安装这种程序的机器人能够选择不开枪,且在战斗过程中,能够在学校和医院等战争条例规定的受保护区域附近尽量减少人员伤亡。   科学家说:“战争法则已有千年历史,人类会受情感因素影响而打破规矩,机器人则不会。”
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传

当前位置:首页 > 包罗万象 > 大杂烩

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服