收藏 分销(赏)

论人工智能在刑事司法决策中的应用.pdf

上传人:自信****多点 文档编号:644713 上传时间:2024-01-23 格式:PDF 页数:7 大小:1.07MB
下载 相关 举报
论人工智能在刑事司法决策中的应用.pdf_第1页
第1页 / 共7页
论人工智能在刑事司法决策中的应用.pdf_第2页
第2页 / 共7页
论人工智能在刑事司法决策中的应用.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、 年第 期(第 卷总第 期)论人工智能在刑事司法决策中的应用李容佳(中国政法大学 刑事司法学院 北京)摘 要:人工智能在刑事司法领域的应用方兴未艾 世界各国广泛开发人工智能产品 以期提高司法效率 提升司法决策的公平性 然而 人工智能尚处于初级阶段 存在决策偏见、算法黑箱等技术缺陷 并不能做到完全价值中立人工智能的应用也对传统司法原则和理论造成了冲击 一定程度上威胁到了人权保护 所以 不能盲目夸大人工智能对于司法决策的作用 针对人工智能技术的缺陷 提出要在人工智能产品开发的各个阶段减少决策偏见 推进相关认证标准 对于人工智能的应用问题 首先要明确人工智能只能辅助决策而不能替代决策 其次应加强人类

2、的责任和监管 保障决策的公平性 同时 应加强辩方的数据权利 以实现技术司法模式下的控辩平衡关键词:人工智能 司法决策 人权保护 控辩平衡 数据权利中图分类号:文献标识码:/引用格式:李容佳.论人工智能在刑事司法决策中的应用.网络安全与数据治理 ():.():.:引言为了更有效地打击犯罪 提高司法效率 人工智能正被广泛应用于刑事司法中 纵观世界各国 在预测性警务、大数据侦查、审前羁押与保释评估、证据审查判断、司法文书生成、辅助量刑以及假释等领域 人工智能都在发挥或多或少的作用 随着我国 新一代人工智能发展规划关于规范和加强人工智能司法应用的意见 关于加快建设智慧法院的意见 等文件的出台 各地司法

3、机关也积极探索人工智能建设 上海“”刑事办案辅助系统、浙江“移动微法院”建设以及杭州互联网法院智审断案等人工智能介入司法决策的应用屡见不鲜人工智能的特性意味着它在执行某些任务上远远优于人类 所以在刑事司法系统中使用人工智能会极大提高司法效率 优化诉讼流程 但如果没有合理的规范和适当的监管 人工智能的使用也可能与刑事诉讼法理论计算法学 年第 期(第 卷总第 期)相冲突 对人权保护产生严重的威胁 本文拟分析人工智能产品在刑事司法中应用的风险和隐患 论证其对于司法决策的辅助作用 并提出进一步完善的措施 人工智能在刑事司法决策中的应用人工智能正在给人类社会的生产方式、生活方式、治理方式带来全方位、深层

4、次的变革 在刑事侦查领域随着司法大数据以及人工智能的发展 数据预测和大规模监控取代了传统的侦查模式 预测性警务引导侦查启动时点不断前移 特别是在网络犯罪的侦查领域 预测性算法将未来的相对不确定性简化为一个计算序列 运用大量数据进行纯粹的数学分析 极大提高了侦查效率让刑事侦查趋于技术化 更体现了侦查“不再针对侵害而是针对风险”的前置性和主动性在司法裁判领域 基于大数据样本和人工智能的深度学习能力 人工智能系统凭借其巨大的参数规模、海量的数据信息、强大的计算能力和更灵活的建模策略能更有效地识别类案 并抽象出裁判经验 在法官办案过程中自动推送案情分析、法律条款、相似案例、判决参考等信息 为法官判案提

5、供审理规范和办案指引 同时自动生成裁判文书 我国目前仅运用了较为基础、算法简单的人工智能简化办案流程 实体性的应用目前还处于起步阶段 但近年来 我国法院系统一直以积极主动的姿态拥抱数字化变革 通过一系列举措积极促进司法与科技深度融合发展 在域外 人工智能辅助量刑与再犯罪风险评估也已成常态 一些国家和地区已经初步探索了 法官的模式 年初 哥伦比亚卡塔赫纳区巡回法院使用 对医疗保险的纠纷一案作出了判决爱沙尼亚也正在尝试用“法官”来裁决小额争议案件 以便人类法官能专注在更加棘手的大案件上然而科学技术是一把双刃剑 新技术的应用在造福人类的同时也会带来风险 人工智能技术运用于刑事司法的初衷是提高司法效率

6、 但是该技术的应用也不可避免地冲击现有法律秩序和刑事诉讼理论 只有正视这些问题 才能更好地发挥人工智能的优势 兼顾司法效率与公平 人工智能应用于刑事司法决策的问题人工智能应用于刑事司法决策的问题 一方面是源于技术本身的缺陷 例如算法偏见、歧视以及算法黑箱影响了人工智能系统决策的准确性、可靠性和透明度另一方面是人工智能的运用 对传统的刑事诉讼原则带来了挑战 例如无罪推定原则、控辩平等和审判中立等为司法实践埋下了新的隐患 成为了人工智能进一步应用的阻碍 人工智能的技术缺陷实践表明 人工智能系统的决策远没有人类想象的公平公正 在人工智能产品开发过程的各个阶段 都可能引入了偏见 造成人工智能的决策偏差

7、 人工智能系统是在大量数据集上训练的 这些数据集可能会受到历史偏见的影响 而人工智能的机械客观性可能通过“技术清洗”让这些偏见不易被发现 因此也在某种程度上强化了偏见 影响决策的公正性 美国国家标准与技术研究院()发布的 迈向识别和管理人工智能偏见的标准 中 将人工智能产生的偏见分为系统性偏见、统计性偏见和人类偏见三大类别而具体到偏见如何形成 需要在人工智能产品的开发全过程中讨论 在模型开发阶段 由于入模数据必须是结构化数据 因此需要进行数据的转化 处理非结构化数据的各个过程(包括数据收集、清洗、标注和处理)都可能引入偏见 从而导致入模数据无法达到理想状态例如 在对敏感信息(如性别或种族)进行

8、分类时 如果人工智能没有形成客观的视觉特征和认识 就无法正确标记这些数据 从而将偏见引入决策模型 随着数据访问路径的不断拓展 信息处理的过程被预先设计成对某种预定模式的识别 可能会影响数据表达的准确性在信息被识别之前 数据分析系统就已经注入有倾向性的观念 导致了决策偏见 在模型验证阶段 开发人员将对人工智能提出的解决方案进行测试和验证 并微调模型 这时来自开发人员自己的认知和文化偏见可以进入这个模型 而当开发人员没有检测到有偏差的结果时 就会发生盲点偏差相关研究表明 域外各国使用的预测性警务工具的准确性不尽如人意 有高估某些族裔和种族群体犯罪风险的倾向 例如 在 预测的“可疑人员”中是 岁的年

9、轻人 这其中 是黑人 这显然是一个不成比例的歧视最后 在模型部署阶段 尽管利益相关者和最终用户会审查人工智能的决策方案和效果 并提供反馈 但这时对于模型的修改可能需要极高的成本 超出开发者的资本预算 在经济利益的衡量下 如果没有规范的监督机制 可能算法模型中的偏见将不会被完全修改 算法虽然旨在满足司法工作人员的需求 但其并非由法学专业人员设计 司法工作人员难以理解算法如何做出决策 无法实现决策的可解释、可验证、可追溯 削弱了人们对于人工智能的信赖 人工智能应用对刑事司法原则的挑战被动性是司法的本质属性之一 而网络时代和数字时代的到来 给社会治理带来前所未有的挑战“积极主投稿网址:年第 期(第

10、卷总第 期)义刑法观”应运而生 引起了学界对于权力过度扩张的担忧 认为司法机关过于积极主动的介入、干预 难以保持中立性和公正性 而人工智能的应用也使司法更趋于能动性 对无罪推定原则的悖离如表 所示 近年来 世界各国预测性警务的应用更体现了从“反应性”警务向“预防性”或“主动性”警务的转变 在美国 警察借助 的算法 根据每天输入的有关犯罪类型、犯罪地点和犯罪时间等数据“预测”不同地点发生犯罪的可能性 从而实现警力的高效调动和部署 也被广泛运用于风险评估与辅助刑事判决 欧洲各地也开发和部署了预防性警务措施 在德国 从早期仅针对入户盗窃的风险防控 现发展到对暴力犯罪的预测 通过警务和非警务数据库的交

11、叉链接 以大数据挖掘来指导犯罪侦查 在英国 警方使用 来评估嫌疑人再次犯罪的风险 以辅助羁押决定和刑事定罪 在荷兰 依据一些行为指标(如逃学、欺凌、虐待动物、亵渎、性虐待或家庭暴力的受害者)来评估 岁及以下儿童的犯罪风险及未来犯罪的风险类别 这些风险评估导致警方将儿童视为潜在的犯罪者 在警务系统中“标记”这些儿童并对他们进行监控表 人工智能产品在各国司法决策中的应用人工智能产品国别在刑事司法决策领域的应用美国 犯罪预测及风险评估美国 通过对犯罪历史数据的分析 逐个小时计算出最可能发生犯罪活动的地点德国 从入户盗窃的防控到暴力犯罪的预测英国 风险评估、辅助羁押决定和刑事定罪 荷兰 评估 岁及以下

12、儿童的犯罪风险然而 这种“过度警务”不仅引起了群众的不满也一定程度上违反了无罪推定原则 刑事侦查的启动要以已发生的犯罪行为为最基本条件 不得在犯罪发生前启动侦查权 尽管预测性警务工具不会直接给人“定罪”但它们导致侦查人员将法律上无辜的个人视为罪犯 相关的风险评估还会导致个人被剥夺教育、住房和其他公共服务方面的基本权利 而用于风险评估的数据基于非常敏感的个人信息(包括拦截和搜索数据、来自社会服务和国家医疗服务的数据)人工智能系统将不可避免地将那些符合算法特征的人标记为高风险 一个人的健康状况、福利或津贴等特征 不应被视为确定个体是否可能实施刑事犯罪的因素 这严重损害了基本人权 更令人担忧的是 预

13、测性警务也可能产生反馈循环:某些地区的警务工作越密集 登记的犯罪信息以及“惯犯”越多 数据库就越对某些区域以及少数族裔有偏见 这反过来又导致这些地区可能被认为是犯罪高发区 从而更需要加强警务巡逻和控制 由于缺乏相应的问责机制 当个人基于人工智能的错误预测 作为犯罪嫌疑人而被采取强制措施时 应如何处理以及问责 仍是一个悬而未决的问题 也阻碍了预测性警务的发展 对控辩平等原则的违反技术应当成为保障双方诉讼权利平等的辅助工具而现阶段无论是域外还是我国 掌握并使用人工智能的主体往往是公权力机关 一方面 侦查机关借由数据调取与科技定位等方式 拓宽了犯罪信息收集的渠道 但是随着算法的复杂化 信息检索和犯罪

14、预测的过程不易重建 决策也愈发不透明 与传统模式相比数据的采集、分析和使用也更难以受到公众监督 而与此同时 受制于人工智能的分析判断的当事人 对于相关数据及信息并没有相应的告知及救济机制 无法满足辩方在司法信息化背景下的辩护需求 也有违程序正义另一方面 辩方自行调查取证的难度大幅提升 这会导致控辩更加失衡 进一步加剧了私主体在刑事司法程序中的弱势地位 也极大地威胁了公平审判 美国学者将这种现象称为数据不对称(又称“隐私不对称”)即允许法院在执法部门要求时披露敏感信息 但在辩方要求时却不能 将人工智能和机器学习工具引入刑事司法系统 将加剧执法人员和辩护律师对数据的不同访问带来的后果 一定程度上削

15、弱了公众对于透明和可靠的司法系统的信任 有损司法公正性更有学者认为 即使辩方获得了相关数据 控辩双方的数据分析能力也存在差异 控方借助国家资源的支持 在数据收集、运用方面具有强大能力 一系列的数据提取和分析活动 需要大量专业技术人员的参与以及相应的物力、财力支持 而作为犯罪嫌疑人、被告人普通公民显然没有这种能力 对于庞大体量数据的调取与分析 不仅抬高了诉讼成本 也可能导致辩方无法有效查找和提取文件 从而进行实质辩护 沦为增强控方谈判筹码的一种诉讼策略 确立人工智能在司法决策中的辅助地位运用人工智能技术 在一定程度上缓解了法院案多人少的压力 但与此同时也可能会带来裁判方式的改变首先 人工智能的应

16、用可能会影响法官的心证过程:传计算法学 年第 期(第 卷总第 期)统上法官的裁判主要是基于双方在诉讼中的举证、质证而作出的 然而类案推送、量刑辅助、模型构建等人工智能技术的运用 使得法官越来越依赖于这些工具 令当事双方的举证、质证对法官心证的影响效果减弱 甚至使法官依据人工智能技术在审理之前即已形成预断而对当事双方的意见充耳不闻 其次 人工智能应用可能会降低人类法官做出充分知情决策的能力 因为资源限制和时间压力 可能导致司法机关过度依赖人工智能系统 形成“算力即权力”的垄断 从而破坏了司法的公平性和正义性为防止上述风险的产生 最重要的是明确人工智能对于司法决策的辅助地位 最高法院 关于规范和加

17、强人工智能司法应用的意见(以下简称 意见)将人工智能定位为全方位智能辅助支持 为司法为民、公正司法提供全流程高水平的技术赋能 通过人工智能辅助司法人员办案 来实现司法决策兼具“工具理性”和“价值理性”人类决策者的“价值理性”在审前程序中 人工智能可以预测违法行为的发生为警力进行合理排布提供建议 从根源上降低犯罪行为的发生 但涉及强制措施的决定和执行 应当由司法工作人员进行 司法的权威在一定程度上是以民众对案件处理结果的接受度为基础的 研究表明 人们对于人类决策者的权威合法性的认同 是人工智能无法替代的即使算法在很多方面比人类表现更好 人们依然更愿意相信人类 人们对司法人工智能带来的偏差与偏见的

18、接受和容忍程度 也较人类低很多 这在法律心理学中被称为人们感知到的正义 即人类决策者主导的诉讼程序被认为比基于人工智能决策进行的诉讼程序更公平在刑事审判中 裁判的公正依靠的是实质判断 由法定证据制度演变为以法官自由裁量为基础的自由心证制度 是人类对于司法裁判超越形式理性的承认 认为司法裁判有着区别于技术的逻辑而需要进行价值评判这也体现了对于司法规律认识的不断深入 正义的实现没有统一标准 每个案件具有不同的情节、诉求 具体案件中可能存在的法理与人情的冲突 法官需要通过案件的具体审理释明法理、定分止争 预先设置的人工智能算法无法应对如此纷繁复杂的情况 也难以像人类法官一样灵活地考虑各方因素并进行权

19、衡 刑事诉讼“排除合理怀疑”的证明标准 也难以通过数字量化、精准衡量 所以法官内心确信的形成也无法用人工智能替代 在法律规范内容不确定或者具有多种选择性时 法官需根据特定的情境进行判断和选择 实现司法的灵活性 而不是机械地适用法条 在某种意义上 司法决策的理论是对决策经验的合理化 用严格的计算机模型取代司法自由裁量权的危险是不可估量的 这也决定了法官的不可替代性 人工智能决策的“工具理性”诚如上文所述 人工智能本身不应被视为目的 而是只能作为服务于人类的工具 人工智能应用于刑事司法程序中的目标不是建立一个自动法官 而是一种“反向审查”识别司法决策中的不合理偏差 从而降低决策错误的风险 更多地保

20、障“同案同判”同时扩展司法公开的渠道 丰富司法公开的形式 使司法公正有迹可循从司法推理模式的关注到司法决策过程影响因素的衡量 体现人们对于公正司法考量的不断深入 如何规范法官的自由裁量权 使其得到客观公正的行使 逐渐成为理论界与实务界探讨的重点 对于影响法官司法决策中的非法律因素 国内外相关的研究和调查表明 法官的认知能力、兴趣偏好、个人性格、家庭结构等个体因素 都会或多或少影响他们的决策 绩效考核、公众舆论等社会因素 更会影响法官的裁判结果 而对于同一法官 在不同天气以及一天中的不同时段 也会有一些决策差异 例如 国外学者研究表明 法官们在午餐前和一天快结束时都比较宽容 图 描述了 年间涉及

21、难民的案件中 一天中不同时段以及不同案件数量对法官判决的影响图 不同时间段、不同案件数量法官为难民提供庇护的概率投稿网址:年第 期(第 卷总第 期)借助人工智能更为强大的信息处理能力 可以帮助法官将认知资源合理分配至关键信息的处理上 并提示其可能存在的信息遗漏、证据矛盾和认知偏见 机器学习算法还可以用来评估决策的效果 评估影响司法决定的法律外因素 以及减少这些因素对于公正司法决策的影响 例如上海的“”系统运用人工智能新技术 精准地对证据进行校验 及时发现证据中存在的瑕疵和证据之间的矛盾以辅助审讯 该系统也已经在尝试研发裁判偏离度提示功能 根据办案要件库 对案件所涉法律争点进行校验 提示是否存在

22、偏离 实践表明 在几种基于机器学习的语言技术中 针对不同社会群体的模型会体现出不同的性能 为规范人工智能决策 可以假设一组变量 它导致的可预测性的结果为 ()表示特定算法 表示根据特定案情提炼的要点 表示无法改变的客观因素(比如种族、性别和地域等)那么司法决策的结果 也只应与 有关 而 的内容不应影响结果的输出 即只有当评估取决于人类控制的因素时 才能得到兼具“工具理性”和“价值理性”的人工智能决策 学界将这种由人工智能辅助法官进行司法决策的样态称为“赛博正义”()完善人工智能辅助的刑事司法决策完善人工智能辅助决策 一方面要尽可能减少或者避免人工智能的决策偏见 提高决策的准确度 另一方面 要缓

23、解人工智能技术应用与刑事诉讼规则原则的矛盾 加强辩方的数据权利 强化人类主体的监管责任以实现人工智能助力司法提质增效的目标 减少或者避免人工智能的决策偏见通过决策前处理、决策中处理或决策后处理三个过程 纠正人工智能系统中具有偏见的技术 以实现更大的决策公平 减轻偏见的最佳做法是预防偏见的产生首先 在数据收集时遵从公平原则 引入更精确的数据治理标准和审计准则 并将数据特征、数据结构、数据分类方案等以适当的方式进行公开 针对人工智能系统可能出现的偏见 还可以在数据处理时应用差异隐私()的算法工具 通过对原始数据添加随机噪声的方式来保护数据隐私 也确保生成的结果分析不会因干扰因素的插入而出现显著偏差

24、其次 推进数据集的认证 创建适用于数据集和人工智能机制的标准(与数据集相关的标准应包括关于数据集内容、使用限制、许可证、数据收集方法、数据质量和不确定性的信息)在算法系统生命周期的开端 对所使用的数据集进行认证 从而规制可能存在的偏见此外 数据集的标准化必须具有灵活性 以便能够兼容各种可能的数据格式和集合 对于高风险人工智能系统的数据库 应该进行强制性的认证最后 在模型部署阶段 需要在人工智能模型投入司法领域使用前 让司法工作人员充分参与 沉浸式体验 并与技术人员沟通需求 进行模型的修改调整 以更好地服务于诉讼流程 为当事人提供数据权利缺乏对当事人的及时告知 是人工智能系统在刑事诉讼中应用的主

25、要问题之一 当事人作为司法领域的数据主体 其个人数据被司法机关使用 成为人工智能运行的决策基础 则应当享有相应的数据权利 包括告知权、数据访问权、质证权、更正权等 以实现平等武装保障程序的正当性及审判的公平性 因此 人工智能系统的“推理”必须为嫌疑人和被告人所知 类似于司法判决必须包含“充分的推理并解决特定案件的具体特征”特别是在涉及剥夺自由的情况下首先 人工智能系统的决策过程 应以普通人可以理解的形式向嫌疑人和被告人披露 并为当事人提供数据访问权 让他们能够对不利于他们的证据进行质疑被追诉人可以针对被用于司法决策的信息请求保护、提出异议、更改或及时更新等权利 实质性保障其辩护权司法机关应告知

26、数据主体所享有的权利、公权力机关的行为对其个人信息的影响 以保障程序的公正性 也有学者提出 刑事诉讼中的阅卷权解释为“数据访问权”是科技司法的应有之义 数据主体可以从数据控制者处确认其个人数据是否正被处理 并在此种情形下可以访问个人数据及获得相关信息的权利 嫌疑人和被告人也应当能够接触技术专家 帮助分析人工智能系统的决策过程及依据 让他们能够质疑人工智能的决策结果 审查整个司法决策过程的合法性 保障被告的实质辩护权 这不仅是刑事司法程序公平的要求 也是实现人工智能系统动态监管的手段其次 应考虑有限的算法公开 算法公开有利于落实人工智能决策的可解释性原则 使决策过程可以被理解 通过算法公开 辩方

27、可以质疑算法 反对它作出的结论 但是这些信息的披露不应对他人的权利或自由产生不利影响 包括数据保护权、商业秘密或知识产权所以全面披露人工智能系统既不现实 也不利于人工智能技术的进一步发展 不符合市场经济的要求 例如在 诉威斯康星州案中 系统背后的算法、数据均以商业秘密为由而拒绝开示 进一步突显控辩双方的不平等 但是算法公开对于保障公民权利是有利的 所以实施有限的算法公开 如仅公开其中部分与裁判结果关系最密切的内容 或者通过与当事人签署保密协议等方式计算法学 年第 期(第 卷总第 期)进行算法公开等 以更好地平衡多方利益 对于涉及商业秘密的案件 算法开发商有权要求不公开审理对于可能涉及国家秘密的

28、信息的情形 应考虑算法披露的例外与变通 美国刑事诉讼法规定 在审前会议中“审议与起诉相关的机密信息相关事项”在总检察长的要求下以非公开形式举行 向法官披露足够的信息这些信息可能是密封存档的 并在不公开的情况下进行审查 以证明公共诉讼可能导致泄露国家机密 如果法官认为披露信息存在损害国家安全的合理危险 相关信息将被视为不可用于诉讼目的“在充分出示后”法官可以授权政府从文件中删除特定的机密信息 以文件中包含的信息摘要代替 或声明信息可能证明的相关事实作为代替 法院还有许多做法 可以在不泄露国家机密的同时保护辩方的利益 例如封存包含机密信息的文件对当事人下达禁言令 场审前听证会不对公众开放 用假名保

29、护证人身份 采用特殊程序来防止泄露政府机密等 强化人类的监管与责任强化人类的监管与责任 需要保障人工智能的动态监测 人工智能供应商应建立一个定期的监控系统 在整个开发过程中的所有时间点 对人工智能系统进行充分的测试 积极、系统地收集、记录和分析相关数据并持续对其运行情况进行评估研究表明 缺乏对人工智能系统算法的理解 以及其如何作出相关决策 不仅不利于被告进行辩护 也不利于法官进行决策 因此 确有必要向决策者提供人工智能的运作原理 包括如何做出特定评估的信息 相关影响因素及其权重 让决策者能够判断是否同意人工智能生成的决定 案试图以“书面警告”来提示法官人工智能风险评估的潜在风险 其中包括:风险

30、评估的过程不被披露 由于 依赖于企业搜集的个人数据 其风险评分的准确性值得商榷 且该风险评估工具从未在当地进行准确性测试 该算法的风险评估可能具有歧视性 然而 这些警告没有向决策者提供足够的信息 特别是没有提及歧视性结果形成的依据 也没有说明评估的可能误差范围 因此 尽管法官被告知一些评估可能不准确 但他们无法意识到这些错误可能有多严重 许多刑事司法决定(如审前拘留决定)实际上是由法官例行公事地作出的 尽管书面建议最初可能有助于法官对自动化风险评估进行批判性的思考 但随着时间的推移 这些建议可能会变得重复无意义 并失去许多预期的效果 所以管理人工智能系统在刑事诉讼中的使用 要让决策者独立做出决

31、定 警惕和了解与人工智能系统相关的风险 充分审查自动化决策 意见 也提出了“要确保司法裁判始终由审判人员作出 裁判职权始终由审判组织行使 司法责任最终由裁判者承担”如果采纳人工智能的评估或决策 应该充分论证人工智能决策的科学性合理性 在决策者违背对被告有利的人工智能系统的建议时 应该要求为其决定提供理由和说明迫使他们质疑和审查算法评估的结果 以对抗自动化偏见 确保决策者不会过度依赖人工智能系统 防止机器决策直接应用于个人 结论人工智能应用于刑事司法领域是大势所趋 所以不能因为当前的一系列问题而因噎废食 一方面要加强辩方的权利保障 使受决策影响的主体真正参与到人工智能系统的运行中 亦可借鉴域外的

32、技术调查官制度 强化数字证据在洗脱嫌疑、证明无罪方面的作用 强化程序正义 另一方面 要尽可能减少人工智能的决策偏差实现技术中立 更好地发挥人工智能对于司法决策的辅助作用 在保证司法公正性的情况下 以科技赋能 提高司法效率参考文献 郭春镇 黄思晗.刑事司法人工智能信任及其构建.吉林大学社会科学学报 ():.左卫民.法官的时代会到来吗 基于中外司法人工智能的对比与展望.政法论坛 ():.吴思远.论数字技术与诉讼规则的互动关系 以我国刑事在线诉讼为视角.政治与法律 ():.():.:./.:/./.:/.李晶.美国“预测性警务”的发展与困境(下).现代世界警察 ():./.:/.?投稿网址:年第 期

33、(第 卷总第 期).:.:.():.:.王燃.大数据时代侦查模式的变革及其法律问题研究.法制与社会发展 ():.():.:.:():.:./?.():.:.杨焘.数字化证据标准的合理性及限度分析 以上海“”智能系统为关注点.四川师范大学学报(社会科学版)():.():.郑曦.人工智能技术在司法裁判中的运用及规制.中外法学 ():.魏静静.刑事被追诉人个人信息保护问题研究.北京:中国人民公安大学.郑曦.超越阅卷:司法信息化背景下的刑事被告人数据访问权研究.河南大学学报(社会科学版)():.段伟文 吴冠军 张爱军 等.人工智能:理论阐释与实践观照(笔谈).阅江学刊 ():.:.():.(收稿日期:)作者简介:李容佳()女 硕士研究生 主要研究方向:刑事诉讼法学、数据法学计算法学

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服