ImageVerifierCode 换一换
格式:DOCX , 页数:8 ,大小:15.38KB ,
资源ID:12502484      下载积分:16 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/12502484.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(2025年大模型梯度稀疏化压缩试题答案及解析.docx)为本站上传会员【x****s】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

2025年大模型梯度稀疏化压缩试题答案及解析.docx

1、2025年大模型梯度稀疏化压缩试题答案及解析 一、单选题(共15题) 1. 在梯度稀疏化技术中,以下哪种方法通过稀疏化激活函数来降低模型计算复杂度? A. 结构剪枝 B. 知识蒸馏 C. 稀疏激活网络设计 D. 模型量化 答案:C 解析:稀疏激活网络设计通过引入稀疏激活函数,使得大部分神经元在计算时输出为0,从而减少计算量和内存消耗。参考《稀疏化技术白皮书》2025版4.2节。 2. 在大模型梯度稀疏化压缩过程中,以下哪个指标通常用于评估稀疏化后的模型性能? A. 准确率 B. 模型大小 C. 训练时间 D. 能耗 答案:A 解析:准确率是评估

2、模型性能的重要指标,特别是在大模型梯度稀疏化压缩过程中,需要确保稀疏化后模型的准确性不受严重影响。参考《大模型稀疏化技术指南》2025版5.3节。 3. 以下哪种方法可以有效解决大模型梯度稀疏化过程中可能出现的梯度消失问题? A. 添加噪声 B. 使用自适应学习率 C. 激活函数选择 D. 批处理归一化 答案:D 解析:批处理归一化可以加速梯度下降,并减少梯度消失的问题。通过标准化每个批次的数据,可以使得模型在训练过程中更容易收敛。参考《深度学习优化技术》2025版3.2节。 4. 在大模型梯度稀疏化过程中,以下哪种优化器通常被用来提高模型的泛化能力? A. Ad

3、am B. SGD C. RMSprop D. Adagrad 答案:A 解析:Adam优化器结合了动量项和自适应学习率,在许多情况下比SGD等优化器有更好的性能,尤其是在处理大模型时。参考《Adam优化器原理与应用》2025版2.1节。 5. 在梯度稀疏化压缩技术中,以下哪种方法通过降低参数的精度来减少模型大小? A. 知识蒸馏 B. 参数高效微调(LoRA/QLoRA) C. 低精度推理 D. 结构剪枝 答案:C 解析:低精度推理通过将模型的参数从FP32转换为INT8,从而减少模型大小并提高推理速度。参考《低精度推理技术指南》2025版4.1节。

4、 6. 在大模型梯度稀疏化过程中,以下哪种评估指标通常用于衡量模型在特定任务上的性能? A. 模型大小 B. 训练时间 C. 准确率 D. 能耗 答案:C 解析:准确率是衡量模型性能的直接指标,特别是在大模型梯度稀疏化过程中,确保模型的准确性是非常重要的。参考《模型评估指标手册》2025版3.1节。 7. 在大模型梯度稀疏化过程中,以下哪种方法可以通过减少参数更新来加速训练过程? A. 梯度累积 B. 批处理归一化 C. 激活函数选择 D. 自适应学习率 答案:A 解析:梯度累积通过将多个小批次的梯度累积起来进行一次参数更新,可以减少参数更新的次数,从而加

5、速训练过程。参考《深度学习训练优化技术》2025版2.3节。 8. 在大模型梯度稀疏化过程中,以下哪种方法可以有效地减少模型训练过程中的噪声? A. 数据增强 B. 批处理归一化 C. 激活函数选择 D. 正则化 答案:D 解析:正则化可以通过添加惩罚项到损失函数中,有效地减少模型训练过程中的噪声,提高模型的泛化能力。参考《正则化技术原理与应用》2025版3.2节。 9. 在梯度稀疏化压缩技术中,以下哪种方法可以通过减少模型中激活的神经元数量来降低计算量? A. 结构剪枝 B. 知识蒸馏 C. 稀疏激活网络设计 D. 模型量化 答案:C 解析:稀疏激

6、活网络设计通过引入稀疏激活函数,使得大部分神经元在计算时输出为0,从而减少计算量和内存消耗。参考《稀疏化技术白皮书》2025版4.2节。 10. 在大模型梯度稀疏化过程中,以下哪种方法可以通过减少参数更新的频率来提高模型的稳定性? A. 批处理归一化 B. 激活函数选择 C. 自适应学习率 D. 梯度累积 答案:D 解析:梯度累积通过将多个小批次的梯度累积起来进行一次参数更新,可以减少参数更新的频率,提高模型的稳定性。参考《深度学习训练优化技术》2025版2.3节。 11. 在大模型梯度稀疏化过程中,以下哪种方法可以通过减少模型的参数数量来降低计算复杂度? A.

7、结构剪枝 B. 知识蒸馏 C. 激活函数选择 D. 模型量化 答案:A 解析:结构剪枝通过移除模型中不重要的连接和神经元,从而减少模型的参数数量,降低计算复杂度。参考《结构剪枝技术白皮书》2025版3.1节。 12. 在大模型梯度稀疏化过程中,以下哪种方法可以通过减少模型中的参数数量来降低模型的存储需求? A. 知识蒸馏 B. 模型量化 C. 稀疏激活网络设计 D. 参数高效微调(LoRA/QLoRA) 答案:B 解析:模型量化通过将模型的参数从FP32转换为INT8,从而减少模型的存储需求。参考《模型量化技术白皮书》2025版2.3节。 13. 在大

8、模型梯度稀疏化过程中,以下哪种方法可以通过减少模型中的参数数量来提高模型的推理速度? A. 知识蒸馏 B. 模型量化 C. 稀疏激活网络设计 D. 参数高效微调(LoRA/QLoRA) 答案:C 解析:稀疏激活网络设计通过引入稀疏激活函数,使得大部分神经元在计算时输出为0,从而减少计算量和内存消耗,提高模型的推理速度。参考《稀疏化技术白皮书》2025版4.2节。 14. 在大模型梯度稀疏化过程中,以下哪种方法可以通过减少模型中的参数数量来提高模型的泛化能力? A. 知识蒸馏 B. 模型量化 C. 稀疏激活网络设计 D. 参数高效微调(LoRA/QLoRA)

9、答案:D 解析:参数高效微调(LoRA/QLoRA)通过引入小参数来调整大模型的部分参数,可以减少模型中的参数数量,同时提高模型的泛化能力。参考《LoRA/QLoRA技术原理与应用》2025版3.2节。 15. 在大模型梯度稀疏化过程中,以下哪种方法可以通过减少模型中的参数数量来降低模型的训练时间? A. 知识蒸馏 B. 模型量化 C. 稀疏激活网络设计 D. 参数高效微调(LoRA/QLoRA) 答案:A 解析:知识蒸馏通过将大模型的知识迁移到小模型中,可以减少模型中的参数数量,从而降低模型的训练时间。参考《知识蒸馏技术白皮书》2025版3.1节。 二、多选

10、题(共10题) 1. 在大模型梯度稀疏化过程中,以下哪些技术可以帮助提高模型的压缩效果?(多选) A. 知识蒸馏 B. 模型量化(INT8/FP16) C. 结构剪枝 D. 稀疏激活网络设计 E. 参数高效微调(LoRA/QLoRA) 答案:ABCDE 解析:知识蒸馏、模型量化、结构剪枝、稀疏激活网络设计和参数高效微调都是提高大模型梯度稀疏化压缩效果的有效技术。知识蒸馏可以将大模型的知识迁移到小模型中,模型量化可以减少模型参数的精度,结构剪枝和稀疏激活网络设计可以减少模型中激活的神经元数量,参数高效微调可以调整模型参数以保持性能。 2. 以下哪些技术可以用于解决大

11、模型训练过程中的梯度消失问题?(多选) A. 批处理归一化 B. 激活函数选择 C. 自适应学习率 D. 添加噪声 E. 梯度累积 答案:ABDE 解析:批处理归一化、激活函数选择、添加噪声和梯度累积都是解决梯度消失问题的常用技术。自适应学习率虽然可以帮助优化训练过程,但不是直接解决梯度消失问题的方法。 3. 在大模型推理加速技术中,以下哪些方法可以降低推理延迟?(多选) A. 动态批处理 B. INT8对称量化 C. 知识蒸馏 D. 模型并行策略 E. 低精度推理 答案:ABCDE 解析:动态批处理、INT8对称量化、知识蒸馏、模型并行策略和低精度推

12、理都是降低推理延迟的有效方法,它们通过不同的机制减少了计算量和内存使用。 4. 以下哪些技术可以帮助提高大模型的泛化能力?(多选) A. 特征工程自动化 B. 异常检测 C. 集成学习(随机森林/XGBoost) D. 联邦学习隐私保护 E. 神经架构搜索(NAS) 答案:ABCE 解析:特征工程自动化、异常检测、集成学习和联邦学习隐私保护都是提高大模型泛化能力的有效技术。神经架构搜索(NAS)虽然可以提高模型性能,但不一定直接提高泛化能力。 5. 在模型服务高并发优化中,以下哪些方法可以提高API调用的效率?(多选) A. 容器化部署(Docker/K8s)

13、 B. 模型服务高并发优化 C. API调用规范 D. 分布式存储系统 E. 主动学习策略 答案:ABC 解析:容器化部署、模型服务高并发优化和API调用规范都是提高API调用效率的有效方法。分布式存储系统和主动学习策略虽然对模型性能有影响,但不是直接优化API调用的方法。 6. 在大模型云边端协同部署中,以下哪些技术可以提高模型在不同设备上的兼容性?(多选) A. 低代码平台应用 B. CI/CD流程 C. 云边端协同部署 D. 容器化部署(Docker/K8s) E. 模型服务高并发优化 答案:CD 解析:云边端协同部署和容器化部署(Docker/K8

14、s)可以提高模型在不同设备上的兼容性。低代码平台应用、CI/CD流程和模型服务高并发优化虽然对部署和性能有影响,但不是直接提高兼容性的方法。 7. 在对抗性攻击防御中,以下哪些技术可以帮助提高模型的鲁棒性?(多选) A. 梯度正则化 B. 输入扰动 C. 模型对抗训练 D. 知识蒸馏 E. 数据增强 答案:ABCE 解析:梯度正则化、输入扰动、模型对抗训练和数据增强都是提高模型鲁棒性的有效技术。知识蒸馏虽然可以提高模型性能,但不是直接用于防御对抗性攻击的方法。 8. 在持续预训练策略中,以下哪些方法可以帮助模型持续学习?(多选) A. 迁移学习 B. 多任务学

15、习 C. 自监督学习 D. 对抗性训练 E. 联邦学习 答案:ABCE 解析:迁移学习、多任务学习、自监督学习和联邦学习都是帮助模型持续学习的方法。对抗性训练虽然可以增强模型,但不是持续学习的直接方法。 9. 在知识蒸馏过程中,以下哪些技术可以帮助提高小模型的性能?(多选) A. 模型量化 B. 参数高效微调(LoRA/QLoRA) C. 知识蒸馏 D. 结构剪枝 E. 稀疏激活网络设计 答案:ABCE 解析:模型量化、参数高效微调、结构剪枝和稀疏激活网络设计都是提高小模型性能的有效技术。知识蒸馏本身就是为了提高小模型的性能。 10. 在模型评估指标

16、体系中,以下哪些指标可以用于评估大模型的性能?(多选) A. 准确率 B. 模型大小 C. 训练时间 D. 能耗 E. 困惑度 答案:ADE 解析:准确率、困惑度和能耗都是评估大模型性能的重要指标。模型大小和训练时间虽然与模型性能有关,但不是直接的评估指标。 三、填空题(共15题) 1. 在大模型梯度稀疏化过程中,参数高效微调(LoRA/QLoRA)通过在原始参数上添加___________来调整模型。 答案:小参数 2. 分布式训练框架中,模型并行策略通过___________将模型的不同部分分配到不同的计算节点。 答案:垂直划分 3.

17、为了加速大模型的推理过程,可以使用___________技术将模型的参数从FP32转换为INT8。 答案:模型量化 4. 在对抗性攻击防御中,为了提高模型的鲁棒性,可以采用___________技术,通过引入噪声来保护模型。 答案:输入扰动 5. 知识蒸馏技术中,通过___________将大模型的知识迁移到小模型,以保持高性能。 答案:知识转移 6. 为了解决大模型训练中的梯度消失问题,可以在激活函数后添加___________来加速梯度下降。 答案:批处理归一化 7. 在模型压缩中,___________技术通过移除不重要的连接和神经元来减少

18、模型大小。 答案:结构剪枝 8. 稀疏激活网络设计通过引入___________来降低模型的计算复杂度。 答案:稀疏激活函数 9. 为了评估大模型的性能,常用的评估指标包括___________和___________。 答案:准确率、困惑度 10. 在云边端协同部署中,___________技术可以确保模型在不同设备上的兼容性。 答案:容器化部署(Docker/K8s) 11. 在联邦学习隐私保护中,___________技术可以保护用户数据不被泄露。 答案:差分隐私 12. 在神经架构搜索(NAS)中,___________技术可

19、以帮助找到更优的模型架构。 答案:强化学习 13. 在AIGC内容生成中,___________技术可以生成高质量的文本内容。 答案:语言模型(如GPT) 14. 在AI伦理准则中,___________是确保AI系统公平、无偏见的关键。 答案:偏见检测 15. 在模型线上监控中,___________技术可以实时监控模型性能和资源使用情况。 答案:模型服务高并发优化 四、判断题(共10题) 1. 参数高效微调(LoRA/QLoRA)在调整模型参数时,不会改变原始模型的参数。 正确( ) 不正确( ) 答案:正确 解析:根据《

20、参数高效微调技术指南》2025版3.2节,LoRA和QLoRA通过添加小参数来调整模型,而不改变原始模型的参数。 2. 知识蒸馏过程中,小模型通常能够完全复制大模型的所有知识。 正确( ) 不正确( ) 答案:不正确 解析:根据《知识蒸馏技术白皮书》2025版5.1节,小模型无法完全复制大模型的所有知识,只能学习到部分关键信息。 3. 模型并行策略可以提高大模型训练的效率,但不会增加训练时间。 正确( ) 不正确( ) 答案:不正确 解析:根据《模型并行策略技术指南》2025版4.2节,虽然模型并行可以提高训练效率,但通常也会增加训练时间,因为需要额外的通信开销

21、 4. 低精度推理技术会导致模型性能显著下降,因此不适合在生产环境中使用。 正确( ) 不正确( ) 答案:不正确 解析:根据《低精度推理技术白皮书》2025版3.3节,低精度推理(如INT8量化)可以在不显著影响性能的情况下减少模型大小和加速推理。 5. 结构剪枝技术只会减少模型的参数数量,而不会影响模型的性能。 正确( ) 不正确( ) 答案:不正确 解析:根据《结构剪枝技术白皮书》2025版4.1节,结构剪枝不仅减少参数数量,也可能影响模型性能,尤其是在剪枝过度的情况下。 6. 稀疏激活网络设计可以显著降低模型的计算复杂度,同时保持相同的推理性能。

22、 正确( ) 不正确( ) 答案:正确 解析:根据《稀疏化技术白皮书》2025版4.2节,稀疏激活网络设计通过减少激活的神经元数量,可以降低计算复杂度,同时保持推理性能。 7. 在对抗性攻击防御中,输入扰动技术可以完全防止模型受到对抗样本的攻击。 正确( ) 不正确( ) 答案:不正确 解析:根据《对抗性攻击防御技术指南》2025版3.1节,输入扰动技术可以减少对抗样本的影响,但无法完全防止模型受到攻击。 8. 持续预训练策略可以使模型不断适应新的数据分布,从而提高模型的泛化能力。 正确( ) 不正确( ) 答案:正确 解析:根据《持续预训练技术指南》

23、2025版4.1节,持续预训练策略可以让模型在新的数据分布上继续学习,提高模型的泛化能力。 9. 云边端协同部署可以减少模型的训练时间,但不会影响模型的推理性能。 正确( ) 不正确( ) 答案:不正确 解析:根据《云边端协同部署技术指南》2025版3.2节,云边端协同部署可以优化训练和推理流程,但可能会对推理性能产生一定影响。 10. 在模型量化中,INT8量化比FP16量化更适用于移动设备和嵌入式系统。 正确( ) 不正确( ) 答案:正确 解析:根据《模型量化技术白皮书》2025版2.4节,INT8量化参数占用空间更小,计算速度更快,更适合在移动设备和嵌入

24、式系统中使用。 五、案例分析题(共2题) 案例1. 某金融科技公司计划部署一款基于深度学习的大规模欺诈检测模型,该模型包含70亿参数,经过初步训练后准确率达到95%。然而,在实际部署到生产环境时,发现模型的推理延迟过高,平均达到500ms,且模型大小为140GB,无法在服务器上有效存储。 问题:针对上述情况,提出三种优化策略,并分析每种策略的优缺点及实施步骤。 问题定位: 1. 模型推理延迟过高,影响用户体验。 2. 模型大小过大,超出服务器存储能力。 优化策略对比: 1. 模型量化: - 优点:减少模型大小,降低推理延迟,提高效率。 - 缺点:量化可能导致精度

25、损失,需要精确控制量化精度。 - 实施步骤: 1. 使用INT8量化模型参数。 2. 对量化后的模型进行微调,以补偿精度损失。 3. 验证模型准确率,确保精度损失在可接受范围内。 2. 知识蒸馏: - 优点:通过蒸馏大模型知识到小模型,可以减少模型大小和延迟。 - 缺点:小模型可能无法完全复制大模型的性能。 - 实施步骤: 1. 训练一个轻量级的小模型。 2. 使用大模型作为教师模型,对小模型进行知识蒸馏。 3. 评估小模型的性能,确保其能够满足实际应用需求。 3. 模型并行: - 优点:通过将模型分割成多个部分并行处理,可以显著减少推理延迟。 - 缺点:需要复杂的

26、硬件和软件支持,实施难度较高。 - 实施步骤: 1. 分析模型结构,确定可以并行处理的部分。 2. 使用模型并行工具(如TensorFlow的TPU分布式策略)对模型进行并行化。 3. 在多核或多GPU服务器上部署并行化的模型。 决策建议: - 若对模型精度要求较高,且服务器算力充足,选择模型量化。 - 若对模型大小和延迟有严格要求,选择知识蒸馏。 - 若服务器算力有限,且对延迟有极高要求,选择模型并行。 案例2. 一家医疗影像分析公司开发了一款基于深度学习的心脏疾病诊断模型,该模型经过大量临床数据训练,准确率达到了90%。然而,在实际部署过程中,发现模型在处理实时影像数

27、据时,推理延迟超过了5秒,且模型大小超过30GB,不适合在移动设备上运行。 问题:针对上述情况,提出三种解决方案,并分析每种方案的可行性及实施步骤。 问题定位: 1. 模型推理延迟过高,不适合实时应用。 2. 模型大小过大,不适合移动设备。 解决方案对比: 1. 模型压缩: - 优点:通过压缩模型大小和降低推理延迟,提高模型在移动设备上的实用性。 - 缺点:可能影响模型精度。 - 实施步骤: 1. 使用结构剪枝移除不重要的神经元和连接。 2. 应用知识蒸馏将模型知识迁移到轻量级模型。 3. 对压缩后的模型进行测试,确保精度损失在可接受范围内。 2. 模型蒸馏:

28、 优点:通过蒸馏大模型知识到小模型,可以在保持较高精度的同时减少模型大小和延迟。 - 缺点:需要额外的训练时间和计算资源。 - 实施步骤: 1. 训练一个轻量级的小模型。 2. 使用大模型作为教师模型,对小模型进行知识蒸馏。 3. 评估小模型的性能,确保其满足临床应用需求。 3. 云端推理: - 优点:将推理任务放在云端服务器上执行,可以减少移动设备的计算负担。 - 缺点:依赖于网络连接,可能受网络延迟影响。 - 实施步骤: 1. 开发移动端应用,用于收集和发送影像数据到云端。 2. 在云端部署模型,确保模型能够处理高并发请求。 3. 开发API,允许移动端应用与云端模型进行交互。 决策建议: - 若对实时性要求不高,且移动设备算力有限,选择模型压缩。 - 若对实时性要求高,且移动设备算力有限,选择模型蒸馏。 - 若移动设备算力充足,但希望减少设备负担,选择云端推理。

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服