ImageVerifierCode 换一换
格式:DOC , 页数:24 ,大小:83.04KB ,
资源ID:2953983      下载积分:10 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/2953983.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(Mysql性能优化专项方案及关键技术.doc)为本站上传会员【快乐****生活】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

Mysql性能优化专项方案及关键技术.doc

1、Mysql 性能优化方案及技术 目录 目录 1 背景及目标 2 Mysql 实施优化 2 认识数据索引 2 为何使用数据索引能提升效率 2 怎样了解数据索引结构 2 怎样了解影响结果集 3 了解实施状态 4 常见分析手段 4 分析步骤 6 总结 7 Mysql 运维优化 9 存放引擎类型 9 内存使用考量 9 性能和安全性考量 9 存放压力优化 10 运维监控体系 10 Mysql 架构优化 11 架构优化目标 11 预防单点隐患 11 方便系统扩容 11 安全可控,成本可控 11 分布式方案 12 分库&拆表方案 12 主从架构 14 故

2、障转移处理 15 缓存方案 15 缓存结合数据库读取 15 缓存结合数据库写入 15 背景及目标 l 厦门游家企业()用于职员培训和分享。 l 针对用户群为已经使用过mysql环境,并有一定开发经验工程师 l 针对高并发,海量数据互联网环境。 l 本文语言为口语,非学术标准用语。 l 以实战和处理具体问题为关键目标,非应试,很规教育。友谊提醒,在校生学习本教程可能对成绩提升有害无益。 l 非技术挑战,非高端架构师培训,请高手自动忽略。 Mysql 实施优化 认识数据索引 为何使用数据索引能提升效率 n 数据索引存放是有序 n 在有序情况下,经过索引查询一个

3、数据是无需遍历索引统计 n 极端情况下,数据索引查询效率为二分法查询效率,趋近于 log2(N) 怎样了解数据索引结构 n 数据索引通常默认采取btree索引,(内存表也使用了hash索引)。 n 单一有序排序序列是查找效率最高(二分查找,或说折半查找),使用树形索引目标是为了达成快速更新和增删操作。 n 在极端情况下(比如数据查询需求量很大,而数据更新需求极少,实时性要求不高,数据规模有限),直接使用单一排序序列,折半查找速度最快。 u 实战范例 : ip地址反查 资源: Ip地址对应表,源数据格式为 startip, endip, area 源数据条数为 10万条左右,

4、呈很大分散性 目标: 需要经过任意ip查询该ip所属地域 性能要求达成每秒1000次以上查询效率 挑战: 如使用 between … and 数据库操作,无法有效使用索引。 假如每次查询请求需要遍历10万条统计,根本不行。 方法: 一次性排序(只在数据准备中进行,数据可存放在内存序列) 折半查找(每次请求以折半查找方法进行) n 在进行索引分析和SQL优化时,能够将数据索引字段想象为单一有序序列,并以此作为分析基础。 u 实战范例:复合索引查询优化实战,同城异性列表 资源: 用户表user,字段 sex性别;area 地域;lastlogin 最终登录时间;其它略 目标

5、 查找同一地域异性,根据最终登录时间逆序 高访问量小区高频查询,怎样优化。 查询SQL: select * from user where area=’$area’ and sex=’$sex’ order by lastlogin desc limit 0,30; 挑战: 建立复合索引并不难, area+sex+lastlogin 三个字段复合索引,怎样了解? 首先,忘记btree,将索引字段了解为一个排序序列。 假如只使用area会怎样?搜索会把符合area结果全部找出来,然后在这里面遍历,选择命中sex并排序。 遍历全部 area=’$area’数据!

6、 假如使用了area+sex,略好,仍然要遍历全部area=’$area’ and sex=’$sex’数据,然后在这个基础上排序!! Area+sex+lastlogin复合索引时(切记lastlogin在最终),该索引基于area+sex+lastlogin 三个字段合并结果排序,该列表能够想象以下。 广州女$时间1 广州女$时间2 广州女$时间3 … 广州男 …. 深圳女 …. 数据库很轻易命中到 area+sex边界,而且基于下边界向上追溯30条统计,搞定!在索引中快速命中全部结果,无需二次遍历! 怎样了解影响结果集 n 影响结果集

7、是数据查询优化一个关键中间数据 u 查询条件和索引关系决定影响结果集 如上例所表示,即便查询用到了索引,不过假如查询和排序目标不能直接在索引中命中,其可能带来较多影响结果。而这会直接影响到查询效率 u 微秒级优化 l 优化查询不能只看慢查询日志,常规来说,0.01秒以上查询,全部是不够优化。 l 实战范例 和上案例类似,某游戏小区要显示用户动态,select * from userfeed where uid=$uid order by lastlogin desc limit 0,30; 早期默认以uid为索引字段, 查询为命中全部uid=$uid结果根据lastlogin排

8、序。 当用户行为很频繁时,该SQL索引命中影响结果集有数百乃至数千条统计。查询效率超出0.01秒,并发较大时数据库压力较大。 处理方案:将索引改为 uid+lastlogin 复合索引,索引直接命中影响结果集30条,查询效率提升了10倍,平均在0.001秒,数据库压力骤降。 n 影响结果集常见误区 u 影响结果集并不是说数据查询出来结果数或操作影响结果数,而是查询条件索引所命中结果数。 u 实战范例 l 某游戏数据库使用了innodb,innodb是行级锁,理论上极少存在锁表情况。出现了一个SQL语句(delete from tabname where xid=…),这个SQL很用

9、SQL,仅在特定情况下出现,天天出现频繁度不高(一天仅10次左右),数据表容量百万级,不过这个xid未建立索引,于是悲惨事情发生了,当实施这条delete 时候,真正删除统计很少,可能一到两条,可能一条全部没有;不过!因为这个xid未建立索引,delete操作时遍历全表统计,全表被delete操作锁定,select操作全部被locked,因为百万条统计遍历时间较长,期间大量select被阻塞,数据库连接过多瓦解。 这种非高发请求,操作目标极少SQL,因未使用索引,连带造成整个数据库查询阻塞,需要极大提升警觉。 n 总结: u 影响结果集是搜索条件索引命中结果集,而非输出和操作结果集。

10、u 影响结果集越趋近于实际输出或操作目标结果集,索引效率越高。 u 请注意,我这里永远不会讲相关外键和join优化,因为在我们体系里,这是根本不许可! 架构优化部分会解释为何。 了解实施状态 常见分析手段 l 慢查询日志,关重视点以下 n 是否锁定,及锁定时间 u 如存在锁定,则该慢查询通常是因锁定原因造成,本身无需优化,需处理锁定问题。 n 影响结果集 u 如影响结果集较大,显然是索引项命中存在问题,需要认真对待。 l Explain 操作 n 索引项使用 u 不提议用using index做强制索引,如未如预期使用索引,提议重新斟酌表结构和索引设置。 n 影响结果集

11、 u 这里显示数字不一定正确,结合之前提到对数据索引了解来看,还记得嘛?就把索引看成有序序列来了解,反思SQL。 l Set profiling , show profiles for query操作 n 实施开销 u 注意,有问题SQL假如反复实施,可能在缓存里,这时要注意避免缓存影响。经过这里能够看到。 u 实施时间超出0.005秒频繁操作SQL提议全部分析一下。 u 深入了解数据库实施过程和开销分布 l Show processlist n 状态清单 u Sleep 状态, 通常代表资源未释放,假如是经过连接池,sleep状态应该恒定在一定数量范围内 l 实战范例:

12、因前端数据输出时(尤其是输出到用户终端)未立即关闭数据库连接,造成因网络连接速度产生大量sleep连接,在网速出现异常时,数据库 too many connections 挂死。 l 简单解读,数据查询和实施通常只需要不到0.01秒,而网络输出通常需要1秒左右甚至更长,原本数据连接在0.01秒即可释放,不过因为前端程序未实施close操作,直接输出结果,那么在结果未展现在用户桌面前,该数据库连接一直维持在sleep状态! u Waiting for net, reading from net, writing to net l 偶然出现无妨 l 如大量出现,快速检验数据库到前端网络连接

13、状态和流量 l 案例: 因外挂程序,内网数据库大量读取,内网使用百兆交换快速爆满,造成大量连接阻塞在waiting for net,数据库连接过多瓦解 u Locked状态 l 有更新操作锁定 l 通常使用innodb能够很好降低locked状态产生,不过切记,更新操作要正确使用索引,即便是低频次更新操作也不能疏忽。如上影响结果集范例所表示。 l 在myisam时代,locked是很多高并发应用噩梦。所以mysql官方也开始倾向于推荐innodb。 u Copy to tmp table l 索引及现有结构无法涵盖查询条件,才会建立一个临时表来满足查询要求,产生巨大恐怖i/o压力

14、 l 很可怕搜索语句会造成这么情况,假如是数据分析,或午夜周期数据清理任务,偶然出现,能够许可。频繁出现务必优化之。 l Copy to tmp table 通常和连表查询相关,提议逐步习惯不使用连表查询。 l 实战范例: n 某小区数据库阻塞,求救,经查,其服务器存在多个数据库应用和网站,其中一个不常见小网站数据库产生了一个恐怖copy to tmp table 操作,造成整个硬盘i/o和cpu压力超载。Kill掉该操作一切恢复。 u Sending data l Sending data 并不是发送数据,别被这个名字所欺骗,这是从物理磁盘获取数据进程,假如你影响结果集较多,那

15、么就需要从不一样磁盘碎片去抽取数据, l 偶然出现该状态连接无碍。 l 回到上面影响结果集问题,通常而言,假如sending data连接过多,通常是某查询影响结果集过大,也就是查询索引项不够优化。 l 假如出现大量相同SQL语句出现在show proesslist列表中,而且全部处于sending data状态,优化查询索引,记住用影响结果集思绪去思索。 u Freeing items l 理论上这玩意不会出现很多。偶然出现无碍 l 假如大量出现,内存,硬盘可能已经出现问题。比如硬盘满或损坏。 u Sorting for … l 和Sending data类似,结果集过大,排

16、序条件没有索引化,需要在内存里排序,甚至需要创建临时结构排序。 u 其它 l 还有很多状态,碰到了,去查查资料。基础上我们碰到其它状态阻塞较少,所以不关心。 分析步骤 l 基础步骤 n 具体了解问题情况 u Too many connections 是常见表象,有很多个原因。 u 索引损坏情况在innodb情况下极少出现。 u 如出现其它情况应追溯日志和错误信息。 n 了解基础负载情况和运行情况 u 基础运行情况 l 目前每秒读请求 l 目前每秒写请求 l 目前在线用户 l 目前数据容量 u 基础负载情况 l 学会使用这些指令 n Top n Vmstat

17、 n uptime n iostat n df l Cpu负载组成 n 尤其关注i/o压力( wa%) n 多核负载分配 l 内存占用 n Swap分区是否被侵占 n 如Swap分区被侵占,物理内存是否较多空闲 l 磁盘状态 n 硬盘满和inode节点满情况要快速定位和快速处理 n 了解具体连接情况 u 目前连接数 l Netstat –an|grep 3306|wc –l l Show processlist u 目前连接分布 show processlist l 前端应用请求数据库不要使用root帐号! n Root帐号比其它一般帐号多一个连接数

18、许可。 n 前端使用一般帐号,在too many connections时候root帐号仍能够登录数据库查询 show processlist! n 记住,前端应用程序不要设置一个不叫rootroot帐号来糊弄!非root账户是骨子里,而不是名义上。 l 状态分布 n 不一样状态代表不一样问题,有不一样优化目标。 n 参见如上范例。 l 雷同SQL分布 n 是否较多雷同SQL出现在同一状态 u 目前是否有较多慢查询日志 l 是否锁定 l 影响结果集 n 频繁度分析 u 写频繁度 l 假如i/o压力高,优先分析写入频繁度 l Mysqlbinlog 输出最新binlo

19、g文件,编写脚本拆分 l 最多写入数据表是哪个 l 最多写入数据SQL是什么 l 是否存在基于同一主键数据内容高频反复写入? n 包含架构优化部分,参见架构优化-缓存异步更新 u 读取频繁度 l 假如cpu资源较高,而i/o压力不高,优先分析读取频繁度 l 程序中在封装db类增加抽样日志即可,抽样百分比酌情考虑,以不显著影响系统负载压力为底线。 l 最多读取数据表是哪个 l 最多读取数据SQL是什么 n 该SQL进行explain 和set profiling判定 n 注意判定时需要避免query cache影响 u 比如,在这个SQL末尾增加一个条件子句 and 1=

20、1 就能够避免从query cache中获取数据,而得到真实实施状态分析。 l 是否存在同一个查询短期内频繁出现情况 n 包含前端缓存优化 n 抓大放小,处理显著问题 u 不苛求处理全部优化问题,不过应以确保线上服务稳定可靠为目标。 u 处理和评定要同时进行,新策略或处理方案务必经过评定后上线。 总结 l 要学会怎样分析问题,而不是单纯拍脑袋优化 l 慢查询只是最基础东西,要学会优化0.01秒查询请求。 l 当发生连接阻塞时,不一样状态阻塞有不一样原因,要找到原因,假如不对症下药,就会南辕北辙 n 范例:假如本身系统内存已经超载,已经使用到了swap,而还在考虑加大缓存来

21、优化查询,那就是自寻死路了。 l 监测和跟踪要常常做,而不是出问题才做 n 读取频繁度抽样监测 u 全监测不要搞,i/o吓死人。 u 根据一个抽样百分比抽样即可。 u 针对抽样中发觉问题,能够根据特定SQL在特定时间内监测一段全查询统计,但仍要考虑i/o影响。 n 写入频繁度监测 u 基于binlog解开即可,可定时或不定时分析。 n 微慢查询抽样监测 u 高并发情况下,查询请求时间超出0.01秒甚至0.005秒,提议酌情抽样统计。 n 连接数预警监测 u 连接数超出特定阈值情况下,即使数据库没有瓦解,提议统计相关连接状态。 l 学会经过数据和监控发觉问题,分析问题,以

22、后处理问题顺理成章。尤其是要学会在日常监控中发觉隐患,而不是问题爆发了才去处理和处理。 Mysql 运维优化 存放引擎类型 l Myisam 速度快,响应快。表级锁是致命问题。 l Innodb 现在主流存放引擎 n 行级锁 u 务必注意影响结果集定义是什么 u 行级锁会带来更新额外开销,不过通常情况下是值得。 n 事务提交 u 对i/o效率提升考虑 u 对安全性考虑 l HEAP 内存引擎 n 频繁更新和海量读取情况下仍会存在锁定情况 内存使用考量 l 理论上,内存越大,越多数据读取发生在内存,效率越高 l 要考虑到现实硬件资源和瓶颈分布 l 学会了解热点

23、数据,并将热点数据尽可能内存化 n 所谓热点数据,就是最多被访问数据。 n 通常数据库访问是不平均,少数数据被频繁读写,而更多数据鲜有读写。 n 学会制订不一样热点数据规则,并测算指标。 u 热点数据规模,理论上,热点数据越少越好,这么能够愈加好满足业务增加趋势。 u 响应满足度,对响应满足率越高越好。 u 比如依据最终更新时间,总访问量,回访次数等指标定义热点数据,并测算不一样定义模式下热点数据规模 性能和安全性考量 l 数据提交方法 n innodb_flush_log_at_trx_commit = 1 每次自动提交,安全性高,i/o压力大 n innodb_flus

24、h_log_at_trx_commit = 2 每秒自动提交,安全性略有影响,i/o承载强。 l 日志同时 n Sync-binlog =1 每条自动更新,安全性高,i/o压力大 n Sync-binlog = 0 依据缓存设置情况自动更新,存在丢失数据和同时延迟风险,i/o承载力强。 l 性能和安全本身存在相悖情况,需要在业务诉求层面决定取舍 n 学会区分什么场所侧重性能,什么场所侧重安全 n 学会将不一样安全等级数据库用不一样策略管理 存放压力优化 l 次序读写性能远高于随机读写 l 日志类数据能够使用次序读写方法进行 l 将次序写数据和随机读写数据分成不一样物理磁盘,

25、有利于i/o压力疏解,前提是,你确信你i/o压力关键来自于可次序写操作(因随机读写干扰造成不能次序写,不过确实能够用次序写方法进行i/o操作)。 运维监控体系 l 系统监控 n 服务器资源监控 u Cpu, 内存,硬盘空间,i/o压力 u 设置阈值报警 n 服务器流量监控 u 外网流量,内网流量 u 设置阈值报警 n 连接状态监控 u Show processlist 设置阈值,每分钟监测,超出阈值统计 l 应用监控 n 慢查询监控 u 慢查询日志 u 假如存在多台数据库服务器,应有汇总查阅机制。 n 请求错误监控 u 高频繁应用中,会出现偶发性数据库连接错误或

26、实施错误,将错误信息统计到日志,查看每日百分比改变。 u 偶发性错误,假如数量极少,能够不用处理,不过需时常监控其趋势。 u 会存在恶意输入内容,输入边界限定缺乏造成实施犯错,需基于此预防恶意入侵探测行为。 n 微慢查询监控 u 高并发环境里,超出0.01秒查询请求全部应该关注一下。 n 频繁度监控 u 写操作,基于binlog,定时分析。 u 读操作,在前端db封装代码中增加抽样日志,并输出实施时间。 u 分析请求频繁度是开发架构 深入优化基础 u 最好优化就是降低请求次数! l 总结: n 监控和数据分析是一切优化基础。 n 没有运行数据监测就不要妄谈优化! n

27、监控要注意不要产生太多额外负载,不要因监控带来太多额外系统开销 Mysql 架构优化 架构优化目标 预防单点隐患 l 所谓单点隐患,就是某台设备出现故障,会造成整体系统不可用,这个设备就是单点隐患。 l 了解连带效应,所谓连带效应,就是一个问题会引发另一个故障,举例而言,memcache+mysql是一个常见缓存组合,在前端压力很大时,假如memcache瓦解,理论上数据会经过mysql读取,不存在系统不可用情况,不过mysql无法对抗如此大压力冲击,会所以连带瓦解。因A系统问题造成B系统瓦解连带问题,在运维过程中会频繁出现。 n 实战范例: 在mysql连接不立即释放应用环境里,

28、当网络环境异常(同机房友邻服务器遭受拒绝服务攻击,出口阻塞),网络延迟加剧,空连接数急剧增加,造成数据库连接过多瓦解。 n 实战范例2:前端代码 通常我们封装 mysql_connect和memcache_connect,二者次序不一样,会产生不一样连带效应。假如mysql_connect在前,那么一旦memcache连接阻塞,会连带mysql空连接过多瓦解。 n 连带效应是常见系统瓦解,日常分析瓦解原因时候需要认真考虑连带效应影响,头疼医头,脚疼医脚是不行。 方便系统扩容 l 数据容量增加后,要考虑能够将数据分布到不一样服务器上。 l 请求压力增加时,要考虑将请求压力分布到不一样服

29、务器上。 l 扩容设计时需要考虑预防单点隐患。 安全可控,成本可控 l 数据安全,业务安全 l 人力资源成本>带宽流量成本>硬件成本 n 成本和流量关系曲线应低于线性增加(流量为横轴,成本为纵轴)。 n 规模优势 l 本教程仅就和数据库相关部分讨论,和数据库无关部门请自行参阅其它学习资料。 分布式方案 分库&拆表方案 l 基础认识 n 用分库&拆表是处理数据库容量问题唯一路径。 n 分库&拆表也是处理性能压力最优选择。 n 分库 – 不一样数据表放到不一样数据库服务器中(也可能是虚拟服务器) n 拆表 – 一张数据表拆成多张数据表,可能在同一台服务器,也可能在

30、多台服务器(含虚拟服务器)。 l 去关联化标准 n 摘除数据表之间关联,是分库基础工作。 n 摘除关联目标是,当数据表分布到不一样服务器时,查询请求轻易分发和处理。 n 学会了解反范式数据结构设计,所谓反范式,第一关键点是不用外键,不许可Join操作,不许可任何需要跨越两个表查询请求。第二关键点是适度冗余降低查询请求,比如说,信息表,fromuid, touid, message字段外,还需要一个fromuname字段统计用户名,这么查询者经过touid查询后,能够立即得到发信人用户名,而无需进行另一个数据表查询。 n 去关联化处理会带来额外考虑,比如说,某一个数据表内容修改,对另一

31、个数据表影响。这一点需要在程序或其它路径去考虑。 l 分库方案 n 安全性拆分 u 将高安全性数据和低安全性数据分库,这么好处第一是便于维护,第二是高安全性数据数据库参数配置能够以安全优先,而低安全性数据参数配置以性能优先。参见运维优化相关部分。 n 次序写数据和随机读写数据分库 u 次序数据和随机数据区分存放地址,确保物理i/o优化。这个实话说,我只听说了概念,还没学会怎么实践。 n 基于业务逻辑拆分 u 依据数据表内容组成,业务逻辑拆分,便于日常维护和前端调用。 u 基于业务逻辑拆分,能够降低前端应用请求发送到不一样数据库服务器频次,从而降低链接开销。 u 基于业务逻辑拆

32、分,可保留部分数据关联,前端web工程师可在程度范围内实施关联查询。 n 基于负载压力拆分 u 基于负载压力对数据结构拆分,便于直接将负载分担给不一样服务器。 u 基于负载压力拆分,可能拆分后数据库包含不一样业务类型数据表,日常维护会有一定烦恼。 l 分表方案 n 数据量过大或访问压力过大数据表需要切分 n 忙闲分表 u 单数据表字段过多,可将频繁更新整数数据和非频繁更新字符串数据切分 u 范例 user表 ,个人介绍,地址,QQ号,联络方法,头像 这些字段为字符串类型,更新请求少; 最终登录时间,在线时常,访问次数,信件数这些字段为整数型字段,更新频繁,能够将后面这些更新频繁

33、字段独立拆出一张数据表,表内容变少,索引结构变少,读写请求变快。 n 横向切表 u 等分切表,如哈希切表或其它基于对某数字取余切表。等分切表优点是负载很方便分布到不一样服务器;缺点是当容量继续增加时无法方便扩容,需要重新进行数据切分或转表。而且部分关键主键不易处理。 u 递增切表,比如每1kw用户开一个新表,优点是能够适应数据自增趋势;缺点是往往新数据负载高,压力分配不平均。 u 日期切表,适适用于日志统计式数据,优缺点等同于递增切表。 u 个人倾向于递增切表,具体依据应用场景决定。 n 热点数据分表 u 将数据量较大数据表中将读写频繁数据抽取出来,形成热点数据表。通常一个庞大数

34、据表常常被读写内容往往含有一定集中性,假如这些集中数据单独处理,就会极大降低整体系统负载。 u 热点数据表和旧有数据关系 l 能够是一张冗余表,即该表数据丢失不会妨碍使用,因源数据仍存在于旧有结构中。优点是安全性高,维护方便,缺点是写压力不能分担,仍需要同时写回原系统。 l 能够是非冗余表,即热点数据内容原有结构不再保留,优点是读写效率全部优化;缺点是当热点数据发生改变时,维护量较大。 l 具体方案选择需要依据读写百分比决定,在读频率远高于写频率情况下,优先考虑冗余表方案。 u 热点数据表能够用单独优化硬件存放,比如昂贵闪存卡或大内存系统。 u 热点数据表关键指标 l 热点数据定

35、义需要依据业务模式自行制订策略,常见策略为,根据最新操作时间;根据内容丰富度等等。 l 数据规模,比如从1000万条数据,抽取出100万条热点数据。 l 热点命中率,比如查询10次,多少次命中在热点数据内。 l 理论上,数据规模越小,热点命中率越高,说明效果越好。需要依据业务自行评定。 u 热点数据表动态维护 l 加载热点数据方案选择 n 定时从旧有数据结构中根据新策略获取 n 在从旧有数据结构读取时动态加载到热点数据 l 剔除热点数据方案选择 n 基于特定策略,定时将热点数据中访问频次较少数据剔除 n 如热点数据是冗余表,则直接删除即可,如不是冗余表,需要回写给旧有数据结

36、构。 u 通常,热点数据往往是基于缓存或key-value 方案冗余存放,所以这里提到热点数据表,其实更多是了解思绪,用到场所可能并不多…. l 表结构设计 n 查询冗余表设计 u 包含分表操作后,部分常见索引查询可能需要跨表,带来无须要麻烦。确定查询请求远大于写入请求时,应设置便于查询项冗余表。 u 实战范例, l 用户分表,将用户库分成若干数据表 l 基于用户名查询和基于uid查询全部是高并发请求。 l 用户分表基于uid分成数据表,同时基于用户名做对应冗余表。 u 冗余表关键点 l 数据一致性,简单说,同增,同删,同更新。 l 能够做全冗余,或只做主键关联冗余,比如

37、经过用户名查询uid,再基于uid查询源表。 n 中间数据表 u 为了降低会包含大规模影响结果集表数据操作,比如count,sum操作。应将部分统计类数据经过中间数据表保留。 u 中间数据表应能经过源数据表恢复。 u 实战范例: l 论坛板块发帖量,回帖量,每日新增数据等 l 网站每日新增用户数等。 l 后台能够经过源数据表更新该数字。 n 历史数据表 u 历史数据表对应于热点数据表,将需求较少又不能丢弃数据存入,仅在少数情况下被访问。 主从架构 l 基础认识 n 读写分离对负载减轻远远不如分库分表来直接。 n 写压力会传输给从表,只读从库一样有写压力,一样会产生读写

38、锁! n 一主多从结构下,主库是单点隐患,极难处理(如主库当机,从库能够响应读写,不过无法自动担当主库分发功效) n 主从延迟也是重大问题。一旦有较大写入问题,如表结构更新,主从会产生巨大延迟。 l 应用场景 n 在线热备 n 异地分布 u 写分布,读统一。 u 仍然困难重重,受限于网络环境问题巨多! n 自动障碍转移 u 主瓦解,从自动接管 n 个人提议,负载均衡关键使用分库方案,主从关键用于热备和障碍转移。 l 潜在优化点 n 为了降低写压力,有些人提议主不建索引提升i/o性能,从建立索引满足查询要求。个人认为这么维护较为麻烦。而且从本身会继承主i/o压力,所以优化

39、价值有限。该思绪特此分享,不做推荐。 故障转移处理 l 关键点 n 程序和数据库连接,基于虚地址而非真实ip,由负载均衡系统监控。 n 保持主从结构简单化,不然极难做到故障点摘除。 l 思索方法 n 遍历对服务器集群任何一台服务器,前端web,中间件,监控,缓存,db等等,假设该服务器出现故障,系统是否会出现异常?用户访问是否会出现异常。 n 目标:任意一台服务器瓦解,负载和数据操作均会很短时间内自动转移到其它服务器,不会影响业务正常进行。不会造成恶性数据丢失。(哪些是能够丢失,哪些是不能丢失) 缓存方案 缓存结合数据库读取 l Memcached是最常见缓存系统 l M

40、ysql 最新版本已经开始支持memcache插件,但据牛人分析,尚不成熟,暂不推荐。 l 数据读取 n 并不是全部数据全部适合被缓存,也并不是进入了缓存就意味着效率提升。 n 命中率是第一要评定数据。 n 怎样评定进入缓存数据规模,和命中率优化,是很需要细心分析。 l 实景分析: 前端请求先连接缓存,缓存未命中连接数据库,进行查询,未命中状态比单纯连接数据库查询多了一次连接和查询操作;假如缓存命中率很低,则这个额外操作非但不能提升查询效率,反而为系统带来了额外负载和复杂性,得不偿失。 n 相关评定类似于热点数据表介绍。 n 善于利用内存,请注意数据存放格式及压缩算法。 l K

41、ey-value 方案繁多,本培训文档暂不展开。 缓存结合数据库写入 l 利用缓存不仅能够降低数据读取请求,还能够降低数据库写入i/o压力 l 缓存实时更新,数据库异步更新 n 缓存实时更新数据,并将更新统计写入队列 n 能够使用类似mq队列产品,自行建立队列请注意使用increment来维持队列序号。 n 不提议使用 get 后处理数据再set方法维护队列 l 测试范例: l 范例1 $var=Memcache_get($memcon,”var”); $var++; memcache_set($memcon,”var”,$var); 这么一个脚本,使用apache

42、 ab去跑,100个并发,跑10000次,然后输出缓存存取数据,很遗憾,并不是1000,而是5000多,6000多这么数字,中间数字全在 get & set过程中丢掉了。 原因,读写间隔中其它并发写入,造成数据丢失。 l 范例2 用memcache_increment来做这个操作,一样跑测试 会得到完整10000,一条数据不会丢。 l 结论: 用increment存放队列编号,用标识+编号作为key存放队列内容。 n 后台基于缓存队列读取更新数据并更新数据库 l 基于队列读取后能够合并更新 l 更新合并率是关键指标 l 实战范例: 某论坛热门贴,前端不停有views=vie

43、ws+1数据更新请求。 缓存实时更新该状态 后台任务对数据库做异步更新时,假设实施周期是5分钟,那么五分钟可能会接收到这么请求多达数十次乃至数百次,合并更新后只实施一次update即可。 类似操作还包含游戏打怪,生命和经验改变;个人主页访问次数改变等。 n 异步更新风险 l 前后端同时写,可能造成覆盖风险。 l 使用后端异步更新,则前端应用程序就不要写数据库,不然可能造成写入冲突。一个兼容处理方案是,前端和后端不要写相同字段。 l 实战范例: 用户在线上时,后台异步更新用户状态。 管理员后台屏蔽用户是直接更新数据库。 结果管理员屏蔽某用户操作完成后,因该用户在线有操作,后台

44、异步更新程序再次基于缓存更新用户状态,用户状态被复活,屏蔽失效。 l 缓存数据丢失或服务瓦解可能造成数据丢失风险。 l 如缓存中间出现故障,则缓存队列数据不会回写到数据库,而用户会认为已经完成,此时会带来比较显著用户体验问题。 l 一个不根本处理方案是,确保高安全性,高关键性数据实时数据更新,而低安全性数据经过缓存异步回写方法完成。另外,使用相对数值操作而不是绝对数值操作更安全。 n 范例:支付信息,道具购置和取得,一旦丢失会对用户造成极大伤害。而经验值,访问数字,假如只丢失了极少时间内容,用户还是能够容忍。 n 范例:假如使用 Views=Views+…操作,一旦出现数据格式错误,从binlog中反推是能够进行数据还原,不过假如使用Views=特定值操作,一旦缓存中数据有错误,则直接被给予了一个错误数据,无法回溯! l 异步更新如出现队列阻塞可能造成数据丢失风险。 l 异步更新通常是使用缓存队列后,在后台由cron或其它守护进程写入数据库。 l 假如队列生成速度>后台更新写入数据库速度,就会产生阻塞,造成数据越累计越多,数据库响应迟缓,而缓存队列无法快速实施,造成溢出或过期失效。

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服