MySql更新优化策略
模拟场景一:
给数据库中的一张表的结构调整,添加几个字段,后面对之前的数据进行刷新,刷新的内容是对其中的一个已有字段url进行匹配,然后更新新加的字段type和typeid。
后来就写了个shell脚本来刷数据,结果运行shell脚本后我就懵了,怎么这么慢~~~
情景再现
CREATETABLE`fuckSpeed`( `uin`bigint(20)unsignedNOTNULLDEFAULT0, `id`int(11)unsignedNOTNULLDEFAULT0, `url`varchar(255)NOTNULLDEFAULT'', `type`int(11)unsignedNOTNULLDEFAULT0, `typeid`varchar(64)NOTNULLDEFAULT'', ...... KEY`uin_id`(`uin`,`id`) )ENGINE=InnoDBDEFAULTCHARSET=utf8;
表结构大概是上面这样的(省略了好多字段),表中只有一个联合索引uin_id,而我在更新的时候是下面的思路:
首先根据一个id范围获取到一定数量的数据
selectid,urlfromfunkSpeedwhereid>=101andid<=200;
遍历所有的数据,对每一条数据进行更新
#首先对数据进行处理,匹配获取type和typeid
updatefuckSpeedsettype=[type],typeid=[typeid]whereid=[id]
按照上面的思路搞了之后,发现更新特别的慢,平均每秒钟3~5个左右,我也是醉了,我看看要更新的数据,总共有32w+条,这样更新下来大概需要24h+,也就是1天还要多,额~~哭了,想想肯定是哪里出问题了。
发现问题
首先我想到的是是不是因为只有一个进程在更新,导致很慢,我启动了5个进程,将id分段了,就像下面这样
./update_url.sh010000& ./update_url.sh1000020001& ./update_url.sh2000130001& ./update_url.sh3000240002& ./update_url.sh4000350003&
运行之后发现还是那样,速度没有提升多少,还是每秒钟更新3~5个左右,想想也是啊,时间不可能花费在插入数据之前的那些步骤(匹配、组装sql语句、。。。),应该是插入的时候有问题
再来看看我的sql语句
selectid,urlfromfunkSpeedwhereid>=101andid<=200;,
这里,试着在命令行执行了下,结果如下
mysql>selectid,urlfromfunkSpeedwhereid>=0andid<=200; Emptyset(0.18sec)
竟然花了0.18秒,这个时候我猜恍然大悟,联合索引我没有使用到,联合索引生效的条件是——必须要有左边的字段,用explain验证下,果然是这样:
mysql>explainid,urlfromfunkSpeedwhereid>=0andid<=200; +-------------+------+---------------+------+---------+------+--------+-------------+ |table |type|possible_keys|key |key_len|ref |rows |Extra | +-------------+------+---------------+------+---------+------+--------+-------------+ |funkSpeed |ALL |NULL |NULL|NULL |NULL|324746|Usingwhere| +-------------+------+---------------+------+---------+------+--------+-------------+ 1rowinset(0.00sec)
然后使用联合索引:
mysql>selectuin,idfromfunkSpeedwhereuin=10023andid=162; +------------+----------+ |uin | id | +------------+----------+ |10023 |162 | +------------+----------+ 1rowinset(0.00sec) mysql>explainselectuin,idfromfunkSpeedwhereuin=10023andid=162; +-------------+------+---------------+----------+---------+-------------+------+-------------+ |table |type|possible_keys|key |key_len|ref |rows|Extra | +-------------+------+---------------+----------+---------+-------------+------+-------------+ |funkSpeed |ref |uin_id |uin_id |12 |const,const| 4|Usingindex| +-------------+------+---------------+----------+---------+-------------+------+-------------+ 1rowinset(0.00sec)
可以看到几乎是秒查,这个时候基本可以断定问题是出现在索引这个地方了
我select的时候次数比较少,每两个select之间id相差10000,所以这里可以忽略掉,而且这里没办法优化,除非在id上面添加索引。
问题发生在
updatefuckSpeedsettype=[type],typeid=[typeid]whereid=[id]
这里在更新的时候也是会用到查询的,我的mysql版本是5.5,不能explainupdate,不然肯定可以验证我所说的,这里要更新32w+条数据,每条数据都会去更新,每条数据0.2s左右,这太吓人了~~
解决问题
问题找到了,解决起来就容易多了~~
select的时候加了一个字段uin,改为下面这样
selectuin,id,urlfromfunkSpeedwhereid>=101andid<=200;
然后更新的时候使用
updatefuckSpeedsettype=[type],typeid=[typeid]whereuin=[uin]id=[id]
这样一来索引就是用上了。
三下五除二改好了代码,试着启动了一个进程,看看效果如何,果然,效果提升的不是一点点,平均30+次/s,这样大概3个小时左右就可以完成所有的更新了。
模拟场景二:
需求6个表pid字段写到对应的brand_id字段
问题sql背景:项目有6个表的要根据pid字段要写入对应的brand_id字段。但是这个其中有两个表是千万级别的。我的worker运行之后,线上的mysql主从同步立刻延迟了!运行了一个多小时之后,居然延迟到了40分钟,而且只更新了十几万行数据。问题sql如下:
<!--根据商品id更新品牌id--> <updateid="updateBrandIdByPid"parameterClass="com.jd.chat.worker.domain.param.UpdateBrandIdParam"> UPDATE$tableName$ SETbrand_id=#newBrandId# WHEREpid=#pid# ANDbrand_id=0 </update>
项目组的mysql专家帮我分析了下,因为pid字段没有索引,mysql引擎要逐行扫描出与传入的pid值相等的列,然后更新数据,也就是要扫描完1000W+行磁盘数据才能执行完这个sql。更严重的是,这个千万级的表里面有多少个不同的pid,我就要执行多少个这样的sql。
同事给我的建议的根据id字段进行sql代码层次的纵向分表。每次更新1000行的数据,这样mysql引擎就不用每次在扫全表了,数据库压力是之前的万分之一。而且id作为主键,是有索引的有索引,有索引能大大优化查询性能,优化后的sql如下:
<!--根据商品id更新品牌id--> <updateid="updateBrandIdByPid"parameterClass="com.jd.chat.worker.domain.param.UpdateBrandIdParam"> UPDATE$tableName$ SETbrand_id=#newBrandId# WHEREpid=#pid# ANDbrand_id=0 ANDidBETWEEN#startNum#AND#endNum# </update>
仅仅用了id限区间的语句,将一个千万级的大表代码层次上进行纵向切割。重新上线worker后,mysql主从没有任何延迟!而且经过监视,短短10分钟就更新了十几万数据,效率是之前的6倍!更重要的是数据库负载均衡,应用健康运行。
以上通过两个问题模拟场景再现分析MySql更新优化策略,希望对大家在数据库方面有所帮助。