Redis获取某个大key值的脚本实例
1、前言
工作中,经常有些Redis实例使用不恰当,或者对业务预估不准确,或者key没有及时进行处理等等原因,导致某些KEY相当大。
那么大Key会带来哪些问题呢?
如果是集群模式下,无法做到负载均衡,导致请求倾斜到某个实例上,而这个实例的QPS会比较大,内存占用也较多;对于Redis单线程模型又容易出现CPU瓶颈,当内存出现瓶颈时,只能进行纵向库容,使用更牛逼的服务器。
涉及到大key的操作,尤其是使用hgetall、lrange0-1、get、hmget等操作时,网卡可能会成为瓶颈,也会到导致堵塞其它操作,qps就有可能出现突降或者突升的情况,趋势上看起来十分不平滑,严重时会导致应用程序连不上,实例或者集群在某些时间段内不可用的状态。
假如这个key需要进行删除操作,如果直接进行DEL操作,被操作的实例会被Block住,导致无法响应应用的请求,而这个Block的时间会随着key的变大而变长。
在redis中,对于一个很大的key,例如hash类型,直接查看其值会非常慢,于是想到写个脚本通过增量迭代来获取,下面话不多说了,来一起看看详细的介绍吧。
2、具体的脚本如下:
功能:扫描redis某个key里面的所有元素
使用方法:pythonbigkey_save_values.py"zyyset""*"100
3、python脚本实现如下:
#!/usr/bin/envpython
#-*-coding:UTF-8-*-
#功能:扫描某个key里面的所有元素
#使用方法:pythonbigkey_save_values.py"zyyset""m*"100
#如需获取全部的元素:pythonbigkey_save_values.py"zyyset""*"100
__author__="lcl"
importsys
importredis
importos
pool=redis.ConnectionPool(host='192.168.225.128',port=6379,db=0)
r=redis.StrictRedis(connection_pool=pool)
#指定key
key=sys.argv[1]
#扫描匹配值
match=sys.argv[2]
#每次匹配数量
count=sys.argv[3]
#总数量
total=0
#获取当前路径
path=os.getcwd()
keytype=r.type(key)
print"key的类型为%s"%(keytype)
#扫描到的key输出的文件
txt=path+"/%s.txt"%(key)
#打开文件
#f=open(txt,"w")
deflist_iter(name):
list_count=r.llen(key)
forindexinrange(list_count):
yieldr.lindex(key,index)
ifkeytype=='list':
f=open(txt,"w")
foriteminlist_iter(key):
#将匹配到对应key中的member/score输出到文件中
f.write("%s%s"%(item,"\n"))
total=total+1
f.close
elifkeytype=='hash':
f=open(txt,"w")
foriteminr.hscan_iter(key,match=match,count=count):
#将匹配到对应key中的member/score输出到文件中
f.write("%s%s"%(item,"\n"))
total=total+1
f.close
elifkeytype=='set':
f=open(txt,"w")
foriteminr.sscan_iter(key,match=match,count=count):
f.write("%s%s"%(item,"\n"))
total=total+1
f.close
elifkeytype=='zset':
f=open(txt,"w")
foriteminr.zscan_iter(key,match=match,count=count):
f.write("%s%s"%(item,"\n"))
total=total+1
f.close
else:
print("key的类型为string,value为:"+r.get(key))
print"key:%s的match:%s的数量为:%d"%(key,match,total)
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对毛票票的支持。