使用Redis有序集合实现IP归属地查询详解
工作中经常遇到一类需求,根据IP地址段来查找IP对应的归属地信息。如果把查询过程放到关系型数据库中,会带来很大的IO消耗,速度也不能满足,显然是不合适的。
那有哪些更好的办法呢?为此做了一些尝试,下面来详细说明。
构建索引文件
在GitHub上看到一个ip2region项目,作者通过生成一个包含有二级索引的文件来实现快速查询,查询速度足够快,毫秒级别。但如果想更新地址段或归属地信息,每次都要重新生成文件,并不是很方便。
不过还是推荐大家看看这个项目,其中建索引的思想还是很值得学习的。作者的开源项目中只有查询的相关代码,并没有生成索引文件的代码,我依照原理图写了一段生成索引文件的代码,如下:
#-*-coding:utf-8-*-
importtime
importsocket
importstruct
IP_REGION_FILE='./data/ip_to_region.db'
SUPER_BLOCK_LENGTH=8
INDEX_BLOCK_LENGTH=12
HEADER_INDEX_LENGTH=8192
defgenerate_db_file():
pointer=SUPER_BLOCK_LENGTH+HEADER_INDEX_LENGTH
region,index='',''
#文件格式
#1.0.0.0|1.0.0.255|澳大利亚|0|0|0|0
#1.0.1.0|1.0.3.255|中国|0|福建省|福州市|电信
withopen('./ip.merge.txt','r')asf:
forlineinf.readlines():
item=line.strip().split('|')
printitem[0],item[1],item[2],item[3],item[4],item[5],item[6]
start_ip=struct.pack('I',struct.unpack('!L',socket.inet_aton(item[0]))[0])
end_ip=struct.pack('I',struct.unpack('!L',socket.inet_aton(item[1]))[0])
region_item='|'.join([item[2],item[3],item[4],item[5],item[6]])
region+=region_item
ptr=struct.pack('I',int(bin(len(region_item))[2:].zfill(8)+bin(pointer)[2:].zfill(24),2))
index+=start_ip+end_ip+ptr
pointer+=len(region_item)
index_start_ptr=pointer
index_end_ptr=pointer+len(index)-12
super_block=struct.pack('I',index_start_ptr)+struct.pack('I',index_end_ptr)
n=0
header_index=''
forindex_blockinrange(pointer,index_end_ptr,8184):
header_index_block_ip=index[n*8184:n*8184+4]
header_index_block_ptr=index_block
header_index+=header_index_block_ip+struct.pack('I',header_index_block_ptr)
n+=1
header_index+=index[len(index)-12:len(index)-8]+struct.pack('I',index_end_ptr)
withopen(IP_REGION_FILE,'wb')asf:
f.write(super_block)
f.write(header_index)
f.seek(SUPER_BLOCK_LENGTH+HEADER_INDEX_LENGTH,0)
f.write(region)
f.write(index)
if__name__=='__main__':
start_time=time.time()
generate_db_file()
print'costtime:',time.time()-start_time
使用Redis缓存
目前有两种方式对IP以及归属地信息进行缓存:
第一种是将起始IP,结束IP以及中间所有IP转换成整型,然后以字符串方式,用转换后的IP作为key,归属地信息作为value存入Redis;
第二种是采用有序集合和散列方式,首先将起始IP和结束IP添加到有序集合ip2cityid,城市ID作为成员,转换后的IP作为分值,然后再将城市ID和归属地信息添加到散列cityid2city,城市ID作为key,归属地信息作为value。
第一种方式就不多做介绍了,简单粗暴,非常不推荐。查询速度当然很快,毫秒级别,但缺点也十分明显,我用1000条数据做了测试,缓存时间长,大概20分钟,占用空间大,将近1G。
下面介绍第二种方式,直接看代码:
#generate_to_redis.py
#-*-coding:utf-8-*-
importtime
importjson
fromredisimportRedis
defip_to_num(x):
returnsum([256**j*int(i)forj,iinenumerate(x.split('.')[::-1])])
#连接Redis
conn=Redis(host='127.0.0.1',port=6379,db=10)
start_time=time.time()
#文件格式
#1.0.0.0|1.0.0.255|澳大利亚|0|0|0|0
#1.0.1.0|1.0.3.255|中国|0|福建省|福州市|电信
withopen('./ip.merge.txt','r')asf:
i=1
forlineinf.readlines():
item=line.strip().split('|')
#将起始IP和结束IP添加到有序集合ip2cityid
#成员分别是城市ID和ID+#,分值是根据IP计算的整数值
conn.zadd('ip2cityid',str(i),ip_to_num(item[0]),str(i)+'#',ip_to_num(item[1])+1)
#将城市信息添加到散列cityid2city,key是城市ID,值是城市信息的json序列
conn.hset('cityid2city',str(i),json.dumps([item[2],item[3],item[4],item[5]]))
i+=1
end_time=time.time()
print'start_time:'+str(start_time)+',end_time:'+str(end_time)+',costtime:'+str(end_time-start_time)
#test.py
#-*-coding:utf-8-*-
importsys
importtime
importjson
importsocket
importstruct
fromredisimportRedis
#连接Redis
conn=Redis(host='127.0.0.1',port=6379,db=10)
#将IP转换成整数
ip=struct.unpack("!L",socket.inet_aton(sys.argv[1]))[0]
start_time=time.time()
#将有序集合从大到小排序,取小于输入IP值的第一条数据
cityid=conn.zrevrangebyscore('ip2cityid',ip,0,start=0,num=1)
#如果返回cityid是空,或者匹配到了#号,说明没有找到对应地址段
ifnotcityidorcityid[0].endswith('#'):
print'nocityinfo...'
else:
#根据城市ID到散列表取出城市信息
ret=json.loads(conn.hget('cityid2city',cityid[0]))
printret[0],ret[1],ret[2]
end_time=time.time()
print'start_time:'+str(start_time)+',end_time:'+str(end_time)+',costtime:'+str(end_time-start_time)
#pythongenerate_to_redis.py start_time:1554300310.31,end_time:1554300425.65,costtime:115.333260059
#pythontest_2.py1.0.16.0 日本00 start_time:1555081532.44,end_time:1555081532.45,costtime:0.000912189483643
测试数据大概50万条,缓存所用时间不到2分钟,占用内存182M,查询速度毫秒级别。显而易见,这种方式更值得尝试。
zrevrangebyscore方法的时间复杂度是O(log(N)+M),N为有序集的基数,M为结果集的基数。可见当N的值越大,查询效率越慢,具体在多大的数据量还可以高效查询,这个有待验证。不过这个问题我觉得并不用担心,遇到了再说吧。
以上所述是小编给大家介绍的使用Redis有序集合实现IP归属地查询详解整合,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对毛票票网站的支持!