python (logging) 日志按日期、大小回滚的操作
描述:日志按日期、大小回滚
代码:
#-*-coding:utf-8-*- importos importlogging.handlers log_dir=os.path.dirname(os.path.abspath(__file__))+os.sep+'logs' ifnotos.path.isdir(log_dir): os.makedirs(log_dir) #CONSTANTVARIABLES MODULE_NAME='my_module' LOG_LEVEL='INFO' defget_logger(module_name=MODULE_NAME,log_level=LOG_LEVEL): logging.basicConfig() logger=logging.getLogger(module_name) logger.setLevel(log_level) ##按时间回滚1天换1次,保留180天 #time_file_handler=logging.handlers.TimedRotatingFileHandler( #log_dir+os.sep+module_name+'_day.log', #when='midnight', #interval=1, #backupCount=180 #) # #time_file_handler.suffix='%Y-%m-%d.log'#按天 time_file_handler=logging.handlers.TimedRotatingFileHandler( log_dir+os.sep+module_name+'_sec.log', when='S', interval=1, backupCount=180 ) time_file_handler.suffix='%Y-%m-%d_%H-%M-%S.log'#按秒 formatter=logging.Formatter('[%(asctime)s]-[%(filename)s]-[%(funcName)s]-[%(lineno)d]-12s:[%(levelname)s]-8s>>%(message)s') time_file_handler.setFormatter(formatter) logger.addHandler(time_file_handler) ##按大小回滚 #file_size_handler=logging.handlers.RotatingFileHandler( #log_dir+os.sep+module_name+'size.log', #maxBytes=1024, #backupCount=1000, #) #file_size_handler.setFormatter(formatter) #logger.addHandler(file_size_handler) returnlogger if__name__=='__main__': logger=get_logger() logger.info('hello')
输出:
(1)日志:
[2019-12-2114:12:44,682]-[paper4_logging.py]-[
]-[59]-12s:[INFO]-8s>>hello
(2)目录:
2019/12/21周六14:1286my_module_sec.log
2019/12/21周六14:1286my_module_sec.log.2019-12-21_14-12-15.log
2019/12/21周六14:1286my_module_sec.log.2019-12-21_14-12-35.log
2019/12/21周六14:1286my_module_sec.log.2019-12-21_14-12-38.log
补充:python中用logging实现日志滚动和过期日志删除
logging库提供了两个可以用于日志滚动的class,一个是RotatingFileHandler,它主要是根据日志文件的大小进行滚动,另一个是TimeRotatingFileHandler,它主要是根据时间进行滚动。
在实际应用中,我们通常根据时间进行滚动,因此,本文中主要介绍TimeRotaingFileHandler的使用方法(RotatingFileHandler一样)。
代码示例如下:
#!/usr/bin/envpython #_*_coding:utf-8_*_ #vim:setexpandtabts=4sw=4sts=4tw=100: importlogging importtime importre fromlogging.handlersimportTimedRotatingFileHandler fromlogging.handlersimportRotatingFileHandler defmain(): #日志打印格式 log_fmt='%(asctime)s\tFile\"%(filename)s\",line%(lineno)s\t%(levelname)s:%(message)s' formatter=logging.Formatter(log_fmt) #创建TimedRotatingFileHandler对象 log_file_handler=TimedRotatingFileHandler(filename="ds_update",when="M",interval=2,backupCount=2) #log_file_handler.suffix="%Y-%m-%d_%H-%M.log" #log_file_handler.extMatch=re.compile(r"^\d{4}-\d{2}-\d{2}_\d{2}-\d{2}.log$") log_file_handler.setFormatter(formatter) logging.basicConfig(level=logging.INFO) log=logging.getLogger() log.addHandler(log_file_handler) #循环打印日志 log_content="testlog" count=0 whilecount<30: log.error(log_content) time.sleep(20) count=count+1 log.removeHandler(log_file_handler) if__name__=="__main__": main()
filename:日志文件名的prefix;
when:是一个字符串,用于描述滚动周期的基本单位,字符串的值及意义如下:
“S”:Seconds
“M”:Minutes
“H”:Hours
“D”:Days
“W”:Weekday(0=Monday)
“midnight”:Rolloveratmidnight
interval:滚动周期,单位有when指定,比如:when='D',interval=1,表示每天产生一个日志文件;
backupCount:表示日志文件的保留个数;
除了上述参数之外,TimedRotatingFileHandler还有两个比较重要的成员变量,它们分别是suffix和extMatch。
suffix是指日志文件名的后缀,suffix中通常带有格式化的时间字符串,filename和suffix由“.”连接构成文件名(例如:filename=“runtime”,suffix=“%Y-%m-%d.log”,生成的文件名为runtime.2015-07-06.log)。
extMatch是一个编译好的正则表达式,用于匹配日志文件名的后缀,它必须和suffix是匹配的,如果suffix和extMatch匹配不上的话,过期的日志是不会被删除的。
比如,suffix=“%Y-%m-%d.log”,extMatch的只应该是re.compile(r”^\d{4}-\d{2}-\d{2}.log$”)。
默认情况下,在TimedRotatingFileHandler对象初始化时,suffxi和extMatch会根据when的值进行初始化:
‘S':suffix=”%Y-%m-%d_%H-%M-%S”,extMatch=r”\^d{4}-\d{2}-\d{2}_\d{2}-\d{2}-\d{2}”;
‘M':suffix=”%Y-%m-%d_%H-%M”,extMatch=r”^\d{4}-\d{2}-\d{2}_\d{2}-\d{2}”;
‘H':suffix=”%Y-%m-%d_%H”,extMatch=r”^\d{4}-\d{2}-\d{2}_\d{2}”;
‘D':suffxi=”%Y-%m-%d”,extMatch=r”^\d{4}-\d{2}-\d{2}”;
‘MIDNIGHT':”%Y-%m-%d”,extMatch=r”^\d{4}-\d{2}-\d{2}”;
‘W':”%Y-%m-%d”,extMatch=r”^\d{4}-\d{2}-\d{2}”;
如果对日志文件名没有特殊要求的话,可以不用设置suffix和extMatch,如果需要,一定要让它们匹配上。
以上为个人经验,希望能给大家一个参考,也希望大家多多支持毛票票。如有错误或未考虑完全的地方,望不吝赐教。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。