Python中异常重试的解决方案详解
前言
大家在做数据抓取的时候,经常遇到由于网络问题导致的程序保存,先前只是记录了错误内容,并对错误内容进行后期处理。
原先的流程:
defcrawl_page(url): pass deflog_error(url): pass url="" try: crawl_page(url) except: log_error(url)
改进后的流程:
attempts=0 success=False whileattempts<3andnotsuccess: try: crawl_page(url) success=True except: attempts+=1 ifattempts==3: break
最近发现的新的解决方案:retrying
retrying是一个Python的重试包,可以用来自动重试一些可能运行失败的程序段。retrying提供一个装饰器函数retry,被装饰的函数就会在运行失败的条件下重新执行,默认只要一直报错就会不断重试。
importrandom fromretryingimportretry @retry defdo_something_unreliable(): ifrandom.randint(0,10)>1: raiseIOError("Brokensauce,everythingishosed!!!111one") else: return"Awesomesauce!" printdo_something_unreliable()
如果我们运行have_a_try函数,那么直到random.randint返回5,它才会执行结束,否则会一直重新执行。
retry还可以接受一些参数,这个从源码中Retrying类的初始化函数可以看到可选的参数:
- stop_max_attempt_number:用来设定最大的尝试次数,超过该次数就停止重试
- stop_max_delay:比如设置成10000,那么从被装饰的函数开始执行的时间点开始,到函数成功运行结束或者失败报错中止的时间点,只要这段时间超过10秒,函数就不会再执行了
- wait_fixed:设置在两次retrying之间的停留时间
- wait_random_min和wait_random_max:用随机的方式产生两次retrying之间的停留时间
- wait_exponential_multiplier和wait_exponential_max:以指数的形式产生两次retrying之间的停留时间,产生的值为2^previous_attempt_number*wait_exponential_multiplier,previous_attempt_number是前面已经retry的次数,如果产生的这个值超过了wait_exponential_max的大小,那么之后两个retrying之间的停留值都为wait_exponential_max。这个设计迎合了exponentialbackoff算法,可以减轻阻塞的情况。
- 我们可以指定要在出现哪些异常的时候再去retry,这个要用retry_on_exception传入一个函数对象:
defretry_if_io_error(exception): returnisinstance(exception,IOError) @retry(retry_on_exception=retry_if_io_error) defread_a_file(): withopen("file","r")asf: returnf.read()
在执行read_a_file函数的过程中,如果报出异常,那么这个异常会以形参exception传入retry_if_io_error函数中,如果exception是IOError那么就进行retry,如果不是就停止运行并抛出异常。
我们还可以指定要在得到哪些结果的时候去retry,这个要用retry_on_result传入一个函数对象:
defretry_if_result_none(result): returnresultisNone @retry(retry_on_result=retry_if_result_none) defget_result(): returnNone
在执行get_result成功后,会将函数的返回值通过形参result的形式传入retry_if_result_none函数中,如果返回值是None那么就进行retry,否则就结束并返回函数值。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对毛票票的支持。