python爬虫URL重试机制的实现方法(python2.7以及python3.5)
应用场景:
状态不是200的URL重试多次
代码比较简单还有部分注释
python2.7实现:
#-*-coding:utf-8-*- """ ayou """ importrequests defurl_retry(url,num_retries=3): print("access!") try: request=requests.get(url,timeout=60) #raise_for_status(),如果不是200会抛出HTTPError错误 request.raise_for_status() html=request.content exceptrequests.HTTPErrorase: html=None ifnum_retries>0: #如果不是200就重试,每次递减重试次数 returnurl_retry(url,num_retries-1) #如果url不存在会抛出ConnectionError错误,这个情况不做重试 exceptrequests.exceptions.ConnectionErrorase: return returnhtml url_retry("http://httpbin.org/status/404")
python3.5实现:
#-*-coding:utf-8-*- """ ayou """ importasyncio importaiohttp asyncdefprint_page(url,num_retries=3): asyncwithaiohttp.ClientSession()assession: try: asyncwithsession.get(url,timeout=60)asresponse: print("access!") #raise_for_status(),如果不是200会抛出HttpProcessingError错误 response.raise_for_status() body=awaitresponse.text() exceptaiohttp.errors.HttpProcessingErrorase: body=None ifnum_retries>0: #如果不是200就重试,每次递减重试次数 returnawaitprint_page(url,num_retries-1) #不存在URL会抛出ClientResponseError错误 exceptaiohttp.errors.ClientResponseErrorase: returne session.close() print(body) returnbody defmain(): #这是一个不存在URL #url='http://httpbin.org/status/404111' #这是一个404的URL url='http://httpbin.org/status/404' loop=asyncio.get_event_loop() loop.run_until_complete(print_page(url)) loop.close() if__name__=='__main__': main()
爬虫URL重试机制封装成修饰器(python2.7以及python3.5以上)
python2.7版本:
#-*-coding:utf-8-*- """ ayou """ importrequests #定义一个重试修饰器,默认重试一次 defretry(num_retries=1): #用来接收函数 defwrapper(func): #用来接收函数的参数 defwrapper(*args,**kwargs): #为了方便看抛出什么错误定义一个错误变量 last_exception=None #循环执行包装的函数 for_inrange(num_retries): try: #如果没有错误就返回包装的函数,这样跳出循环 returnfunc(*args,**kwargs) exceptExceptionase: #捕捉到错误不要return,不然就不会循环了 last_exception=e #如果要看抛出错误就可以抛出 #raiselast_exception returnwrapper returnwrapper if__name__=="__main__": @retry(5) defurl_retry(url): request=requests.get(url,timeout=60) print("access!") request.raise_for_status() html=request.content print(html) returnhtml url_retry("http://httpbin.org/status/404") #url_retry("http://httpbin.org/status/404111") #url_retry("http://www.baidu.com")
python3.5以上版本:
#-*-coding:utf-8-*- """ ayou """ importaiohttp,asyncio #定义一个重试修饰器,默认重试一次 defretry(num_retries=1): #用来接收函数 defwrapper(func): #用来接收函数的参数 defwrapper(*args,**kwargs): #为了方便看抛出什么错误定义一个错误变量 last_exception=None #循环执行包装的函数 for_inrange(num_retries): try: #如果没有错误就返回包装的函数,这样跳出循环 returnfunc(*args,**kwargs) exceptExceptionase: #捕捉到错误不要return,不然就不会循环了 last_exception=e #如果要看抛出错误就可以抛出 #raiselast_exception returnwrapper returnwrapper asyncdefprint_page(url): asyncwithaiohttp.ClientSession()assession: asyncwithsession.get(url,timeout=60)asresponse: print("access!") #raise_for_status(),如果不是200会抛出HttpProcessingError错误 response.raise_for_status() body=awaitresponse.text() session.close() print(body) returnbody @retry(5) defloop_get(): #url="http://www.baidu.com" #url='http://httpbin.org/status/404111' url='http://httpbin.org/status/404' loop=asyncio.get_event_loop() loop.run_until_complete(print_page(url)) loop.close() if__name__=='__main__': loop_get()
以上这篇python爬虫URL重试机制的实现方法(python2.7以及python3.5)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。