python网络爬虫之如何伪装逃过反爬虫程序的方法
有的时候,我们本来写得好好的爬虫代码,之前还运行得Ok,一下子突然报错了。
报错信息如下:
Http800Internalinterneterror
这是因为你的对象网站设置了反爬虫程序,如果用现有的爬虫代码,会被拒绝。
之前正常的爬虫代码如下:
fromurllib.requestimporturlopen ... html=urlopen(scrapeUrl) bsObj=BeautifulSoup(html.read(),"html.parser")
这个时候,需要我们给我们的爬虫代码做下伪装,
给它添加表头伪装成是来自浏览器的请求
修改后的代码如下:
importurllib.parse
importurllib.request
frombs4importBeautifulSoup
...
req=urllib.request.Request(scrapeUrl)
req.add_header('User-Agent','Mozilla/4.0(compatible;MSIE5.5;WindowsNT)')
response=urllib.request.urlopen(req)
html=response.read()
bsObj=BeautifulSoup(html,"html.parser")
Ok,一切搞定,又可以继续爬了。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。