使用python验证代理ip是否可用的实现方法
在使用爬虫爬取网络数据时,如果长时间对一个网站进行抓取时可能会遇到IP被封的情况,这种情况可以使用代理更换ip来突破服务器封IP的限制。
随手在百度上搜索免费代理IP,可以得到一系列的网站,这里我们通过对西刺网站的抓取来举例。
通过编写一个爬虫来抓取网站上面的IP地址,端口,及类型,把这些信息存到本地。这里不做介绍。
验证代理IP是否可用。原理是使用代理IP访问指定网站,如果返回状态为200,表示这个代理是可以使用的。
#_*_coding:utf-8_*_
importurllib2
importre
classTestProxy(object):
def__init__(self):
self.ip='106.46.136.64'
self.port='808'
self.url='http://www.baidu.com'
self.timeout=3
self.regex=re.compile(r'baidu.com')
self.run()
defrun(self):
self.linkWithProxy()
deflinkWithProxy(self):
server='http://'+self.ip+':'+self.port
opener=urllib2.build_opener(urllib2.ProxyHandler({'http':server}))
urllib2.install_opener(opener)
try:
response=urllib2.urlopen(self.url,timeout=self.timeout)
except:
print'%sconnectfailed'%server
return
else:
try:
str=response.read()
except:
print'%sconnectfailed'%server
return
ifself.regex.search(str):
print'%sconnectsuccess.......'%server
printself.ip+':'+self.port
if__name__=='__main__':
Tp=TestProxy()
也可以使用requests包来进行验证,要少写好多代码
importrequests
try:
requests.get('http://wenshu.court.gov.cn/',proxies={"http":"http://121.31.154.12:8123"})
except:
print'connectfailed'
else:
print'success'
把验证通过的IP保存在redis里面,在IP被禁止的时候可以从redis中取出来使用。
受@齐俊杰的提醒,添加一种使用telnet来验证的方法:
importtelnetlib
try:
telnetlib.Telnet('127.0.0.1',port='80',timeout=20)
except:
print'connectfailed'
else:
print'success'
总结
以上所述是小编给大家介绍的使用python验证代理ip是否可用,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对毛票票网站的支持!