python+mongodb数据抓取详细介绍
分享点干货!!!
Python数据抓取分析
编程模块:requests,lxml,pymongo,time,BeautifulSoup
首先获取所有产品的分类网址:
defstep():
try:
headers={
。。。。。
}
r=requests.get(url,headers,timeout=30)
html=r.content
soup=BeautifulSoup(html,"lxml")
url=soup.find_all(正则表达式)
foriinurl:
url2=i.find_all('a')
forjinurl2:
step1url=url+j['href']
printstep1url
step2(step1url)
exceptException,e:
printe
我们在产品分类的同时需要确定我们所访问的地址是产品还是又一个分类的产品地址(所以需要判断我们访问的地址是否含有if判断标志):
defstep2(step1url):
try:
headers={
。。。。
}
r=requests.get(step1url,headers,timeout=30)
html=r.content
soup=BeautifulSoup(html,"lxml")
a=soup.find('div',id='divTbl')
ifa:
url=soup.find_all('td',class_='S-ITabs')
foriinurl:
classifyurl=i.find_all('a')
forjinclassifyurl:
step2url=url+j['href']
#printstep2url
step3(step2url)
else:
postdata(step1url)
当我们if判断后为真则将第二页的分类网址获取到(第一个步骤),否则执行postdata函数,将网页产品地址抓取!
defproducturl(url):
try:
p1url=doc.xpath(正则表达式)
foriinxrange(1,len(p1url)+1):
p2url=doc.xpath(正则表达式)
iflen(p2url)>0:
producturl=url+p2url[0].get('href')
count=db[table].find({'url':producturl}).count()
ifcount<=0:
sn=getNewsn()
db[table].insert({"sn":sn,"url":producturl})
printstr(sn)+'insertedsuccessfully'
else:
'urlexist'
exceptException,e:
printe
其中为我们所获取到的产品地址并存入mongodb中,sn作为地址的新id。
下面我们需要在mongodb中通过新id索引来获取我们的网址并进行访问,对产品进行数据分析并抓取,将数据更新进数据库内!
其中用到最多的BeautifulSoup这个模块,但是对于存在于js的价值数据使用BeautifulSoup就用起来很吃力,所以对于js中的数据我推荐使用xpath,但是解析网页就需要用到HTML.document_fromstring(url)方法来解析网页。
对于xpath抓取价值数据的同时一定要细心!如果想了解xpath就在下面留言,我会尽快回答!
defparser(sn,url):
try:
headers={
。。。。。。
}
r=requests.get(url,headers=headers,timeout=30)
html=r.content
soup=BeautifulSoup(html,"lxml")
dt={}
#partno
a=soup.find("meta",itemprop="mpn")
ifa:
dt['partno']=a['content']
#manufacturer
b=soup.find("meta",itemprop="manufacturer")
ifb:
dt['manufacturer']=b['content']
#description
c=soup.find("span",itemprop="description")
ifc:
dt['description']=c.get_text().strip()
#price
price=soup.find("table",class_="tabletable-condensedoccalc_pa_table")
ifprice:
cost={}
foriinprice.find_all('tr'):
iflen(i)>1:
td=i.find_all('td')
key=td[0].get_text().strip().replace(',','')
val=td[1].get_text().replace(u'\u20ac','').strip()
ifkeyandval:
cost[key]=val
ifcost:
dt['cost']=cost
dt['currency']='EUR'
#quantity
d=soup.find("input",id="ItemQuantity")
ifd:
dt['quantity']=d['value']
#specs
e=soup.find("div",class_="rowparameter-container")
ife:
key1=[]
val1=[]
forkine.find_all('dt'):
key=k.get_text().strip().strip('.')
ifkey:
key1.append(key)
foriine.find_all('dd'):
val=i.get_text().strip()
ifval:
val1.append(val)
specs=dict(zip(key1,val1))
ifspecs:
dt['specs']=specs
printdt
ifdt:
db[table].update({'sn':sn},{'$set':dt})
printstr(sn)+'insertsuccessfully'
time.sleep(3)
else:
error(str(sn)+'\t'+url)
exceptException,e:
error(str(sn)+'\t'+url)
print"Don'tdata!"
最后全部程序运行,将价值数据分析处理并存入数据库中!
以上就是本文关于python+mongodb数据抓取详细介绍的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站:Python探索之创建二叉树、Python探索之修改Python搜索路径、浅谈python中copy和deepcopy中的区别等,有什么问题,欢迎留言一起交流讨论。