Python探索之爬取电商售卖信息代码示例
网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。
下面有一个示例代码,分享给大家:
#!/usr/bin/envpython
#
encoding='utf-8'#
Filename:spider_58center_sth.py
frombs4
importBeautifulSoup
importtime
importrequests
url_58='http://nj.58.com/?PGTID=0d000000-0000-0c5c-ffba-71f8f3f7039e&ClickID=1'
''
'
用于爬取电商售卖信息:例为58同城电脑售卖信息''
'
defget_url_list(url):
web_data=requests.get(url)
soup=BeautifulSoup(web_data.text,'lxml')
url=soup.select('td.t>a[class="t"]')
url_list=''
forlinkinurl:
link_n=link.get('href')
if'zhuanzhuan'inlink_n:
pass
else:
if'jump'inlink_n:
pass
else:
url_list=url_list+'\n'+link_n
print('url_list:%s'%url_list)
returnurl_list#分类获取目标信息
defget_url_info():
url_list=get_url_list(url_58)
forurlinurl_list.split():
time.sleep(1)
web_datas=requests.get(url)
soup=BeautifulSoup(web_datas.text,'lxml')
type=soup.select('#head>div.breadCrumb.f12>span:nth-of-type(3)>a')
title=soup.select('div.col_sub.mainTitle>h1')
date=soup.select('li.time')
price=soup.select('div.person_add_top.no_ident_top>div.per_ad_left>div.col_sub.summary>ul>'
'li:nth-of-type(1)>div.su_con>span.price.c_f50')
fineness=soup.select('div.col_sub.summary>u1>li:nth-of-type(2)>div.su_con>span')
area=soup.select('div.col_sub.summary>u1>li:nth-of-type(3)>div.su_con>span')
fortypei,titlei,datei,pricei,finenessi,areaiinzip(type,title,date,price,fineness,area):#做字典
data={
'type':typei.get_text(),
'title':titlei.get_text(),
'date':datei.get_text(),
'price':pricei.get_text(),
'fineness':(finenessi.get_text()).strip(),
'area':list(areai.stripped_strings)
}
print(data)
get_url_info()
爬取商城商品售卖信息
以上就是本文关于Python探索之爬取电商售卖信息代码示例的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站:Python探索之自定义实现线程池、Python探索之ModelForm代码详解等,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!
热门推荐
10 对患者生日祝福语简短
11 结婚祝福语简短装备
12 周岁祝福语学生文案简短
13 订婚领证祝福语简短精辟
14 导师获奖祝福语大全简短
15 新婚购房祝福语简短精辟
16 牛年祝福语简短的爱人
17 送芒果的祝福语简短
18 送给学长毕业祝福语简短