python爬虫scrapy框架的梨视频案例解析
之前我们使用lxml对梨视频网站中的视频进行了下载,感兴趣的朋友点击查看吧。
下面我用scrapy框架对梨视频网站中的视频标题和视频页中对视频的描述进行爬取
分析:我们要爬取的内容并不在同一个页面,视频描述内容需要我们点开视频,跳转到新的url中才能获取,我们就不能在一个方法中去解析我们需要的不同内容
1.爬虫文件
- 这里我们可以仿照爬虫文件中的parse方法,写一个新的parse方法,可以将新的url的响应对象传给这个新的parse方法
- 如果需要在不同的parse方法中使用同一个item对象,可以使用meta参数字典,将item传给callback回调函数
- 爬虫文件中的parse需要yield的Request请求,而item则在新的parse方法中使用yielditem传给下一个parse方法或管道文件
importscrapy
#从items.py文件中导入BossprojectItem类
frombossProject.itemsimportBossprojectItem
classBossSpider(scrapy.Spider):
name='boss'
#allowed_domains=['www.xxx.com']
start_urls=['https://www.pearvideo.com/category_5']
#回调函数接受响应对象,并且接受传递过来的meata参数
defcontent_parse(self,response):
#meta参数包含在response响应对象中,调用meta,然后根据键值取出对应的值:item
item=response.meta['item']
#解析视频链接中的对视频的描述
des=response.xpath('//div[@class="summary"]/text()').extract()
des="".join(des)
item['des']=des
yielditem
#解析首页视频的标题以及视频的链接
defparse(self,response):
li_list=response.xpath('//div[@id="listvideoList"]/ul/li')
forliinli_list:
href=li.xpath('./div/a/@href').extract()
href="https://www.pearvideo.com/"+"".join(href)
title=li.xpath('./div[1]/a/div[2]/text()').extract()
title="".join(title)
item=BossprojectItem()
item["title"]=title
#手动发送请求,并将响应对象传给回调函数
#请求传参:meta={},可以将meta字典传递给请求对应的回调函数
yieldscrapy.Request(href,callback=self.content_parse,meta={'item':item})
2.items.py
要将BossprojectItem类导入爬虫文件中才能够创建item对象
importscrapy classBossprojectItem(scrapy.Item): #definethefieldsforyouritemherelike: #name=scrapy.Field() #定义了item属性 title=scrapy.Field() des=scrapy.Field()
3.pipelines.py
open_spider(self,spider)和close_spider(self,spider)重写这两个父类方法,且这两个方法都只执行一次在process_item方法中最好保留returnitem,因为如果存在多个管道类,returnitem会自动将item对象传给优先级低于自己的管道类
fromitemadapterimportItemAdapter
classBossprojectPipeline:
def__init__(self):
self.fp=None
#重写父类方法,只调用一次
defopen_spider(self,spider):
print("爬虫开始")
self.fp=open('./lishipin.txt','w')
#接受爬虫文件中yield传递来的item对象,将item中的内容持久化存储
defprocess_item(self,item,spider):
self.fp.write(item['title']+'\n\t'+item['des']+'\n')
#如果有多个管道类,会将item传递给下一个管道类
#管道类的优先级取决于settings.py中的ITEM_PIPELINES属性中对应的值
##ITEM_PIPELINES={'bossProject.pipelines.BossprojectPipeline':300,}键值中的值越小优先级越高
returnitem
#重写父类方法,只调用一次
defclose_spider(self,spider):
self.fp.close()
print("爬虫结束")
4.进行持久化存储
到此这篇关于python爬虫scrapy框架的梨视频案例解析的文章就介绍到这了,更多相关python爬虫scrapy框架内容请搜索毛票票以前的文章或继续浏览下面的相关文章希望大家以后多多支持毛票票!
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。