python爬虫获取多页天涯帖子
今天练习了抓取多页天涯帖子,重点复习的知识包括
- soup.find_all和soup.selcet两个筛选方式对应不同的参数;
- 希望将获取到的多个内容组合在一起返回的时候,要用'zip()'的代码来实现;
- 两层代码结构之间的关系如何构造;
这里有一个疑问:有时候一个标签可以有多个属性,不知道soup.find_all()能不能接受不止一个属性以缩小查找的范围。
#引入库和请求头文件 importrequests frombs4importBeautifulSoup headers={ 'User-Agent':'Mozilla/5.0(Macintosh;IntelMacOSX10_12_0)AppleWebKit/537.36(KHTML,likeGecko)Chrome/62.0.3202.94Safari/537.36' } #定义主体函数。函数主体由四部分组成: #1.请求网址 #2.解析网页,形成可查找的html格式 #3.通过soup.select或者sopu.find_all查找需要的标签 #4.通过zip()代码将多个内容合并在一起 defget_content(url): res=requests.get(url,headers=headers) res.encoding='utf-8' soup=BeautifulSoup(res.text,'html.parser') contents=soup.find_all('div','bbs-content') authors=soup.find_all('a','js-vip-check') forauthor,contentinzip(authors,contents): data={ 'author':author.get_text().strip(), 'content':content.get_text().strip() } print(data) #在这里构造一个两层链接结构:帖子的1、2、3、4页和帖子的详情页的关系在这里实现 if__name__=='__main__': urls=['http://bbs.tianya.cn/post-develop-2271894-{}.shtml'.format(str(i))foriinrange(1,5)]#要注意,这里的‘5'是不包括在范围里的 forurlinurls: get_content(url)