python批量获取html内body内容的实例
现在有一批完整的关于介绍城市美食、景点等的html页面,需要将里面body的内容提取出来
方法:利用python插件beautifulSoup获取htmlbody标签的内容,并批量处理。
#-*-coding:utf8-*- frombs4importBeautifulSoup importos importos.path importsys reload(sys) sys.setdefaultencoding('utf8') defprintPath(level,path): globalallFileNum #所有文件夹,第一个字段是此目录的级别 dirList=[] #所有文件 fileList=[] #返回一个列表,其中包含在目录条目的名称 files=os.listdir(path) #先添加目录级别 dirList.append(str(level)) forfinfiles: if(os.path.isdir(path+'/'+f)): #排除隐藏文件夹,因为隐藏文件夹过多 if(f[0]=='.'): pass else: #添加隐藏文件夹 dirList.append(f) if(os.path.isfile(path+'/'+f)): #添加文件 fileList.append(f) return(dirList,fileList) #将文件html文件抓取并写入指定txt文件 defgetAndInsert(rootdir,savepath,path): globalfile_num f_list=os.listdir(rootdir+'/'+path) foriinf_list: temp=os.path.splitext(i)[0] fornuminrange(1,11): if(i==str(num)+'.html'): #printrootdir+'/'+path+'/'+i objFile=open(rootdir+'/'+path+'/'+i) soup=BeautifulSoup(objFile) arr=[] forchildinsoup.body: arr.append(child) ifos.path.exists(savepath+'/'+path): pass else: os.makedirs(savepath+'/'+path) f=open(savepath+'/'+path+'/'+temp+'.txt','w') fork,vinenumerate(arr): ifk!=1: f.write(str(v)) f.close() printpath+'/'+i+'isrunning' file_num=file_num+1 rootdir='../zips2' dirList,fileList=printPath(1,rootdir) savepath="../testC" file_num=0 forfnindirList: if(fn=='1'): pass else: getAndInsert(rootdir,savepath,fn) printfn+'isending' print'一共完成'+str(file_num)+'个城市的提取'
以上这篇python批量获取html内body内容的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。