python递归下载文件夹下所有文件
最近想备份网站,但是php下载文件的大小是有大小限制的,而我也懒得装ftp再下载了,就想着暂时弄个二级域名站,然后用python(python3)的requests库直接下载网站根目录下的所有文件以及文件夹。(0-0就是这么任性)
1.安装requests库
pipinstallrequests
这里需要处理的地方主要是文件夹,这里我们判断出该链接是文件夹时,自动创建文件夹,并递归继续进行操作,否则判断该链接是文件,直接使用requestsget方法下载,话不多说,看代码
####春江暮客www.bobobk.com importrequests importre importos importsys defhelp(script): text='python3%shttps://www.bobobk.com./'%script print(text) defget_file(url,path):##文件下载函数 content=requests.get(url) print("write%sin%s"%(url,path)) filew=open(path+url.split("/")[-1],'wb') forchunkincontent.iter_content(chunk_size=512*1024): ifchunk:#filteroutkeep-alivenewchunks filew.write(chunk) filew.close() defget_dir(url,path):#文件夹处理逻辑 content=requests.get(url).text if"Indexof"incontent: sub_url=re.findall('href="(.*?)"rel="externalnofollow"',content) print(sub_url) foriinsub_url: if"/"ini: i=i.split("/")[0] print(i) ifi!="."andi!="..": ifnotos.direxists(path+i): os.mkdir(path+i) get_dir(url+"/"+i,path+i+"/") print("url:"+url+"/"+i+"\nurl_path:"+path+i+"/") else: get_file(url+"/"+i,path) else: get_file(url,path) if__name__=='__main__': ifnotsys.argv[1]: help(sys.argv[0]) exit(0) else: get_dir(sys.argv[1],"./")
至此,就在本地目录完全还原下载原网站的路径和文件了。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。