脚本批量检测网站是否存活
1.脚本内容编写如下:
#!/bin/bash url=( www.baidu.com www.pornhub.com www.vip.com www.91porn.com www.taobao.com ) foriin${url[*]} do ping-c2$i>/dev/null2>&1 if[$?-eq0];then echo"$i服务正常" else echo"$i服务异常" fi done
注:
- 1表示stdout标准输出,"1>/dev/null"为屏蔽标准输出
- 2表示stderr标准错误&表示等同于的意思,2>&1,表示2的输出重定向等同于1
2.给脚本增加执行权限
chmod+xwebsite.sh
3.在当前路径下执行脚本
[root@host-135~]#./website.sh www.baidu.com服务正常 www.pornhub.com服务异常 www.vip.com服务正常 www.91porn.com服务正常 www.taobao.com服务正常
补充:下面看下批量检测url存活脚本
一个简单的批量检测url存活脚本
思路是先读取文件里面的url,然后通过requests模块去访问它,最后提取访问正常的url下载到指定文件夹
importrequests withopen(r'C:\Users\惠普\Desktop\1111\链接.txt','r',encoding='utf-8')asf: u=f.readlines() length=len(u) foriinrange(0,length): a=u[i].strip() try: headers={'User-Agent':'Mozilla/5.0(WindowsNT6.1;WOW64;rv:6.0)Gecko/20100101Firefox/6.0'} r=requests.get(u[i].strip(),headers=headers,timeout=5).status_code ifr!=200: print('无法连接'+':'+a) else: withopen(r'C:\Users\惠普\Desktop\1111\连接正常url.txt','a')asf:#提取访问正常的文件下载路径 f.write(a+'\n') except: print('连接超时'+':'+a)
到此这篇关于批量检测网站是否存活的脚本的文章就介绍到这了,更多相关脚本检测网站是否存活内容请搜索毛票票以前的文章或继续浏览下面的相关文章希望大家以后多多支持毛票票!