Linux下抓取网页数据小程序

每天都在维护学校的教务系统,访问量小的时候还好,访问量大的时候server时不时就崩溃。。同学写了一个自动重启Web server的小程序,果断拿来学习一下,收获很大,现总结如下。

 

Web server部署在Linux操作系统上,IDE用的是Weblogic Workshop。如果访问量大到超过Weblogic连接池最大容量的时候,server就会崩溃。。Weblogic有个自带网页的控制台console,里面有个监控页面Monitor。显示了当前的连接数,最大连接数等等数值。所以可以写程序实时抓取监控页面的数据,来决定什么时候自动重启。

 

使用wget命令来下载网页,用system命令来执行语句。

如 wget http://www.baidu.com -O baidu_index.html

这样就在当前目录下,抓取到了百度的主页到baidu_index.html文件下。

写在程序里就用 system("wget http://www.baidu.com -O baidu_index.html"); 运行后相当于执行了上面的命令。同理,写system("startWeblogic.sh &");就相当于重启Weblogic。

 

这样就简单了,使用wget下载到监控页面后,读到当前的连接数,如果大于一个值就重启就搞定了~(因为监控页面的框架是固定的,所以在固定的行数读数字就好了O(∩_∩)O~~)。

 

写完了程序,想想自己还差得远啊,光光加油!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值