现有7个目录下面分别有30个站的数据,总共是210个站的数据,现在要让他做备份服务器,就要把nginx的环境配置好,显然手动配置超级慢,这里写了一个脚本,可以批量生成nginx的虚拟主机的文件。
不动的可以问,但不可以说脏话。
#/bin/bash
find ./ -maxdepth 3 -type d -name "*.com" | sed 's#.\/#\/www\/backup\/#' > /root/zhan.txt
find ./ -maxdepth 3 -type d -name "*.net" | sed 's#.\/#\/www\/backup\/#' >> /root/zhan.txt
find ./ -maxdepth 3 -type d -name "*.org" | sed 's#.\/#\/www\/backup\/#' >> /root/zhan.txt
find ./ -maxdepth 3 -type d -name "*.cn" | sed 's#.\/#\/www\/backup\/#' >> /root/zhan.txt
for wwwpath in `cat /root/zhan.txt`
do
domain=`echo $wwwpath | awk -F/ '{print $6}'`
domain=`echo $domain | awk -F. '{ if ( NF == 2 ) {print "www."$0} else {print $0}}'`
echo $domain
echo $wwwpath
cat > /root/vhost/$domain.conf <<EOF
server
{
listen 80;
server_name $domain ;
index index.html index.htm index.php;
root $wwwpath ;
limit_rate 30M;
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|html|htm)$
{
expires 30d;
}
location ~ .*\.(js|css)?$
{
expires 12h;
}
}
EOF
done
转载于:https://blog.51cto.com/ach4ng/981861