转载:http://www.higis.org/2012/04/23/python-ubuntu-mysql-databack/
在Ubuntu服务器上部署了python的监控脚本后,今天继续数据及mysql备份的实现。今天一天手机就准时收到了服务器发来的邮件,报告内存及硬盘等信息,发现512的内存还真是比较吃力,使用内存一会就跑到了400多M.还想着看能否再跑个mongodb…,看来真是得好好再研究下了,虽然看了看说mongodb也能减小性能为代价而减少内存的使用,具体等django搞定再说。再说今天需要搞定的就是python继续实现数据的定时备份和mysql的备份,这个是必须的。vps虽然有Raid10什么的,但毕竟不是随手放着的硬盘,即使放身边的硬盘也说不定啥时候掉地上摔坏了(我的第一个移动硬盘就是这样被摔报销的-_-),另外其它一些不可预知的风险还是需要我们做好万全的掌握,每天备份数据,每周可以考虑上传一份备份到邮箱。
以下为python实现数据备份及mysql,都使用了gzip进行了压缩,毕竟空间也不是很大,得省着点花。技术难点上没有什么难点,主要还是os.system调用命令来实现,然后通过crontab来进行计划任务调用。代码如下:
# -*- coding:utf-8 -*-__author__='hjcook'__blogurl__='http://www.higis.org'importtime,osWEBROOT='****'WEBBACKROOT='****'FILEFORMAT='%Y%m%d%H%M'DBUSER='root'DBPASS='****'DBNAME='****'DBBACKROOT='****'BACKITEMS=['sudo tar -zcvf '+WEBBACKROOT+'blog'+time.strftime(FILEFORMAT)+".tar.gz "+WEBROOT,"sudo mysqldump -u%s -p%s --opt %s |gzip >%s"%(DBUSER,DBPASS,DBNAME,DBBACKROOT+'db'+time.strftime(FILEFORMAT)+'.gz')]defbackData():try:foriteminBACKITEMS:itemos.system(item)exceptRuntimeError,e:str(e)if__name__=="__main__":backData()
本文介绍了一种在Ubuntu服务器上使用Python脚本进行文件和MySQL数据库备份的方法,并使用gzip进行压缩,通过crontab实现定时任务。
1041

被折叠的 条评论
为什么被折叠?



