
python
小牛_牛sky
学海无涯
展开
-
python下对文档(*.docx)和表格(*.xlsx)的简单操作
1. 根据模板批量生成文档想要运用python来编辑word是有些难度的,主要是因为文档涉及到的因素比较多,仅仅是字体就有颜色、大小、加粗等等属性,这也就造成了使用python“无中生有”一个文档的困难性。这里推荐一个使用模板批量生成文档的包:mailmerge。1.1 制定模板文件docx我个人使用的是WPS,office的Word操作大同小异。首先点击插入,之后点击...原创 2019-11-06 09:39:02 · 3716 阅读 · 0 评论 -
docker部署flask项目2 Docker Compose的简单使用
上一节中,在写好了Dockerfile之后,我们使用了两个命令:即docker build和docker run来构建镜像和运行基于该镜像的容器,这些命令在开发过程中是需要经常需要的,而Docker Compose就可以定义上面的操作;当然,Docker Compose的功能不止如此,它可以用YAML文件定义一组要启动的容器,以及容器运行时的属性。除此之外,它也可以指定一些运行时的属性来和其他容器...原创 2019-07-25 15:08:08 · 845 阅读 · 0 评论 -
docker部署flask项目1 使用gunicorn替代测试服务器
在程序开发过程中,往往会遇到环境配置和版本问题,而为了避免环境配置问题,对于python来说一般都会使用到虚拟环境,比如常用的virtualenv、pipenv等。当把项目部署到服务器上的时候,像virtualenv来说则不太方便了,这个时候就推荐使用Docker。Docker可以提供操作系统级别的虚拟环境,一个Docker镜像一般都包含一个完整的操作系统,而这些系统内部也有已经配置好的开发环...原创 2019-07-24 16:18:04 · 735 阅读 · 0 评论 -
简单爬取github下载链接2:按照文件夹层级关系下载文件
上一篇的简单爬取github下载链接并没有考虑到遇到文件夹的情况,这次就针对文件夹的情况来对之前的代码进行一次更新。一般情况下,要下载各个文件并不算困难,只需要判断一下这个是文件还是文件夹;而加入了文件夹后就牵涉到了嵌套的关系,所以会稍微有些麻烦。一.日志log是我根据python提供的logging来调用了几个语句。简单地说,就是把警告及以上的写入到文件,把INFO以及以上的输出到控...原创 2019-05-29 17:15:02 · 1625 阅读 · 0 评论 -
云服务器下docker部署mongodb
mongodb作为非关系型数据库。本次配置是在阿里云服务器上配置。1.下载镜像首先可以通过以下指令获取有哪些镜像:docker search mongo显示列表如下:第一个为root仓库,也就是官方提供的mongo镜像,接着拉取这个镜像即可。docker pull mongo如果镜像下载过慢,则可以使用docker镜像加速器:①.ubunut下s...原创 2019-05-28 19:35:50 · 984 阅读 · 0 评论 -
python3 开发之一:classmethod和staticmethod
1.staticmethod对于一般的计算机语言,都会提供静态方法,这个方法可以认为是类的方法。即可以直接 类.方法(),也可以通过类的实例,也就是对象.方法()进行调用。就静态方法这方面来说,python语言和其他提供了静态方法的语言来说并没什么区别。比如在java中,main方法(主函数)就是一个静态方法。class Test{ public static void m...原创 2019-05-27 21:56:48 · 1085 阅读 · 0 评论 -
云服务器下docker部署scrapyd之一:Scrapyd的容器化
一.部署前的准备在开始部署之前,先梳理一下几个关键词:1.ScrapyScrapy是一个基于Twisted的异步处理框架,是纯Python实现的爬虫框架。Scrapy由Spider、Middleware、Downloader、Pipeline等组成,各个模块之间耦合度低,扩展性强。Scrapy的整体结构如下:图1:Scrapy架构2.ScrapydScrapyd是一...原创 2019-05-30 16:15:06 · 2475 阅读 · 0 评论 -
云服务器部署flask+nameko的安装
由于flask本身带有一个测试服务器,所以如果不考虑性能和压力的话,是可以不用使用其他服务器的。以下部署均在服务器上进行。一.使用测试服务器以官网所给的例子为例:from flask import Flaskapp = Flask(__name__)@app.route('/')def hello_world(): return 'Hello World!'if ...原创 2019-05-30 10:51:51 · 1574 阅读 · 4 评论 -
python实用小工具之一:BMFont位图导出脚本
在游戏开发中,尤其是对于移动端的游戏开发来说,直接使用TTF来进行渲染是非常消耗资源的;而且一般的游戏用到的字的个数都是有限的。针对以上几个弊端,就有人按照着活字印刷术的原理来设计了一个在游戏中常用的位图导出工具,比如windows下的bmfont、java写的hiero等等,用到文字比较多的一般是RPG游戏,如下图所示:图像来源:https://blog.youkuaiyun.com/lufy_leg...原创 2019-05-25 21:36:11 · 1367 阅读 · 0 评论 -
python3 常见问题以及解决办法
1.使用python3的csv模块写入文件时多一个空行这个问题主要出现在open函数中,应该为如下:fp = open(output, "w", encoding="utf-8", newline="")writer = csv.writer(fp)2.解析类似于“05::02:01,12”这样的时间上面的字符串可以自己根据文本进行解析,也可以使用time模块的函数进行解析...原创 2019-05-21 20:23:23 · 428 阅读 · 0 评论 -
python3 爬取网页报错:'gb2312' codec can't decode byte 0xb5 in position 154969: illegal multibyte sequence
前几天需要在网页上爬取信息,就使用到了requests库爬取网页,其中遇到的比较大的坑则是中文编码。python版本:3.72操作系统:windows10首先需要爬取网页信息。def parse_url(url, callback): """ 根据url爬取页面,若成功则调用回调函数 :param url: 链接 :param callback: ...原创 2019-05-07 14:09:05 · 3373 阅读 · 1 评论 -
flask项目部署到阿里云ubuntu服务器 uwsgi+nginx
1.为什么需要服务器?Web服务器都会使用一种叫做Web服务网关接口(Web Server Gateway Interface, WSGI)的协议,这是一种标准化的设计,它让Python应用(不局限于python)跟Web服务器能够轻松地通信。在用flask开发web项目的时候,程序员一般使用的是由Werkzeug提供的WSGI服务器,即development环境所使用的服务器;而像jav...原创 2019-05-09 16:30:04 · 1560 阅读 · 0 评论 -
selenium爬取QQ空间
这几天在看《从零开始学python网络爬虫》中的模拟浏览器篇,对其中的爬取好友说说比较感兴趣,不过书中只是爬取每个好友第一页说说,因此我稍微改进了下(发书名是尊重作者,不过个人认为这本书讲得比较浅,不求甚解)。先大致说一下我遇到的坑。首先,如果想要看别人的说说,是必须要登录的(使用cookie应该也可以);然后,可能没有权限访问好友空间;最后则是获取下一页链接并点击前还要注意可能没有下一页了。...原创 2018-12-12 11:54:24 · 1256 阅读 · 4 评论 -
爬取简书网30日热门得到词云
这几天在看《从零开始学python网络爬虫》,里面有一章是爬取简书网7天热门,不过我在打开简述网七天热门的时候发现压根就只有一页(可能连一页都不到。。。),之后感觉不够难度就改而选择爬取30天热门。1.链接分析首先,简书网30天热门的第一个链接是:https://www.jianshu.com/trending/monthly?utm_medium=index-banner-s&u...原创 2018-12-07 11:43:39 · 664 阅读 · 2 评论 -
爬取简书网30日热门得到词云 续
前面所使用的jieba分词中,是自行收集一些不重要的词进行过滤的,效率不是很高,并且带有比较大的主观性(算是优点,也算是缺点)。本次则改为使用中文停用词表来过滤一些词语。代码相对于上一节来说变化的主要是analysis.py 中的analysis函数。代码大致如下:import jieba.analysedef analysis(db_name, collection_nam...原创 2018-12-08 11:33:17 · 247 阅读 · 0 评论 -
简单爬取github下载链接
这几天在看《python3 网络爬虫实战》,里面用到了tesseract和它对应的语言包,为了避免使用这个库出错,我就开始在github上下载对应的语言包,但是无论是使用浏览器,还是wget下载,都会在下载一大半的时候出错,于是萌生了一个分开下载的念头。转念一想,自己手动根据链接下载比较简单,但是麻烦,而且重复;而恰好正在学习爬虫的相关知识,因此有了下面的代码。本示例代码爬取了https://...原创 2018-10-27 19:58:53 · 2290 阅读 · 5 评论