
python优化
阿三先生
好学 积极 上进 乐观
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
公众号后台,添加了智能机器人和圣诞图片处理
搞了大概一周的时间,走过了一坑又一坑,坑连坑,终于可以拿出来见人了,功能还不完善,很多有待提升。 主要有以下功能: ***关注公众号,回复功能提示*** ***发送图片,返回圣诞图片*** ***输入关键字回复对应内容...原创 2019-12-20 16:53:14 · 283 阅读 · 1 评论 -
“狗屁不通文章生成器”荣登GitHub热榜,分分钟完成万字大作,更有国际版,中国风手写版
前几天,GitHub 有个开源项目特别火,只要输入标题就可以生成一篇长长的文章。星级10.9k项目星级:10.9k项目中文名:狗屁不通文章生成器项目英文名:BullshitGeneratorimage.png这洋洋洒洒的万字大作,引经据典,贯穿中外。由于最近也在看自然语言nlp的相关内容,正要沐浴戒斋好好欣赏,你竟然告诉我这是狗屁不通文章生成器,我就纳闷了...原创 2019-12-03 20:40:25 · 742 阅读 · 0 评论 -
pyecharts的V1.5绘画优美图形
版本: pyecharts 分为 v0.5.X 和 v1 两个大版本,v0.5.X 和 v1 间不兼容,v1 是一个全新的版本v0.5.X支持 Python2.7,3.4+ 经开发团队决定,0.5.x 版本将不再进行维护v1仅支持 Python3.6+新版本系列将从 v1.0.0 开始因之前的版本是低于0.5的,许多同学使用中带来很多问题,所以现在...原创 2019-11-06 10:02:23 · 319 阅读 · 2 评论 -
我是怎么从30个并发平均每个2000毫秒 到 300个并发平均每个178毫秒的
最近一个多月一直在做服务器的性能优化,老大的要求是要做到300个并发,控制在200毫秒以内,就说说我最近做的内容吧。从30个并发平均每个2000毫秒 到 300个并发平均每个178毫秒简单介绍一下做了那些优化:01、减少log日志的打印02、减少redis的交互03、耗时操作的处理04、大文件信息的存储05、python的缓存机制06、异步处理非返回操作一、定位耗时操作 -- ...原创 2019-01-03 15:27:39 · 2078 阅读 · 0 评论 -
Python缓存神奇库cacheout全解,优于内存的性能
python的缓存库(cacheout)项目: https://github.com/dgilland/cacheout文档地址: https://cacheout.readthedocs.ioPyPI(下载链接): https://pypi.python.org/pypi/cacheout/TravisCI(下载链接): https://travis-ci.org/dgil...原创 2019-01-03 15:33:46 · 6473 阅读 · 0 评论 -
Python:使用多线程并发执行任务,并接收有序的返回值
在使用多线程时,简单的IO操作有时满足不了我们的需求,我们需要有序的接收返回值,例如:调用第三方API我这个栗子是调用TTS的在线合成API,先看一下结果吧:左侧:正常的顺序执行,共进行了4次调用,最后的总时间为4次之和右侧:通过多线程并发执行,共进行了4次调用,整个执行时间大约为用时最长的一次的时间先看一下要进行TTS的数据:["我的公众号是Python疯子", "内容没有花架...原创 2019-05-05 09:59:04 · 4443 阅读 · 1 评论