
Python
文章平均质量分 77
mankvis
这个作者很懒,什么都没留下…
展开
-
【VX小程序逆向】房*下小程序pseusign参数分析
经过来回删除恢复参数的方式,得出 pseusign 参数尤为重要,直接分析小程序代码。使用 Charles 软件进行抓包,详细过程就不细说了,直接贴上抓包结果。使用微信小程序开发工具导入解包后的代码,直接编译运行,会得到以下错误信息。为函数的第 2 个参数,是一个对象,多调试几次就知道是接口的请求参数。对在 PC 端拿到的小程序文件进行解密,参考上述文章即可。为函数的第 1 个参数,是一个 URL 地址。来获取小程序的代码,不过后面在使用。,使用过程也很简单,简单演示下。继续编译允许,继续报错,内容如下。原创 2023-04-11 18:31:35 · 3450 阅读 · 4 评论 -
Numpy扩展包的基本使用
1.为什么要使用Numpy?下面用一个小小的例子来说明下,比如现在有两个列表,每个列表内的元素个数相同,现在要求两个列表中的每个元素一一对应相乘进行运算,把计算结果放到新列表中常规写法#现在2两个列表,且每个列表元素个数相同,要求两个列表内的每个元素一一对应进行相乘运算,并把所有结果放到一个新的列表3中list_1 = [1,2,3,4,5]list_2 = [1,2,3,4,5]list_...原创 2018-04-02 22:18:59 · 17992 阅读 · 0 评论 -
Pandas扩展包的基本上使用
1.Pandas的介绍 Pandas 是基于 NumPy 的一个非常好用的库,正如名字一样,人见人爱。之所以如此,就在于不论是读取、处理数据,用它都非常简单。 Pandas 有两种自己独有的基本数据结构。读者应该注意的是,它固然有着两种数据结构,因为它依然是 Python 的一个库,所以,Python 中有的数据类型在这里依然适用,也同样还可以使用类自己定义数据类型。只...原创 2018-04-03 13:57:46 · 18164 阅读 · 0 评论 -
Django之强大后台xadmin的使用(一)
大家可能觉得django自带的后台管理系统看着略有些别扭,这里给大家介绍一下xadmin后台管理系统,是基于bootstrap开发的,也可以认为xadmin也是一个app,下来记录下自己学习的过程。1.准备工作...原创 2018-05-17 19:42:43 · 19314 阅读 · 0 评论 -
Ubuntu16.04安装Python环境
大家会发现,在安装Ubuntu系统之后,系统会默认自带的有两个Python版本,一个Python2和一个Python3版本,具体版本会根据不同的Ubuntu版本会有所不同,但是有时候我们在Ubuntu上部署项目的时候,项目所需要的环境并不是Ubuntu中自带的,比如一个项目需要3.6的版本,而Ubuntu中自带的3.4,这样的话我们就要自己手动安装一个Python3.6版本。1.安...原创 2018-05-20 15:10:59 · 13731 阅读 · 2 评论 -
Ubuntu16.04下Python安装虚拟环境
1.操作系统Ubuntu16.042.安装包apt-get install virtualenvapt-get install virtualenvwrapper3.配置虚拟环境目录1.创建虚拟环境目录来存放所有虚拟环境mkdir ~/.virtualenvs2.编辑.bashrcsudo vim ~/.bashrc3.在bashrc的末尾增加下面...原创 2018-05-21 12:27:05 · 889 阅读 · 0 评论 -
Python基于Elasticsearch实现搜索引擎
        ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful Web接口.Elasticsearch是用Java开发的,并作为Apache许可条款的开放源码发布,是当前流行的企业级搜索引擎设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。1.准备...原创 2018-06-03 16:25:09 · 9385 阅读 · 1 评论 -
Ubuntu16.04.3下Nginx实现负载均衡
什么是Nginx? Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。Nginx应用场景 1.http服务器。Nginx是...原创 2018-06-05 17:12:22 · 1669 阅读 · 0 评论 -
Pandas聚合运算和分组运算
1.聚合运算(1)使用内置的聚合运算函数进行计算1>内置的聚合运算函数sum(),mean(),max(),min(),size(),describe()...等等2>应用聚合运算函数进行计算import numpy as npimport pandas as pd#创建df对象dict_data = { 'key1':['a','b','c','d','a','b','...原创 2018-04-09 18:44:58 · 14433 阅读 · 0 评论 -
Pandas合并之Concat合并
1.Concat语法pd.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False,keys=None, levels=None, names=None, verify_integrity=False)参数说明objs:series或者dataframe对象构成的序列asix:需要合并连接的轴,0是行,1是列join...原创 2018-04-09 14:57:24 · 9910 阅读 · 0 评论 -
Scrapy基于Mysql数据库异步写入数据库
1.在settings配置文件中设置连接参数# 数据库地址MYSQL_HOST = 'localhost'# 数据库用户名:MYSQL_USER = 'root'#数据库密码MYSQL_PASSWORD = '123456'#数据库端口MYSQL_PORT = 3306#数据库名称MYSQL_DBNAME = 'qisuu_data'#数据库编码MYSQL_CHARSET =...原创 2018-03-22 20:29:00 · 30484 阅读 · 5 评论 -
Scrapy基于selenium结合爬取淘宝
在对于淘宝,京东这类网站爬取数据时,通常直接使用发送请求拿回response数据,在解析获取想要的数据时比较难的,因为数据只有在浏览网页的时候才会动态加载,所以要想爬取淘宝京东上的数据,可以使用selenium来进行模拟操作 对于scrapy框架,下载器来说已经没多大用,因为获取的response源码里面没有想要的数据,因为没有加载出来,所以要在请求发给下载中间件的时...原创 2018-03-22 20:51:33 · 30226 阅读 · 0 评论 -
Python中Mysql数据库的基本用法
在python2版本中,一般使用mysql-python这个包来操作mysql在python3版本中,则使用pymysql这个包1.导入pymysql这个包import pymysql2.连接数据库db_conn = pymysql.connect( # 数据库地址 host='localhost', # 数据库用户 user='root', # 数据库密码...原创 2018-03-22 22:01:22 · 28410 阅读 · 0 评论 -
Scrapy基于scrapy_redis分布式爬虫的布隆去重
1.从网上下载一个别人写好的布隆去重py文件百度网盘:https://pan.baidu.com/s/1KbK4WAWxAQnslIomAoQSiw 密码:gld02.如果要想指定项目启动布隆去重的话找到环境下的路径E:\ENVS\JobDataScrapyEnv\Lib\site-packages文件夹,找到scrapy_redis,单独复制到需要布隆去重的项目中在把下载好的布隆去重文件Bloo...原创 2018-03-31 17:06:12 · 22213 阅读 · 0 评论 -
Python在Windows系统下安装虚拟环境
准备工作:1.下载需要的python版本附上python版本链接:python2.7: https://pan.baidu.com/s/1IJBxFnEWBng0IwGIsS77gg 密码:dmmjpython3.6: https://pan.baidu.com/s/14KEiOhkyPbqd7X9QCHISrQ 密码:enxl2.分别安装各个版本的环境,如果我全部安装在D盘3.添加其中一个版本(...原创 2018-03-22 11:41:01 · 41549 阅读 · 0 评论 -
Scrapy基于scrapy_redis实现分布式爬虫部署
准备工作1.安装scrapy_redis包,打开cmd工具,执行命令pip install scrapy_redis2.准备好一个没有BUG,没有报错的爬虫项目3.准备好redis主服务器还有跟程序相关的mysql数据库前提mysql数据库要打开允许远程连接,因为mysql安装后root用户默认只允许本地连接,详情请看此文章部署过程1.修改爬虫项目的settings文件在下载的scrapy_red...原创 2018-03-26 18:05:32 · 31474 阅读 · 10 评论 -
Pandas合并之Merge合并
1.Merge语法merge(left, right, how='inner', on=None, left_on=None, right_on=None,left_index=False, right_index=False, sort=True, suffixes=('_x', '_y'), copy=True, indicator=False) 参数说明:left,right:指左右两个D...原创 2018-04-09 13:20:15 · 10810 阅读 · 0 评论 -
Python在Windows系统下基于Scrapyd部署爬虫项目(本地部署)
部署前准备1.准备一个支持scrapy项目的虚拟环境,确保能正常运行scrapy爬虫,已经下载需要的各种包2.进入虚拟环境后安装scrapyd,scrapyd-client这两个包,具体命令如下安装scrapyd,scrapyd-client包后,在虚拟环境下运行scrpayd命令打开浏览器输入http://localhost:6800,如果显示以下页面则安装成功进行部署3.在非C盘符下创建一个文...原创 2018-03-22 18:26:05 · 33263 阅读 · 5 评论