- 博客(10)
- 收藏
- 关注
原创 记录学习swoole--mysql的坑
一、PHP Fatal error: Uncaught Error: Class ‘swoole_mysql’ not found in xxx这个错误是因为用了异步回调模块,swoole 4.3.0版本后已经移除了异步模块,所以会报错没有找到swoole_mysql模块,用Swoole\Mysql一样报错。解决方案:1、用Corotuine协程模块代替2、回退到旧版本swoole(不...
2020-02-08 20:25:17
1318
原创 centos7编译安装swoole
centos7编译安装swoole前提是已经安装PHP7.3一、下载源码包二、解压,添加扩展三、编译安装四、添加swoole模块前提是已经安装PHP7.3一、下载源码包1、 进入到存放源码包的位置2、 运行命令:git clone https://gitee.com/swoole/swoole.git(注意这里是最新的源码,旧版swoole框架在官网可以下载,自寻)二、解压,添加扩展...
2020-02-08 20:04:07
468
原创 PHP微信公众号开发--上传素材
PHP微信公众号开发--上传素材制作文件上传的表单html<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>上传素材</title></head><body> <form ...
2019-10-29 16:00:55
1056
1
原创 PHP微信公众号开发--自定义菜单
PHP微信公众号开发--自定义菜单获取access_token,用到php的curl方法!getprivate function http_request(string $url) { $ch = curl_init(); //设置请求的url curl_setopt($ch, CURLOPT_URL, $url); ...
2019-10-09 21:39:33
727
原创 Scrapy+Selenium的使用
Scrapy+Selenium的使用一、新建项目二、定义item三、Spider四、对接selenium五、存储,暂时先存本地六、爬取数据如下现在大多数网站反爬严格,通过js实现了数据的加密,破解起来非常吃力,用Selenium可以很好的绕过反爬,我们不需要关心页面后台发生的请求,也不需要分析渲染过程,就可以拿到我们想要的数据,因此学习一下Scrapy+Selenium,就拿某官网进行开刀!一...
2019-08-30 15:50:55
1781
原创 PHP微信公众号开发--被动回复消息
PHP微信公众平台开发--被动回复消息php获取原生数据源,微信公众号发送给我们的消息是xml原生数据源,不能用简单的—_GET或者_POST来获取。$postStr = file_get_contents('php://input');xml转换成对象simplexml_load_string($xml, 'SimpleXMLElement', LIBXML_NOCDATA);...
2019-08-28 21:05:56
1421
原创 Python实用的内置小工具
介绍一些Python内置的小工具这些小工具可以经常在工作中用到,并且减少各种时间的浪费,但却很容易被大家忽略。。。python -m SimpleHTTPServer在python3中,由于对系统进行了重新整理,使用方式有所不同,如下:python -m http.server执行以上命令就会在当前目录下启动一个文件下载器,默认打开8000端口,可以很方便的查看Linux中的文件,比如...
2019-06-28 20:52:39
144
原创 爬虫开发环境搭建-各种库的安装(基于python3.7)
基于Windows爬虫开发环境搭建1.Python3的安装1.1 安装包的下载python3.71.2 安装勾选Add Python 3.7 to PATH 自动配置环境变量。1.3 测试验证2. 创建Virtualenv爬虫虚拟环境2.1 为了项目整洁最好给每个项目各自创建一个独立的python虚拟环境,不使用Anaconda是因为它太过繁重。2.2 在命令行工具中输入 pip...
2018-11-17 23:28:57
525
原创 记录一下xpath提取不到值(iframe多层嵌套)的问题
今天爬取中彩网福彩3d[http://www.zhcw.com/3d/]的时候,碰到iframe嵌套,xpath始终取不到值,如下图:无论怎么取值,都为null,后来发现有个这个东西然后直接进入到url里面,就可以取到值了好了,问题解决,查阅网上资料,听说可以正面攻克,比较麻烦,不推荐花时间去做这东西。最后附上本人代码,爬虫框架用的是scrapy,存储用的MySQL数据库。item...
2018-11-07 21:19:58
10020
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人