
网络爬虫
qq_45911550
蚓无爪牙筋骨,唯用心也。
展开
-
linux下使用mitmproxy
参考链接等等。。。转载 2021-07-30 00:19:32 · 360 阅读 · 0 评论 -
jsonpath的使用
import jsonpathimport requestsfrom lxml import etreeimport jsonheaders = { 'user-agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.164 Safari/537.36'}url = 'https://webcast3-normal-c-lf.amemv.com/we.原创 2021-07-21 14:08:29 · 239 阅读 · 0 评论 -
adb使用记录
1、开启服务:adb start-server2、关闭服务adb kill-server3、查看设备adb devices4、原创 2021-07-18 16:03:45 · 162 阅读 · 0 评论 -
appium使用笔记
1、基本信息填写2、解决开始驱动时sdk和jdk的路径问题导致的启动失败问题原创 2021-07-18 10:26:13 · 126 阅读 · 0 评论 -
edxposed+trustmealready
1、抓包工具安装原创 2021-07-16 09:57:49 · 1577 阅读 · 0 评论 -
selenium模拟鼠标滑动
原文#将滚动条移动到页面的底部js="var q=document.documentElement.scrollTop=100000" driver.execute_script(js) time.sleep(3) #将滚动条移动到页面的顶部 js="var q=document.documentElement.scrollTop=0" driver.execute_script(js) time.sleep(3) #若要对页面中的内嵌窗口中的滚动条进行操作,要先定位到该内嵌原创 2021-07-12 16:03:04 · 3519 阅读 · 0 评论 -
windows 下安装scrapy
当初安装scrapy可谓是费了九牛二虎之力啊,再次安装,按照下面的方式,亲测可行。文件下载链接{.whl}博客原文地址原创 2021-02-05 23:09:04 · 123 阅读 · 0 评论 -
python上级、同级、下级包的导入
一、上级1.1 情况1如图所示的结构图,在m.py 中调用n.py假如从n.py下导入A类from ..n import A特别的,scrapy爬虫中导入items.py的方式为:from ..items import JdItem,JdItem为类名。其实使用情况二的方式来也可以。1.2 情况2如果在上几级,如下图的结构所示,在m.py中调用n.py导入的方式为import sys,ossys.path.append(os.getcwd())#将整个项目添加到搜索目录中from t原创 2021-02-05 18:12:54 · 2158 阅读 · 0 评论 -
scrapy+splash 的使用
使用splash需要安装docker,我这里使用的是ubuntu20.04.1、安装dockersudo apt install docker.iosudo docker pull scrapinghub/splash1、开放端口安装完成之后需要开放本机的8050和8051端口,不然运行不了爬虫。sudo docker run -p 8050:8050 -p 8051:8051 scrapinghub/splash3、在爬虫中使用splash3.1 安装splashpip3 insta原创 2021-02-04 20:20:37 · 215 阅读 · 0 评论 -
scrapy
一、基础操作1、建立爬虫项目:tutorialscrapy startproject tutorial2、使用 scrapy shellThe best way to learn how to extract data with Scrapy is trying selectors using the Scrapy shell. Run:scrapy shell 'http://quotes.toscrape.com/page/1/'然后使用css、xpath等工具进行数据提取,例如res原创 2021-02-01 23:32:39 · 127 阅读 · 0 评论 -
selenium使用总结
selenium中查询节点的方法较多,这里主要总结出查找输入框和点击按钮的语法:1. 输入框:直接找到这个节点输入就可以了2. 点击按钮:同样直接找到就可以了3. 在利用xpath时,查找元素属性需要使用rq.get_attribute(‘属性’),其中re是该节点。4. 在使用xpath时,查找节点文本,使用re.text即可;...原创 2021-01-27 00:09:26 · 114 阅读 · 0 评论 -
css和xpath找到节点后查找节点的相关信息
查到相应的节点之后,关键在于如何找出该节点中的相关信息1、 节点属性对应的值:<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>css:在这一条语句中,找到这个节点之后,我们知道,href,class,id都是这个节点的属性,如果rq=这个节点,那么rq[‘href’],rq[‘class’],rq[‘id’]分别可以得到链接、sister、link1. <book id=原创 2021-01-27 00:06:47 · 374 阅读 · 0 评论 -
python爬取奇趣网小说
废话不多说,直接上代码,欢迎留言提问。#在爬虫爬取的过程中,需要判断传入的链接对应的是静态网页还是动态网页,然后选择不同的代码对其进行爬取#因为静态爬取比较快,所以当网页为静态网页时就不需要调用动态爬取的代码了,from bs4 import BeautifulSoup,UnicodeDammitfrom urllib.request import Request,urlopenfrom selenium import webdriverfrom selenium.webdriver.chrom原创 2020-07-13 21:53:18 · 403 阅读 · 0 评论 -
python爬虫爬取音乐
话不多说,直接上代码,代码里写了注释,有兴趣讨论一下的,欢迎评论。import timefrom urllib.request import urlopen,Request#引入回车键的包,这些都是基本配置from selenium.webdriver.common.keys import Keysfrom selenium import webdriverfrom selenium.webdriver.chrome.options import Optionsheaders = {原创 2020-07-14 13:36:14 · 880 阅读 · 0 评论