自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(58)
  • 收藏
  • 关注

原创 Linux命令 ----操作命令

分析一行的信息,若当中有我们所需要的信息,就将该行显示出来,该命令通常与管道命令一起使用,用于对一些命令的输出进行筛选加工等。chmod命令的权限模式的格式是“[ugoa][[±=][perms]]”,也就是“[用户身份][[赋予方式][权限]]”的格式,我们来解释一下。file 2>&1:将命令的标准输出重定向到文件,然后将标准错误也重定向到同一个文件(追加或覆盖,取决于 > 或 >> 的使用)。如果文件是普通文件:硬链接的个数(访问该文件的路径数),如果文件是目录:目录下的一级子目录的个数。

2025-02-14 15:22:46 656

原创 Windows系统怎么连接到linux服务器----Xshell

本文主要讲解利用Xshell连接linux服务器的相关步骤。

2025-02-08 16:51:15 256

原创 某里231滑块逆向分析

某里231滑块逆向分析

2024-11-24 10:22:35 1740

原创 某里231 滑块 请求头 bx_pp、bx_et、以及slide接口中参数n值。90%左右的成功率,需要的联系

某宝228滑块 请求头 bx_pp、bx_et、以及slide接口中参数n值

2024-10-14 17:40:51 466 1

原创 某宝228滑块最新请求头bx-et的逆向分析

某宝228滑块最新请求头bx_et

2024-10-14 17:21:34 710

原创 某宝228滑块最新请求头bx-pp的wasm调用

某宝228滑块请求头bxpp

2024-10-14 10:32:23 550

原创 某宝228滑块和普通228滑块之间的区别

228滑块

2024-10-12 17:11:43 604

原创 python 使用selenium获取控制台显示数据(日志数据)

【代码】python 使用selenium获取控制台显示数据(日志数据)

2024-09-16 15:55:16 368

原创 python 使用seleniumwire获取响应数据以及请求参数

seleniumwire 是一个在 Selenium WebDriver 基础上扩展的库,它允许你在使用 Selenium 进行网页自动化测试或爬虫时捕获和修改 HTTP 请求和响应。这对于需要分析网页数据或进行更复杂的网络交互的自动化任务特别有用。

2024-09-16 15:33:35 1034

原创 极验3代前两个参数w逆向分析

极验3代前两个w逆向分析

2024-09-16 14:23:02 1266

原创 极验3代文字点选逆向分析

极验3代文字点选逆向分析

2024-09-16 12:10:47 1696

原创 某里228滑块逆向分析

228

2024-09-10 16:19:56 1727 2

原创 某里227逆向分析

阿里227逆向分析

2024-09-07 15:56:43 1520 1

原创 某城user_dun,js逆向分析

ly user_dun逆向分析

2024-09-07 12:06:23 1179

原创 hook window

hook

2024-04-11 11:47:28 328

原创 京东滑块登录

京东滑块分析

2024-02-22 16:28:53 709 1

原创 极验4代文字点选

极验4代文字点选逆向分析

2024-01-29 12:35:53 813

原创 ddddocr识别图片中的汉字

ddddocr识别图片中的汉字

2024-01-25 17:22:51 2054

原创 极验4代滑块分析

极验4代滑块

2024-01-21 21:06:47 879

原创 极验3代滑块分析

极验3代滑块

2024-01-21 11:54:22 869

转载 python项目中使用requirement.txt移植第三方库

python项目移植requirement.txt

2023-10-11 21:37:39 404

原创 scrapy---中间件--设置User-Agent、代理

本文主要讲述scrapy—中间件,理解中间件的处理流程。

2023-06-07 17:29:47 852

原创 scrapy--模拟登录--设置cookie

本文主要讲述模拟登录。

2023-06-06 18:27:52 939

原创 scrapy--管道1

本文主要讲述怎么在scrapy中保存数据。主要讲mysql、excel的保存。

2023-06-05 14:13:57 137

原创 python爬虫框架----scrapy基础篇

Scrapy 是一个基于 Twisted 实现的异步处理爬虫框架,该框架使用纯 Python 语言编写。Scrapy 框架应用广泛,常用于数据采集、网络监测,以及自动化测试等。提示:Twisted 是一个基于事件驱动的网络引擎框架,同样采用 Python 实现。本文主要讲述Scrapy爬虫工作流程以及创建scrapy爬虫项目。

2023-06-03 18:35:20 2995

原创 加速乐-AAencode-ob混淆

加速乐、AAEncode、OB 混淆破解出多层响应 Cookie 逆向。

2023-05-07 16:08:46 884

原创 AES链接加密逆向

AES加密

2023-04-21 18:15:56 620

原创 RSA登录加密--中国移动

RSA登录加密

2023-04-19 23:15:33 248

原创 有道翻译--js逆向分析md5加密参数---破解接口密文

有道翻译-最新js分析

2023-04-18 18:05:54 817

原创 MySql 创建表,插入表数据

一 、创建表1.#### 创建表结构一样的表CREATE TABLE IF NOT EXISTS new_table_name (LIKE table_name ); CREATE TABLE new_table_name select * from table_name

2021-12-13 16:42:25 723

转载 mysql中union与union all的区别

UNION用的比较多union all是直接连接,取到得是所有值,记录可能有重复 union 是取唯一值,记录没有重复1、UNION 的语法如下:[SQL 语句 1]UNION[SQL 语句 2]2、UNION ALL 的语法如下: [SQL 语句 1] UNION ALL [SQL 语句 2]效率:UNION和UNION ALL关键字都是将两个结果集合并为一个,但这两者从使用和效率上来说都有所不同。1、对重复结果的处理:UNION在进行表链接后会筛选掉重复的记录,Union

2021-12-13 16:36:48 206

原创 Mysql 更新数据

一、根据条件更新表中指定字段的值UPDATE table_name set 字段1= REPLACE(字段1,'旧数据','新数据'),字段3= REPLACE(字段3,'旧数据','新数据'), where 字段2= '激光传感器';

2021-12-13 15:51:45 1511

原创 mysql 查询删除重复数据,保留其中一条数据

一、查询重复数据--------根据多个字段查询重复数据SELECT *FROM table_name aWHERE (a.字段1, a.字段2) IN ( SELECT 字段1, 字段2 FROM table_name GROUP BY 字段1, 字段2 HAVING

2021-12-13 15:43:02 6612 1

原创 selenium+pyquery--51job

from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.common.keys import Keysimport time

2021-11-22 14:10:47 775

原创 51job+selenium+div弹窗

from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.common.keys import Keysimport time

2021-07-08 10:30:29 1779

原创 selenium+定位frame里的元素以及class属性元中有多个用空格隔开的元素

一、frame里的元素-----例子https://mail.163.com/登录1.原因:iframe的作用是文档中的文档,或者浮动的框架(FRAME)。iframe元素会创建包含另外一个文档的内联框架(即行内框架),在selenium使用的时候如果不进行切换,我们是无法定位到iframe中的元素的。我们可以通过switch_to.frame()来切换到相应的iframe上2.观察开发者工具可以看到用户名和密码都在iframe框架中from selenium import webdriverfr

2021-07-07 10:52:30 548

原创 selenuim+携程自由行+利用try...except判断元素是否存在

from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.common.keys import Keysimport time

2021-07-06 22:31:37 318

转载 selenuim+京东

一、步骤第一步:设置input,要搜索的关键字第二步,利用selenuim设置打开浏览器第三步:声明一个list,存储dict第五步:定义爬虫函数a. 请求url :browser.get(url)b.获取输入框的id,并输入关键字 :browser.find_element_by_id(‘xxx’).send_keys(key_word)c.输入回车进行搜索: browser.find_element_by_id(‘xxx’).send_keys(Keys.ENTER)d.显示等待下一页的

2021-07-05 16:13:07 114

原创 requests+bs4 +find豆瓣

import requestsfrom bs4 import BeautifulSoupfrom random import choicefrom requests.exceptions import RequestExceptionurl = 'https://book.douban.com/tag/%E7%BC%96%E7%A8%8B'ua = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_1) AppleWebKit/537.36 (KHTML

2021-07-02 17:48:19 99

原创 requests+bs4 使用css选择器(select)豆瓣

import requestsfrom requests.exceptions import RequestExceptionfrom lxml import etreeimport time, json, csv,xlwt,xlrdimport pandas as pdfrom xlutils.copy import copyfrom bs4 import BeautifulSoup# 第一步:#定义一个方法获取网页信息def get_one_page(url): try:

2021-07-02 17:47:02 1634

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除