自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

zz

  • 博客(20)
  • 收藏
  • 关注

原创 汽车路径尽头放一个点图像验证

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档目标网址:aHR0cHM6Ly9uZnQucG9yc2NoZS5jb20vb25ib2FyZGluZw==目前我们所做的,还是有一些缺陷:①小车在图的边边,会导致我们这边的识别不出来起点位置②当终点和小车的启示位置相距很近的时候也会导致终点识别不准确③有些路口会加粗导致最后终点回连路口加粗部分不过经过测试,以上图片在案例中不少,目前常规的都能识别到。一些我收集的图片供各位大佬实践。

2023-01-15 21:30:15 4726 1

原创 极验消消乐——做笔记

【代码】极验消消乐——做笔记。

2022-11-25 09:14:31 487

原创 Ubuntu换源

然后我个人的愚见,并不建议换源,就采用官方的源。如果非要去换源,那一定先备份官方的源再去换或者快照一下。然后陆续去换了其他的源,发现都会报错,后面发现Ubuntu是有版本号的。在换了阿里云的源后,更新执行sudo apt update,会报。因为才接触Ubuntu,如果有什么错误,欢迎大佬指点。我的版本是20.04 TSL。

2022-10-10 01:36:32 281 1

原创 一点补环境的小东西

补环境

2022-08-25 23:08:13 760 8

原创 再试JSVMP(猿人学第18题)

文章目录前言1.同样的入口函数研究2.一些难点3.AES代码声明:本文只作学习研究,禁止用于非法用途,否则后果自负,如有侵权,请告知删除,谢谢!前言前面刚刚试了一下网络者的jsvmp,今天就去试了一下猿人学的jsvmp,发现这两个案例都是较为简单jsvmp地址:aHR0cHM6Ly9tYXRjaC55dWFucmVueHVlLmNvbS9tYXRjaC8xOA==较为详细的请看我前面网络者那篇,因为两个网址较为相似,方法也是相同的,这点就记录一些关键点。1.同样的入口函数研究那这些名.

2022-03-30 21:51:24 1203

原创 初试JSVMP(网洛者第七题)

文章目录前言1.基础条件2.入口函数3.入口函数进一步探索4. 其他的一些有趣的地方5.算法对比6.其他大佬文章推荐声明:本文只作学习研究,禁止用于非法用途,否则后果自负,如有侵权,请告知删除,谢谢!前言前面一直在看关于一些jsvmp的文章去研究,但是奈何脑袋不太灵光,最近才摸明白了一点(算是入了个门),就准备详细的写一些,就算是做个总结啦。后面也准备去研究其他较为困难的,欢迎大佬们一起来交流啊。目标网址:aHR0cDovL3NwaWRlci53YW5nbHVvemhlLmNvbS9jaGF

2022-03-30 01:02:35 4478 2

原创 python和股市一点小知识

声明一哈:这只是我自己点浅薄的股票知识和python的结合,写起来玩的哈,看的各位千万不要当真哈,股票很复杂啊,对我来讲哈。真的千万不要当真啊!!!!!看起耍就行了哦#通过爬取数据来计算预投资股票好价格# 是在确定好 公司后才操作#深证A股的pe 平均值在 20—40 这个区间 投资价值不大# <20表明投资价格很大 >60 不能投资,可以考虑卖出# 这是整个股市的情况,一般好公司只有在股市整体下

2021-02-26 17:03:39 320

原创 selenium(记笔记)

from selenium import webdriverimport time#1. selenium基本是使用driver = webdriver.Chrome()driver.get("http://www.baidu.com")#driver.get('https://www.so.com/?src=lm&ls=sm2290156&lm_extend=ctype:31')#driver.get('https://www.jd.com/?cu=true&ut...

2021-01-30 14:08:13 533

原创 消费者与生产者(记笔记)

# lock 生产者和消费者模式# 先是生产者模式 进行多线程 (完后) 然后储存中间变量 最后 在消费者模式 进行多线程import threadingimport randomgmoney=0gtime=0glock=threading.Lock()class productor(threading.Thread): def run(self) -> None: global gmoney global gtime

2021-01-24 14:39:17 147

原创 数据库(记笔记)

#连接数据库import pymysql#1.使用pymysql.connect()连接数据库db = pymysql.connect(host='',port=,user='',password='',database='')#2.如果想要操作数据库,还需要获取db上面的cursor对象cursor=db.cursor()#3.使用cursor.execute 来执行sql语句cursor.execute('select * from 表名') #找到想要操作的表#4.经行操作re

2021-01-23 19:41:48 164

原创 excel文件(记笔记)

自己的一点点愚见#excel文件操作# 安装两个库 xlrd用于读取 xlwt用于写入#1.打开excel文件 获取sheetimport xlrdworkbook=xlrd.open_workbook(".xlsx")#1.获取sheet名字workbook.sheet_names() #这里会报xlrd.biffh.XLRDError: Excel xlsx file; not supported 把xlrd版本降为1.2.0版本即可#2.根据索引获取指定的sh

2021-01-23 15:51:47 227 4

原创 csv文件操作(记笔记)

```#一。读取csv文件import csv#1.通过下标来获取一列的内容''' with open('stock.csv','r',encoding='gbk') as fp: readers=csv.reader(fp) #csv.reader() 返回的是一个迭代器 可用循环得出内容 for reader in readers: print(reader) #得到的内容是一个列表 可以通过 reader[] 加下标 .

2021-01-23 13:54:38 571 2

原创 json字符串(记笔记)

json 看了是视频后 我自己的理解 (就是像一个中转站一样 从一个地方到一个地方的必经之地一样),感觉理解得有些浅显不要太在意哈。import jsonbooks = [ { "name": "三国演义", "price": 18.8 },{ "name": "水浒传", 'price': 19.9, }]# result = json.dumps(books,ensure_ascii=False)

2021-01-21 18:14:27 151

原创 记笔记(正则)

import re# 分组:# text = "apple price is $99,orange price is $88"# result = re.search('.+(\$\d+).+(\$\d+)',text)# print(result.groups())# group()/group(0):匹配整个分组# group(1):匹配第一个分组# group(2):匹配第二个分组# groups():获取所有的分组# findall:查找所有满足条件的# text = "

2021-01-20 16:13:48 161

原创 BeautifulSoup库(笔记)

from bs4 import BeautifulSouphtml = '''<html><head><title>The Dormouse's story</title></head><body><p class="title" name="dromouse"><b>The Dormouse's story</b></p><p class="story">On...

2021-01-16 10:14:04 180

原创 xpath 和 在 lxml 中应用 (做个小笔记)

#xpath#xpath(XML Path Language)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历。#1.用法''' / 代表逐层提取 实例 提取标题 /html/head/title text() 提取标签下的文本 实例 提取标题文本

2021-01-12 14:15:26 139

原创 requests库(做个笔记)

#requests 库import requestsfrom urllib import parse#1.post请求url = "…………"headers = { 'User-Agent': '。。。。'}data = { 'username':'…………', 'password':'…………'}resp = requests.post(url,headers=headers,data=data)print(resp.text)# 对于 resp.text

2021-01-11 23:49:18 100

原创 同时使用IP代理池和用户代理池(做笔记)

感觉自己写得很复杂还是自己太low了#总结综合应用from urllib import requestimport reimport randomtry: #1.建立用户代理池 #1.1建立一个 用户池 agents=[ "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"

2020-12-27 15:08:12 17871 7

原创 用户池代理

感觉自己写得很 复杂欢迎各位 大佬 指导 是否可以更简洁一点```#用户池代理设置from urllib import requestimport reimport randomagents=["Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/35.0.1916.153 Safari/537.36","Mozilla/5.0 (Windows NT 6

2020-12-26 14:33:47 147

原创 目前自己写爬虫遇到的一些报错

错误1:list index out of range 原因:在用lxml和xpath对一个网站进行解析,在解析的时候出现错误-IndexError: list index out of range 是在中这个网站的html代码中有的标识为空,只要加上try: .....except: pass 错误机制跳过空值就行了错误2:'utf-8' codec can't decode byte 0xd3因为 原因是因为这里的0xd3,这是无法转换出来的

2020-12-25 20:47:29 375

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除