
python学习
文章平均质量分 55
飞天荧光棒
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
最新爱给网声音文件批量爬取
摘要 本文记录了作者尝试从爱给网下载音效文件时遇到的技术挑战。网站设置了登录限制、反爬机制和复杂的加密参数,包括动态生成的v参数和cookie校验。作者通过抓包分析发现请求需要两次交互:首次获取更新cookie,第二次才能成功请求文件。虽然尝试了JS逆向解析加密逻辑,但因参数复杂而放弃,转而采用Python结合Node.js的方案。最终实现方案是先获取加密URL,再用Node.js脚本完成下载。文章反映了当前网站反爬技术的复杂性,以及开发者应对这类挑战的技术探索过程。原创 2025-07-08 15:44:43 · 1617 阅读 · 0 评论 -
JS-RPC实战区块链交易信息获取
本文介绍了使用JS-RPC工具简化区块链网站x-apikey加密参数获取的过程。通过将加密函数提升为全局函数并注册到JS-RPC服务端,实现了远程调用网页中的加密函数。这种方法避免了传统JS逆向中扣代码、补函数的繁琐步骤,只需通过WebSocket连接即可获取加密参数,大大提高了开发效率。文章详细说明了从函数定位、全局化到JS-RPC注册的完整操作流程,并提供了相关代码示例,为开发者提供了一种更便捷的加密参数获取方案。原创 2025-07-04 10:57:56 · 732 阅读 · 0 评论 -
python tkinter 实现录屏软件
详情看博客我的博客,效果绝对好截图:原创 2021-08-14 19:17:20 · 443 阅读 · 4 评论 -
python实现防疫自测窗体--大学生作业
import tkinter as tkfrom tkinter import ttkimport datetime,timeimport tkinter.messagebox as tkmwindows= tk.Tk()windows.geometry('800x600+10+10') windows.title("张芸溪的防疫知识窗体")day_now=datetime.date.today()data=tk.Label(windows,font=('楷体',15),text=da原创 2021-04-05 17:44:34 · 580 阅读 · 0 评论 -
问答机器人从0到1 06
问答机器人从0到1 06#结束程序运行有问题sys.exit()当用户正确输入问题并回答了的时候再次输入$则无法使用import re,sys,random#导入模块from time import strftime,gmtimeimport difflibf=open('main.txt','r',encoding='utf-8')#以读取的方式打开txt数据库main=f.read()#读取txt文件到缓存并赋值给maindim_nub=0#定义模糊搜索开关writer_nub=0de原创 2020-08-15 18:21:33 · 164 阅读 · 0 评论 -
问答机器人从0到1 05
问答机器人从0到1 05import re,sys,random#导入模块from time import strftime,gmtimeimport difflibf=open('main.txt','r',encoding='utf-8')#以读取的方式打开txt数据库main=f.read()#读取txt文件到缓存并赋值给maindim_nub=0#定义模糊搜索开关def welcome(): print('先生,输入$可以关闭我嚛,模糊搜索已开启,输入&关闭')原创 2020-08-14 18:18:40 · 185 阅读 · 0 评论 -
问答机器人从0到1 04
问答机器人从0到1 04import re,sys#导入模块from time import strftime,gmtimeimport difflibf=open('main.txt','r',encoding='utf-8')#以读取的方式打开txt数据库main=f.read()#读取txt文件到缓存并赋值给maindim_nub=0#定义模糊搜索开关def welcome(): print('先生,输入$可以关闭我嚛,模糊搜索已开启,输入&关闭') time_r原创 2020-08-14 12:19:32 · 162 阅读 · 0 评论 -
问答机器人从0到1 03
问答机器人从0到1 03import re,sys#导入模块from time import strftime,gmtimeimport difflibf=open('main.txt','r',encoding='utf-8')#以读取的方式打开txt数据库main=f.read()#读取txt文件到缓存并赋值给maindim_nub=0#定义模糊搜索开关def welcome(): return_word('先生,输入$可以关闭我嚛,模糊搜索已开启,输入&关闭')原创 2020-08-13 17:08:02 · 173 阅读 · 0 评论 -
问答机器人从0到1 02
import re,sys#导入模块from time import strftime,gmtimef=open('main.txt','r',encoding='utf-8')#以读取的方式打开txt数据库main=f.read()#读取txt文件到缓存并赋值给maindef welcome(): print('先生,输入$可以关闭我嚛-') time_return()#时间问候 #while True: question=input('...')#等待用户输入问原创 2020-08-12 12:47:56 · 178 阅读 · 0 评论 -
问答机器人从0到1 01
从0开始写一个问答机器人要想写一个功能较丰富的问答机器人,首先思路要清晰,其次要选好用什么格式什么方式储存数据以及用什么方式读取数据。语言python3.X存储数据txt文件存储格式问题@回答编译器IDLE今天打算先实现能从txt文件里面根据问题寻找答案注释完整,自己领悟,让我们高呼"理解万岁!!!"import re#导入模块f=open('main.txt','r',encoding='utf-8')#以读取的方式打开txt数据库main=f.re原创 2020-08-11 16:10:49 · 222 阅读 · 0 评论 -
从0开始学爬虫---------3
…那个从0开始学爬虫我不更了,略略略~~~决定换成从开始写一个问答机器人,原创 2020-08-11 13:09:17 · 140 阅读 · 0 评论 -
从0开始学python网络爬虫----------2
从0开始学python网络爬虫----------2爬虫三大库上一篇博客对库有了初步概念,接下来将对爬虫三大库深入了解库的下载与使用库的下载下载第三方库一般可以直接在命令提示符中输入pip install packagename其中packagename为要下载的库名。安装完成后会有提示:Successfully installed packagename库的使用下载好库以后,我们就可以调用库格式为:import packagenameRequests库requests库的原创 2020-08-10 16:18:11 · 215 阅读 · 0 评论 -
古诗爬取
IP代理爬取直接代码import reimport requestsimport time# url = 'https://www.gushiwen.org/default_1.aspx'def parse_page(url): headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4原创 2020-08-09 17:31:27 · 220 阅读 · 0 评论 -
从0开始学python网络爬虫----------1
从0开始学爬虫~~~~~1编译器IDLE语言python1.爬虫原理网络连接网络连接就像自动售货机一样,用户选择商品(输入网址),投入硬币(发送请求到服务器),售货机弹出相应商品(服务器返回请求)对于学习爬虫技术,只需要知道基本的网络连接原理即可爬虫原理了解了网络连接原理可以帮助我们更好的理解爬虫原理。网络连接需要计算机一次Requests请求和服务器端一次Response回应(1)模拟计算机对服务器发送请求(2)接受服务器端返回的数据,解析,提取我们所需要的数原创 2020-08-09 14:33:20 · 339 阅读 · 1 评论 -
爬取百度
百度V百科爬取所有问题&回答哎,直接上代码import requestsimport refrom lxml import etreeimport timeheaders={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36 Edg/84.0.522.52'}def get_ur原创 2020-08-08 20:38:41 · 314 阅读 · 2 评论 -
py文件打包
当程序员的程序在其他电脑无法运行怎么办,打包成exe文件方便快捷,随时随地装逼好了话不多说要用到一个库,需要PIP哟~~库名:pyinstaller不要记错了唷,为了方便懒癌患者直接把命令打出来吧pip install pyinstaller懒癌患者复制粘贴吧具体操作进入你要打包的py文件的文件夹按住shift键不放,右击鼠标,点击在此处打开powershell窗口在窗口输入pyinstaller -F xxx.py”xxx“为要打包的文件名然后回车,等待,这时候你可以去玩,去上厕所或者一直原创 2020-08-06 16:06:00 · 440 阅读 · 0 评论 -
百度百科词条爬取
前言:为了符合我这个强迫症患者,有了问答界面,没有数据怎么办捏,所已,又写了一个爬虫,爬取百度百科页面注意:没什么注意的只是百度百科用了异步加载,比较麻烦异步加载是什么捏,emmmmmmmmmmm就是在我们普通的页面中是可以再源代码中找到网页上显示的超链接,异步加载只不过是没有吧链接放到源代码中,所以普通的方法肯定就不行了,那麽他的链接到底在哪儿捏?????可以看到源代码里是没有任何与页面相关的url,而所有的url和词条信息在另一个网址中打开检查,进入网络中可以看到有很多请求异步加载的原创 2020-08-06 15:46:22 · 4168 阅读 · 11 评论 -
弱人工智能
最近憋了这么久,自己开发了一个本地人工智能(算不上真正的人工智能,只是一个问答机器人)有些繁琐,功能太多了,没法一个个解释,直接上代码import reimport randomimport timefrom time import strftime,gmtimeimport difflib#模糊匹配库f=open('main.txt','r',encoding='utf-8')#读取本目录下main.txt数据库main=f.read()#读取数据库times=0#定义询问次数mista原创 2020-08-06 15:09:42 · 401 阅读 · 0 评论 -
古诗文学网爬取
爬取故事文学网小,中,高所有故事、文言文首先看一下网站的首页简单分析一下所需的内容在在诗文页面当中点击两个不同类型网站1网站2获取页面中所有的url,发现url全部在herf标签中进入精确的url中,获取这部分的内容查看源代码,一开始以为很顺利,结果却报错了,对比其他页面才发现id="contson后面的值是跟随url变的本以为接下来会一切顺利,接下来还报错了,仔细一看才发现原来古诗和文言文的url格式并不一样一个是.cn另一个是.org,现在才发现,不注意细节的我毁了多原创 2020-07-26 16:04:50 · 426 阅读 · 0 评论 -
恋爱吧爬取
最近竟然被虐,不行~~~程序员的恋爱,欧耶!!!网站链接代码附上import requestsimport renews={}def o(what): global naws news['机会来了,小伙子']=what for key in news: print(key+':'+news[key])for page in range(1,12000,50): url='https://tieba.baidu.com/f?kw=%C1%B5%B原创 2020-07-21 16:05:19 · 153 阅读 · 0 评论 -
笔趣阁全站小说爬取
前言:代码百分百手打,无抄袭整理一下思路1.向目标网站发起请求,获取书名,章节,内容2.拿到内容后清洗3.将清洗后的数据存入txt文件用到的库:requests,re目标网站新笔趣阁获取每一本书的url点击全部小说查看源代码寻找书籍url,名称l进入小说详细页查看页面源代码,寻找章节url获取小说详细内容然后清洗,写入txt文件代码贴上,实测可用人头担保????import requestsimport reimport timeall_info=''url原创 2020-07-21 14:14:27 · 3946 阅读 · 0 评论 -
好分数学生成绩下载
从今天开始,我决定每三天一篇博客,不知道能不能完成…最近考试结束了,想到给悻悻学子一个惊吓 惊喜????,话不多说,开造实现自动化下载好分数数据selenium简单分析一下流程实现登录好分数获取学生数据实现下载1.登录好分数好分数网址接下来就是用selenium实施登录,代码如下browser = webdriver.Chrome()#声明浏览器url = 'https://hfs.yunxiao.com/'browser.get(url)#打开网页a=browser.fi原创 2020-07-20 11:05:34 · 1677 阅读 · 2 评论