- 博客(57)
- 收藏
- 关注
原创 Python 文件解压全解教程
批量解压下载的数据集;程序自动提取日志压缩包;Web项目上传压缩包后自动解包;测试中需要解析外部压缩数据文件。Python 自带的标准库 + 第三方扩展库,能让这些操作非常简单。
2025-10-29 21:45:38
313
原创 Python 测试全解 · 第一篇
写测试,其实是对自己代码的尊重。测试不仅能防 bug,更能培养一种“逻辑审查力”。当你写代码时脑中就能浮现测试点,那说明你已经真正跨过了“会写代码”的门槛,进入了“写得靠谱”的层次。
2025-10-28 20:02:07
1975
原创 用 Python 自动生成带图表的 Excel 汇总报告
自动生成图表,无需人工绘制数据更新即可自动刷新图表适合日报、月报、销售趋势等自动报表场景到这一步,我们的“Python Excel 自动化系列”已经从原始表 → 清洗 → 汇总 → 可视化形成了一条完整的自动报表流程。
2025-10-25 18:32:27
361
原创 第十章:Python 面向对象编程(类与对象、继承、多态实战
编程思想特点过程式编程按步骤写代码(先干什么,再干什么)面向对象编程把数据和功能封装成“对象”,让对象自己去做事过程式写法:定义函数run_dog()eat_dog()。面向对象写法:创建一个Dog类,对象调用方法dog.run()dog.eat()。面向对象更符合我们“现实世界”的思维方式。class Dog:print("汪汪!")
2025-10-25 18:31:24
819
原创 第八章:Python 文件与数据读写
保存运行结果;读取配置文件;导入或导出数据;与其他系统交互(如日志、CSV、JSON)。掌握文件操作,是从“写代码”走向“做项目”的关键一步。
2025-10-24 16:47:30
958
原创 第七章:Python 数据结构进阶
Python 之所以强大,很大一部分原因是它内置了四种非常灵活的数据结构👉 列表(list👉 元组(tuple👉 字典(dict👉 集合(set高效地保存、修改和搜索数据;轻松完成各种数据处理;写出结构清晰、性能优良的代码。fruits = ["苹果", "香蕉", "橘子"]['苹果', '香蕉', '橘子']有序:元素有固定顺序;可变:可以修改、增加或删除;支持重复元素。info = ("Tom", 20, "北京")有序;不可修改(元素一旦定义不能改);
2025-10-24 16:46:46
869
原创 第六章:函数与作用域详解(含参数类型与返回值)
def 函数名(参数1, 参数2, ...):函数体return 返回值print("你好,欢迎学习Python!")# 调用函数greet()你好,欢迎学习Python!
2025-10-24 16:44:16
686
原创 Python基础教程第5篇 循环语句与控制流程全解
想象一下:老师让你打印 1 到 100 的数字。太笨了,对吧?程序员更聪明 —— 只要写几行循环代码,电脑就能帮我们重复执行!
2025-10-23 15:23:42
989
原创 Python基础入门教程(第四篇):条件判断与分支结构全攻略
根据不同条件,执行不同操作。如果成绩 ≥ 60,则输出“合格”如果天气好,就去爬山,否则就宅家登录时,如果密码正确,就进入系统,否则提示错误在 Python 中,用ifelifelse来实现分支判断。
2025-10-23 15:15:07
267
原创 Python基础入门教程(第三篇):运算符与表达式全解
运算符(Operator)是执行计算、比较、逻辑判断的符号。等。3 + 5age > 18a and b💡一句话理解表达式会“产生一个结果”,这个结果可以是数字、布尔值、字符串等。
2025-10-23 15:14:20
340
原创 Python基础入门教程(第二篇):变量、数据类型与输入输出
变量就是“用来存放数据的名字”。你可以把变量想成一个贴了标签的盒子,里面可以放任何值。name = "Alice" # 把字符串"Alice"放入名为name的盒子age = 18 # 把数字18放入名为age的盒子💡通俗解释当你写age = 18时,Python 会在内存中开辟一个空间存 18,并贴上“age”的标签,以后你提到age,它就知道是这个值。
2025-10-23 15:12:11
295
原创 Python基础入门教程(第1篇)——Python简介与环境搭建
Python 是一种解释型、通用型、面向对象的编程语言。它的特点是:语法简洁、可读性强、学习成本低,同时功能非常强大。数据分析与人工智能Web 开发自动化脚本(批量处理文件、网页爬虫)测试开发(接口测试、UI自动化)办公自动化(Excel、Word、PDF 批处理)Python能帮你把电脑的重复工作交给代码完成。
2025-10-23 15:10:55
1080
原创 第六篇:Scrapy 爬取多页内容与分页逻辑实战
爬虫最常见的需求之一就是“分页爬取”——网站数据往往被分散在多页里。本篇我们将讲解 Scrapy 中如何优雅地处理分页请求,防止重复抓取与遗漏。分页爬取是 Scrapy 中最基础、也是最常用的实战技能。理解请求调度机制与递归结构后,你就能轻松应对大部分分页网站。
2025-10-22 14:59:56
625
原创 第六篇:Requests 代理、超时与重试机制详解
当遇到 500、502、503、504 状态码时,会自动重试最多 3 次,每次等待时间依次增加。Requests 支持 HTTP、HTTPS、SOCKS 协议的代理。在实际项目中,合理设置这三项能显著提升爬虫或接口脚本的可靠性与健壮性。代理可以隐藏真实 IP、突破访问限制或进行分布式爬取。网络不稳定或接口波动时,自动重试机制可以提高成功率。,则每次重试间隔为 1s、2s、4s…Requests 原生不带重试机制,但可通过。这种简单的代理轮换方式适合中小规模爬取。要使用 SOCKS 代理,需要安装。
2025-10-22 14:59:34
1163
原创 【聚宽实战】jqdatasdk库get_fundamentals 无数据?一文教你快速排查权限与时间问题
在聚宽(JoinQuant)平台做量化研究时,我们经常会用到来获取个股的财务数据,例如估值、市盈率、市净率等指标。。这时,不一定是代码写错了,可能只是——。本文就带你一步步排查,并提供验证思路。
2025-10-22 14:48:16
930
原创 第五篇:Session 会话与登录保持实战
)session.cookies.set("sessionid", "abc123") # 手动设置 cookie通过设置的内容会在每个请求中自动添加。
2025-10-21 14:01:17
823
原创 第4篇:Headers 与 Cookies 管理全解
Win64;x64)",输出结果会显示我们发送的头信息。自定义User-Agent可以有效绕过部分网站的反爬虫机制。请求头 headers 的常见类型与自定义方法;cookies 的提取、发送与 Session 自动管理;多场景实战与常见错误。掌握这些技巧后,你就能灵活模拟浏览器访问、自动登录网站或保持身份状态。
2025-10-21 13:59:34
299
原创 第4篇:Headers 与 Cookies 管理全解
Win64;x64)",输出结果会显示我们发送的头信息。自定义User-Agent可以有效绕过部分网站的反爬虫机制。请求头 headers 的常见类型与自定义方法;cookies 的提取、发送与 Session 自动管理;多场景实战与常见错误。掌握这些技巧后,你就能灵活模拟浏览器访问、自动登录网站或保持身份状态。
2025-10-21 13:58:31
304
原创 第3篇:requests的POST 提交与数据传输全攻略
方式参数名适用场景表单提交data=网页表单、老接口JSON 提交json=REST API、现代接口有些接口要求附带特定请求头,比如认证信息或自定义标识。可以通过headers如果同时使用data与自定义,务必保持一致,否则服务器可能拒绝请求。files = {POST 请求的表单与 JSON 提交方式;headers 自定义与文件上传;请求体组合技巧;常见错误与最佳实践。理解这些内容后,你就能灵活地模拟表单提交、上传文件或调用现代 REST 接口。
2025-10-21 13:57:35
366
原创 第2篇:Requests的请求参数与 URL 构造全解
本文全面介绍了Python Requests库中URL参数构造的多种方法。详细讲解了GET请求通过params传递参数的自动编码机制、多值参数处理、手动构造查询字符串的技巧,以及POST请求中URL参数的传递方式。文章还涵盖了URL编码原理、复杂参数构造实例(如分页请求、混合路径参数)、实用小技巧和常见问题解决方案。通过具体代码示例,展示了如何避免参数乱码、重复拼接等常见问题,帮助开发者构建更精确可靠的API请求。
2025-10-21 13:56:06
475
原创 第1篇《Requests 基础入门与响应对象详解》
Requests 的基本概念与安装;Response对象常用属性;GET/POST 的基础用法;常见问题与解决方式。掌握这些内容后,你就能自由地发送网络请求并处理响应数据。
2025-10-21 13:55:00
668
原创 第五篇:Scrapy Pipeline 管道处理与数据存储全攻略
本文介绍了Scrapy框架中Pipeline管道的使用方法和技巧。Pipeline用于处理、清洗和存储爬虫抓取的数据,通过yield item输出的内容会依次进入启用的管道处理。文章详细讲解了如何创建Pipeline类、激活配置、设置优先级,并提供了保存到CSV、JSON和MySQL的代码示例。同时分享了分层处理、动态控制、异步操作等实用技巧,以及常见错误如忘记激活管道、编码问题等。掌握Pipeline机制可以灵活实现数据的后处理和存储,是Scrapy爬虫开发的重要环节。
2025-10-20 14:20:57
339
原创 第4篇: Scrapy的Item 与 ItemLoader 使用详解
Item是 Scrapy 中专门用来描述数据结构的对象。简单来说,它相当于“数据模板”或“数据模型”。进入项目目录中的items.pytext = scrapy.Field() # 名言author = scrapy.Field() # 作者tags = scrapy.Field() # 标签这样我们就定义了一个叫QuoteItem的结构,里面包含三个字段。
2025-10-20 14:13:49
653
原创 第3篇: Scrapy 的Request 与 Response 深入讲解
很多网站会根据User-Agent或Referer判断访问是否合法。Win64;x64)",💡如果项目中需要统一设置请求头,可以直接在q=0.9',
2025-10-20 14:13:04
949
原创 第2篇 Scrapy 编写第一个爬虫——从网页中提取数据
本文介绍了如何用Scrapy编写第一个网页爬虫。主要内容包括:1)创建爬虫项目并生成基础模板;2)编写核心逻辑,使用CSS选择器提取页面标题、作者和标签;3)实现自动翻页功能;4)运行爬虫并导出CSV数据;5)对比CSS和XPath选择器的使用。文章还分享了调试技巧和常见问题,并展示了如何导出不同格式的数据。通过这个简单示例,读者可以掌握Scrapy爬虫的基础开发流程,满足大部分网页数据采集需求。
2025-10-20 14:12:05
1923
原创 第一篇 Scrapy入门与环境搭建
到这一步,你已经完成了:✅ Python 环境配置✅ Scrapy 安装✅ 创建并运行第一个爬虫✅ 了解了项目结构与工作原理第2篇《编写第一个爬虫——从网页中提取数据》我们将真正开始写爬虫逻辑:用 XPath 和 CSS 选择器提取网页内容,并把结果导出为文件。
2025-10-20 14:10:49
801
原创 第四篇: Selenium等待机制详解:让自动化脚本更稳定的三种方法
类型是否智能应用范围优点缺点❌ 否固定时间等待简单易用效率低✅ 是全局作用简洁、通用不灵活✅ 是针对特定条件精确、高效写法稍复杂全局设一个隐式等待;局部用显式等待保证关键步骤稳定;少量调试时才使用sleep()。
2025-10-19 10:25:02
1041
原创 第五篇:Selenium 交互操作篇 —— 输入、点击与表单处理全攻略
本文详细介绍了Selenium自动化测试中的三种等待机制:强制等待(time.sleep)、隐式等待(implicitly_wait)和显式等待(WebDriverWait)。强制等待简单但效率低;隐式等待全局生效,智能等待元素出现;显式等待最灵活,可针对特定条件进行精确等待。文章对比了三者的优缺点,建议实际项目中结合使用,并提供了常见等待条件和实战示例,帮助开发者编写更稳定的自动化脚本。掌握这些等待机制能显著提升脚本的可靠性和执行效率。
2025-10-19 10:17:29
806
原创 第三篇:Selenium 元素定位技巧:从基础到高级的八种定位方式
本文系统介绍了Selenium自动化测试中的八种元素定位方法,从基础的ID、NAME、CLASS_NAME定位,到更灵活的XPath和CSS选择器。重点讲解了XPath的多种写法(绝对/相对路径、属性匹配、模糊匹配等)和CSS选择器的语法规则,并通过百度搜索框示例演示具体应用。同时指出了定位失败常见原因及解决方案,建议优先使用ID定位,并合理利用浏览器开发者工具调试。文章还提及多元素操作方法,为后续学习等待机制奠定基础。这些定位技巧是编写稳定自动化脚本的关键所在。
2025-10-19 10:13:10
609
原创 第二篇:WebDriver详解:掌握浏览器对象的基本操作
本文详细介绍了Selenium中WebDriver的核心操作方法。主要内容包括:创建不同浏览器的驱动对象,控制网页打开、前进后退、刷新等基本操作,管理窗口大小和位置,实现多标签页切换,获取网页信息和截图,以及设置隐式等待。文章通过示例代码展示了完整的WebDriver工作流程,包括打开网页、切换窗口、调整大小、截图保存等操作,为后续学习元素定位打下基础。WebDriver作为Selenium的核心组件,掌握其基本操作是自动化测试的重要前提。
2025-10-19 10:11:29
380
原创 第一篇:Selenium入门:安装、环境配置与第一个自动化脚本
在做网页自动化时,Selenium 是最常用也最经典的库之一。它能模拟人工操作浏览器,比如打开网页、输入文字、点击按钮、抓取数据等等。下面我们从零开始,一步步带你搭建好环境,并写出第一个可运行的自动化脚本。解决办法:更新或降级 ChromeDriver 版本,使其与浏览器版本一致。,学习浏览器的各种操作方法:打开新标签、前进后退、刷新页面、窗口大小控制等。运行后,你会看到浏览器自动打开、输入关键词并进行搜索。学会了基本操作,后续的定位、交互、等待等都能逐步展开。可以看到你的 Chrome 版本号。
2025-10-19 10:08:55
443
原创 怎么安装requirements.txt文件里的库
本文介绍了Python项目环境配置流程:1)在项目根目录放置requirements.txt文件;2)使用virtualenvwrapper创建虚拟环境;3)在VSCode/PyCharm中切换解释器路径;4)验证环境并配置清华镜像源加速;5)最后通过pip安装项目依赖。注意事项包括避免中文路径、环境验证方法和镜像源设置。
2025-10-18 11:58:55
395
原创 生成requirements.txt 文件的方法
生成Python项目依赖文件的4种方法:1.pip freeze导出全部依赖;2.pipreqs自动扫描生成仅需依赖;3.手动编写requirements.txt;4.Poetry或setup.py工具导出。建议将文件放在项目根目录,开发/生产环境依赖可分别保存为requirements.txt和requirements-dev.txt。
2025-10-18 11:58:02
403
原创 python操作Word第二篇 文档批量合并:实现文字资料的高效整合
本文介绍了一种利用Python的python-docx库批量合并Word文档的方法,解决日常办公中资料分散、手动合并效率低下的问题。代码通过自动读取指定文件夹内的所有Word文件,将内容逐段合并到新文档并添加分页符,最后输出为单一文件。该方法适用于论文资料整合、报告汇总、合同管理等场景,能显著提升文字资料的整理效率,尤其适合学生、研究人员和行政人员使用。
2025-10-18 11:57:10
316
原创 python操作word第一篇 用 Python 自动生成与批量处理 Word 文档
摘要:本文介绍如何用Python的python-docx库实现Word文档的自动化处理,包括自动生成报告(添加标题、段落、图片)、批量生成个性化文档(从Excel读取数据)、模板自动替换(替换占位符)以及合并多个Word文件。这些方法可大幅提升工作效率,适用于批量生成成绩单、报价单、合同等场景,避免手动操作费时易错的问题。
2025-10-17 20:07:26
345
原创 excel的第六篇 用 Python 实现自动化数据监控与报告生成excel
本文介绍了一个自动化数据分析和报告生成的Python解决方案。通过持续监控指定文件夹,系统能在检测到新Excel文件时自动完成数据合并、清洗、分析,并生成包含趋势图的Word报告。核心代码使用pandas处理数据、matplotlib绘制图表、python-docx创建文档,实现了全流程自动化。用户只需将数据文件放入监控文件夹,系统就会定期检查更新并输出最新报告,显著提升数据处理效率。
2025-10-17 20:04:52
436
原创 用 Python 自动生成带图表的 Excel 汇总报告
本文介绍了如何用Python的openpyxl库自动生成带图表的Excel可视化报告。通过读取汇总数据,在Excel中自动插入柱状图(按客户)和折线图(按月),并保存为新文件。核心代码使用Reference对象指定图表数据范围,支持自定义图表类型、标题和位置。这种方法可替代手动操作,实现数据自动可视化,适用于日报、月报等场景。文章还提供了进阶功能建议,如添加数据标签、设置颜色主题等,完善了从数据清洗到可视化的全流程自动化方案。
2025-10-17 20:01:40
454
【Web应用开发】基于Spring Boot与Vue的校园二手交易平台设计:实现交易管理与用户交互功能
2025-10-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅