自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(37)
  • 收藏
  • 关注

原创 AI编程提示词工程实战指南:从入门到精通

摘要:本文系统总结了AI编程提示词的实用技巧,帮助开发者高效使用AI辅助编程。核心观点包括:1)明确角色、任务和约束三要素;2)提供完整上下文和示例数据;3)分步骤引导复杂功能开发;4)利用AI进行代码审查和重构;5)规范bug报告格式。作者强调应将AI视为协作伙伴而非工具,通过精准表达需求、批判性审查输出,实现10倍效率提升。文中提供了多个实战案例和模板,涵盖新功能开发、性能优化、bug修复等典型场景。

2025-12-13 23:28:11 738

原创 AI编程文本挖掘提示词实战

本文系统介绍了AI编程中提示词的设计方法。核心是遵循IPO模型(输入→处理→输出),关键要点包括:1.使用绝对路径和带引号的精确字段名;2.明确指定算法工具和参数(如SnowNLP情感分析阈值0.6/0.4);3.标准化表达词频分析(jieba分词+停用词+TopN)和可视化配置(具体色值/尺寸/DPI);4.采用模块化函数和CONFIG字典管理参数。文章提供了单文件/批量文件/多资源依赖三种场景的模板,以及情感分析、词频统计、社会语义网络分析的标准表达方法,强调通过参数化设计和分步骤对话提升提示词质量。

2025-12-13 22:34:16 896

原创 小红书爬虫零基础入门教程

本文详细介绍了爬取小红书数据的全流程,重点解析了其反爬机制与破解方法。主要内容包括:1)爬虫基础知识和HTTP请求原理;2)小红书五大反爬机制,特别是API签名验证这一核心难点;3)实战工具准备和抓包分析的详细步骤;4)代码实现的不同方案对比;5)常见问题的解决方法。 文章特别强调小红书相比普通网站的特殊性:采用多层加密保护、动态签名验证、严格频率限制等反爬措施。针对这些难点,提供了从基础到高级的解决方案,包括Cookie管理、请求头伪装、请求频率控制等实用技巧,并指出了签名破解这一最高难点的技术门槛。 最

2025-11-16 10:28:04 2696

原创 从DeepSeek-R1看推理模型的技术革命

摘要:DeepSeek-R1:低成本推理模型的突破与应用 2025年1月,开源推理模型DeepSeek-R1以极低训练成本(传统方法1/20)实现媲美顶级模型的性能,引发AI领域革命。该模型通过显式推理链模拟人类深度思考,显著提升复杂逻辑、数学及代码任务的准确性。其核心技术包括: 纯强化学习训练:无需昂贵标注数据,通过奖励机制自主优化; 知识蒸馏:将大模型能力迁移至小模型,降低部署门槛; MoE架构:动态激活专家模块,计算量减少87%仍保持90%性能。 实战场景覆盖数学推理、代码调试及RAG系统增强。尽管存

2025-10-08 21:51:15 1256

原创 提示工程深度解析:驾驭大语言模型的艺术与科学

摘要: 提示工程(Prompt Engineering)是优化大语言模型(LLM)输出的关键技术,通过结构化指令、示例引导和约束条件,显著提升AI回答的准确性与实用性。本文从LLM的工作原理切入,解析其概率推理特性与能力边界,提出四大核心原则:清晰性(明确指令)、结构化(格式引导)、示例驱动(Few-Shot学习)和约束性(限制输出范围)。高级技巧包括思维链(分步推理)和角色扮演(激活领域知识),并针对代码生成、数据分析等场景提供模板化策略。同时指出常见陷阱(如问题宽泛、忽略结构化)及解决方案,强调迭代优化

2025-10-06 21:00:00 1838

原创 深度特征工程实战:从数据到模型的关键一步

特征工程是机器学习中决定模型性能上限的关键环节。本文系统介绍了特征工程的核心技术和实战技巧,包括:数值型特征处理方法(缩放、非线性变换、离散化);类别型特征编码技术(目标编码、频次编码);时间序列特征构造(周期性编码、滞后特征);特征交互与选择方法;以及避免数据泄露的注意事项。文章强调,特征工程需要结合业务理解进行迭代优化,简单的特征组合往往比复杂算法更有效。未来趋势包括自动化工具发展和端到端学习,但深入理解数据价值的核心思想不会改变。掌握这些技术能显著提升模型性能,是成为优秀算法工程师的必经之路。

2025-10-05 19:44:16 2969

原创 深度模型瘦身术:从100MB到5MB的工业级压缩实战

本文系统介绍了四大AI模型压缩技术:量化、剪枝、知识蒸馏和低秩分解。量化通过降低参数精度(FP32→INT8)实现4倍压缩;剪枝移除冗余神经元,可压缩2-10倍;知识蒸馏让小模型模仿大模型,压缩比达5-20倍;低秩分解则优化全连接层结构。文章提供了PyTorch代码示例,并展示了组合技术效果:如YOLOv5模型压缩4倍后精度仅下降1.7%。还介绍了TensorRT、ONNX等部署优化方法,以及评估指标和常见问题解决方案。最后展望了NAS、BNN等前沿技术,为不同场景提供了技术选型建议。

2025-10-04 21:00:00 1671

原创 B站评论爬虫实战:从数据获取到情感分析

本文详细解析了B站评论爬虫的技术实现方案。主要内容包括:1. B站API接口分析与数据结构解析,包含评论获取、分页机制和二级评论请求方法;2. 技术难点解决方案,涉及Wbi签名验证、反爬机制应对、频率控制和数据完整性保障;3. 情感分析实战,介绍了基于词典和预训练模型的两种分析方案;4. 实际应用场景,如舆情监控、热点话题挖掘和用户画像分析;5. 完整实现示例和最佳实践建议。文章提供了从数据采集到分析应用的全流程技术方案,同时强调了合规性和性能优化的重要性。

2025-10-03 14:56:46 1199

原创 从静态图表到交互叙事:数据可视化的新范式与实现

摘要:数据可视化正从静态图表升级为交互式叙事工具。文章提出可视化的三重境界:呈现(Matplotlib/Seaborn)、交互(Plotly/ECharts)和叙事(Streamlit+AI解读)。通过电商大屏案例展示了如何用Streamlit+Plotly实现实时监控,支持时间筛选和动态展示GMV趋势与转化漏斗。未来趋势是AI自动生成数据解读、智能警报和可解释性可视化,使数据不仅"可见"更能"讲明白"。可视化工具正从单一图表发展为完整的数据产品,在业务决策中发挥更大

2025-10-01 23:35:59 1014

原创 一文详解决策树:ID3与C4.5算法

本文系统介绍了决策树中的ID3和C4.5算法。决策树通过树形结构和特征划分实现分类或回归。ID3算法采用信息增益作为划分标准,但倾向于选择取值多的特征;C4.5算法通过引入信息增益率进行改进,并新增连续特征处理、缺失值支持和剪枝功能。两种算法对比显示,C4.5在ID3基础上进行了全面升级,使其成为更实用的决策树工具。理解这两种算法是学习更复杂树模型的重要基础。

2025-09-29 20:04:34 1661 3

原创 一文详解 LaTeX 代码:从基础到常用功能

1.基础框架:含导言区(文档类如 article/report、核心包如 amsmath/ctex)与正文区,环境需成对使用。​2.核心数学排版:行内 / 独立公式语法,统计符号、希腊字母、上标下标用法。​3.文档结构元素:标题作者设置、章节层级(section/subsection)、有序 / 无序列表​。4.进阶元素:表格(tabular 环境)、图片(graphicx 包,含引用)、文献引用(bibtex 流程)。​5.实用技巧:自定义命令、常见错误调试。6.工具推荐:在线 Overleaf等

2025-09-27 14:24:06 1851

原创 Stata语法详解:从入门到精通

摘要:本文详细介绍了Stata在商业数据分析中的应用流程,包括数据准备、描述性统计、回归分析及结果可视化。重点讲解了Stata的基本语法、面板数据处理、固定/随机效应模型选择等核心内容,强调使用Do-file编写脚本的重要性。文中通过公司规模与杠杆率对ROA影响的实证案例,展示了从数据导入到结果输出的完整分析过程,并提供了处理缺失值、变量标签、稳健标准误等实用技巧,为商业研究提供了一套规范的Stata操作指南。

2025-09-26 22:00:00 1429

原创 商业背景下的词频分析、情感分析、社会语义网络分析和LDA主题分析

文本分析方法体系包含四个递进层次:1)词频分析快速识别高频核心词汇;2)情感分析判断文本情感倾向;3)社会语义网络分析揭示概念关联;4)LDA主题模型挖掘潜在主题。这四种方法可形成完整分析框架:从数据预处理开始,依次进行描述性分析、情感与关系分析、深层主题挖掘,最终整合为商业决策支持。该体系具有系统性和互补性,能由表及里地揭示文本数据的核心议题、情感态度和概念关联,适用于品牌监测、产品改进等商业场景。

2025-09-25 20:20:34 1281

原创 一文详解特征工程

特征工程是数据预处理的关键环节,其核心在于将原始数据转化为对模型更有效的特征。文章通过"数据洞察红烧肉"的烹饪比喻,形象说明特征工程的重要性:未经处理的原始数据如同未加工的食材,难以产出有效模型。特征工程包含四大板块:数据清洗(处理缺失值和异常值)、特征构建(创造复合指标)、特征变换(统一尺度)和特征选择(筛选关键特征)。其中特别强调业务理解的重要性,如电商用户流失预测案例所示,通过构建"流失风险期"等业务特征,能显著提升模型效果。特征工程是技术工具与商业洞察的结合,

2025-09-24 17:42:04 1123

原创 一文详解同方差、异方差检验及其现实应用

本文深入解析回归分析中的同方差与异方差问题。同方差指残差方差恒定,而异方差则表现为残差方差随预测值变化。异方差虽不影响参数估计的无偏性,但会导致标准误偏低、假设检验失效等问题。文章介绍了残差图、BP检验和White检验等诊断方法,并针对异方差提出了稳健标准误、加权最小二乘法和变量变换三种解决方案。通过金融、医疗和工业等领域的实例,说明异方差处理的现实重要性。最后强调将异方差检验纳入标准分析流程,推荐优先使用稳健标准误的实践策略。

2025-09-23 22:00:00 1200

原创 一文详解“频繁模式挖掘”算法

频繁模式挖掘是数据挖掘中用于发现数据集中高频出现的物品组合、序列或结构的方法。核心指标包括支持度(衡量普遍性)和置信度(衡量关联强度)。Apriori算法通过逐层搜索和剪枝发现频繁项集,但需多次扫描数据;FP-Growth算法则通过构建压缩的FP树结构,仅需两次扫描即可高效挖掘。两者对比显示FP-Growth在效率上优势明显,但实现更复杂。此外还有Eclat等垂直数据格式算法。实际应用中,FP-Growth及其变种因高性能被广泛采用。

2025-09-22 10:58:50 1537

原创 一文详解回归分析的探索、分析、检验阶段,以Stata和SPSS为例

回归分析三阶段逻辑框架总览 回归分析可分为三个关键阶段:探索阶段(数据清洗、描述统计、可视化)、分析阶段(建立模型、估计参数)和检验阶段(评估模型、验证假设)。探索阶段奠定数据基础,分析阶段获取核心结果,检验阶段确保模型稳健性。每个阶段都有明确目标:探索阶段避免"垃圾进垃圾出",分析阶段量化变量关系,检验阶段保证统计推断可靠性。完整流程应循环迭代,通过诊断发现问题后返回修改模型,直至获得理论合理且统计稳健的结果。最终模型需同时满足统计显著性和实际意义,理论指导始终是模型构建的核心原则。

2025-09-21 22:05:21 1993

原创 2025 年热门生成式 AI 工具 Top 榜单(按类别+影响力+用户/市场份额)

2025年热门AI工具榜单摘要:通用类ChatGPT领先,Google Gemini和微软Copilot分列二三位;图像类DALL·E3、Midjourney和Adobe Firefly最受欢迎;写作类Grammarly、Jasper受青睐;开发者工具GitHub Copilot和开源模型Mistral表现突出;视频/语音类Runway ML、ElevenLabs增长迅速。美国市场ChatGPT仍占主导,但本土化模型在特定领域快速崛起。各工具在功能深度、成本结构和本地化支持方面存在差异,需根据实际需求选择。

2025-09-20 23:30:23 4058

原创 一文详解Stata回归分析

摘要:Stata是进行回归分析的强大工具,其核心命令regress支持OLS回归分析。分析流程包括:数据准备(加载、描述统计)、模型估计(简单/多元回归)、假设检验(异方差、多重共线性)和结果解读(系数、显著性)。高级功能涵盖虚拟变量、交互项、逻辑回归和面板模型。建议使用Do文件保证可重复性,通过outreg2输出专业表格。回归分析需结合理论解释结果,注意统计显著性与实际意义的区别。完整工作流程从数据清洗到模型诊断,是开展严谨实证研究的基础。

2025-09-19 22:40:15 1724

原创 深度学习体系化入门:从理论到实践的完整框架

本文系统介绍了深度学习的基础知识与应用框架。首先阐述了人工智能、机器学习和深度学习的层级关系,强调深度学习通过多层神经网络实现自动特征提取的核心优势。详细解析了神经网络的工作原理,包括神经元结构、激活函数、前向传播与反向传播机制。列举了7种主流模型及其适用场景,如CNN处理图像、Transformer支撑大语言模型。提供了从数据准备到模型部署的完整项目流程,并探讨了当前趋势与挑战,如大模型、多模态学习及可解释性问题。最后推荐了PyTorch/TensorFlow等学习资源,为读者构建了深度学习的系统性认知框

2025-09-18 19:47:59 1446

原创 商科生一文入门Stata:从数据到商业洞察的逻辑框架

《商科学生Stata快速入门指南》摘要:本文为商科学生提供Stata数据分析全流程指导,涵盖商业问题转化、数据处理、建模分析到结果呈现。重点介绍Stata界面操作、数据导入清洗技巧、描述性与推断性统计方法(包括回归分析),以及专业结果导出方式。强调通过do文件确保分析可重复性,建议采用"商业问题→数据→分析→决策"的循环思维,并推荐从模仿优秀论文入手,逐步掌握核心分析流程。本指南旨在帮助学生快速掌握商业数据分析的基本方法,提升决策支持能力。

2025-09-17 11:00:00 980

原创 一文详解API:从理解到设计的逻辑框架

API(应用程序编程接口)是软件组件交互的标准协议,充当客户端和服务器间的中介(如餐厅服务员)。核心价值在于连接与复用,通过解耦实现高效开发,促进生态扩展。典型Web API基于HTTP协议,包含端点、方法、参数等组件,使用JSON/XML格式传输数据。REST是主流设计风格,强调无状态、资源导向等原则。优秀API需遵循直观URI、正确HTTP方法/状态码、版本控制和清晰文档等设计规范。API构建了数字世界的连接桥梁,是开发现代应用的关键技术。

2025-09-15 11:30:00 1484

原创 强化学习一文通俗详解

【摘要】强化学习通过用户反馈优化AI模型表现。当用户对AI回答点赞或点踩时,这些行为成为"奖励信号":点赞促使模型重复优质回答,点踩帮助避免错误响应。强化学习系统包含智能体(模型)、环境(用户问题)、状态(具体问题)、动作(生成答案)和奖励(用户反馈)五个要素。完整的训练流程分为三个阶段:1)监督微调使模型掌握基础应答能力;2)训练奖励模型模拟人类偏好;3)通过强化学习算法(如PPO)持续优化模型参数。用户的每次反馈都在帮助塑造更智能的AI系统。

2025-09-14 11:29:17 736

原创 机器学习系统框架:核心分类、算法与应用全景解析

本文系统阐述了机器学习的基础框架体系,涵盖三大核心范式:监督学习(分类与回归算法)、无监督学习(聚类与降维)和强化学习(决策交互)。详细介绍了各类经典算法及其适用场景,包括线性模型、树模型、神经网络等监督算法,K-Means、PCA等无监督方法,以及Q-Learning等强化学习技术。同时提出了基于问题类型和数据特性的算法选择指南,并构建了完整的评估指标体系。最后通过金融风控和推荐系统案例,展示了端到端的机器学习应用框架。全文强调算法选择需平衡问题类型、数据特性和业务需求三个维度,为机器学习实践提供了系统化

2025-09-13 11:41:02 3378

原创 监督学习通俗讲解,让数据为商业决策赋能

它就像一个不知疲倦的超级实习生,而你的任务,就是当好它的“老板”。你可能经常听到“大数据”、“人工智能”、“预测分析”这些热词。例如:预测客户流失时,“最近一次消费时间”、“月均消费额”、“客服呼叫次数”等都是特征。:模型对训练数据记忆得过于完美,连其中的噪声和随机波动都记住了,导致在新数据上表现很差。:根据客户的行为数据,将其分为“高价值客户”、“一般客户”、“流失风险客户”。将带有标签的历史数据“喂”给算法,让它寻找规律、构建模型的过程。模型训练好后,用一批它没见过的、带标签的数据去测试它的表现。

2025-09-12 15:01:05 989

原创 大数据终极指南:从颠覆性力量到“杀熟”陷阱

大数据是一种具备规模大、速度快、多样性、价值密度低和真实性挑战的数据集合,其5V特性超越了传统数据处理能力。通过分布式计算等技术,企业能从海量数据中提取商业价值。主要应用包括精准营销(协同过滤算法)、风险管理(异常检测)、供应链优化(时间序列分析)和用户画像(聚类算法)。最具争议的是"大数据杀熟",即利用用户画像进行个性化定价,这虽能最大化利润但涉及伦理问题。未来企业需平衡数据价值挖掘与伦理责任,将"科技向善"纳入战略,实现从经验驱动到数据驱动的转型。数据如同石油,需

2025-09-11 09:45:19 735

原创 无监督学习全面解析:核心框架与商业应用实践

无监督学习是机器学习的重要分支,专注于从无标注数据中发现隐藏模式和内在结构。其核心方法包括聚类分析(如K-Means)、降维技术(如PCA)、关联规则学习(如Apriori)和异常检测。与监督学习不同,它无需标签数据,适用于客户细分、市场分析等商业场景。实施时需注重数据预处理、算法选择和业务验证,通过技术分析与领域知识结合,将数据洞见转化为商业价值。随着技术进步,无监督学习在数据驱动决策中的作用日益凸显。

2025-09-10 18:43:44 1377

原创 深入解析 ETL 与 RAG:数据处理的两种关键技术

本文对比分析了数据处理中的ETL和RAG技术。ETL通过抽取、转换、加载三个步骤,将原始数据加工为结构化数据供分析使用;RAG则通过检索外部知识库并增强生成,帮助大模型回答问题。文章指出RAG前期也包含类似ETL的数据预处理流程,包括文本分块、向量化等操作。两者区别在于:ETL面向机器分析,输出结构化数据;RAG面向人类问答,输出自然语言回答。未来趋势是整合两种技术,实现数据在分析和问答中的共享应用。

2025-09-09 16:47:09 1117

原创 从零理解 RAG:让大模型“带外脑”回答问题

大语言模型很会聊天,但它有两个弱点:容易胡编、知识不更新。而在电商客服、企业知识问答、医疗咨询等现实业务中,我们迫切需要模型能依据最新、真实的资料来给出准确回答。这时,RAG(Retrieval - Augmented Generation,检索增强生成)技术便应运而生,它就像给大模型插上了一块可以实时更新的 “外脑”,让模型具备了 “随用随查” 的能力。

2025-09-08 15:28:20 1032

原创 从框架到落地,大模型应用开发平台全攻略

摘要:大模型应用开发平台主要分为四类:1)框架类(如LangChain),适合开发者灵活搭建工作流,免费开源但需支付模型调用费;2)可视化平台(如Dify),提供低代码开发环境,适合快速上线内部应用;3)智能体平台(如Coze),专注Bot构建和分发;4)大厂生态平台(如Azure AI),提供全栈云服务但成本较高。选择时需权衡灵活性、开发门槛和成本,中小团队可从开源方案起步。

2025-09-07 16:23:50 1141

原创 商科大三:AI+Python自动化

2025年AI技术迅猛发展,DeepSeek、ChatGPT等工具显著降低编程门槛。作者通过Python爬虫和词频分析实践,借助AI工具高效完成学术项目,发现文科生在AI时代可能更具优势。作者决定将AI应用作为职业方向,计划进一步学习相关工具,探索成为"AI调度者"的新可能。文章展现了AI时代下个人职业规划的转型思考。

2025-09-06 07:45:00 1430

原创 Trae+Python小说爬虫6:“翻页章节链接+多页小说章节”式

这篇文章介绍了一个基于Python和Selenium实现的小说爬虫程序。主要特点包括: 支持处理分页章节结构,能自动识别"-{page}.html"格式的多页章节 具有断点续传功能,通过进度文件记录已下载章节 采用多种反爬策略:随机延迟、User-Agent轮换、异常处理等 提供灵活的配置选项:URL、输出路径、日志级别等 支持多种章节选择器,提高兼容性 程序核心类NovelSpider封装了网页访问、内容解析、数据保存等完整流程,并针对常见网站结构进行了优化处理。

2025-09-06 07:30:00 523

原创 Trae+Python小说爬虫3:“单页章节链接+多页小说章节”式

本文介绍了一个基于Python和Selenium的网络小说爬虫程序,能够从小说网站抓取整本小说内容并保存为TXT文件。该程序针对单章节多页的小说网站结构进行了优化,支持断点续传、异常处理和随机延迟等功能,有效应对网站反爬机制。代码采用模块化设计,包含章节链接获取、内容提取、异常处理等模块,并提供了详细的日志记录功能。程序特别处理了章节分页情况,能够自动识别后续页面的URL结构(如xxx_2.html格式),直到获取完整内容。用户可通过命令行参数自定义目标URL、输出路径等配置,适用于多种小说网站结构。

2025-09-05 09:00:00 461

原创 Trae+Python小说爬虫2:“单页章节链接+双页小说章节”式

这篇文章介绍了一个基于Python和Selenium的网络小说爬虫程序,能够抓取整本小说并保存为TXT文件。程序具有断点续传、异常处理和随机延迟等功能,可应对网站反爬机制。特别说明该程序适用于单章节有双页的小说网站(第二页URL通常在第一页链接后添加"_2.html")。文章提供了基础代码链接,并指出只需修改网址结构、内容元素标签和保存路径等参数即可适配不同网站。该爬虫能自动识别并抓取小说章节的双页内容,确保获取完整章节文本。

2025-09-05 08:00:00 1412

原创 Trae+Python小说爬虫5:“翻页章节链接+双页小说章节”式

本文介绍了一个基于Python和Selenium的网络小说爬虫程序,主要功能是从小说网站抓取整本小说内容并保存为TXT文件。该程序具有以下特点: 支持断点续传功能,能够记录已下载章节 包含完善的异常处理机制和随机延迟功能 针对反爬机制设计了多重应对策略 特别处理了分页章节情况,能自动识别并下载章节的第二页内容(如xxx_2.html格式) 提供丰富的命令行参数配置选项 采用多选择器策略提高内容提取的可靠性 程序适用于章节链接需要翻页获取的小说网站,并能正确处理单个章节分多页显示的情况。

2025-09-04 11:09:11 1075

原创 Trae+Python小说爬虫4:“翻页章节链接+单页小说章节”式

摘要:本文介绍了一个基于Python和Selenium的网络小说爬虫程序,能够从小说网站抓取整本小说内容并保存为TXT文件。该爬虫具有断点续传、异常处理、随机延迟等功能,能有效应对网站反爬机制。代码实现了自动翻页获取章节链接、多选择器容错机制、内容清理等功能,并支持命令行参数配置。程序通过WebDriver模拟浏览器操作,包含页面加载等待、元素定位、HTML解析等核心功能,同时提供日志记录和进度保存功能,确保爬取过程稳定可靠。

2025-09-04 10:37:49 901

原创 Python小说爬虫1:“单页章节链接+单页小说章节”式

这是一个基于Python和Selenium实现的小说爬虫程序,主要功能是从小说网站抓取整本小说内容并保存为TXT文件。程序具有以下特点: 使用Selenium处理动态加载内容 实现断点续传功能,保存爬取进度 包含随机延迟和UA轮换机制应对反爬 完善的异常处理和重试机制 自动清理广告内容 详细的日志记录系统 使用方法: 安装依赖库:Selenium、lxml等 修改关键参数(URL、保存路径等) 检查目标网站结构,调整XPath 运行程序开始爬取 注意事项: 遵守robots.txt文件规则 控制请求频率 尊

2025-09-03 16:47:10 440

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除