- 博客(60)
- 收藏
- 关注
原创 windows使用Ollama本地部署Deepseek,更改Ollama默认安装路径和模型存储位置,详细步骤教学,超简单!!!
本篇文章仔细讲解了如何通过ollama在windows系统上本地部署Deepseek大语言模型,并教会大家更改Ollama默认安装路径和模型存储位置,从而避免占用C盘空间,通过图文步骤教学,让大家拥有属于自己的AI模型,新手小白也能快速入门。有时候我们在输入ollama命令后出现报错,这时可以先退出ollama,通过任务栏ollama图标或任务管理器都可以退出ollama,然后重新运行命令即可。总结:推荐新手:优先使用Ollama方案,简单快捷且社区支持完善。硬件限制。
2025-03-31 18:52:59
596
原创 将python文件(.py)打包为可执行文件(.exe)的多种方法,看这一篇就够了,万字教学,全网最全!!!
将Python文件(.py)打包为可执行文件(.exe)有多种方法,每种方法对应python中不同的库,常用的有4种库:`pyinstaller、cx_Freeze、Py2exe、Nuitka`,它们都有各自的特点和限制,我们可根据需求选择合适的方法。
2025-01-17 08:00:00
9392
原创 通过python代码实现向钉钉群内自动推送消息,详细步骤及代码,超实用教学!!!
我们在使用钉钉时,通常会创建或加入多个群聊,身为群聊的管理者,当我们需要及时、并按时的向这些群聊推送一些固定信息,若通过人力来解决肯定非常耗时、耗力,这时我们就可以考虑开发一个自动化脚本来实现这个功能,本篇文章我将教会大家,如何使用python开发程序,实现向钉钉群内自动发送消息。
2025-01-17 00:02:18
1310
原创 python之pandas库——实现向Excel表中写入数据,超简单,一学就会!!!
在 Python 中,使用 Pandas 库将数据保存至 Excel 表格中是一个相对简单的过程。Pandas 提供了一个名为 to_excel 的方法,可以方便地将 DataFrame 对象导出到 Excel 文件中,相比其它处理Excel表格的库,Pandas库在处理大量数据的时候更有优势。
2025-01-05 08:00:00
1749
原创 python之处理Excel表格数据,pandas库和openpyxl库,谁的存储速度更快,案例演示,一看便知
在 Python 中,pandas 和 openpyxl 都可以用于处理 Excel 文件,但它们的性能表现和适用场景有所不同。以下是两者的对比,特别是在存储数据(写入 Excel 文件)时的性能差异。pandas 在存储数据时通常比 openpyxl 更快,尤其是在处理大规模数据时。如果需要更高的性能,优先选择 pandas,并结合 xlsxwriter 引擎使用。如果需要对 Excel 文件进行精细操作,再考虑使用 openpyxl。
2025-01-05 08:00:00
2009
原创 利用python将图片转换为pdf格式的多种方法,实现批量转换,内置模板代码,全网最全,超详细!!!
在python中将图片转换为pdf格式的方法有多种,每种方法依赖于不同的库和工具,本篇文章我将介绍三种常用的库,包括img2pdf 库 和 pillow库、PyMuPDF(fitz)库,下面我将通过实际案例教会大家如何使用这三种库,同时针对每一种库不同的转换方法,准备相应的模板代码,让新手小白也能轻松驾驭。可以看到我在下面准备了4张图片,后续案例中使用的都是这4张图片。
2025-01-01 18:37:25
2046
原创 python之you-get 和 bilibili-api库,简单好用的视频下载库,帮你轻松下载B站视频,内置模板代码,新手党福音!!!
本篇文章将为大家介绍两个python的第三方库you-get和bilibili-api,它们可以用来下载和获取B站视频的信息,其中you-get支持下载多种视频网站,包括Bilibili(B站)、优酷、爱奇艺等,使用方法非常简单,我将准备好模板代码,大家可免费领取,直接使用。you-get是一个强大的命令行工具,可以下载多种网站的视频,包括B站。你可以直接在命令行中使用它,也可以在Python脚本中通过subprocess模块调用它。
2025-01-01 18:16:17
1891
原创 python中常用排序操作——sort方法和sorted函数的使用,超详细,内置模板代码!!!
在Python中,排序的方法有多种,其中最常用的是使用内置的sort()方法和sorted()函数,接下来我将通过各种案例带领大家轻松学会这两种方法,同时还会扩展一些实用的排序案例模板代码。列表对象.sort(reverse=,key=函数名)我们通过key参数接收一个函数,该函数会在列表中的每个元素上调用,通过对函数返回的结果进行排序;该函数可以是匿名函数、自定义函数或内置函数。案例1:使用内置函数进行排序# 按字符串长度升序排序(适用于字符串列表)
2024-12-26 08:00:00
4955
1
原创 python爬虫案例——抓取华为社会招聘网页下,所有岗位信息,内含完整代码,超详细!!!(25)
标题页:详情页:(将下面所有字段信息抓取下来,存入Excel表格)进入网站,打开开发者模式,寻找数据接口,经过分析我们在下发现了第一页的接口文件,其源码中就包含了我们想要的数据信息我们观察第一页接口文件的和,如下:从上面找到的接口文件中我们可以发现只有10条数据,正好对应当前第一页下的10个岗位信息,因此我们需要点击下一页,寻找第二页的接口文件,我们同样在下找到如下接口文件,其源码中包含了我们想要的数据信息完整代码:执行效果:
2024-12-20 00:22:26
92
原创 python之Pillow库的使用,实现图片拼接技术,解决报错问题(内含模板代码!!!)
在Python中,可以使用Pillow库(Python Imaging Library的一个分支)来将多张图片拼接在一起。Pillow库提供了强大的图像处理功能,可以轻松实现图片的拼接。
2024-12-10 14:13:31
1546
1
原创 python之scrapy框架综合使用——抓取比亚迪官网全国所有城市经销商信息,实现构造post请求,保姆级教学!!!(24)
抓取内容如下:首先打开网站,在我的页面可以看到是的经销商信息,打开开发者模式,我们可以发现在下发现一个的接口文件,其中就包含着所有经销商信息。我们只需要向该接口文件发送请求就能得到这个城市的经销商信息了我们现在找到了一个城市的接口文件,接下来要去寻找其它城市的接口文件,我们更换一个城市,如:,发现它的接口文件同样在,那么我们要这样把所有城市的接口文件找到吗,这样肯定非常麻烦,我们接着往下分析我们观察,刚刚找到的和两个城市的接口文件的和,可以看到两个城市的 相同且为请求方式为,只有请求参数中的和两个参
2024-12-10 14:12:01
576
原创 python爬虫常用数据保存模板(Excel、CSV、mysql)——scrapy中常用数据提取方法(CSS、XPATH、正则)(23)
在Scrapy框架中,虽然XPath和CSS选择器是提取数据的主要工具,但有时候你可能需要使用正则表达式(Regex)来匹配和提取更复杂或不规则的数据模式。虽然在这个简单的例子中,我们可以使用XPath或CSS选择器来提取数据,但假设价格数据包含在一些更复杂的HTML结构中,或者我们想要匹配一个特定的价格格式,这时正则表达式就派上用场了。在Scrapy框架中,提取数据通常是通过选择器(Selectors)来完成的,这些选择器基于lxml库,提供了。在这个例子中,产品名称的提取实际上也使用了正则表达式。
2024-12-10 14:10:48
195
原创 python之scrapy框架进阶——抓取<豆瓣新书速递>网站数据,从实战中完成知识进阶,万字教学,超详细!!!(22)
标题页抓取内容:详情页抓取内容:1、进入pycharm,在控制台通过命令创建scrapy项目2、生成爬虫文件修改文件:1、设置user_Agent并关闭robots协议2、添加伪装参数,与requests请求一样除了上面的基本参数,文件中还有许多参数,每个参数都有自己的作用,后面我还会介绍一些常用参数的使用,大家可以通过下面这篇文章了解一下这些参数。settings.py文件参数说明及介绍—https://blog.youkuaiyun.com/m0_59470317/article/detail
2024-12-09 00:58:22
343
原创 python之scrapy框架——settings.py文件中的参数说明与介绍,超详细!!!
Scrapy框架中的settings.py文件是用于配置爬取相关设置的文件,通过修改该文件可以自定义爬虫的行为。以下是settings.py文件中一些常见参数的详细说明以及使用方法,并附带相关案例。
2024-12-09 00:57:28
1078
原创 python实战案例之抓取网络漫画(Na-Kang-Lim)——实现多线程模式抓取,完整得到每一话内容,内含完整代码!!!
前面我在网上发现一部好看的韩漫,但是国内没有平台引进,虽然有大佬汉化,但是更新很慢,听说该漫画在国外已经完结,于是我在网上搜索,终于在一个外网网站发现了这本漫画,可是只有英文版,英语只会26个字母的我,只能选择机翻,当我准备享受的时候,发现这个外网网站加载太慢了,我又没有VPN可以使用,所以想着能不能把漫画爬取下来,接着通过一系列操作,我来到了这里给大家分享这本漫画,不对是爬虫技术。
2024-12-01 05:04:18
3119
原创 python爬虫之scrapy框架入门,万字教学,从零开始到实战演练,超详细!!!(21)
本篇文章,从底层出发详细介绍了scrapy框架的概念和流程,教会大家如何创建并运行自己的scrapy项目,通过实战案例快速了解scrapy项目的工作结构以及各种方法的使用,全文接近20000字,逻辑结构清晰,初学者也能快速掌握。scrapy的概念:Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架scrapy框架的运行流程以及数据传递过程:1、爬虫中的起始url构造成request对象--》爬虫中间件--》引擎--》调度器2、调度器把。
2024-12-01 05:00:04
436
原创 python爬虫案例——猫眼电影数据抓取之字体解密,多套字体文件解密方法(20)
目标网站:猫眼电影(https://www.maoyan.com/films?showType=2)>要求:抓取该网站下,所有即将上映电影的`预约人数`,保证能够获取到实时更新的内容
2024-11-25 17:17:14
1386
原创 python爬虫js逆向进阶——请求的网页源码被加密,解密方法全过程(19)
方法一就是通过不断从网页中扣取js源代码完善加密函数,从而通过python模块直接运行js文件,完成逆向,事实上,上面的代码还没有完善,其中还有许多方法需要获取代码,这里我主要介绍该方法的步骤和原理。再次运行js代码,发现刚刚复制的方法代码中也有未定义的方法,同样我们又要去网页中寻找该方法的js代码,将其复制到本地的js文件中。我们去到存放js文件的路径下,打开cmd窗口,运行js文件,查看是否成功,可以看到被加密的网页源码已经显示出明文信息,解密成功。分析代码,我们可以看出,代码中的。
2024-11-10 05:04:01
412
原创 python爬虫实战案例——爬取A站视频,m3u8格式视频抓取(内含完整代码!)
m3u8格式视频简单介绍:总结:在上面我们经过分析网页,对该网站的爬取有了一定的思路,大致步骤如下:完整代码:执行效果:
2024-11-10 05:02:32
1339
4
原创 chrome浏览器断点调试工具之无限debugger的原理与绕过
debugger 是JavaScript中定义的一个专门用于断点调试的关键字,只要遇到它,JavaScript的执行便会在此处中断,进入一种调试模式。有了 debugger 这个关键字,该 debugger 会被网站开发者利用,使其成为我们正常调试的拦截手段。
2024-11-02 19:53:38
3571
原创 python爬虫之JS逆向入门,了解JS逆向的原理及用法(18)
观察js底层源码,通过python代码将其还原出来(困难,不推荐将js底层源码,保存至本地的js文件中,通过python第三方模块直接调用js代码(简单推荐。
2024-11-02 19:50:02
535
原创 python爬虫案例——使用aiohttp模块异步请求网站,利用协程加快爬取速度(17)
本篇文章主要通过一个爬虫小案例来教会大家如何使用协程来编写代码,加快爬取数据的速度;由于请求网站时使用的requests模块发起的是同步请求,无法与协程相配合达到加快程序运行速度的目的;所以我们需要学习一个新的模块aiohttp,该模块用于发送异步请求;与协程配合可以大大缩短程序运行的时间。
2024-10-27 22:44:27
441
原创 python之多任务爬虫——线程、进程、协程的介绍与使用(16)
什么是进程?进程(Process):指程序的一次执行,对于操作系统来说,一个任务就是一个进程,如:电脑打开一个APP,就代表启动了一个进程,打开两个APP,就是两个进程如:每个进程都包括地址空间、内存、数据栈、记录运行轨迹的辅助数据等所有进程由操作系统统一管理,并被公平分配时间进程间不能直接共享信息,需要通过IPC(进程间通信)什么是线程?线程(Thread):进程中的一个子任务,用于完成进程中的各项工作,一个进程中可以有多个线程;如:打开一个浏览器进程,那么浏览器中打开的每个网页相当于线程。
2024-10-27 22:43:28
263
原创 电脑微信多开方法,保姆级教学,超简单!
大家在日常生活中一般都会有多个微信号或QQ号,但大部分人只有一部手机和一台电脑,这就导致每次都需要来回切换不同的账号,非常麻烦;QQ还好,在电脑上可以登陆多个账号,但微信只能登陆一个,很不方便;因此今天我为大家分享一个电脑上软件分身的方法,该方法不局限于【微信】;且该方法全程用windows命令编写,不是第三方软件,不用担心泄露身份信息!!!
2024-10-22 21:42:19
1425
2
原创 python爬虫实战案例——抓取B站视频,不同清晰度抓取,实现音视频合并,超详细!(内含完整代码)
在分析网页前,我们需要明白爬取的数据是什么,因为b站的视频跟音频是分开存放的,所以我们需要分别找到视频和音频的url,然后在对其发起请求将视频和音频保存至本地;,但我们会发现这种url在video下有许多,他们其实代表着不同清晰度和不同编码,这里我教大家如何区分,首先。找到所需的数据接口后,我们可以先分析一下网页源码,我们发现视频url存放在一个。编写代码前,需要大家安装一个第三方工具ffmpeg,用于合并视频和音频。相同的表示是同一个清晰度的视频url,标签下,我们向下翻,发现音频url在。
2024-10-22 21:35:19
5004
10
原创 python爬虫实战案例——从移动端接口抓取微博评论,采用cookie登陆,数据存入excel表格,超详细(15)
进入网站(https://m.weibo.cn/detail/4813628149072458),由于网站需要登录,我们先用账号登录,然后打开开发者模式,因为pc端网页数据包不好分析,我们可以切换为客户端模式获取数据包。开头的文件,分析得到这是第二页的数据包接口,对比第一页数据包接口和第二页数据包接口,发现两者参数中。,我们需要找到它,如下,我们发现在第一页数据接口的网页源码中就包含了第二页数据接口的参数。,要找到它,我们发现第一页数据包接口的网页源码中包含了第二页数据包接口的参数。
2024-10-17 16:00:40
404
原创 软件卸载神器,流氓软件克星,专业级神器!
如今是电子信息化时代,电脑作为时代的主角,承载着工作、学习、娱乐、科研等重任,然而,流氓软件对电脑的危害极大。它们常未经用户同意就强行安装,占用系统资源,导致电脑运行缓慢。这些软件还可能携带恶意代码,窃取个人隐私,如账号密码、浏览记录等,严重威胁用户的信息安全。此外,流氓软件还可能篡改系统设置,干扰正常软件的使用,甚至引发系统崩溃。因此,用户应提高警惕,避免下载和安装来源不明的软件,以保护电脑和个人信息安全。
2024-10-17 15:57:00
513
原创 python爬虫案例——selenium爬取淘宝商品信息,实现翻页抓取(14)
且服务器会将你判定为爬虫机器,导致无法登陆验证,非常麻烦,所以这里我使用os模块调用windows命令,打开的浏览器,是本地的谷歌浏览器,然后通过selenium内置方法控制该浏览再打开的淘宝 详情页面 不会跳出登陆弹窗。任务要求:通过selenium实现自动化抓取 淘宝美食 板块下的所有商品信息,并实现翻页抓取,最后以csv格式将数据保存至本地;目标网站:淘宝(https://www.taobao.com/)打开浏览器,在访问淘宝 ‘美食’ 板块页面时,会。如:插件打开淘宝,跳出登陆弹窗。
2024-10-13 22:31:19
1474
原创 python之selenium接管打开的谷歌浏览器窗口——隐藏爬虫特征,跳过登陆弹窗验证
总的来说,直接使用selenium打开谷歌浏览器,在访问很多网站时,容易出现各种验证,而通过本地谷歌浏览器去在访问这些网站时,出现验证的几率很小,当然不是所有的网站都是这样,有些网站必须要登陆才能显示页面,那么只能老老实实去登陆验证了;上述方法就是通过os模块调用windows命令打开本地谷歌浏览器后,在通过selenium去接管打开的浏览器,这样就可以使用selenium控制本地谷歌浏览器了。
2024-10-13 22:27:35
1105
原创 python爬虫之selenium自动化——谷歌驱动(chrome webdriver),超详细!(13)
selenium是模仿人的行为,一种自动化驱动浏览器的工具,当我们运行相应代码,python就会通过安装的谷歌驱动(webdriver)打开谷歌浏览器,执行相应的动作;selenium 抓取的是浏览器渲染后的网页,而不是网页源码,所以只要浏览器能够看到的数据,selenium都能抓取;
2024-10-11 08:38:20
988
原创 python爬虫案例——处理验证码登录网站(12)
我们在爬取某些网站数据时,可能会遇到必须登陆才能获取网页内容的情况,而大部分网站登录都需要输入验证码才能登录成功,所以接下来我将会通过实际案例来讲解如何实现验证码登录网站。
2024-10-07 01:24:13
1478
1
原创 爬虫工程师必备工具——Postman和Fiddler的使用教程(11)
Fiddler是位于客户端和服务器端之间的代理,也是目前最常用的抓包工具之一。它能够记录客户端和服务器之间的所有 请求,可以针对特定的请求,分析请求数据、设置断点、调试web应用、修改请求的数据,甚至可以修改服务器返回的数据,功能非常强大,是web调试的利器。
2024-10-07 01:23:14
185
原创 python爬虫案例——抓取三级跳转网页,实现逐页抓取,数据存入mysql数据库(10)
目标站点:情话网(http://www.ainicr.cn/tab/),并将其存入mysql数据库。任务:抓取该网站下所有。用于连接数据库保存数据。requests模块。
2024-09-27 13:17:40
473
原创 python爬虫解析神器Xpath——lxml库(9)
XPath(XML Path Language)是一门在XML文档中查找信息的语言,可以用来在XML文档对元素和属性进行遍历XML Path Language : XML路径语言1、XML指可扩展标记语言2、XML是一种标记语言,类似于HTML3、XML的设计宗旨是传输数据,而非显示数据4、XML标签需要我们自己自定义5、XML被设计为具有自我描述性lxml库是一个HTML/XML的解析器,主要功能是如何解析和提取HTML/XML数据。
2024-09-25 19:48:17
318
原创 python爬虫案例——抓取链家租房信息(8)
目标站点:链家租房版块(https://bj.lianjia.com/zufang/)要求:抓取该链接下前5页所有的租房信息,包括:标题、详情信息、详情链接、价格。经过上面的分析,我们已经得到了该网页的接口信息,开始编写代码。
2024-09-23 22:25:08
1157
原创 python爬虫解析工具BeautifulSoup(bs4)和CSS选择器——处理HTML和XML数据(7)
解析工具的使用正则语法 BeautifulSoup xpath语法(后续学习)jsonpath 字典推荐使用lxml解析库标签选择器筛选功能弱但是速度快建议使用find()、find_all() 查询匹配单个结果或者多个结果如果对CSS选择器熟悉建议使用select()记住常用的获取属性和文本值的方法。
2024-09-22 20:07:42
366
原创 python爬虫案例——腾讯网新闻标题(异步加载网站数据抓取,post请求)(6)
本篇案例主要讲解异步加载网站如何分析网页接口,以及如何观察post请求URL的参数,网站数据并不难抓取,主要是将要抓取的数据接口分析清楚,才能根据需求编写想要的代码。
2024-09-22 19:54:33
597
原创 python之openpyxl模块——实现Excel表格的处理(万字教学,全网最全,超详细!)
本篇文章详细介绍了openpyxl模块的各种使用方法,实现python对Excel表格的数据处理,同时简单介绍了CSV模块的用法,讲解了python如何以CSV的格式写入和读取数据;全文超2万字,超详细!!!,通过各种案例带你轻松学会两种数据处理的方法。工作簿(Workbook)定义:一个Excel文件就是一个工作簿,它可以包含多个工作表。工作表(Worksheet)
2024-09-18 09:10:46
6925
2
原创 Markdown语法的基本使用
这是一篇关于讲解如何正确使用Markdown的排版示例,希望通过此,大家都能轻松上手,都能通过Markdown能够让自己的文章有更加出色、更清晰明了的排版。Markdown (MD) 是现在普遍使用的一种文档书写语言格式,只需用一些非常简单易记的符号,如(# * / > [] ()\ ),就可以轻松写出一篇具有良好的排版和可读性的文章。
2024-09-18 09:09:43
976
原创 python爬虫之json模块和jsonpath模块(5)
爬虫最常用json模块方法1.1、数据抓取 - json.loads(html)将响应内容由: json 转为 python1.2、数据保存 - json.dump(item_list,f)将抓取的数据保存到本地 json文件爬虫抓取数据常用保存方式1、txt文件2、csv文件3、Excel文件4、json文件5、MySQL数据库6、MongoDB数据库7、Redis数据库。
2024-09-18 09:06:32
109
云计算HCIA、HCIP、HCIE题库,华为ICT大赛复习题库
2025-03-20
大数据HCIA、HCIP、HCIE题库,华为ICT大赛复习题库
2025-03-20
人工智能HCIA和HCIP题库,华为ICT大赛复习题库
2025-03-20
人工智能-HCIA3.5题库
2025-03-20
基于python的简单五子棋游戏(论文和代码)
2024-07-03
python爬虫学习课件
2024-06-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人