- 博客(984)
- 收藏
- 关注
原创 为什么周围人都推荐用vscode,真的好用吗?
vscode最受欢迎的功能是它的插件库,和Python有点像,Python因为第三方库生态极为丰富好用,成为最流行的编程语言,vscode也是囊括了成千上万种插件,比如python、jupyter、C++、docker、maven等常用插件。这需要从vscode本身的特性说起,其实它设计之初是一款基于Web的代码编辑器,主打跨平台、轻量化、插件丰富,后来逐步发展成了桌面端软件,成为了集编辑器、编译器、代码调试、插件库于一体的轻量化IDE。等,安装非常简单,直接能在代码框中使用,不需要额外安装软件。
2025-12-03 17:41:53
132
原创 学习Python数据可视化,如何快速入门?
比如说Altair绘制散点图,只需要在一个函数里告诉它x、y字段用什么数据,图表标题、大小是什么就可以,而Matplotlib则需要手工去创建画布、标题、尺寸,每个元素都需要去设计,更加麻烦。,你只要提做什么就可以,Altair会自动渲染细节,不需要像matplotlib那样,要指定每个元素的步骤细节。1、交互性能好,Altair是原生支持图表交互,可以随意与图表进行交互,实现酷炫的展示。2、原生样式美观,Altair有基础的样式布局,哪怕最简单的代码也能出不错的图表。方法能实现图表交互。
2025-12-03 17:40:54
188
原创 通过 MCP 实现 AI Agent 目前有哪些最佳实践?
首先要介绍下什么是MCP,它的学名是“模型上下文协议”,你可以理解成它是连接AI大模型和外部工具的一个媒介,类似于电脑和互联网的关系,大模型原先只是封闭的大脑,有了MCP后它就连接了无数的信息、工具、数据,可以做更多的事情,比如Bright Data MCP能实现复杂网站的数据采集。总的来说,AI爬虫已经成为不可逆的趋势,完全不需要写代码处理网页,几乎零门槛,而且能很好的和一些智能体结合,做出不错的产品,比如手机的价格监测应用,运营的好也能带来不错的效果。
2025-12-03 17:39:40
366
原创 我常用的数据采集工具,支持采集复杂网页数据
数据采集任务开始后,代码会返回一个snapshot_id,代表采集的数据会保存在亮数据的数据库里,通过特定的snapshot_id可以调用,这一般需要等待几秒钟。通过以上几个案例,你会发现API把爬虫的复杂过程打包成一个黑盒子,你只需要提交url或者关键词,它就会给你返回数据,不需要担心任何IP限制、人机验证等反爬机制。我之前用过brightdata网页抓取API,类似封装好的数据采集流水线,能自动处理各种反爬技术,或许能支持油管的大数据采集,而且不需要花时间去维。2、进行数据管理,调用数据快照。
2025-12-01 20:42:19
783
原创 我把pdfplumber整成了可以拖拉拽的web软件
pdfplumber是专门用来处理PDF的第三方库,完全开源和免费,它最核心的功能是提取PDF的文本和表格,支持保留段落、换行、空格的原始格式,不会像某些库那样把不同区域的文本混在一起,是我体验下来最好用的PDF处理库。前几天我发了一篇文章《从PDF中提取Excel,这个工具真的好用》,受到很多的关注和评论,方法是用Python的开源库pdfplumber来实现对PDF上表格和文本的提取,非常方便和快捷。点击表格功能,这个PDF所有的表格都会单独呈现出来,并可以下载Excel文件。
2025-11-30 21:08:17
942
原创 推荐6个酷炫的可视化工具,简单实用!
数据可视化是数据结果的直观展示,好的可视化图表非常具有说服力,制作可视化图表的工具多种多样,主要分为BI、Python、JS这三大类,BI代表工具有Tableau、PowerBI,Python可视化库有Seaborn、Matplotlib等,JS可视化工具有Echarts、D3等。Seaborn是在matplotlib的基础上进行了更高级的API封装,从而使得作图更加容易,在大多数情况下使用seaborn能做出很具有吸引力的图,而使用matplotlib就能制作具有更多特色的图。
2025-11-30 10:00:45
326
原创 说真的,你可能误会Pandas了
pandas是基于numpy数组来计算的,其实本身有优势,处理小批量数据集(百万行以下,1GB以内)效率是完全可以接受的,相比其他的数据处理库其实差异不大,因为1GB以内的容量对电脑内存的占用并不大,且单核处理起来也不吃力,这时候Pandas的速度和便捷性综合优势能发挥到最大。所以可以用pandas自带的分块加载(chunksize)的方式,将大文件分为n个小文件,分批去读取并处理,这样可以把几GB的大文件拆解成N个几十M的小文件,pandas处理起来就毫无压力。如何优化Pandas的速度呢?
2025-11-30 09:59:56
365
原创 没错,最强的Python编辑器还是它
我觉得如果想做 你python 数据科学、算法开发、大模型应用等,并且喜欢各种新奇的开源工具、三方插件,Vscode 也是不二选择,因为Vscode 本身是个百宝箱,靠各种插件的合作开发有趣的项目,比如你能在 vscode 中很好的使用 notebook 来写代码、玩数据。如果你想开发大型的python项目,比如web网站搭建、GUI开发等,建议用pycharm专业版,因为它的功能足够完备,从编码、调试、部署、协作都有很专业的支持,而且系统效率高,代码索引和补全延迟更低。
2025-11-30 09:59:06
263
原创 万物皆可markdown,这个Python库绝了~
我一直用都用markdown写自媒体技术文章,它不像word或者富媒体编辑器,格式以来固定的编辑工具,markdown是一次编写,格式永久保存,在任何markdown编辑器都可以渲染成统一格式。markitdown是Python的一个第三方库,它的优势在于非常轻量化,而且api简单,在将其他文档内容转换为markdown格式的同时,还能保留文档格式,比如表格、标题、链接之类。先来讲讲markdown,这可以是当今非常火的工具,它是一种轻量标记语言,专门用于编写文档,它使用标记符号代表文档格式,比如。
2025-11-30 09:58:26
399
原创 有可能你误会Python了~
python就像是万能钥匙,擅长的不擅长的都能做,因为它兼容各种技术栈和编程语言,比如它擅长数据科学,就涌现了大批NB的数据处理包,它不擅长编写大型软件,但有pyqt这样的移植框架,它不擅长GPU运算,但CUDA直接提供cuPython,因为python足够兼容。这需要从两个方面去分析,首先AI项目的核心工作是数据处理、算法验证、调参优化,其实对对速度和稳定性的要求并没有那么严苛,其次Python并不是你想象的那样怂,记住任何一种被市场认可的产品和技术,一定有它的不可替代性价值,
2025-11-30 09:57:55
293
原创 我常用的低代码爬虫利器-八爪鱼,不比Python差~
八爪鱼则是完全图形化操作的工具,非常的简单,它有大量的爬虫模板,支持数据类型比较丰富,应用场景更多,从网页登陆到批量获取到数据清洗都有一整套的自动化流程,会更加适合大多数人的数据抓取需求,比如IT工程师、自媒体从业者、商铺管理者、商业分析师等等。不管是文本、图片、视频亦或表格,八爪鱼都能抓,而且它还提供了非常丰富的采集模板,比如电商、新闻、短视频等主流平台全包含,它已经帮你配置好了流程,一键可以实现爬虫。对于其他抖音抓取任务,比如抖音主页爬虫,可以看看相关教程,还是蛮详细的。大家可以找个简单的案例去试试。
2025-11-30 09:57:22
375
原创 python自动化办公太难?学这些就够用了
相信爬虫是大家最感兴趣的,python 爬虫有很多的实现库,比如:urllib、requests、scrapy 等,以及 xpath、beautifulsoup 等解析库。python 处理邮件也是极其便利的,smtplib、imaplib、email 三个库配合使用,实现邮件编写、发送、接收、读取等一系列自动化操作,省时省力。自动化办公无非是 excel、ppt、word、邮件、文件处理、数据分析处理、爬虫这些,这次我就来理一理 python 自动化办公的那些知识点。如果一个个手工操作,那真的心累。
2025-11-27 17:55:45
428
原创 “刚大四,三年鸿蒙开发经验”
这个周末,已经工作近十年的我参加了”鸿蒙生态学堂校园行“活动,地点在华为上海练秋湖研发中心,一个既像科技小镇又像江南水乡的“现代社区”,唯独不像是上班的地方。本以为这个活动只是给学生们科普下鸿蒙系统的发展历史,没想到学生里卧虎藏龙,还没毕业就有了三年鸿蒙开发经验,在会场大秀自己的开发的APP,让我好生羡慕,我在大学时只会用C语言写个走马灯。
2025-11-27 17:54:55
415
原创 聊天就能生成RPA自动化流程,这款工作流软件比n8n更好用?
就在前不久,我参观了一家专门做直播获客卖车的企业,它们有一个流程设计吸引到我,通过直播留资来的意向用户会被自动拉进企微群,群里有专门的客服机器人发送车型信息、咨询,回复购车政策等问题,并定时总结客户信息回传到数据库,7*24小时不停业,这中间完全不需要人来参与,极大的提升了运营效率。现在普遍降本增效的大环境下,RPA绝对是企业和个人自媒体提升运营效率的一大利器,而且随着八爪鱼RPA AI生成功能的出现,任何技术小白都可以运用好RPA,让我想起一句话:不用担心你的工作会被AI取代,但被会用AI的人取代。
2025-11-26 11:26:33
292
原创 为什么我不愿意用Anaconda了?
我记得从我开始读本科接触Python开始,就一直被各种博客灌输Anaconda省事、方便的思想,所以每次Anaconda更新我都会第一时间去更新,但近几年我发现网上对Anaconda的意见增多,不少小伙伴开始自己配置Python了,或者改用miniconda。我理解热度消退有3方面原因,首先Anaconda对数据科学很友好,但对于其他Python应用场景并不是最佳选择,更多人会使用原生python+pip+venv,去搭配自己的开发环境。这是Anaconda的优势,也是它的劣势。
2025-11-26 11:25:47
345
原创 Vscode宝藏插件Cline,AI编程实测~
Cline是一款VsCode上的AI编程插件,功能类似于Cursor、Claude Code,能支持连接DeepSeek、ChatGPT、Gemini等各类大模型,还可以部署MCP服务,算是功能齐全、最受欢迎的AI编程工具之一。前几天我测试在Cline中测试新出来的MiniMax M2模型,来制作图表和搭建可视化看板,既用了matplotlib,还用到HTML+CSS前端技术,效果有点超乎意料,做起来也很简单。总的来说,AI编程已经在慢慢渗透你的工作,不管拥抱还是拒绝,最终它都会扑面而来。
2025-11-26 11:24:37
422
原创 又一低代码爬虫利器,适合采集油管数据
数据采集任务开始后,代码会返回一个snapshot_id,代表采集的数据会保存在亮数据的数据库里,通过特定的snapshot_id可以调用,这一般需要等待几秒钟。通过以上几个案例,你会发现API把爬虫的复杂过程打包成一个黑盒子,你只需要提交url或者关键词,它就会给你返回数据,不需要担心任何IP限制、人机验证等反爬机制。我之前用过brightdata网页抓取API,类似封装好的数据采集流水线,能自动处理各种反爬技术,或许能支持Youtube的大数据采集,而且不需要花时间去维。
2025-11-26 10:02:29
1159
原创 采集网页数据必备的6个爬虫工具
亮数据平台提供了强大的数据采集工具,比如Web Scraper IDE、亮数据浏览器、SERP API等,能够自动化地从网站上抓取所需数据,无需分析目标平台的接口,直接使用亮数据提供的方案即可安全稳定地获取数据。Data Miner是一款简单易用的网页数据挖掘工具,专注于深度数据抓取,提供多任务管理和自动化处理功能,以满足用户全面的数据采集需求。Scrapy是一个基于Python的开源爬虫框架,以其强大的扩展性、灵活性和活跃的社区支持,成为开发者进行复杂网页数据采集的首选工具。
2025-11-24 23:44:51
1749
原创 推荐一个低代码爬虫工具,适合采集复杂网页
这里的snapshot id先不用管,你发送数据请求后爬下来的数据就会临时存储到亮数据平台上,然后会生成一个snapshot id(用于下载数据),接着你可以通过snapshot id再提取你想要的数据,snapshot id是唯一的,不用担心数据丢失。Scraper APIs是亮数据专门为批量采集数据而开发的接口,支持上百个网站,200多个专门API采集器,例如Linkedin的职位、公司、人员数据采集器,Tiktok的商品、短视频数据采集器,当然这些数据都是公开可抓取的,不会涉及任何隐私安全问题。
2025-11-24 23:39:58
1146
原创 为什么周围人都推荐用vscode,真的好用吗?
vscode最受欢迎的功能是它的插件库,和Python有点像,Python因为第三方库生态极为丰富好用,成为最流行的编程语言,vscode也是囊括了成千上万种插件,比如python、jupyter、C++、docker、maven等常用插件。这需要从vscode本身的特性说起,其实它设计之初是一款基于Web的代码编辑器,主打跨平台、轻量化、插件丰富,后来逐步发展成了桌面端软件,成为了集编辑器、编译器、代码调试、插件库于一体的轻量化IDE。等,安装非常简单,直接能在代码框中使用,不需要额外安装软件。
2025-11-23 20:51:41
259
原创 数据分析为什么常用Jupyter而不是直接使用Python脚本或Excel?
Jupyter主要是用来做数据科学,其包含数据分析、数据可视化、机器学习、深度学习、机器人等等,任何Python数据科学第三方库都能在Jupyter上得到很好的应用和支持。其实它是集编程、笔记、数据分析、机器学习、可视化、教学演示、交互协作等于一体的超级web应用,而且支持python、R、Julia、Scala等超40种语言。在产品上,Jupyter不仅有简洁的Notebook ,还有工作台式的Lab,甚至线上平台化部署的Hub,对个人、团队、企业都可以完美支持。6、课堂编程相关的内容展示、实验。
2025-11-23 20:50:15
443
原创 如何评价Notion笔记软件?
近几年notion最重要的一个功能是notion AI,可以算是notion的大脑,不光可以创作文本和代码,还支持管理知识库,类似ima的功能,现在它又可以作为AI助理跨页面和知识库进行全面的管理,比如你传进去一段会议录音,它可以自动创建会议纪要,形成专业的结论报告。一来说明它的用户数量是巨大的,其次其用户质量是高的,从付费意愿就能看出来。另一方面,notion有个很重要的数据库设计,数据库可以是页面的合集,也可以是单个页面,你能在数据库页面编辑文字、添加资料、修改背景,这就形成了你的专属知识库。
2025-11-23 20:49:41
422
原创 目前适合落地的agent有哪些值得推荐的框架?
其次要用到Trae编辑器,这是一个AI原生的代码编辑器,是基于VsCode内核开发的,所以它有VsCode的几乎所有功能,最重要的是它支持直接部署大模型、智能体、MCP等,可以理解它就是一个超级编程智能体。首先是SQLite数据库,这是一个轻量化的开源数据库,它没有服务器,无需复杂的配置安装,就可以直接用,很适合制作AI应用。这是我将AI应用到实际工作的一个尝试,虽然有很多地方还不算满意,比如处理速度、研究深度等,但AI已经能达到初级工程师的水平,这是毋庸置疑的,再经过调教优化,会逐步进阶到中高级水平。
2025-11-23 20:48:41
874
原创 sqlite用的人多吗?
SQLite是一个轻量化的开源数据库,它没有服务器,无需复杂的配置安装,就可以直接用,很适合集成在APP、Web、小程序等应用里。里,SQLite MCP,能直接从集市里添加,然后在配置信息里输入前面的my_db.db数据库路径地址,保存即可。想要使用SQLite,一般是在Dbeaver这样的数据库管理工具里,Dbeaver也是开源工具,非常好用。所以说SQLite的应用场景非常广,绝对是良心数据库,体积小、安装快、无需配置,简直就是数据库中的小钢炮。对SQLite数据库进行操作,会用到SQLite库。
2025-11-23 20:48:01
259
原创 Vaex :突破pandas,快速分析100G大数据量
而vaex只会对数据进行内存映射,而不是真的读取数据到内存中,这个和spark的懒加载是一样的,在使用的时候 才会去加载,声明的时候不加载。Python中的pandas是大家常用的数据处理工具,能应付较大数据集(千万行级别),但当数据量达到十亿百亿行级别,pandas处理起来就有点力不从心了,可以说非常的慢。这里用的是hdf5文件,hdf5是一种文件存储格式,相比较csv更适合存储大数据量,压缩程度高,而且读取、写入也更快。换上今天的主角vaex,读取同样的数据,做同样的平均值计算,需要多少时间呢?
2025-11-20 18:16:01
751
原创 如何理解Python中的yield用法?
的函数是一个生成器,这个生成器有一个方法就是next,next就相当于“下一步”生成哪个数,这一次的next开始的地方是接着上一次的next停止的地方执行的。但是,如果数据集有某种逻辑,就不必存储在一个列表中,只需编写一个生成器,它将在需要时生成这些值,基本不占用内存。所以调用next的时候,生成器并不会从函数的开始执行,只是接着上一步停止的地方开始,然后遇到。的同胞兄弟来看,他们都在函数中使用,并履行着返回某种结果的职责。第三次调用也是如此,返回生成的值(3),生成器耗尽,程序终止;的函数被称为生成器。
2025-11-20 18:15:04
263
原创 如何最简单、通俗地理解Python的pandas库?
它可以帮助你任意探索数据,对数据进行读取、导入、导出、连接、合并、分组、插入、拆分、透视、索引、切分、转换等,以及可视化展示、复杂统计、数据库交互、web爬取等。pandas支持读取和输出多种数据类型,包括但不限于csv、txt、xlsx、json、html、sql、parquet、sas、spss、stata、hdf5。上面大部分库我都用过,用的最多也最顺手的是Pandas,可以说这是一个生态上最完整、功能上最强大、体验上最便捷的数据分析库,称为编程界的Excel也不为过。
2025-11-19 16:35:54
761
原创 我常用的一个MCP宝藏库,有点东西
这里简单科普下MCP,它是模型上下文协议,是Claude提出来的,用于在模型中调用外部的工具和数据,比如说调用google搜索、高德地图、支付宝、12306等功能,给大模型增加了很多能力。魔搭还有个比较好玩的功能-MCP广场,我很喜欢里面各种新奇好玩的MCP服务,配合DeepSeek、qwen等大模型一起用,能有想象不到的强大功能。魔搭广场的MCP非常齐全,有点类似于GitHub的仓库,包括了开发者工具、搜索工具、日程管理、浏览器自动化等常用的MCP,应该有上千个。最终大模型会调用MCP查询到相关火车票。
2025-11-18 17:07:16
451
原创 PDF提取Excel太麻烦?这个工具或许能帮你~
首先,pdfplumber能轻松访问有关PDF对象的所有详细信息,且用于提取文本和表格的方法高级可定制,使用者可根据表格的具体形式来调整参数。这次介绍一个开源python工具库-pdfplumber,可以方便地获取pdf的各种信息,包括文本、表格、图表、尺寸等。目前市场上有很多pdf工具,大部分是阅读类,也有支持对pdf的修改、转换等功能,但这部分工具不少是收费的。一个小小的脚本,不到十行代码,便将pdf表格提取并转化为dataframe格式,最终保存到excel。
2025-11-18 10:12:00
175
原创 最新网页爬虫利器,无代码采集复杂网站数据
最近用到一个非常简单的高级爬虫工具,亮数据的Scraper APIs,你可以理解成一种爬虫接口,它帮你绕开了IP限制、验证码、加密等问题,无需编写任何的反爬机制处理、动态网页处理代码,后续也无需任何维护,就可以“一键”获取Tiktok、Amazon、Linkedin、Github、Instagram等全球各大主流网站数据。1、在云上向Tiktok发出http数据请求 2、模拟登陆、配置IP代理、动态访问、识别验证码、破解加密数据等 3、解析获取的HTML,提取重要的字段,输出为json格式。
2025-11-17 16:53:12
1956
原创 我经常用到的数据采集工具,支持低代码爬虫
总得来说,对于代码能力不强的童鞋来说,现成的爬虫软件是比较好的选择,直接图形化界面点点点,能避免很多麻烦。而且要主要遵守各网站的规则协议,不能获取非合理数据,这个是底线。
2025-11-17 16:52:07
3084
原创 为什么这么多人质疑SQLite数据库?
比如在Trae里,SQLite MCP,能直接从集市里添加,然后在配置信息里输入前面的my_db.db数据库路径地址,保存即可。你也可以在Python对SQLite数据库进行操作,会用到SQLite库,这是Python标准库,不需要额外安装。说回来,SQLite是一个轻量化的开源数据库,它没有服务器,无需复杂的配置安装,就可以直接用,非常适合单机场景。所以说SQLite的应用场景非常广,绝对是良心数据库,体积小、安装快、无需配置,简直就是数据库中的小钢炮。最近看到有个问题:SQLite用的人多吗?
2025-11-16 11:06:55
340
原创 使用RPA实现自动化采集数据,适合小白入手
这里解释下RPA的操作原理,以八爪鱼RPA为例,它有循环、条件判断、流程等过程指令,通过网页自动化、桌面自动化、Excel操作、八爪鱼爬虫、飞书、AI等交互动作实现复杂操作,最终通过中台的任务调度将这些指令动作串起来实现自动化。现在普遍降本增效的大环境下,RPA绝对是企业和个人自媒体提升运营效率的一大利器,而且随着八爪鱼RPA AI生成功能的出现,任何技术小白都可以运用好RPA,让我想起一句话:不用担心你的工作会被AI取代,但被会用AI的人取代。八爪鱼RPA现在注册能直接领取上百个应用免费使用,可以试试。
2025-11-14 17:34:44
984
原创 SQLite数据库安装和使用教程
SQLite是一个轻量化的开源数据库,它没有服务器,无需复杂的配置安装,就可以直接用,很适合集成在APP、Web、小程序等应用里。里,SQLite MCP,能直接从集市里添加,然后在配置信息里输入前面的my_db.db数据库路径地址,保存即可。想要使用SQLite,一般是在Dbeaver这样的数据库管理工具里,Dbeaver也是开源工具,非常好用。所以说SQLite的应用场景非常广,绝对是良心数据库,体积小、安装快、无需配置,简直就是数据库中的小钢炮。对SQLite数据库进行操作,会用到SQLite库。
2025-11-14 17:31:06
397
原创 使用Trea配置SQLite数据库MCP,实现AI自动化数据处理
最近一直在摸索如何用AI解决实际的业务问题,发现AI在调用数据库和处理数据上有些发挥的空间,于是我做了一个自动化数据处理的智能体,名叫“数分神器”,有以下3个核心功能:1、支持连接SQLite数据库,并实现抽取、写入的功能2、支持SQL、Python处理数据,按要求进行数据清洗、转换、透视等3、支持导出数据报告,并生成matplotlib图表这3个功能能涵盖ETL和数据分析的基本工作,也就是说AI可以替代这些初级岗位,而且能把活干的更高效、漂亮。要搭建这个智能体,需要用到3个至关重要的工具。
2025-11-13 18:12:06
1046
原创 python读写excel等数据文件方法汇总
如:txt、csv、excel、json、剪切板、数据库、html、hdf、parquet、pickled文件、sas、stata等等。fromfile方法可以读取简单的文本数据或二进制数据,数据来源于tofile方法保存的二进制数据。python用于读写excel文件的库有很多,除了前面提到的pandas,还有xlrd、xlwt、openpyxl、xlwings等等。python处理数据文件第一步是要读取数据,文件类型主要包括文本文件(csv、txt等)、excel文件、数据库文件、api等。
2025-11-13 18:11:46
890
原创 使用AI生成RPA自动化流程
就在前不久,我参观了一家专门做直播获客卖车的企业,它们有一个流程设计吸引到我,通过直播留资来的意向用户会被自动拉进企微群,群里有专门的客服机器人发送车型信息、咨询,回复购车政策等问题,并定时总结客户信息回传到数据库,7*24小时不停业,这中间完全不需要人来参与,极大的提升了运营效率。现在普遍降本增效的大环境下,RPA绝对是企业和个人自媒体提升运营效率的一大利器,而且随着八爪鱼RPA AI生成功能的出现,任何技术小白都可以运用好RPA,让我想起一句话:不用担心你的工作会被AI取代,但被会用AI的人取代。
2025-11-12 17:01:53
598
原创 为什么notion能把笔记应用做到上百亿估值?
近几年notion最重要的一个功能是notion AI,可以算是notion的大脑,不光可以创作文本和代码,还支持管理知识库,类似ima的功能,现在它又可以作为AI助理跨页面和知识库进行全面的管理,比如你传进去一段会议录音,它可以自动创建会议纪要,形成专业的结论报告。一来说明它的用户数量是巨大的,其次其用户质量是高的,从付费意愿就能看出来。另一方面,notion有个很重要的数据库设计,数据库可以是页面的合集,也可以是单个页面,你能在数据库页面编辑文字、添加资料、修改背景,这就形成了你的专属知识库。
2025-11-12 17:00:01
450
原创 学习python中的pandas有没有好的教程推荐?
Pandas作为领域最顶级的库之一,就像excel之于office,是处理数据必备工具。Pandas的学习教程自然不会少,在上搜索Pandas,会出现超过6万个项目,可见其受众之多。如果说学习Pandas最好的教程是什么,那毫无疑问是官方文档,从小白到高手,它都给你安排的妥妥的,这个后面详细介绍。下面我会从入门、进阶、练习四个三面给你们推荐相应的教程和资源。如果你对Pandas还不了解,可以先看我这篇介绍。
2025-11-11 13:23:22
931
原创 计算机学院的学生该怎样提高自己的编程能力?
豆包不光包含传统AI编程的代码生成、补全、解释、debug等功能,还支持代码文件导入、github仓库连接等操作,可以说对计算机专业在校学生来说非常的友好,对提升代码能力也是相当有帮助。
2025-11-11 13:22:49
1087
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅