自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 拼多多面试经验分享及技术问题解析

本文基于牛客网上一位同学分享的拼多多面试经验,整理出了一些面试中常见的技术问题并给出了简单的题解。这些问题涵盖了计算机网络、操作系统基础、数据结构等多个领域。

2025-04-14 19:43:44 414

原创 Excel查询A列和B中重复的有多少条记录

•快速统计COUNTIF或COUNTIFS函数。•可视化标记:条件格式。•批量处理:高级筛选或数据透视表。选择适合数据规模的方法即可。如需进一步优化,可提供具体数据示例。

2025-04-14 14:42:22 2707

原创 JUnit 5的框架介绍

JUnit 5的框架介绍

2025-04-14 12:04:45 353

原创 Python爬虫教程

目标确定与分析明确需要爬取的数据和目标网站(最好先查看网站的robots.txt文件,以确保自己不会违反爬虫规则)。分析网页的结构(使用浏览器的开发者工具查看 HTML 结构、定位需要的数据的标签、属性等)。发送 HTTP 请求使用requests库向目标 URL 发送请求,并获取返回的响应内容。可通过设置请求头(headers)模拟浏览器,防止目标网站因认为是爬虫而屏蔽。解析网页数据使用(或者lxml、正则表达式)解析响应内容,提取目标数据(如文本、链接、图片 URL 等)。

2025-04-13 00:43:06 1309

原创 Python爬虫教程

目标确定与分析明确需要爬取的数据和目标网站(最好先查看网站的robots.txt文件,以确保自己不会违反爬虫规则)。分析网页的结构(使用浏览器的开发者工具查看 HTML 结构、定位需要的数据的标签、属性等)。发送 HTTP 请求使用requests库向目标 URL 发送请求,并获取返回的响应内容。可通过设置请求头(headers)模拟浏览器,防止目标网站因认为是爬虫而屏蔽。解析网页数据使用(或者lxml、正则表达式)解析响应内容,提取目标数据(如文本、链接、图片 URL 等)。

2025-04-13 00:29:45 1693

原创 RAG 介绍

PagedAttention` 和 `FlashAttention` 都是为了解决 **Transformer 的注意力机制在长文本处理时的性能和内存瓶颈**而提出的优化技术。FlashAttention 是一种 **高效的注意力计算方法**,它旨在 **减少内存读写、提升显存利用率**。- **KV 不一次性全部加载**,而是 **按需加载当前窗口中需要的那部分 KV**,避免内存爆炸;- 将 KV(键值对)缓存存储为 **分页的方式(Paging)**,类似虚拟内存的分页机制;

2025-04-12 21:39:43 461

原创 RAG 介绍

PagedAttention` 和 `FlashAttention` 都是为了解决 **Transformer 的注意力机制在长文本处理时的性能和内存瓶颈**而提出的优化技术。FlashAttention 是一种 **高效的注意力计算方法**,它旨在 **减少内存读写、提升显存利用率**。- **KV 不一次性全部加载**,而是 **按需加载当前窗口中需要的那部分 KV**,避免内存爆炸;- 将 KV(键值对)缓存存储为 **分页的方式(Paging)**,类似虚拟内存的分页机制;

2025-04-12 17:13:30 477

原创 Python教程

以上便是提炼后的关键内容与对应代码片段。你可以依据项目需求进一步扩展和完善,确保在抓取数据时遵循相关法律法规与目标网站规定。在开始爬取前,先在浏览器中访问目标网站的 robots.txt 文件,检查允许爬取的区域。利用 BeautifulSoup 解析 HTML 并提取关键信息(例如抓取所有。信息,确保爬虫行为符合规则。

2025-04-11 17:16:49 333

原创 RAG 介绍

PagedAttention` 和 `FlashAttention` 都是为了解决 **Transformer 的注意力机制在长文本处理时的性能和内存瓶颈**而提出的优化技术。FlashAttention 是一种 **高效的注意力计算方法**,它旨在 **减少内存读写、提升显存利用率**。- **KV 不一次性全部加载**,而是 **按需加载当前窗口中需要的那部分 KV**,避免内存爆炸;- 将 KV(键值对)缓存存储为 **分页的方式(Paging)**,类似虚拟内存的分页机制;

2025-04-10 19:55:18 250

原创 刚买的 Redis 没多久就满了?罪魁祸首竟是这个

随着用户数越来越多,Redis 里的登录态也越来越多,内存增加也越来越快,用户只要打开网站就会有 Session 记录,所以要合理利用 Redis 空间,后续可以再看看还有没有可以优化的地方 ~

2024-09-29 17:56:29 1056

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除