自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 ES底层原理解析

Elasticsearch(简称 ES)是基于 Lucene 构建的分布式搜索引擎,能够提供高效的全文检索和分析能力。很多人平时只会用它的 API,却对其底层原理一知半解。本文从分片、Segment、Lucene 索引机制等几个方面做个系统梳理。

2025-09-10 22:20:19 1038

原创 synchronized 剖析

重入计数 = 0 → 将 Lock Record 中原始 Mark Word 写回对象头,锁真正释放。+-----------------+ | 重入计数 = 1 |2. CAS 将对象 O 的 Mark Word 指向 Lock Record → 锁被 T1 占用。线程尝试使用 CAS 将对象头的 Mark Word 指向栈上锁记录(Lock Record)- CAS 将对象头 Mark Word 指向 Lock Record → 轻量级锁。

2025-08-28 17:51:50 522

原创 ThreadLocal源码分析

ThreadLocalMap 结构每个线程维护一个,存储线程对应的 ThreadLocal 对象。Entrykey是 ThreadLocal 的弱引用,value是线程持有的强引用对象(ex:AgentContext)。弱引用 key 的作用当 ThreadLocal 对象本身不再被引用时,弱引用 key 可以被 GC 回收。Entry 会变成(key 为 null),但 value 仍存在 map 中。潜在的内存占用问题普通 ThreadLocal。

2025-08-28 15:41:50 474

原创 SpringBoot:构建一个自己的自动配置项目

org.springframework.boot.autoconfigure.AutoConfiguration.imports(spring-boot 3.0+ 推荐用法)将项目打包方式设置为普通jar(目标是打包文件不包含在boot-inf/classpath下)

2025-08-28 10:52:46 226

原创 Milvus索引总结

FLAT 的精确度很高,因为它采用的是穷举搜索方法,这意味着每次查询都要将目标输入与数据集中的每一组向量进行比较。乘积量化不需要计算目标向量与所有单元中心的距离,而是能够计算目标向量与每个低维空间聚类中心的距离,大大降低了算法的时间复杂度和空间复杂度。在检索过程中,Milvus 会首先找到查询向量所属的簇,然后只对该簇中的向量进行精确的相似度计算,而不是对整个数据集进行计算,这样能够大大提高检索速度。即内积,是一种计算向量相似度的常用方法,如果你对查询和文档向量进行了规范化(使得它们的模长为 1),那么。

2025-03-06 11:20:20 1722

原创 LangGraph流式输出失效 踩坑记录贴

本人目前正在使用Langgraph编写工作流,这两天碰到了一个问题,排查蛮久,记录一下.此时,llm输出由流式输出变成了同步等待所有内容完毕才进行输出。问题原因目前尚未查出来,希望各位有了解这一块的可以解答下。

2025-03-03 16:17:03 848 5

原创 基于BERT模型对评价进行情感分析

定义设备信息 选择是GPU还是cpu# 将模型加载到device上# 增量微调,根据 (dense): Linear(in_features=768, out_features=768, bias=True) 进行下游匹配处理# 定义下游任务(增量微调模型->情感分析)#设计全连接网络,设置in_features参数为加载的bert模型特征提取维度768,设置out_features进行二分类任务# 冻结模型的参数,让他不参与训练# 增量模型参与训练return out。

2025-02-21 10:57:11 573

原创 基于Langchain、Ollama、Milvus构建RAG demo案例

本案例以弱智吧问答对为材料,进行向量转化存储,文件格式为json。

2025-02-16 20:10:12 316

原创 Transformer架构Q/A总结

目录本文Q/A来自于CHATGPT问答,旨在自我总结与学习分享1.什么是自注意力机制2.基本原理3.优势4.自注意力机制的q,k,v是如何得到的具体步骤5.输入向量是怎么来的(1) 直接使用预训练的词嵌入(2) 训练自己的嵌入层(3) 结合位置编码6.自注意力机制的步骤(Q/A)7.自注意力机制在transformer架构中的作用1. 捕捉当前向量与其他向量的依赖关系2. 计算相似度并生成权重3. 加权求和生成输出8.为什么要捕捉依赖关系9.自注意力机制流程举例1. 生成 Q、K、V 向量。

2025-02-12 18:02:07 2021

原创 Milvus向量数据库集合操作初尝试

是 Milvus 中存储数据的最基本单元。它类似于数据库中的一个表(table)。集合定义了数据的整体结构,包括数据类型、字段、索引等。是集合中存储数据的最小单位。每个集合都有多个字段,每个字段代表集合中存储的一类数据。字段定义了数据的结构和类型。

2025-02-12 17:04:49 2011

原创 CENTOS7 部署单机版milvus

安装部署milvus单机版(快速体验)-腾讯云开发者社区-腾讯云

2025-02-12 13:43:47 712

弱智吧问答对内容,包含千条json问答

弱智吧问答对内容

2025-02-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除