LLM
文章平均质量分 95
天晴丶SnowCrystal
深度学习的狂热爱好者!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
[F.S]高性能 ChatMemory 实现方案
本文针对Spring AI中基于Redis的ChatMemory传统实现进行了高性能优化。传统方案存在序列化线程安全、阻塞式IO和Base64编码效率三大瓶颈。创新性地采用Kryo对象池解决线程竞争,引入响应式编程避免阻塞,并直接使用二进制传输消除Base64开销。经压力测试验证,优化后吞吐量提升41%,平均延迟降低82%,网络传输速率提升42%,显著提升了AI应用的响应性能。原创 2025-08-23 13:50:09 · 666 阅读 · 0 评论 -
[F.S]RAG本地部署与ES向量数据库实践
本文详细介绍了基于ElasticSearch的RAG(检索增强生成)本地部署方案。RAG技术通过结合信息检索和文本生成,利用外部知识库增强大模型输出,减少幻觉现象。文章使用ElasticSearch作为向量数据库,配合本地部署的Ollama granite-embedding:278m嵌入模型(输出维度1536),实现了完整的RAG流程。原创 2025-08-21 14:21:26 · 785 阅读 · 0 评论 -
[F.S]大模型本地部署与调用
本文章提供了一种本地部署大模型的方法,这适用于所有已开源的大模型的部署。本地部署大模型可以让开发者更为完全地控制数据流,具有更高地隐私保障以及操作上线;并具有及底的网路延迟。如果你无法使用云部署的现成大模型,可以进行本地部署。或者,你可能想为你的萝莉提供一个更智能的大脑,或者提供更低的延迟来保证对话的连续性。原创 2025-08-16 21:31:04 · 1170 阅读 · 0 评论
分享