- 博客(657)
- 资源 (3)
- 收藏
- 关注
原创 LLM RAG系列:一文详解RAG,看完这篇你必会(附文末福利)
本文介绍了RAG以及RAG pipeline的整个流程,包括请求转换、路由和请求构造、索引和检索、生成和评估等,其中引用了大量有价值的论文。
2025-04-01 09:44:53
659
原创 大模型安全 | RAG 精确应对大模型敏感问题知识幻觉难题(附教程)
OpenAI摊牌了。不再掩藏锋芒,拿年初预测的2亿美元收入做挡箭牌,“我们的年营收达到了13亿美元。”10月中旬Sam Altman终于透露出来。13亿美元,同比增长4500%。国内。资本和公众的视线越来越多地放在局势变幻、芯片和造车上。
2025-04-01 09:43:26
394
原创 2024 大模型爆发年,这几本教程足够你入局AI大模型,搭上行业风口(附PDF)
今天这篇文章主要是为了帮助大家系统性的学习大模型相关知识,从大模型的基础到大模型构建、微调、私有化部署都包含在内。 拿到这些教程并熟练掌握,你就是现阶段大模型的引领者!
2025-04-01 09:42:08
481
原创 当红AI大模型书籍丨《LangChain入门指南》系统的LLM应用开发指南(附PDF)
在大模型领域,有一只当红小鸟受到越来越多开发者的青睐。这只小鸟来自 LangChain 的官方 logo,也是我们在社交平台上经常使用的动物 emoji 之一。
2025-04-01 09:40:28
532
原创 本地LLM管理、WebUI对话、Python/Java客户端API应用(附教程)
Ollama支持的大模型越多越普及,对于的应用也就越多。为了降低大家查阅资料等学习时间,今天尝试着对 Ollama 进行一次详细完整介绍。
2025-03-31 15:27:29
388
原创 上海交通大学出品《动手学大模型》实战课,课件+实战教程(附教程)
上海交通大学的大模型超超超级牛掰的大模型编程实战课公开了,课件+教程,本套实战教程旨在提供大模型相关的入门编程参考。通过简单实践,帮助同学快速入门大模型,更好地开展课程设计或学术研究。
2025-03-31 15:26:26
232
原创 大模型本地化部署教程:《GLM-4 大模型部署微调教程》发布(附教程)
智谱 AI 发布了最新开源模型 GLM4,通过 10T 高质量多语言数据与更先进的训练技术,达到了更加出色的生成效果。
2025-03-31 15:24:52
266
原创 本地大模型+知识库(RAG)介绍,一文全讲解(附教程)
本文介绍一种可部署于本地的大模型应用:“本地大模型+知识库(RAG,检索增强生成)”,有助于解决上述的问题。
2025-03-28 16:54:53
819
原创 AI大模型时代,程序员的未来角色该如何转型(附大模型书)
在知乎上有一个关于程序员职业生涯的热门问答:在 AI 快速发展的浪潮下,程序员的未来角色该如何转型?
2025-03-28 16:51:32
541
原创 基于大语言模型和 RAG技术开源模型实战:MaxKB 知识库问答系统(附教程)
MaxKB,全称 Max Knowledge Base,是一款基于大语言模型和 RAG(Retrieval-Augmented Generation)技术的开源知识库问答系统。
2025-03-28 16:48:35
659
原创 强推!值得开发者好好学的AI大模型入门教程(内含300道AI面试真题)
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
2025-03-28 16:47:00
903
原创 去年爆火的大模型综述,现在终于出纸质书了丨送PDF书
全书内容基本全覆盖大语言模型训练与使用的全流程,从预训练到微调与对齐,从使用技术到评测应用,一本书即可全面掌握大语言模型的核心技术。
2025-03-28 16:45:52
893
原创 AI大模型学习文档+教程+PDF书籍+系统学习路线,一套全拿到!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
2025-03-28 16:34:07
933
原创 10分钟本地部署一个只属于你的大模型本地知识库-上篇(纯教程)
部署一个本地知识库,将你所有的东西都丢进去,一查即出,重要的是不用担心泄密,是不是很优秀。
2025-03-27 15:02:21
671
原创 LLM 模型融合实践指南:低成本构建高性能语言模型(附教程)
在本教程中,我们将使用 mergekit [2]库来实现这一技术。更具体地说,我们将回顾四种模型融合方法,并提供相关的配置示例。然后,我们将使用 mergekit 创建一个模型:Marcoro14–7B-slerp[3],该模型已成为 Open LLM Leaderboard(02/01/24)上表现最佳的模型。
2025-03-27 15:00:58
602
原创 使用GLM-4-9B-Chat + BGE-M3 + langchain + chroma建立的本地RAG应用(附教程)
使用GLM-4-9B-Chat + BGE-M3 + langchain + chroma建立的本地RAG应用(附教程)
2025-03-27 14:59:32
360
原创 使用GLM-4-9B + BGE-M3 + langchain + chroma建立的本地RAG应用(一)——环境准备
使用GLM-4-9B + BGE-M3 + langchain + chroma建立的本地RAG应用(一)——环境准备
2025-03-27 14:52:17
894
原创 零基础人员如何入门AI?这是一份给你的学习路径指南(附教程)
当下AI已然成了风口,不论是否是互联网人,都在学习AI。那如果是没有任何基础的普通人,面对AI如何入门呢?作者给大家整理了一份学习路径,跟着这个路径学习,基本可以解决你不会用的问题。
2025-03-26 17:01:37
968
原创 使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
2025-03-26 16:58:24
703
原创 LangChain入门指南,学习Langchain看这篇足够了
LangChain是一个强大的框架,旨在帮助开发人员使用语言模型构建端到端的应用程序。它提供了一套工具、组件和接口,可简化创建由大型语言模型 (LLM) 和聊天模型提供支持的应用程序的过程。
2025-03-26 16:54:32
959
原创 Llama3微调教程:超简单,人人都可以打造属于自己的GPT!
随着Llama 3的发布,国内各路英雄豪杰纷纷开启了炼丹之旅。Llama-3 8b在惊人的15万亿令牌上训练,而Llama-2仅为2万亿。毋庸置疑,Llama 3目前是开源大模型中能力最强的!其跑分成绩已经赶上了GPT-4。
2025-03-26 16:53:24
739
原创 大模型部署:Ollama运行HuggingFace下载的模型(附教程)
本地运行模型我之前都直接使用LM-studio,好用、无脑。本地用足够了。但是放在服务器上才是正道,本地运行无法长时间开启保持运行,而且Ollama推出了并行GPU计算之后可用性大幅提升,可用性很高。 今天研究下如何用Ollama如何在本地来使用这些HF的开源模型,后面把它搬到服务器上。
2025-03-25 10:24:39
1212
原创 大模型开源教程:基于 AnythingLLM 及 Ollama 构建本地知识库(附教程)
使用 Ollama 和 AnythongLLM 的组合就是很常见的一种构建知识库的手段。
2025-03-25 10:20:19
882
原创 Ollama部署教程:本地LLM管理、WebUI对话、Python/Java客户端API应用(附教程)
今天尝试着对 Ollama 进行一次详细完整介绍。毕竟也在不断学习中,若有疏漏或者错误之处,还请各位朋友多多指正,谢谢大家。
2025-03-25 10:19:09
909
原创 手把手教你创造你的本地私人 ChatGPT(上):本地大模型 Ollama
Ollama 是一款开源工具,旨在将 LLM 的强大功能带到你的本地机器。通过 Ollama,可以轻松下载和运行各种 LLM 模型,而无需将数据上传到云端。
2025-03-24 10:38:16
739
原创 ✨快速搭建✨DeepSeek本地RAG应用
由 深度求索 开源的DeepSeek-R1推理模型在性能上已经能够对标OpenAI-o1正式版,正巧马上大年初四轮到我值班处理告警,突发奇想能不能让DeepSeek-R1来帮我识别告警并结合之前同事们处理告警时的记录信息来合理给出处置建议。
2025-03-24 10:26:52
1259
原创 搭建个人AI知识库:RAG与本地模型实践指南(附教程)
你是否想过拥有一个私人订制的AI助手,能够随时为你提供最个性化的信息?本文将带你一步步搭建一个基于本地模型和RAG技术的个人知识库。
2025-03-22 14:33:11
1031
原创 Ollama + DeepSeek 本地大模型实现联网回答
之前写了如何通过 Ollama 实现大模型本地化,本次将通过代码实现 Ollama + DeepSeek 实现本地大模型的联网回答能力。本文介绍了 Ollama + DeepSeek 实现本地大模型联网的方法,完整代码已上传至 Github。如果要提升 AI 回答的精确度,还需要进一步结合向量数据库,将完整的文章内容转换为向量后再进行搜索,才能提高检索的准确性。
2025-03-22 14:30:46
603
原创 通过 HuggingFace 调用 Llama3(附教程)
这篇文章将详细介绍如何使用 Hugging Face 平台下载和调用 Llama 模型,并提供代码示例用于测试。至此,我们成功演示了如何通过 Hugging Face 的 Transformers 调用 Llama 模型,并获取了模型的回答。但是如果你的需求只是简单地调用模型,而无需进行微调或复杂的部署,可以尝试使用 Ollama。它不仅操作更加便捷,还提供了开箱即用的 RESTful 接口,适合快速集成到生产环境中。
2025-03-22 14:28:26
639
原创 一文带你速通RAG、知识库和LLM(附教程)
检索增强生成(Retrieval Augmented Generation,RAG)是一种强大的工具,它通过将企业外部知识整合到生成过程中,增强了大语言模型(LLM)的性能。
2025-03-21 10:26:37
383
原创 使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b(文末有福利)
ollama和huggingface 给与了像我这样的普通人,就能很方便的了解AI大模型,并且在本地运行大模型,真的太高兴了,接下来有机会会继续尝试其他的可能性。好了,本文就到这里,福利也就是这几个中文微调模型也在此了,想体验更好的中文效果,就去玩玩吧。
2025-03-21 10:21:47
778
原创 一键搭建本地大模型,不挑环境、不挑配置,2000+多种开源大模型任意部署
Ollama是一个支持在Windows、Linux和MacOS上本地运行大语言模型的工具。它允许用户非常方便地运行和使用各种大语言模型,比如Qwen模型等。用户只需一行命令就可以启动模型。
2025-03-20 10:35:06
1038
原创 LightRAG:轻量级 RAG 模型,快速构建你自己的知识库问答系统(附教程)
本文将介绍一种名为 LightRAG 的轻量级 RAG 模型。LightRAG 具有结构简单、速度快、易于部署等优点,能够帮助开发者快速构建自己的知识库问答系统。
2025-03-20 10:32:54
948
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人