- 博客(92)
- 资源 (1)
- 收藏
- 关注
原创 chroma写入docs报错
] which is a list in upsert.\n\nTry filtering complex metadata from the document using langchain_community.vectorstores.utils.filter_complex_metadata.\n’这里使用filter_complex_metadata 对 docs当中的 复杂格式的Metadata字段进行了过滤来解决这个问题。
2024-12-25 11:32:12
409
翻译 HNSW 索引简介及Chroma索引配置
为了减少计算向量的数量,Db 像 ChromaDB 一样引入了索引的概念。索引是一个概念,它通过引入一个向量/嵌入来加快计算速度,该向量/嵌入将表示一组类似的向量嵌入。此索引的重要性在于,它在单个嵌入向量之上创建一个附加层,其中每个索引映射到一组相似的向量。这个概念的优点是,每当使用用户输入查询嵌入从 ChromaDB 中检索类似的答案时,它不需要与每个向量进行比较,而是首先尝试找到查询和索引之间的距离。确定合适和相似的索引后,仅将查询嵌入与所选索引相关的向量嵌入进行比较,该向量嵌入与查询的相似度最高。
2024-12-19 16:05:54
271
翻译 向量数据库对比:Faiss vs Chroma vs Milvus
向量数据库是一种专门的存储系统,旨在有效地处理和查询高维向量数据,通常用于快速检索和相似性搜索。简而言之,我们使用它们来查找不一定是“精确”而是“相似”的数据,这使得它们对于处理大量文档、图像和音频文件的用户非常有用。如今,它们在 RAG(检索增强生成)等 AI 驱动的应用程序中越来越受欢迎。由于 AI 的速度仍然相对较慢,矢量数据库可以充当前线,检索相关数据以供 AI 稍后处理。那么,我们实际上在其中存储了什么呢?原始数据?不完全是。我们存储从原始数据中嵌入的向量。
2024-12-19 15:27:49
531
原创 python 应用开发配置管理工具包—— ultra-simple-config
今天推荐一个配置管理工具包ultra_simple_config, 它并不是一个广为人知的Python库,它可能是一个自定义的库或者是一个较小的项目,因此关于它的信息可能不如其他流行的库那样容易找到。但是,根据其名称,我们可以推测它是一个用于简化配置管理的Python库。由于ultra_simple_config不是一个标准库或者广泛使用的第三方库,以下内容是基于其名称和一般此类库的功能来推测的。ultra_simple_config 可能是一个用于加载和解析配置设置的Python库。
2024-12-11 11:39:42
316
原创 python 应用开发日志工具包—— loguru
Loguru是一个Python库,旨在让日志记录变得愉快。你是否曾因为懒得配置日志记录器而直接使用print()?… 我有过,然而日志记录对于每个应用程序都是基本的,它简化了调试过程。使用Loguru,你没有理由不从一开始就使用日志记录,这就像导入from loguru import logger一样简单。此外,这个库旨在通过添加一系列有用的功能来解决标准日志记录器的缺陷,从而减轻Python日志记录的痛苦。在你的应用程序中使用日志应该是自动的,Loguru试图使其既愉快又强大。
2024-12-11 11:28:26
375
原创 本机开代理后访问不到ollama模型服务问题解决
解决此问题是通过参考这篇文章:https://ihave.news/post/20241113195747.html。问题已经解决, 我的理解如有不对,还请指正!
2024-12-05 18:21:34
1336
4
原创 AI Agent工作流程:关于是使用 LangGraph 还是 LangChain 进行构建的完整指南
你可以不使用 LangGraph,不使用 LangChain,或者同时使用两者!通过将 AutoGen 代理设为图中自己的节点,也完全可以探索将 LangGraph 基于图的编排与其他 Agentic AI 框架(如 MSFT 的 AutoGen)结合使用。可以肯定地说,有很多选择——而且可能会让人感到不知所措。那么,经过所有这些研究,我应该什么时候使用呢?
2024-12-04 19:54:06
889
原创 AI Agent框架如何选择?LangGraph vs CrewAI vs OpenAI Swarm
由 LLMs经历了起起落落。从 2023 年 AutoGPT 和 BabyAGI 的病毒式演示到今天更精致的框架,AI Agent的概念——LLMs自主执行端到端任务的 LLM——既引起了人们的想象力,也引起了怀疑。为什么重新引起人们的兴趣?LLMs 在过去 9 个月中进行了重大升级:更长的上下文窗口、结构化的输出、更好的推理和简单的工具集成。这些进步使构建可靠的AI Agent应用程序比以往任何时候都更加可行。
2024-12-04 18:23:14
1494
原创 常用Agent框架对比: LangGraph Vs Autogen Vs Crew AI
AI 中的agent是一种应用程序,它使用 LLMs 自主执行特定任务。这些任务的范围从回答研究问题到调用后端服务。agent在需要开放式答案的场景中特别有用,他们可以提供非常有效的解决方案。客户支持agent能够解决客户查询、提供信息和自主解决问题。而代码生成agent可以生成、调试和运行代码片段,帮助开发人员自动执行重复性任务。自动化 AI 驱动的开发Autogen 和 Crew AI 因其对话方法和简单性而具有优势。
2024-12-04 16:51:16
2672
原创 交叉熵损失函数中为什么核心是使用对数函数计算惩罚
惩罚错误预测的严重性:对数函数对预测概率小的类别给予更大惩罚,有助于提升模型对正确类别的信心。与最大似然估计的关系:交叉熵损失可以看作是最大化对数似然的负值,符合概率模型的优化目标。提高数值稳定性:对数能够平滑极小的概率值,避免计算过程中的数值不稳定。梯度计算的简化:对数函数具有良好的导数性质,能有效支持反向传播和梯度下降的计算。适应概率分布的结构:交叉熵损失能够度量真实概率分布和预测概率分布之间的差异,符合概率论中的基本原理。
2024-11-29 10:25:32
780
原创 fasttext文本分类实战
让我们通过一个简单的练习来说明这一点,给出以下 bigrams,尝试重构原始句子:‘all out’, ‘I am’, ‘of bubblegum’, ‘out of’ 和 ‘am all’。在本教程中,我们感兴趣的是构建一个分类器,自动识别关于烹饪的Stackexchange问题的主题。当我们想要将一个文档分配给多个标签时,我们仍然可以使用softmax损失,并调整预测参数,即要预测的标签数量和预测概率的阈值。预测的五个标签中,有一个是正确的,即equipment,这给出了0.20的精确度。
2024-11-20 16:23:20
1148
翻译 Llamaindex指南,用于构建LLM应用程序(译)
这使得您的LLM能够提供高效的答案,构建更强大的应用程序,并真正发挥其全部潜力,让您专注于有趣的部分——创造一些了不起的东西!**数据检索和索引:**LlamaIndex提供了连接器,可以无缝地从各种来源检索您的数据,包括数据库(SQL)、文档(PDFs)、API等。它提供了强大的工具来存储和索引数据,使其适用于不同的用例,如文档问答、数据增强的聊天机器人和知识代理。聊天存储(对于聊天应用程序是可选的):如果您正在构建一个聊天应用程序,LlamaIndex提供专用的聊天消息存储,保持您的对话井然有序。
2024-11-18 16:02:40
240
原创 llamaIndex和langchain对比及优劣对比
虽然LlamaIndex在搜索和检索方面表现出色,并且对于需要快速准确数据访问的应用程序非常有用,但LangChain提供了一套全面的工具集和多功能性,非常适合开发复杂的AI驱动的工作流程和解决方案。在比较LlamaIndex和LangChain的实际部署时,重要的是要记住,每个工具都有其独特的优势,适用于现实世界的不同应用。通过利用大型语言模型(LLMs)的力量,LlamaIndex可以处理和理解复杂的查询,为用户提供精确且在情境中适当的输出,所需时间只是传统方法的一小部分。
2024-11-11 17:24:56
3113
4
原创 一个使用大模型进行分类的提示词示例
下面是一个基本的例子,如果没有达到要求,可以增加一些正例或者负例 ,或者在任务要求中更加详细的描述每个类别的特点。使用大模型进行分类的话,基本上只调整提示词就可以让准确率提升到90%以上。另外可以对badcase进行分析,以调整提示词。
2024-10-18 17:01:14
601
原创 RAG学习及相关技术
增强检索生成(RAG)是一种使用后处理的架构解决方案,目的就是为了解决LLM遇到的问题。如果用户想LLM提出问题,LLM能够直接给出准确以及有依据的回答,让用户可以100%相信它的回答的话,完全不需要RAG这种后处理的解决方案。
2024-09-30 14:58:48
1463
2
原创 qlora原理
我们提出了QLORA,这是一种高效的微调方法,它减少了足够的内存使用,可以在单个48GB GPU上微调一个650亿参数的模型,同时保留了完整的16位微调任务性能。QLORA通过一个冻结的、4位量化的预训练语言模型向后传播梯度到低秩适配器(LoRA)。我们最好的模型系列,我们称之为Guanaco,在Vicuna基准测试中超过了所有以前公开发布的模型,达到了ChatGPT 99.3%的性能水平,而仅在单个GPU上微调了24小时。QLORA引入了一系列创新,以节省内存而不牺牲性能:(a)
2024-09-29 15:40:21
886
原创 大模型文本分类任务——提示词优化建议
在自然语言处理(NLP)领域,大型模型已展现出卓越的性能,涵盖了包括判别式任务和生成式任务在内的多种传统NLP任务。尽管基础NLP大模型的表现已相当出色,但在特定工业领域或场景中,对准确率的要求可能更为严苛。当然,如果上述建议仍未能满足要求,我们可以在后期对错误案例进行单独分析,或者切换至符合条件的其他大型模型。这两种方案适用于不同的场景:当场景对准确率的要求极高,且领域知识包含大量专业术语时,进行模型微调是必要的;二、明确指令要求,不仅要清晰地表述期望大模型执行的任务,还需指示其判断和思考的过程及依据。
2024-09-18 15:57:34
905
原创 windows上进行git初始化时报错:fatal: unknown write failure on standard output
命令时遇到 “unknown write failure on standard output” 错误,这通常指示在尝试创建新的 Git 仓库时,有一些底层的写入问题。这个工具的下载可能还有些不方便,可以到我的分享中下载,路径是:https://download.youkuaiyun.com/download/weixin_36893273/89381366。检查您的 Git 配置,特别是与编辑器或 diff 工具相关的配置。确保您的 Git 版本是最新的,或者至少是兼容的版本。如果是,您需要释放一些空间才能继续。
2024-05-31 15:47:56
3201
1
原创 python项目中的日志定义
以上方法,简单 的创建了一个获取logger的方法,更个性化或者更复杂的配置可以参考官方文档:https://docs.python.org/zh-cn/3/library/logging.html。python日志定义,包含配置文件,和日志实例创建方法。一、日志创建方法,创建一个loger实例。
2024-05-31 14:17:41
300
1
原创 如何让大模型更聪明?
另一方面,这个架构对于硬件的依赖是很深的,可以看到,现在的大模型越来越依赖参数量的大小,从而对硬件的依赖也越来越深, 巨大的参数量代表着训练和推理对机器资源的要求更高,更大。比如 2010年以前大家更多的是使用机器学习算法, 它的优点是可解释性更强,但是机器学习算法对于CV和NLP的支持并不是很好,当时的NLP和CV领域大多数还是用的专家系统或者规则, 当时也有LSTM和CNN等深度学习模型,但是由于算力的局限性,造成了一直没有在工业界普遍的应用。那么,如何让大模型变得更聪明呢?
2024-05-27 19:48:31
363
原创 开源大模型与闭源大模型,你更看好哪一方?
开源:包括模型源码开源, 论文或者技术文章开源, 预训练的参数也开源,目前比较流行的大模型开源网站包括 huggingface,国内的魔搭社区等闭源:只提供api接口或者web访问服务,一般有公司运营优化。服务分为免费版和收费版。
2024-05-25 13:49:27
1690
1
原创 python项目中的配置文件定义
这种方法适用于小项目,方便高效,也是我常用的方式,使用方便,直接import就可以;但是缺点也很明显,不容易拓展。...
2024-05-22 19:52:23
725
原创 ElasticSearch的python api以及dev tool方式的基本操作
如果没有额外的安全验证,需要指定的内容包括:集群ip地址(list类型),端口号(每个节点的端口号可能不同,这里是字符串,代表所有节点的端口号是一样的),用户名,密码。如果你的Elasticsearch集群启用了安全性功能,你可能需要确保你的Kibana实例已经使用具有足够权限的用户进行了认证,以便能够执行删除索引的操作。es的查询方式很灵活,可以单独写一篇文章, 就先不列在这里面了,它可以模糊查询,可以计算文档距离,也可以精确查询,可以说非常丰富灵活。在你的Web浏览器中打开Kibana的Web界面。
2024-05-11 17:00:34
1286
5
原创 stable diffusion WebUi本地安装
Stable Diffusion是一种先进的文本到图像的生成模型,它可以根据给定的文本输入生成高度逼真的图像。Stable Diffusion模型因其高效性和灵活性,在AI图像生成领域引起了广泛关注,并在实际应用中展示了其强大的能力。随着技术的不断发展,Stable Diffusion预计将在更多领域发挥重要作用,推动机器学习和深度学习的进步。
2024-05-11 14:10:58
610
1
原创 windows11获取笔记本电脑电池健康报告
可以看到当前完全充电的容量是大于电池设计容量的,如果 完全充电的容量不足设计容量的30%的话,可能电池需要换了。测量误差:可能是由于测量设备或方法的不准确导致的误差。更新的设计容量:电池可能经过了技术更新,制造商提高了电池的设计容量,但用户所知的设计容量信息还未更新。电池老化补偿:一些智能设备或电池管理系统(BMS)可能会尝试通过算法补偿电池老化导致的容量损失,从而使得显示的完全充电容量看起来比实际设计容量要高。
2024-05-08 13:52:29
8029
3
原创 首发!Llama3纯本地部署攻略!中文方法!
完成了LLAMA3的模型部署,从测试的结果可以看到, llama3的基础模型对于中文的支持并不好,我们的问题是中文,它却返回了英文的结果,原因可能是因为它的训练集有15个T但是其中95%是英文,想要它支持中文更好,还需要使用中文的训练集进行微调,可喜的是,微调llma系列的中文训练集并不少(可能是因为llama系列都有这个问题),后续我会接着对llama3进行微调, 待续。。。
2024-04-22 14:07:30
18532
6
原创 安装CUDNN详细过程
cuDNN(CUDA Deep Neural Network library)是由NVIDIA开发的深度学习GPU加速库。cuDNN包含了许多针对神经网络操作进行高度优化的函数,旨在使深度学习框架能够在NVIDIA的GPU上实现最佳性能,这个库提供了高效计算和加速,支持包括卷积神经网络在内的多种深度学习网络,并兼容多种常见的深度学习软件,如CNTK、Caffe、Theano、Keras、TensorFlow等。
2024-04-15 17:24:46
17835
原创 微信签名和微信名真的反应人的性格吗?
微信签名仿佛成了一种心理暗示,反映出人们对美好品质的向往和追求,同时也揭示了他们在现实生活中所缺乏的。经过我多年的观察和总结,发现微信签名或者微信名有个特点,好像生活中越缺少什么,签名就会越写什么。签名是财源广进,八方来踩的可能是缺钱。签名是心静如水的通常生活中容易着急。签名是海纳百川的通常生活中很狭隘。签名是自强不息的通常生活中很懒惰。有的人签名是一首诗,可能文化不高。签名是知足常乐的通常生活中很贪。签名是舍得,这个人生活中很抠门。
2024-04-04 18:35:25
416
原创 paddlepaddle模型转换onnx指导文档
因为安装 完成paddlepaddle后还需要安装其他依赖,所以我们加上 -i 指定国内的pip源。cuda驱动版本为516.94。报错内容: cudnn没有装!成功生成onnx文件。
2024-04-04 17:13:33
1392
原创 tensflow模型转onnx实践
TensorFlow™是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief [1]。Tensorflow拥有多层级结构,可部署于各类服务器、PC终端和网页并支持GPU和TPU高性能数值计算,被广泛应用于谷歌内部的产品开发和各领域的科学研究 [1-2]。
2024-04-03 17:07:20
2034
原创 glm2大语言模型服务环境搭建
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。
2024-04-03 16:22:22
1148
原创 GLM论文研读
目前已经发展出多种预训练模型,包括自编码模型(如BERT)、自回归模型(如GPT)和编码器-解码器模型(如T5)。然而,这些模型并未在自然语言理解(NLU)、无条件生成和条件生成这三类任务中都达到最佳表现。为此,我们提出了一个基于自回归式空格填充的通用模型(GLM)以应对这一挑战。GLM通过加入二维位置编码,并允许以任意顺序预测片段,优化了空格填充预训练,这使得其在NLU任务上的性能优于BERT和T5。同时,GLM可以通过调整空白数量和长度,针对不同类型的任务进行预训练。
2024-04-02 11:16:35
2104
3
原创 基于Pytorch+昇腾NPU部署baichuan2-7B大模型
Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6 万亿Tokens 的高质量语料训练。Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。它基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。项目地址预训练模型modelscope硬件要求:NPU:8 x Ascend NPUsModelLink旨在为华为昇腾芯片。
2024-04-02 11:12:23
4781
14
原创 昇腾glm3大模型lora微调及推理
ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:更强大的基础模型,更完整的功能支持,更全面的开源序列。
2024-03-29 17:31:26
1931
2
原创 pytorch快速入门中文——07(TensorBoard)
在中,我们向您展示了如何加载数据,如何通过定义为nn.Module子类的模型提供数据,如何在训练数据上训练该模型以及在测试数据上对其进行测试。为了了解发生的情况,我们在模型训练期间打印一些统计数据,以了解训练是否在进行中。但是,我们可以做得更好:PyTorch 与 TensorBoard 集成在一起,TensorBoard 是一种工具,用于可视化神经网络训练运行的结果。本教程使用说明了其某些功能,可以使用将其读入 PyTorch。我们将从。
2023-06-29 09:58:39
1675
原创 pytorch快速入门中文——06(torch.nn)
现在,我们有了一个通用的数据管道和训练循环,您可以将其用于使用 Pytorch 训练许多类型的模型。要了解现在可以轻松进行模型训练,请查看示例笔记本。当然,您需要添加很多内容,例如数据扩充,超参数调整,监控训练,迁移学习等。这些功能可在 fastai 库中使用,该库是使用本教程中所示的相同设计方法开发的,为希望进一步推广其模型的从业人员提供了自然的下一步。我们承诺在本教程开始时将通过示例分别说明torch.nnDataset和DataLoader。
2023-06-29 09:40:19
871
原创 pytorch快速入门中文——05
在幕后,每个原始的 Autograd 运算符实际上都是在张量上运行的两个函数。正向函数从输入张量计算输出张量。反向函数接收相对于某个标量值的输出张量的梯度,并计算相对于相同标量值的输入张量的梯度。在 PyTorch 中,我们可以通过定义的子类并实现forward和backward函数来轻松定义自己的 Autograd 运算符。然后,我们可以通过构造实例并像调用函数一样调用新的 Autograd 运算符,并传递包含输入数据的张量。在此示例中,我们将模型定义为而不是,其中是三次的勒让德多项式。
2023-06-29 09:30:00
667
deepseek核心技术:moe(混合专家模型)相关论文
2025-02-10
deepseek最新学习文档-从入门到精通系列
2025-02-10
俄罗斯方块-C语言实现
2025-01-13
axiv论文OCR识别训练集
2025-01-13
图算法- 社区发现算法: Louvain和 leiden算法论文
2025-01-13
当前中文手写体识别任务准确前三开源模型-DTrOCR 原论文
2024-11-20
fastText是一个用于高效学习词表示和句子分类的库
2024-11-20
资源中主要包括一些开源的langchain和 llama index 框架的学习资料以及相关资源
2024-11-18
BGE系列模型原论文,rag中的rerank模型
2024-07-11
高效进行数据科学工作的python库和一些trick
2024-06-25
知识图谱发展史及关键技术
2024-06-13
c++ primer 第六版pdf+代码实现
2024-06-03
远程ssh连接工具MobaXterm,完全免费,可以拖动传输文件,及教程汇总
2024-05-31
Visual Basic 语言学习资料
2024-05-29
利用python进行科学计算工具指南
2024-05-27
numpy-pandas-matplotlib使用指南,都是一些实例,且全部是jupyter文件,方便运行查看效果
2024-05-27
这个文档介绍了,如何在arm架构的系统机器上面安装python环境, 我们首先安装miniconda,方便管理python的多版
2024-05-25
fastgestures安装包,模拟mac的触控板收拾,两指代表右击, 三指拖拽
2024-05-21
chatgpt4的免费api,还支持以下模型:gpt-4-all,gpt-3.5-turbo,gpt-3.5-turbo-16k
2024-05-15
python少儿编程课程代码实现-地址:https://kidscancode.org/lessons/
2024-05-15
近期的一些agent大模型产品,包括官方服务的页面
2024-05-11
总结了一系列的agent大模型论文
2024-05-11
使用python语言编程, 使用matplotlib做可视化,將排序算法用图像的方式展现出来排序过程
2024-05-08
适合初学者学习的优秀项目:c/c++/python/java等等
2024-04-30
python语言学习-python编程100练,在代码中实际进行练习
2024-04-30
elasticsearch查询模版-模糊查询,多字段查询,相似度计算等
2024-04-29
神经网络与深度学习课件和pdf文件
2024-04-29
python世界银行公开数据下载爬虫
2024-04-29
设计模式python模版
2024-04-29
斯坦福cs223-数据结构课件
2024-04-28
强化学习经典课程-斯坦福大学cs234课件
2024-04-28
学生成绩管理系统-C++版本
2024-04-28
llama3优秀的prompt-优秀的prompt堪比微调效果
2024-04-28
正则表达式学习-正则语法
2024-04-28
总结的学习资料nlp算法原理-word2vector-bert等
2024-04-28
jena语义网络开发框架
2024-04-27
经典书籍-强化学习源码实现
2024-04-27
python3经典代码模版-cookbook源码
2024-04-27
机器学习经典-统计学习方法主要章节ppt
2024-04-27
整理的关于少儿编程的学习路径,以及如何在小升初,初升高和大学充分的利用起来编程经验的优势
2024-04-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人