自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(48)
  • 收藏
  • 关注

原创 从卷积到ResNet

本文介绍了卷积运算的基本概念及其在图像处理中的应用。内容涵盖一维和二维卷积的数学定义与性质,重点阐释了卷积定理——通过傅里叶变换将卷积运算转化为频域乘法运算,以及快速傅里叶变换(FFT)的高效实现方法。文章详细讲解了高斯模糊原理,包括高斯函数核的构建及其在图像平滑处理中的应用。这些基础理论为理解深度学习中的卷积神经网络(CNN)奠定了基础。

2025-07-28 18:18:43 2005

原创 背包问题(01背包)

摘要:本文介绍了一个经典的0-1背包问题解决方案。给定n个设备和行李箱容量bagweight,每个设备有weight和value属性,要求在容量限制下选择设备使总价值最大。采用动态规划方法,定义dp[i][j]表示前i个物品在容量j时的最大价值。状态转移方程为dp[i][j] = max(dp[i-1][j], dp[i-1][j-weight[i]] + value[i])。初始化时处理首个物品情况,随后通过双重循环依次计算每个状态。最终dp[n-1][bagweight]即为所求最大值。

2025-07-27 10:07:51 737

原创 力扣128 最长连续子序列

摘要:本文介绍了一个在未排序整数数组中寻找最长连续序列长度的O(n)时间算法。通过将数组转为哈希集合实现O(1)查找,算法首先定位序列起点(不存在x-1的元素),然后向后扩展序列。关键步骤包括:1)使用迭代器构造哈希集合;2)利用contains函数检查元素存在性;3)计算序列长度并更新最大值。该解法避免了排序,实现了线性时间复杂度。参考LeetCode官方题解,适用于C++等语言实现。

2025-07-26 16:31:10 950

原创 FastAPI框架下集成智谱大模型的RAG流式响应服务框架

RAG(检索增强生成)技术通过结合外部知识检索与大语言模型生成能力,显著提升AI回答的准确性和可靠性。该技术框架包含检索引擎(如向量数据库)、大语言模型(如GPT)及数据预处理三大核心组件,广泛应用于客服、医疗、法律等专业领域。实践案例wow-RAG展示了完整的实现流程:从环境配置、文档索引构建到流式查询引擎开发,最终通过FastAPI提供实时问答服务。测试显示系统能有效处理专业问题(如大模型推理就业前景),生成结构化、可验证的回答,验证了RAG技术在知识密集型场景中的实用价值。

2025-07-24 16:31:12 942

原创 PyTorch中神经网络的模型构建

本文介绍了PyTorch中自定义神经网络模型的核心方法,重点讲解了从基础层构建到完整网络设计的实现过程。主要内容包括:1)继承nn.Module类创建自定义模型的基本框架;2)实现卷积层、池化层等核心组件的原理与代码;3)经典网络结构LeNet和AlexNet的实现细节与对比分析。文章通过具体代码示例,展示了如何定义网络参数、实现前向传播,以及处理不同维度的输入数据,为PyTorch初学者提供了从理论到实践的完整指导。

2025-07-24 10:18:36 1087

原创 RAG(检索增强生成)里的文档管理

RAG(检索增强生成)技术结合外部知识检索与生成式AI,通过向量数据库等工具精准检索信息后输入大模型生成回答,解决知识滞后和幻觉问题。Datawhale提供的wow-RAG项目提供了实践框架。文档管理流程包括预处理、分块存储和检索优化,其中分块策略保持语义连贯性,节点关系网络确保上下文关联。输出示例展示了索引结构中节点ID注册表和文档引用信息,体现高效检索与文档级管理能力。该技术可应用于智能客服、医疗问答等场景,提升回答准确性。

2025-07-22 10:27:05 1388

原创 简易RAG问答引擎的构建与体验

RAG(检索增强生成)技术通过结合外部知识检索与生成式AI,提升大模型回答的准确性和可靠性。本文以Datawhale的wow-RAG项目为例,演示RAG技术的实现流程:首先读取指定文档并构建向量索引;然后使用LLaMA Index框架进行语义检索;最后基于检索结果生成回答。文中还解决了NumPy与Pandas版本冲突等常见技术问题,展示了完整的问答系统实现过程,包括文档处理、索引构建、查询执行等关键环节。该项目为开发者提供了开箱即用的RAG实践方案,适用于各类知识增强型应用场景。

2025-07-22 09:47:21 1555

原创 PyTorch里的张量及张量的操作

摘要:张量是多维数组的泛化形式,是PyTorch的核心数据结构。本文介绍了张量的基本概念(从标量到高维数组)、创建方法(直接创建、全零/全一矩阵、随机初始化)以及常见操作(索引、维度变换、广播机制)。同时讲解了张量与NumPy数组的转换及自动求梯度功能,展示了张量在深度学习中的基础作用。重点包括:张量视图与副本的区别、广播机制的维度处理规则,以及通过requires_grad实现自动微分的关键步骤。这些知识为后续深度学习模型构建奠定了基础。

2025-07-20 17:10:03 1165

原创 最新最简单的PyTorch安装教程

PyTorch安装指南摘要:建议使用pip安装PyTorch,官方命令为pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu。安装后可通过导入库并打印版本号验证,若出现ModuleNotFoundError错误,可能是路径问题,需指定Python环境或重新安装。注意不同系统下的安装路径差异,若警告Scripts目录未加入PATH环境变量,可能导致命令行工具无法直接使用。

2025-07-19 10:01:18 2055

原创 PyTorch新手实操 安装

PyTorch是一个由MetaAI开发的Python开源深度学习框架,以其动态计算图和灵活架构著称。它具备简洁直观、易上手、社区生态完善、调试便捷和扩展性强等优势,广泛应用于学术界和工业界。安装指南推荐使用Anaconda创建虚拟环境,并通过清华镜像源离线安装PyTorch和torchvision包。安装完成后可通过import torch和torch.cuda.is_available()验证安装成功。详情参考GitHub上的PyTorch教程资源。

2025-07-18 09:24:27 1115

原创 基于Llama的RAG 3种模型配置方法

本文介绍了三种接入大语言模型的技术方案,重点展示RAG(检索增强生成)框架的实现方法。方法一使用Llama-index技术栈,通过安装专用包实现智谱AI模型集成,包括文本读取、向量生成、存储检索和回答生成全流程;方法二通过重写OpenAI类绕过上下文长度限制,实现智谱AI的非官方接入;方法三基于Ollama平台本地部署qwen2模型,并通过API实现交互。文章详细阐述了各方案的技术实现细节,包括环境配置、模型测试、流式输出优化等关键环节,为开发者提供了灵活的大模型接入方案选择。

2025-07-16 13:13:52 1445 1

原创 手搓RAG

RAG(检索增强生成)技术框架通过结合检索与生成式AI,先检索外部知识库信息,再输入大模型生成回答。关键技术包括检索引擎(如向量数据库)、大语言模型(如GPT)及数据预处理,有效解决模型知识滞后和幻觉问题,提升回答准确性。应用场景广泛,如智能客服、医疗问答等。Datawhale推出的wow-RAG项目提供了实践教程,涵盖环境配置、文本分割、向量生成、检索匹配及流式生成答案等完整流程,使用智谱AI等平台API实现。该技术通过检索增强机制,确保生成内容基于特定领域知识,兼具精准性和可控性。

2025-07-15 16:17:46 1478

原创 体验RAG GitHub/wow-rag

RAG(检索增强生成)是结合检索与生成式 AI 的技术框架。核心逻辑是先从外部知识库精准检索相关信息,再将其作为上下文输入大模型生成回答。技术上依赖检索引擎(如向量数据库、BM25)、大语言模型(如 GPT、LLaMA)及数据预处理技术。通过检索增强,解决大模型知识滞后、幻觉问题,提升回答准确性。应用广泛,涵盖智能客服、医疗问答、法律检索、教育辅导等场景,能基于特定领域知识提供精准、可控的生成内容。

2025-07-14 22:04:15 1357

原创 强化学习 (11)随机近似

本文介绍了增量计算均值的新方法及其理论背景。传统均值计算需等待所有样本收集完毕,而增量方法通过迭代更新实现实时计算。该方法属于随机近似算法(SA)和随机梯度下降(SGD)的特殊形式,其中SGD通过随机样本近似梯度,降低大规模数据计算复杂度。文章详细推导了Robbins-Monro算法证明SGD收敛性,并比较了批量梯度下降(BGD)、小批量梯度下降(MBGD)和SGD的异同。理论分析表明,SGD虽因随机性导致收敛过程波动,但在满足条件时仍能稳定收敛至最优解。

2025-07-13 20:46:13 1171

原创 带货视频评论的用户洞察 科大讯飞AI算法赛 Datawhale AI夏令营

2025 iFLYTEK AI开发者大赛。

2025-07-09 11:24:41 1186

原创 强化学习 (10)蒙特卡洛

如何在没有模型的情况下估计一些量?→ 蒙特卡洛。

2025-07-04 17:56:02 1663 4

原创 力扣343 整数拆分

给定一个正整数n,将其拆分为k个的和(k >= 2),并使这些整数的乘积最大化。返回你可以获得的最大乘积。

2025-07-03 10:37:34 589

原创 力扣53 最大子数组和(动态规划)

核心思想:以当前元素结尾的最大子数组和 = max(前一个最大子数组和,0)+ 当前元素。

2025-07-02 18:10:29 435

原创 强化学习 (9)值迭代与策略迭代

S. Zhao. Mathematical Foundations of Reinforcement Learning. Springer Nature Press, 2025. 【【强化学习的数学原理】课程:从零开始到透彻理解(完结)】当截断策略评估的迭代次数 m=1 时,截断策略迭代退化为值迭代(Value Iteration)policy improvement 求解优化问题。policy evaluation 对于每个策略。不是state value,只是一个值。为什么该迭代算法会找到最优策略?

2025-07-02 12:27:55 444

原创 强化学习 (8)贝尔曼最优公式

如果对于所有状态,都有,则称策略优于optimal policy:对于状态空间里的每个状态s和每个策略,都有,称这样的为optimal policy最优策略。

2025-07-02 03:15:00 578

原创 强化学习 (7)action value

表示在状态 s 下采取动作 a 后,智能体遵循策略 π 时,从该开始所能获得的期望累积回报因此有由action value求state value由于state value公式为因此由state value求action value。

2025-07-01 16:44:34 334

原创 强化学习 (6)迭代法解贝尔曼公式

【【强化学习的数学原理】课程:从零开始到透彻理解(完结)】 https://www.bilibili.com/video/BV1sd4y167NS/?policy evaluation:给定一个policy,求解贝尔曼公式得到state value的过程。实际用不到,因为求矩阵的逆,计算量很大。若有4个state,则。,这样我们可以得到一串。

2025-07-01 12:16:01 224

原创 力扣74 搜索二维矩阵

matrix 是一个 vector<vector<int>> 类型的二维向量,其本质是一个嵌套的动态数组matrix.size() 返回的是外层 vector 的大小,即有多少个 vector<int> 元素,也就是二维向量的行数matrix[0] 是第一行的 vector<int>,即第一个 vector<int> 元素matrix[0].size() 返回第一行的大小,也就是该行中 int 元素的数量,即列数在 C++ 中,数组索引是从 0 开始的。

2025-07-01 10:56:21 828

原创 强化学习 (5)贝尔曼公式的推导

【【强化学习的数学原理】课程:从零开始到透彻理解(完结)】 https://www.bilibili.com/video/BV1sd4y167NS/?,它描述了不同状态的state value的关系,包含两项:immediate reward和future reward。即:当前时刻得到的return=立即能得到的reward+下一个时刻的return。对于当前状态s,下一个状态可能有好多种s',到每一种s'的概率为。第一项是状态s下的immediate reward的均值。

2025-06-30 19:04:16 295

原创 强化学习 (4)state value

上述的单步过程可以推广到多步的trajectory可以求出discounted return由于等为random variable(随机变量),因此也是随机变量。

2025-06-30 12:30:09 273

原创 强化学习 (3)贝尔曼公式

一个状态的value依赖于其他状态的value解得。

2025-06-30 11:26:54 209

原创 强化学习 (2)基本概念

reward:智能体执行某个动作后,环境返回的反馈信号,用于评估该动作的好坏在grid-world example里,reward是采取一个action后都到的一个,正数代表正奖励(鼓励),负数代表负奖励(惩罚)在grid-world example里,我们这样设计reward:到forbidden area和bound,r=-1;到target area,r=+1;否则r=0reward依赖当前的state和action,

2025-06-29 15:52:00 938

原创 强化学习 (1)基本概念

一个由多个格子组成的二维网格三种格子:accessible可通行的;forbidden禁止通行的;target目标。

2025-06-29 12:07:49 1262 2

原创 Decoder-only PLM GPT1

生成式预训练transformer(Generative Pre-Training Transformer)GPT。

2025-06-27 18:38:47 1043

原创 使用 ReAct 框架在 Ollama 中实现本地代理(Agent)

本文是【】的学习笔记网址:datawhale.com 课程名称:动手学ollama。

2025-06-26 23:26:10 1271 1

原创 Encoder-Decoder PLM T5

比较邻近的位置(0~7),我们需要比较得精细一些,所以给它们都分配一个独立的位置编码,至于稍远的位置(比如8~11),我们不用区分得太清楚,所以它们可以共用一个位置编码,距离越远,共用的范围就可以越大。整个输入序列中,15%的token会被遮蔽(与BERT的15%遮蔽比例一致,但此处遮蔽的是连续片段)BERT的MLM目标随机屏蔽输入中的单个token,要求模型预测被遮蔽的token,T5不再随机遮蔽单个token,而是。,目的是让模型预测整个被遮蔽的短语或句子,以学习到更连贯的上下文表示。

2025-06-26 14:41:16 1032

原创 Encoder-only PLM RoBERTa & ALBERT (BERT的变体)

在BERT中,词汇嵌入(WordPiece embedding)的维度E与隐藏层维度H是绑定的(即E=H)。例如,BERT-large的V=30,000,H=1024,嵌入参数量高达30,000×1024=30.72M。例如,若E=128,H=1024,则参数量从30,000×1024=30.72M降至30,000×128+128×1024=3.84+131=3.97M。通过共享参数,ALBERT-xlarge的参数量(59M)仅为BERT-large的1/6,但模型效果更优。

2025-06-25 22:38:56 804

原创 Encoder-only PLM BERT

BERTEncoder-only PLM(Encoder-only Pre-trained Language Models)是基于Transformer架构中(Encoder)部分的预训练语言模型BERT。

2025-06-25 11:59:59 1011

原创 Ollama 在LangChain中的应用 Python环境

你是一位经验丰富的电商文案撰写专家。你的任务是根据给定的产品信息创作吸引人的商品描述。请确保你的描述简洁、有力,并且突出产品的核心优势。""")请为以下产品创作一段吸引人的商品描述:产品类型: {product_type}核心特性: {key_feature}目标受众: {target_audience}价格区间: {price_range}品牌定位: {brand_positioning}请提供以下三种不同风格的描述,每种大约50字:1. 理性分析型2. 情感诉求型。

2025-06-23 23:15:07 1168

原创 手撕 Decoder

Happy-LLM:从零开始的大语言模型原理与实践教程.pdf P24。

2025-06-23 22:14:05 410

原创 手撕 Encoder

Happy-LLM:从零开始的大语言模型原理与实践教程.pdf P24。

2025-06-22 22:43:34 473

原创 Ollama API

datawhale.com 动手学Ollama。

2025-06-21 17:46:15 479

原创 手撕 Layer Norm(层归一化)

Happy-LLM:从零开始的大语言模型原理与实践教程.pdf P24。

2025-06-21 03:15:11 2912 1

原创 Ollama 自定义导入模型

nvidia-smi我的笔记本 可怜兮兮的GPU。

2025-06-20 02:55:31 378

原创 手撕 前馈神经网络FFN(多层感知机MLP)

每一层的神经元可以接收前一层神经元的信号,并产生信号输出到下一层。第0层叫做输入层,最后一层叫做输出层,其他中间层叫做隐藏层。整个网络中无反馈,信号从输入层向输出层单向传播多层感知机(MLP)是一种典型的全连接 FNN,每一层神经元与下一层全连接。

2025-06-18 17:23:00 1246

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除