- 博客(50)
- 收藏
- 关注
原创 web服务器 网站部署的架构
正向代理是代理服务器位于客户端与目标服务器之间,客户端通过它向目标服务器发送请求,目标服务器无法直接知道请求源于哪个客户端。反向代理是一种服务器,接收客户端的请求并将其转发到内部的一台或多台服务器。这种情况下,客户端并不知道具体哪个服务器在处理其请求。
2025-01-22 23:37:47
1721
原创 CNN+LSTM+AM研究方向初尝试
长期特征提取:使用LSTM捕捉电力负荷数据的趋势和季节性。非平稳性处理:利用CNN处理负荷数据的随机性特征。自注意力机制:突出重要信息,建模长距离依赖关系。输入层输入为序列数据,通常是电力负荷数据。数据格式可能为一个二维张量,形状为[样本数, 时间步长, 特征数]。在短期负荷预测中,特征数可能只有一个,即电力负荷。LSTM层该层负责处理时间序列数据的长期依赖性。LSTM 通过内部的门控机制(输入门、遗忘门和输出门)来捕捉数据中的趋势和周期性。
2024-12-05 01:02:00
1404
原创 查漏补缺01
召回是从大量候选物品中筛选出一小部分潜在感兴趣的物品的过程。它在推荐系统中扮演着至关重要的角色,因为它在某种程度上决定了整个推荐的上限。
2024-12-02 00:21:56
1274
原创 Dify+Docker
直接下载(1)访问(2)点击绿色的"Code"按钮,然后选择"Download ZIP"(1)先找到文件所在的文件夹(通常在 dify 目录下的 docker 文件夹中)进入这个命令会启动在中定义的所有服务。
2024-11-30 00:15:42
862
原创 大模型 LLM 八股文
LLM(Large Language Model,大型语言模型)是指基于大规模数据和参数量的语言模型。Transformer 架构:大模型 LLM 常使用 Transformer 架构,它是一种基于自注意力机制的序列模型Transformer 架构由多个编码器层和解码器层组成,每个层都包含多头自注意力机制和前馈神经网络。这种架构可以捕捉长距离的依赖关系和语言结构,适用于处理大规模语言数据。自注意力机制(Self-Attention):自注意力机制是 Transformer 架构的核心组件之一。
2024-11-29 00:59:34
856
原创 简历面-面经03
用户分类:根据用户的角色和职责划分用户类型,例如管理员、开发者和普通用户。角色创建:为不同的用户或服务创建特定的角色,这些角色具有不同的访问权限。例如,开发者角色可以管理函数代码,但不能删除函数。
2024-11-27 23:43:49
838
原创 简历面--面经03
使用特殊符号(如箭头)代替 NoOp 节点,直接在节点之间表示数据流向,减少节点数量,使图更清晰。例如,使用向上的箭头表示节点有一个输出指向 NoOp,使用向下的箭头表示节点有一个输入来自 NoOp。节点聚类和边缘捆绑: 根据命名空间和节点类型对节点进行聚类,并将同一层级的节点之间的多条边捆绑成一条边。将同一层且只有一个输出、没有输入且指向相同目标节点的常量节点合并成一个节点,减少节点数量,简化图的结构。简化图结构: 常量节点通常数量众多,且功能单一,将其聚合可以显著减少图中的节点数量,使图更简洁易懂。
2024-11-27 17:08:45
675
原创 简历面--面经02
编码器(下采样部分)和解码器(上采样部分)。编码器(Contracting Path)功能:提取特征并降低图像分辨率。结构:由一系列卷积层和池化层组成。每个卷积块通常包含两个卷积层,后跟一个最大池化层。通过这种方式,网络逐渐增加特征图的深度,减少空间维度。例如:在最开始的层中,输入图像通过一系列的卷积操作,得到更多的特征信息,再通过池化层减小尺寸。瓶颈层功能:连接编码器和解码器部分,通常是卷积操作,进一步提取特征。解码器(Expanding Path)功能。
2024-11-27 02:22:49
702
原创 简历面--面经01
Python 常用于数据分析、机器学习和 Web 开发,Java 则常用于企业应用和 Android 开发。我比较喜欢 Python,因为它的语法简单易读,而且社区支持非常强大,适合快速开发。O(n * W): 在处理背包问题时,W 表示背包的容量,n 表示物品的数量,表示存储所有可能状态所需的空间。请详细说明你在 Python 和 Java 中的项目经验。O(log n): 空间需求与输入规模成对数关系,通常出现在二分查找的递归实现中。O(1): 算法在运行时只需要常数级别的空间,与输入规模无关。
2024-11-26 15:55:27
746
原创 哈希表(极速学习版)
留余数法:简单易用,适合整数,但对数组大小选择敏感。折叠法:适合处理长键,具有较好的分布性,但实现较复杂。乘法哈希:能够生成更均匀的哈希值,适用性广,但实现相对复杂。
2024-11-22 17:42:52
686
原创 吴恩达机器学习笔记(3)
以下是一个完整的代码示例,展示如何使用 TensorFlow 和 Keras 构建和训练一个简单的神经网络来处理 MNIST 数据集:说明数据加载和预处理:模型构建:编译模型:训练模型:评估模型:使用模型进行预测:数据集划分:通常将数据集划分为训练集、验证集和测试集。例如,使用80%数据用于训练,10%用于验证,10%用于测试。数据预处理:包括标准化、归一化、数据增强等步骤。对于图像数据,常用的方式包括:选择模型架构:根据任务选择合适的模型架构。例如,CNN(卷积神经网络)适用于图像处理,RNN(递
2024-11-12 22:09:10
1051
原创 吴恩达机器学习(2)
张量是一个多维数组,可以包含不同类型的数据(如整数、浮点数等)。张量的维度被称为秩(rank),即张量的维度数。0维张量(标量):单个数值,例如3或2.51维张量(向量):一维数组,例如[1, 2, 3]2维张量(矩阵):二维数组,例如3维及以上张量:可用于表示更复杂的数据,例如图像、视频等。
2024-11-12 14:14:44
428
原创 吴恩达机器学习笔记(1)
监督学习是一种机器学习方法,其中模型从输入数据(特征)和相应的输出标签(目标)中学习,目的是能够预测或决定新实例的输出标签。监督学习机器学习中的核心概念之一,它涉及到从标记的训练数据中学习,以便对新的、未见过的数据进行预测或分类。无监督学习是一种机器学习方法,它从没有标签的数据中学习,目的是发现数据的内在结构或分布。无监督学习(Unsupervised Learning)是机器学习中的一种方法,它处理的数据没有标签或标记。线性回归(Linear Regression)是统计学中的一种基本预测模型,用于建立一
2024-11-11 22:36:08
703
原创 贝叶斯定理
全概率公式可以表述为:如果事件A1A2AnA1A2An构成了样本空间的一个划分,即它们互斥且完全穷尽(即它们不能同时发生,且它们的并集是整个样本空间),那么任何事件BBBPBPB∣A1PA1PB∣A2PA2⋯PB∣AnPAnPBPB∣A1PA1PB∣A2PA2⋯PB∣AnPAnPB∣AiP(B|A_i)PB∣Ai。
2024-11-06 16:54:03
1250
原创 基于 Encoder-Decoder 架构的大语言模型
为了弥补 Encoder-only 架构在文本生成任务上的短板,Encoder-Decoder 架构在其基础上引入了一个解码器(Decoder),并采用交叉注意力机制来实现编码器与解码器之间的有效交互。其中分词器和输出文本只在训练阶段存在,而实现“自回归”的红色虚线只在推理阶段存在。具体来说,解码器包含了输出编码、特征解码以及输出生成三个部分。与编码器中的输入编码结构相同,包含分词、向量化以及添加位置编码三个过程,将原始输入文本转换化为带有位置信息的向量序列。
2024-11-06 10:32:03
1381
原创 基于 Encoder-only 架构的大语言模型
Encoder-only 架构凭借着其独特的双向编码模型在自然语言处理任务中表现出色,尤其是在各类需要深入理解输入文本的任务中。Encoder-only 架构仅选取了 Transformer 中的编码器(Encoder)部分,用于接收输入文本并生成与上下文相关的特征。具体来说,Encoder-only 架构包含三个部分,分别是输入编码部分,特征编码部分以及任务处理部分,具体的模型结构如图。输入编码部分包含分词、向量化以及添加位置编码三个过程。
2024-11-05 20:11:17
1339
原创 语言模型的评测
在内在评测中,测试文本通常由与预训练中所用的文本独立同分布的文本构成,。最为常用的内部评测指标是困惑度(Perplexity)困惑度是衡量语言模型对测试文本预测能力的一个指标,它反映了模型对测试数据的“困惑”程度。困惑度越低,意味着模型对测试文本的预测越准确,语言模型的性能越好。
2024-11-05 16:45:25
962
原创 语言模型的采样方法
语言模型的输出为一个向量,该向量的每一维代表着词典中对应词的概率。在采用自回归范式的文本生成任务中,语言模型将依次生成一组向量并将其解码为文本。将这组向量解码为文本的过程被成为语言模型解码。
2024-11-04 22:10:19
969
原创 基于 Transformer 的语言模型
Transformer 是一类基于注意力机制(Attention)的模块化构建的神经网络结构。给定一个序列,Transformer 将一定数量的历史状态和当前状态同时输入,然后进行加权相加。对历史状态和当前状态进行“通盘考虑”,然后对未来状态进行预测。
2024-11-04 20:40:50
1168
原创 基于 RNN 的语言模型
循环神经网络(Recurrent Neural Network, RNN)是一类网络连接中包含环路的神经网络的总称。给定一个序列,RNN 的环路用于将历史状态叠加到当前状态上。沿着时间维度,历史状态被循环累积,并作为预测未来状态的依据。RNN 可以基于历史规律,对未来进行预测。
2024-11-04 15:32:51
1795
原创 基于统计方法的语言模型
基于统计方法的语言模型主要是指利用统计学原理和方法来构建的语言模型,这类模型通过分析和学习大量语料库中的语言数据,来预测词、短语或句子出现的概率。
2024-11-03 22:29:28
1262
原创 从周期到非周期:傅里叶级数到傅里叶变换
傅里叶(Jean-Baptiste Joseph Fourier)是法国数学家和物理学家,生于1768年,卒于1830年。他在热传导理论的研究中提出了傅里叶级数和傅里叶变换的概念,这些概念后来成为现代科学和工程领域中分析和处理信号与系统的基本工具。傅里叶级数是将一个周期函数表示为正弦和余弦函数的无限和的数学方法。如果一个函数$ f(t)是周期为是周期为是周期为fta02∑n1∞ancos2πntTbnsin2πntTft2a0。
2024-10-29 21:12:15
1331
原创 密码学 有限域基础
阿贝尔群 最大公因子 阶 结合律群 多项式 系数集合 单位元多项式算术 交换律 无限域 多项式环交换环 无限群 素数 循环群整域 素多项式 因子 逆元素互素 Euclid算法 不可约多项式 剩余域 模算术 环 有限域模多项式算术 有限群 首1多项式 生成元
2024-10-15 20:30:05
1030
原创 分组密码和数据加密标准
雪崩效应 扩散置换子密钥 分组密码 Feistel密码 乘积密码 代替 混淆不可逆映射 轮可逆映射 数据加密标准 (DES) 密钥轮函数
2024-10-13 22:37:52
1121
原创 传统加密技术
分组密码 密码编码系统 Hill 密码 隐写术穷举攻击 密码编码学 单表代替密码 流密码Caesar密码 密码学 一次一密 对称加密密码 解密过程 明文 置换密码密文
2024-10-12 18:20:11
1054
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人