- 博客(41)
- 收藏
- 关注
原创 NLP初识
NLP系列开始更新了!!!这个系列主要会介绍一些NLP的基础概念,比如RNN、LSTM、GRU等内容,重头戏放在大语言模型的基础讲解上,其中大语言模型的分享主要由两个方面:1.基础结构(Seq2Seq,Attention,Transformer,Bert,GTP等网络结构);2.训练微调(数据相关的);当然也会涉及到NLP的一些常规运用,比如分类、信息的提取和生成等等内心OS:模型基础结构上,不仅大语言模型,许多小规模模型也采用相同的结构。目前,NLP领域绝大多数成功模型均使用transformer架构。
2025-01-01 21:23:12
527
1
原创 Opencv | 边缘提取
边缘:像素值快速变化的区域,也就是像素值函数一阶导数的极值区域边缘信息:像素值明显变化的区域, 具有非常丰富的语义信息,常用于物体识别等领域。
2024-04-24 20:18:45
2748
6
原创 Opencv | Opencv 基于图像的运算
Opencv 基于像素值的获取与修改 | 增加边框 | 图像通道的分割与融合 | 加减乘除操作 | 图像融合
2024-04-11 23:43:29
751
原创 聚类算法 | Kmeans:肘方法、Kmeans++、轮廓系数 | DBSCAN
聚类算法 | 无监督算法 | K类别选择&聚类中心选择 | 肘方法&Kmeans++
2024-04-05 15:49:24
2929
原创 特征工程 | 特征选择、特征降维
LDA的全称是Linear Discriminant Analysis,将带上标签的数据(点),通过投影的方法,投影到维度更低的空间中,只要把特征值从大到小,对应的特征向量从上到下排列,则用前K行组成的矩阵乘以原始矩阵X, 就得到了我们需要的降维后的数据矩阵Y。坐标(3,2)之所以为(3,2)是因为我们确定了一个坐标系,换句话说就是确定了空间中的一组基,即(1,0)和(0,1)将多个具有相关性的特征综合为少数几个有代表性的特征,它们既能够代表原始特征的绝大多数信息,组合后的特征又不相关;
2024-03-27 11:46:44
1873
原创 集成学习 | 集成学习思想:Boosting思想 | XGBoost算法、LightGBM算法
GBDT算法扩展:XGBoost算法 | LightBGM算法
2024-03-21 20:16:22
1670
原创 集成学习 | 集成学习思想:Boosting
Boosting思想:Adaboost(分类)更改x权重 | GBDT(分类/回归)算法更改y值
2024-03-20 12:47:55
1760
1
原创 回归问题经典算法 | 线性回归 :解析解法(公式推导)
线性回归公式推导 | 解析解法求解参数 | 一篇文章读懂线性回归底层数学思想 | 代码实现
2024-02-18 23:02:05
4117
2
原创 机器学习 | 模型优化过程概述:损失函数 & 梯度下降
什么损失函数 | 什么是梯度下降 | 怎么理解损失函数和梯度下降的关系 | 梯度下降方式
2024-02-13 17:39:33
1866
2
朴素贝叶斯代码实现+鸢尾花数据集
2024-03-10
SVM算法 分类代码实现
2024-03-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人