自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(66)
  • 收藏
  • 关注

转载 markov decision processes, markov reward processes

sampling?MC:A:0B:6/8TD:A:0+gamma6/8next step。

2023-07-11 08:02:02 182

转载 大模型Prompt Tuning技术分享

finetunep-tunefew-shot。

2023-07-11 07:59:32 192

转载 KG & LLM

Awesome-LLM-KG

2023-07-11 07:57:37 256

转载 NLP工具-免费的文本数据标注平台doccano-简介、安装、使用、踩坑记录

NLP工具-免费的文本数据标注平台-doccano安装使用教程NLP工具-免费的文本数据标注平台doccano-简介、安装、使用、踩坑记录Paddlenlp之UIE分类模型【以情感倾向分析新闻分类为例】含智能标注方案)

2023-04-23 15:46:34 427

原创 线性回归方程

当error terms相关时,则估计的标准差会低估真实标准差standard errors,即真实的标准差更大。置信度和预测值的范围会变窄,即没有那么可信,这可能会导致引入不那么重要的变量(估计的可信度偏高)。当因变量经过同样的处理,或者自相关,或因变量经过处理,预测自己时,error terms更容易相关。有时会出现在时间序列上,当在连续的时间上取值时,error terms更可能相关。当样本有重复值时,统计显著性会相对于去除重复值更不显著。

2023-04-12 14:29:41 274

转载 Bartlett‘s sphericity test、Bartlett test

【代码】Bartlett‘s sphericity test、Bartlett test。

2023-04-07 18:15:01 257

转载 dimension reduction、 feature disentangle

auto-encoder,pca,t-SNE

2023-03-20 07:53:59 196

原创 Unsupervised learning的几种方法

self-supervised learning属于Unsupervised learning的一种

2023-03-17 07:55:14 117

原创 RandomForestRegression、ExtraTreesRegresssion、GaussionProcessRegressor、GradientBoostingRegresssion

RandomForestRegression、ExtraTreesRegresssion、GaussionProcessRegressor、GradientBoostingRegresssion

2023-03-16 18:48:06 218

转载 spatial transformer

CNN并不能识别同样的目标,而目标在图片里不同的大小。所以spatial transformer将目标识别出来,进行旋转、缩放、平移,能够让CNN识别出来

2023-01-24 00:36:22 279

原创 判别模型(Discriminative model)和生成模型(Generative model)?

discrimination model,generative model

2023-01-22 16:00:25 261

转载 如何优化model结果

当train的loss比较大时,要看是model bias还是optimization不好

2023-01-22 15:48:06 145

转载 霍夫丁Hoeffding不等式、威尔逊区间与样本samples数量、误差

霍夫丁Hoeffding不等式与样本samples数量、误差

2023-01-16 23:22:52 232

转载 数据结构算法复杂度的计算

数据结构,算法复杂度的计算

2023-01-12 01:08:25 79

转载 relative entropy,information gain,cross entropy,bayes,discrimination、genertive model

relative entropy和cross entropy

2023-01-10 12:07:14 114

转载 深度学习 deep neuron network(DNN)hidden layer and how it works

hidden layer and how it works【【官方双语】深度学习之神经网络的结构 Part 1 ver 2.0-哔哩哔哩】 【什么是深度神经网络DNN-哔哩哔哩】

2023-01-02 22:14:13 216

转载 概率校准calibration_curve,用Isotonic regression,得出calibration_curve的好坏,用交叉熵检验,和方差,及使用朴素贝叶斯方法

概率校准calibration_curve,用Isotonic regression,得出calibration_curve的好坏,用交叉熵检验,和方差,及使用朴素贝叶斯方法

2022-11-26 00:59:20 838

转载 逻辑斯蒂回归和最大熵模型

逻辑斯蒂回归和最大熵模型

2022-11-20 23:31:12 112

转载 LightGBM与XGBoost在多分类问题上,使用与sklearn决策树中参数class_weight=‘balanced‘的算法一致,都使用 np.bincount

LightGBM在多分类问题上,使用与sklearn决策树中参数class_weight='balanced'的算法一致,都使用 n_samples / (n_classes * np.bincount(y))但sklearn中对于binary二分类问题,同样使用n_samples / (n_classes * np.bincount(y))计算class_weight='balanced';

2022-11-14 01:36:43 939

转载 样本imbalanced处理,以及adaboost+bagging不如随机森林这种纯bagging表现好

样本imbalanced处理,以及adaboost+bagging不如随机森林这种纯bagging表现好

2022-11-14 01:34:25 262

转载 六类高斯判别分析,Σ1=Σ2,Linear Discriminant Analysis (LDA);决策边界为曲线为二次判别分析,第五类判别分析=高斯朴素贝叶斯分类;非参数估计:核密度估计KDE

六类高斯判别分析,Σ1=Σ2,Linear Discriminant Analysis (LDA);决策边界为曲线为二次判别分析,第五类判别分析=高斯朴素贝叶斯分类;非参数估计:核密度估计KDE

2022-10-25 20:35:02 526

转载 无监督分类,非层次聚类kmeans等,确定k值几类的方法,聚类算法评估指标

无监督分类,非层次聚类kmeans等,确定k值几类的方法,聚类算法评估指标

2022-10-24 18:32:50 211

转载 无监督分类的EM算法、guassian混合模型,2个guassian混合=2个bernoulli以及有监督分类的cross entropy 两个概率分布,都用到bayes定理

无监督分类的EM算法、guassian混合模型,2个guassian混合=2个bernoulli以及有监督分类的cross entropy 两个概率分布,都用到bayes定理

2022-10-24 13:06:23 123

转载 Maximum Likelihood、Naive Bayes

李宏毅老师的机器学习note,Maximum Likelihood、Naive Bayes

2022-10-23 00:41:01 100

转载 Mean Squared Error、Cross Entropy、softmax函数(Multi-class classification)的二元分类=sigmoid函数(binary classif

李宏毅老师的机器学习note,Maximum Likelihood、Naive Bayes、Mean Squared Error、Cross Entropy

2022-10-23 00:38:27 304

转载 Keras

李宏毅老师机器学习的note,units的数目=neuro的数目=output dimension的数目=output channel的数目

2022-10-22 23:22:25 74

转载 backpropagation是gradient descent的一种有效方法

李宏毅老师的机器学习,backpropagation是gradient descent的一种有效方法

2022-10-22 21:51:00 102

转载 模型的两种误差bias和variance,underfitting和overfitting,如何调优

李宏毅老师机器学习的note,模型的两种误差bias和variance,underfitting和overfitting,如何调优

2022-10-20 00:37:09 147

转载 regularization正则化项

李宏毅老师机器学习的note,regularization正则化项

2022-10-19 01:21:33 117

转载 卷积核(又叫filter,neuron),设计CNN layers的技巧

卷积核(又叫filter,neuron),设计CNN layers的技巧

2022-10-18 21:39:07 380

转载 gradient descent和batch normalization,learning rate与更新参数,梯度下降的步长有关; batch size与更新参数,梯度下降的次数有关

李宏毅老师机器学习的note,batch normalization,learning rate与更新参数,梯度下降的步长有关;batch size与更新参数,梯度下降的次数有关

2022-10-18 07:07:10 182

转载 Soft-max与Sigmoid数学上一样,cross-entropy作为loss,更容易梯度下降

李宏毅老师机器学习的note,Soft-max处理= normolization归一化+最大值最小值之间差异变大,Soft-max与Sigmoid数学上一样,cross-entropy作为loss,更容易梯度下降

2022-10-18 00:27:54 102

转载 梯度下降方法Adam: RMSProp + Momentum、以及warm up方法

李宏毅老师机器学习的note,梯度下降方法Adam: RMSProp + Momentum、以及warm up方法

2022-10-17 23:49:00 799

转载 PyTorch中的自动求导和backward

pytorch的自动求导和backward

2022-10-17 13:40:46 119

转载 minimum radio判断是否更接近local minima

李宏毅机器学习的note,minimum radio判断是否更接近local minima

2022-10-17 13:10:52 136

转载 batch size和梯度下降的movement向量

李宏毅老师机器学习的note,batch size和梯度下降的movement向量

2022-10-17 13:06:38 106

转载 Model Bias、Overfiting

​李宏毅老师机器学习的note,Model Bias、Overfiting​

2022-10-17 13:03:51 251

转载 CUDA, cudatoolkit, cudnn的安装以及IDE切换环境

CUDA, cudatoolkit, cudnn的安装以及IDE切换环境

2022-10-10 00:17:04 254

转载 分词,文本分类jieba,TF-IDF,BERT

分词,文本分类jieba,TF-IDF,BERT

2022-10-08 20:07:34 348

转载 图像处理、裁剪与特征识别,传统方法SIFT、SURF、ORB、HOG、小波、CNN

图像处理、裁剪与特征识别,传统方法SIFT、SURF、ORB、HOG、小波、CNN

2022-10-08 19:46:22 346

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除