
学习笔记
阔洛喵
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
nebula学习
1、下载dockermacOS 可以使用 Homebrew 来安装 Docker。Homebrew 的 Cask 已经支持 Docker for Mac,因此可以很方便的使用 Homebrew Cask 来进行安装:$ brew cask install docker2、参考以下网站部署Nebula Graph服务。https://github.com/vesoft-inc/nebula-docker-compose/blob/master/README_zh-CN.md注意:在d.原创 2020-12-20 20:21:37 · 40732 阅读 · 0 评论 -
样本不均衡分类问题学习整理
先谈谈这种极端的类别不平衡的评估问题,我们一般用的指标有(前两个是全局评估,最后一个是点评估): ROC曲线下的面积(AUC_ROC) mean Average Precesion(mAP),指的是在不同召回下的最大精确度的平均值 Precision@Rank k。假设共有n个点,假设其中k个点是少数样本时的Precision。这个评估方法在推荐系统中也常常会用。 ...原创 2020-06-04 11:19:40 · 1080 阅读 · 0 评论 -
正则表达式学习存档
https://www.runoob.com/python/python-reg-expressions.htmlPython 正则表达式1、函数1)re.matchre.match 尝试从字符串的起始位置匹配一个模式,如果不是起始位置匹配成功的话,match()就返回none。re.match(pattern, string, flags=0)2)re.searchre.search 扫描整个字符串并返回第一个成功的匹配。re.search(pattern, string原创 2020-05-28 18:01:48 · 206 阅读 · 0 评论 -
修改jupyterlab默认目录
https://www.cnblogs.com/luhuan/p/9054366.html注:如果windows没有修改权限先把文件复制到桌面改完保存,然后用管理员权限打开cmd,把改完的文件粘过去。输入:copy "文件路径" "地址"eg:copy E:/jupyter_notebook_config.json C:/ProgramData/Anaconda3/etc/jupy...原创 2019-09-22 22:57:35 · 5885 阅读 · 0 评论 -
待整理
dropout(灭霸响指哈哈哈)https://zhuanlan.zhihu.com/p/38200980ResNet(残差网络)https://blog.youkuaiyun.com/qq_29893385/article/details/81207203n-gramhttps://zhuanlan.zhihu.com/p/34219483BLEU(机器翻译评测)https://...原创 2019-09-18 23:17:41 · 120 阅读 · 0 评论 -
神经网络学习笔记
神经网络是机器学习中的一个模型,可以用于两类问题的解答:分类:把数据划分成不同的类别回归:建立数据间的连续关系感知器算法->误差函数(梯度下降)离散误差与连续误差要使用梯度下降,误差必须是连续的,误差函数必须是可微分的离散算法:学生是否被录取->连续算法:学生被录取概率激活函数:step function->sigmoid function多类别分类和 Softm...原创 2019-06-27 17:38:23 · 158 阅读 · 0 评论 -
jupyter notebook中选择conda环境
【1】激活对应的conda环境activate tensorflow【2】在环境中安装ipykernelconda install ipykernel【3】将环境写入Notebook的kernel中python -m ipykernel install --user --name tensorflow --display-name "Python tensorflow"【4...原创 2019-06-27 15:43:14 · 379 阅读 · 0 评论 -
统计学习笔记:决策树
决策树算法包括:特征选择、决策树的生成、决策树的剪枝。决策树的生成对应于模型的局部选择,决策树的剪枝对应于模型的全局选择。决策树的生成只考虑局部最优,决策树的剪枝则考虑全局最优。1 特征选择如果一个特征进行分类的结果与随机分类的结果没有很大差别,则称这个特征没有分类能力。1.1 信息增益信息熵:条件熵:信息增益:经验熵表示对数据集D分类的不...原创 2019-06-26 12:35:28 · 260 阅读 · 0 评论 -
统计学习笔记
一、概论1.1 统计学习统计学习方法三要素:模型、策略、算法即:模型的假设空间、模型选择的准则、模型学习的算法1.2 监督学习监督学习的基本假设:X和Y具有联合分布,即X和Y存在一定的统计规律。输入变量与输出变量均为连续变量的预测问题称为回归问题;输出变量为有限个离散变量的预测问题成为分类问题;输入变量与输出变量均为变量序列的预测问题成为标注问题。监督学习的目的...原创 2019-06-26 10:28:12 · 260 阅读 · 0 评论 -
神经网络学习笔记(5):LSTM
LSTMLSTM的架构:学习门:遗忘门:记忆门:应用门(输出门):总结:解释遗忘门会接受长期记忆并遗忘一部分;学习门会把短期记忆和事件放到一起作为我们最近学到的信息;记忆门则把还没有遗忘的长期记忆和刚学到的新信息放到一起,以便更新长期记忆并将其输出;使用门会把我们刚学到的信息...原创 2019-05-25 17:18:13 · 264 阅读 · 0 评论 -
神经网络学习笔记(4):RNN
处理神经网络时包括两个主要阶段:训练和评估。在训练阶段,我们采取包含多对输入及其相应目标(输出)的数据集(又称训练集),我们的目标是找到一组权重,可以从输入到理想输出实现最佳映射。 在评估阶段,我们使用在训练阶段创建的网络,应用新的输入,得到理想的输出。训练阶段包括两个步骤:前馈和反向传播。根据需要,我们会多次重复这些步骤,直到我们确定的系统得到一组最佳权重,可以得到最优输出。...原创 2019-05-25 17:13:21 · 280 阅读 · 0 评论 -
神经网络学习笔记(3):Keras
Keras 中的其他激活函数:model.add(Activation('sigmoid'))model.add(Activation('softmax'))model.add(Activation('relu'))model.add(Activation('tanh'))梯度下降->随机梯度下降:如果每次都用所有的数据下降一个步长,很费内存如果数据分布合理...原创 2019-05-25 17:08:39 · 1404 阅读 · 0 评论 -
神经网络学习笔记(2):过拟合
模型复杂度图表:判断是否出现欠拟合过拟合避免过拟合:过拟合的函数提供了更小的误差,对误差函数进行调整:惩罚weights使用L1正则化时,我们希望得到稀疏向量,他表示较小权重趋向0L2正则化得出较小齐权的向量...原创 2019-05-25 17:05:16 · 205 阅读 · 0 评论 -
numpy学习笔记
numpyimport numpy as np(1)标量:除了 Python 的 int,你可以使用 uint8、int8、uint16、int16 等类型。s = np.array(5)(2)向量:可以将 Python 列表传递给 array 函数v = np.array([1,2,3])(3)矩阵:提供列表的列表,其中每个列表代表一行。m = np.array([[...原创 2019-05-25 16:52:36 · 129 阅读 · 0 评论 -
神经网络学习笔记(1):激活函数、梯度下降、基本构建等
神经网络是机器学习中的一个模型,可以用于两类问题的解答:分类:把数据划分成不同的类别回归:建立数据间的连续关系感知器算法->误差函数(梯度下降)离散误差与连续误差要使用梯度下降,误差必须是连续的,误差函数必须是可微分的离散算法:学生是否被录取->连续算法:学生被录取概率激活函数:step function->sigmoid functio...原创 2019-05-25 16:57:49 · 374 阅读 · 0 评论 -
NLP学习笔记
text = text.lower() //全部小写import retext = re.sub(r”[a-zA-Z0-9]”,” ”,text) //标点移除//标记化(Tokenization) Words = text.split() //以空格分词 ‘,’也会被分为一个词//NLTK 自然语言工具包From nltk.tokenize import word...原创 2019-05-25 17:02:35 · 400 阅读 · 0 评论