
深度学习
深度学习日常思考与理解。
少年初心
少年心气:
初心小爬的成长学习路.
今天比昨天的自己更好了吗?
All is well.努力 上进 规律.
展开
-
chatgpt应用链接
https://so.youkuaiyun.com/so/chat原创 2023-02-13 22:41:49 · 1588 阅读 · 0 评论 -
TensorFlow2.0和Pytorch发展以及选择
文章目录前世今生TensorFlow发展历程Google Jeff发布版本历程:2015年同类型框架有:发展2017年2019TensorFlow2.0 is coming编程风格对比 | 选择开启TensorFlow2.0为什么学习TensorFlowPytorch发展历程动态图Torch API库多近两年来,Google和Facebook等秉持开源理念,推动着AI工程工具越来越强大最...原创 2019-12-13 17:23:41 · 3274 阅读 · 0 评论 -
[深度学习]训练神经网路——深度调参
文章目录激活函数使用sigmoid-tanh-ReLU( ReLU,LeakyReLU,ELU ) - MaxOut<类似relu以及诡异华中参数学习.>建议数据预处理(Data Preprocessing)权重初始化权重初始化研究——所有层激活输出,随着层数越深,激活数值越趋向于零tanh()和ReLU()激活权重初始化方法<相应的论文给出了方法>更多适合的权重初始化研究...原创 2019-12-10 20:32:48 · 487 阅读 · 0 评论 -
[推荐系统]大综合
文章目录文献阅读目的推荐系统算法推荐系统场景、用户行为数据、矩阵分解、推荐算法分类推荐系统评测文献阅读目的推荐系统算法推荐系统场景、用户行为数据、矩阵分解、推荐算法分类推荐系统评测...原创 2019-12-09 21:44:28 · 194 阅读 · 0 评论 -
Keras入门与应用
文章目录Sequential —— 单输入单输出堆叠模型Model —— 函数式模型,多输入多输出常用APIInput-keras.engine.input_layer.Input()Flatten——keras.layers.Flatten(data_format=None)Embedding层「节点」的概念训练参数详解应用——以多输入多输出为例Sequential —— 单输入单输出堆叠...原创 2019-12-06 22:02:05 · 606 阅读 · 1 评论 -
ConvMF+R-ConvMF——卷积矩阵分解
文章目录ConvMF概述PMFCNN无缝融合进入PMF——形成ConvMF结果和影响R-ConvMF<对比ConvMF>R 思想算法过程\结果协同促进\内在更好原因为什么不用LSTM\GRU进行分解ConvMF概述深度学习在推荐系统上的运用,具体用了卷积神经网络(CNN)提取文本特征,融合PMF模型进行推荐。具体论文见http://dm.postech.ac.kr/~cart...原创 2019-12-04 22:56:36 · 2440 阅读 · 0 评论 -
嵌入层(Embedding Layer)与词向量(Word Embedding)详解
文章目录常见的语言表示模型词向量与Embedding区分Embedding层——keras中的one-hot映射为 向量的层;词向量(word embedding)——一种语言模型表示方法分布式表示(distributed representation)word2vec[More-类似查表操作,区别 W和词向量](https://spaces.ac.cn/archives/4122)More-mo...原创 2019-12-03 21:08:50 · 12347 阅读 · 0 评论 -
自编码-李宏毅深度学习/机器学习
文章目录自编码自编码应用实例其它自编码自编码无监督、自编码和深度自编码介绍:自编码应用实例文本检索、以图搜图、预训练参数其它自编码降噪自编码、卷积自编码、稀疏自编码...原创 2019-11-30 12:05:05 · 193 阅读 · 0 评论 -
[深度学习]CNN卷积神经网络-常见模型讲解
文章目录目录LeNetAlexNetVggNetNIN(Network In Netwok)GoogLeNetResNets(Residual Networks残差网络)Incetion ResNet-Inception V4总结目录接下来要记录七中经典的卷积神经网络LeNetAlexNetVggNetNIN(Network In Netwok)GoogLeNet...原创 2019-11-30 10:28:44 · 1555 阅读 · 2 评论 -
[深度学习]Deep Auto-encoder
文章目录AutoEncoder自动编码器给定无标签数据,用非监督学习学习特征:通过编码器产生特征,然后训练下一层。这样逐层训练:有监督微调:AutoEncoder的其它变体Sparse AutoEncoder稀疏自动编码器:Denoising AutoEncoders降噪自动编码器:AutoEncoder自动编码器Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络...转载 2019-11-29 22:55:47 · 903 阅读 · 0 评论 -
[深度学习]神经网络中 权重矩阵/卷积核 以及 (y=wx+非线性变换)输出值/特征图的本质理解
文章目录CNN权重矩阵和特征图理解特征是什么权重矩阵\滤波器理解特征图\输出值理解总结基础知识从线性分类器说起损失函数优化梯度下降法后向传播算法神经网络-非线性映射最近在学习cs231n课程和之前自学习的内容有了理解上的偏差,现在记录有点理解在此。对于之前知识需要了解的,请先看 本章第二部分(或者观看cs231n前五章).CNN权重矩阵和特征图理解特征是什么隐层输出作为特征,权重矩...原创 2019-11-27 15:59:55 · 11964 阅读 · 0 评论