
tensorflow
文章平均质量分 65
我是女孩
这个作者很懒,什么都没留下…
展开
-
tensorflow shape,reshape
图解TensorFlow中Tensor的shape概念与tf op: tf.reshape_田海立@优快云-优快云博客《图解NCHW与NHWC数据格式》中从逻辑表达和物理存储角度用图的方式讲述了NHWC与NCHW两种数据格式,数据shape是可以改变的,本文介绍TensorFlow里Tensor的Shape概念,并用图示和程序阐述了reshape运算。https://blog.youkuaiyun.com/thl789/article/det...原创 2021-11-08 19:27:56 · 472 阅读 · 0 评论 -
tf.lookup: 在tf内部做string2id的映射
之前在写tf模型的时候,对于category类型的特征,经常是预处理成id,然后才输入到模型中去,category->id的映射通常是独立与tf代码的。tf.lookup模块中提供了使用tensorflow原生api将category特征映射为id的方法,本文将介绍这些方法。tf.lookup模块中有两类方法:Initializer:负责构建 category -> id 映射表 tf.lookup.KeyValueTensorInitializer: 通过显式指定 category-原创 2021-11-06 21:20:58 · 769 阅读 · 0 评论 -
feature_column相关接口
在TensorFlow中,特征列(Feature column)是原始数据和 Estimator 之间的接口,它告诉Estimator如何使用数据。原始数据集包含各种各样的特征,有的特征是数值,比如年龄,长度、速度;有的特征是文字,比如,地址、Email内容、数据库查询语句等神经网络接受的输入,只能是数值,而且是整理好的数值所以,原始数据 和 神经网络输入需求之间需要一个桥梁,这个桥梁就是特征列(Feature column) 使用特征列可以将类别特征转换为one-hot编码特征,将.原创 2021-09-18 21:24:23 · 322 阅读 · 0 评论 -
dropout原理解析
为何要做缩放训练深度神经网络的时候,总是会遇到两大缺点:(1) 容易过拟合(2) 费时Dropout可以比较有效的缓解过拟合的发生,在一定程度上达到正则化的效果假设丢弃概率是P,有两种实现方式,不管实在测试阶段还是训练阶段对每层的输出做缩放,都是为了保持伯努利分布的期望np。测试阶段没法dropout是全量神经元参与运算,不然预测结果具有随机性。为了保持每层输出和训练时一样的期望,所以需要缩放。形象化理解10个人拉一个10吨车,第一次(训练时),只有5个人出力(有p=0.5的人被原创 2021-09-14 21:36:52 · 1025 阅读 · 0 评论 -
export_savedmodel
TensorFlow Estimator 模型从训练到部署https://mp.weixin.qq.com/s/ZNs0eEOCSR-0HOd5lM3ekg原创 2021-07-27 15:57:04 · 535 阅读 · 0 评论 -
BN(batchnorm)训练和在线预测
https://blog.youkuaiyun.com/xys430381_1/article/details/85141702原创 2021-05-11 17:42:28 · 668 阅读 · 0 评论 -
batchnorm(特征数据纵向标准化,全连接使用) LayerNorm(特征数据横向的规范化,nlp,rnn使用) WeightNorm(对参数的规范化) 余弦Norm(对w*x的规范化)
内部协方差漂移深度神经网络很难训练。因为深度神经网络中网络层数太多,在训练过程中,模型参数的更新会引起靠近输出侧各层的输出结果发生剧烈的变化。Google 将这一现象总结为Internal Covariate Shift(ICS)内部协方差漂移,具体而言,有如下表现: 靠近输出侧的各层需要不断去重新适应参数更新,学习速度慢。 每层的更新都会影响到其他层,为了训好模型,我们需要非常谨慎地去设定学习率、初始化权重、以及尽可能细致的参数更新策略。 从上图可以看到,靠近输入侧的层稍有更新原创 2021-03-31 20:39:46 · 1488 阅读 · 0 评论 -
tensorflow GPU并行
TensorFlow多GPU并行的实现https://blog.youkuaiyun.com/qq_31196849/article/details/78390176原创 2020-06-11 16:47:59 · 521 阅读 · 0 评论 -
深度学习好的github
吴恩达课程笔记https://github.com/fengdu78/deeplearning_ai_booksdeepctr 公众号:浅梦的学习笔记https://github.com/shenweichen/DeepCTR/blob/master/deepctr/models/xdeepfm.pytensorflow实战练习,包括强化学习、推荐系统、nlp等https:...原创 2020-04-24 23:15:25 · 234 阅读 · 0 评论 -
python 新增列的坑
原创 2020-04-23 21:59:58 · 203 阅读 · 0 评论 -
tf.multiply与tf.matmul的区别
tf.multiply与tf.matmul的区别1.tf.multiply()两个矩阵中对应元素各自相乘格式: tf.multiply(x, y, name=None)参数:x: 一个类型为:half, float32, float64, uint8, int8, uint16, int16, int32, int64, complex64, complex128的张量。y: 一个类型...转载 2020-03-27 15:26:20 · 182 阅读 · 0 评论 -
tensorflow embedding_lookup_sparse embedding_lookup
多值离散特征(muit-onehot)推荐系统遇上深度学习(四)--多值离散特征的embedding解决方案在处理DeepFM数据时,由于每一个离散特征只有一个取值,因此我们在处理的过程中,将原始数据处理成了两个文件,一个记录特征的索引,一个记录了特征的值,而每一列,则代表一个离散特征。但假如,我们某一个离散特征有多个取值呢?举个例子来说,每个人喜欢的NBA球队,有的人可能喜欢火箭和湖...原创 2020-03-25 19:49:23 · 1252 阅读 · 0 评论 -
tf.reduce_sum()
彻底理解 tf.reduce_sum()越往里axis就越大,依次加1。这里需要注意的是,axis可以为负数,此时表示倒数第axis个维度,这和Python中列表切片的用法类似。下面举个多维tensor例子简单说明。下面是个 2 * 3 * 4 的tensor。[[[ 1 2 3 4] [ 5 6 7 8] [ 9 10 11 12]], [[...原创 2020-03-12 21:34:49 · 200 阅读 · 0 评论