
机器学习
CTTACM
这个作者很懒,什么都没留下…
展开
-
pandas填充(扩增)数据
将数据按照时期使用平均值填充import osimport numpy as npimport pandas as pddef extent_data(begin, end, len_data): """ :param begin: :param end: :return: """ d = get_d(begin,end,len_data...原创 2019-12-20 17:24:15 · 1770 阅读 · 0 评论 -
逻辑回归的损失函数
逻辑回归是在线性函数的基础上,经过激活函数后产生的0~1之间的概率值。设x为特征向量,y为真实的标签。y^\hat yy^是预测值。得出:两个合并起来写为:看等式左边的P(y∣x)P(y|x)P(y∣x),我们可以解读为给定特征向量x,模型能正确预测出y的能力。这个值总是大于0小于1的。越接近1说明能力越强。其实这个式子被成为似然函数,意思是预测结果靠近或者接近真是值的程度。我们想要...原创 2019-06-11 21:54:26 · 9432 阅读 · 1 评论 -
tensorflow可视化操作
在文件夹D:\Anaconda3\envs\tensorflow\Scripts的地址栏输入cmd,回车。输入tensorboard --logdir=日志路径地址,其中日志路径地址一般为:events.out.tfevents.1558952178此类的样子打开浏览器,地址栏输入http://localhost:6006回车。正常情况下就可以看到运行的指标啦。...原创 2019-05-27 18:51:09 · 453 阅读 · 0 评论 -
用Python, Numpy 和 Theano实现RNN
这篇文章的的原版在这儿:Recurrent Neural Networks Tutorial, Part 2 – Implementing a RNN with Python, Numpy and Theano,一共四篇这是其中的第二篇。实在是很好,讲的很细致,又有代码。为了方便回忆就大致翻译(不是逐字逐句)了一下。如果有版权问题,可以留言给我。用Python, Numpy 和 Theano实现...翻译 2019-02-25 20:17:09 · 483 阅读 · 0 评论 -
关于RNN的几点疑问(杂乱)
关于RNN的理解这是在读Understanding LSTM Networks这篇文章的时候,对一些之前不明白的点的理解和对一些地方的疑问的记录。希望以后看的更多相关的知识能够搞清楚。图中的黄色的带有激活函数的长方形就是代表神经网络,即由激活函数包裹着的线性运算单元,即tanh(∑(w∗x+b))tanh(\sum(w*x + b))tanh(∑(w∗x+b))。“门"结构由一个"激活神经...原创 2019-02-24 15:23:05 · 279 阅读 · 0 评论 -
TensorFlow的tf.reshape()函数
tf.reshape()# 省略:sess = tf.Session()print(sess.run(...))1. 把张量变为标量tt1 = tf.constant([7])# reshape成标量tt1_r = tf.reshape(tt1,[])# output:72. 改变张量形状# shape=(9,)t1 = tf.constant([1, 2, 3, 4...翻译 2019-02-22 11:19:23 · 1372 阅读 · 0 评论 -
tensorflow函数tf.concat()
tf.concat()作用:沿着某一维度合并张量举例:t1 = [[1, 2, 3], [4, 5, 6]]t2 = [[7, 8, 9], [10, 11, 12]]# 当axis = 0时 print(tf.concat([t1, t2], 0)) # [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]# 当axis = 1时 ...翻译 2019-02-21 20:22:38 · 222 阅读 · 0 评论 -
TensorFlow函数:tf.nn.dynamic_rnn
tf.nn.dynamic_rnn()def dynamic_rnn(cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_ite...翻译 2019-02-21 19:46:21 · 752 阅读 · 0 评论 -
贝叶斯网络
转自(https://blog.youkuaiyun.com/t7sfokzord1jaymsfk4/article/details/81350489)前言事实上,介绍贝叶斯定理、贝叶斯方法、贝叶斯推断的资料、书籍不少,比如《数理统计学简史》,以及《统计决策论及贝叶斯分析 James O.Berger著》等等,然介绍贝叶斯网络的中文资料则非常少,中文书籍总共也没几本,有的多是英文资料,但初学者一上来就扔给他...转载 2019-01-24 15:13:49 · 598 阅读 · 0 评论 -
tensorflow入门---第三章
tensorflow程序分为两个阶段:第一个阶段:定义计算图所有的计算 第二个阶段:执行计算 第一节:计算模型—–计算图 第二节:数据模型—–张量 第三节:运行模型—–会话第一节:计算图计算图中的每个节点都代表一个“运算”,边代表运算之间的“依赖关系”。第二节:张量张量可以理解为多维数组,n为张量就是n维数组。tensorflow中的张量不直接采用数组的形式,而...原创 2018-05-05 22:05:59 · 423 阅读 · 0 评论 -
关于AUC(占坑)
占坑原创 2017-11-22 09:38:34 · 401 阅读 · 0 评论 -
朴素贝叶斯的理论与实现(占坑)
占坑原创 2017-11-22 09:37:11 · 330 阅读 · 0 评论 -
支持向量机的理论与实现(占坑)
占坑原创 2017-11-22 09:36:17 · 300 阅读 · 0 评论 -
SVM听课笔记
考虑如何用决策边界划分空间 找一条直线,这条直线会让分隔正负例的街道最宽,那么,如何制定一条决策规则来使用这个决策边界。 w∗u>=c(c是常数,这里∗代表点积)w*u>=c(c是常数,这里*代表点积)点积的作用就是让向量uu往ww上面投影,投影越大未知向量就会在街的越右边,投影就会越过街道的中线,这时,我们就说例子是正例,或者,不失一般性的,若满足: w∗u+b>=0,w*u+b>=0翻译 2017-11-04 16:50:30 · 314 阅读 · 0 评论 -
逻辑回归的回顾
1、模型函数 2、激活函数 其中,h(x)= p(y|x)(y=0或者y=1,当y=1时,代表,输入x时,输出是1的概率,当y=0时,代表,输入x,输出是0的可能性大小。 3、单个训练数据的损失函数(衡量概率与y到底有多接近) 4、m个训练数据的损失 5、为什么这里损失函数是这样的。 因为这里预测是值是概率,所以用线性回归的损失函数方法不合适(为什么不合适?因为用那种方法求得原创 2017-10-10 19:45:02 · 375 阅读 · 0 评论 -
线性回归的代码实现
# -*- coding: utf-8 -*-import numpy as npimport pylabdef Loss(b,m,x,y): L1 = (y-m*x-b)**2 L2 = np.sum(L1,axis = 0) return L2def GD(m,b,learning_rate,x,y,data): N = float(len(data))原创 2017-10-10 10:54:54 · 884 阅读 · 0 评论