
深度学习
深度学习
颹蕭蕭
这个作者很懒,什么都没留下…
展开
-
bert-NER 转化成 onnx 模型
BERT-NER 转化成 onnx 模型原创 2024-05-09 20:52:06 · 486 阅读 · 0 评论 -
BGE 模型转 onnx
bert 模型 转 onnx原创 2024-04-23 16:21:51 · 1948 阅读 · 0 评论 -
pytorch 自编码器学习汉字形状特征
使用自编码器学习汉字的形状特征,轻松找出形近字数据保存从 numpy 数组生成 Dataset & DataLoader取一个批次画图原创 2022-07-01 19:31:39 · 721 阅读 · 0 评论 -
pytorch 迁移学习多分类(resnet18)
丢完代码就跑原创 2020-02-14 09:34:38 · 3602 阅读 · 0 评论 -
《Using machine learning to predict extreme events in complex systems》
文章目录论文地址BibTex主要内容实验对象网络结构论文地址PNAS: https://www.pnas.org/content/117/1/52BibTex@article {Qi52, author = {Qi, Di and Majda, Andrew J.}, title = {Using machine learning to predict extreme events in complex systems}, volume = {117}, number = {1}, pa原创 2020-06-20 22:26:49 · 1590 阅读 · 1 评论 -
【pytorch】时间序列预测 —— 同时预测多个分位点
单变量的分位点损失多变量的分位点损失结果可视化模型import torchimport torch.nn as nnimport torch.nn.functional as Fclass Model(nn.Module): def __init__(self, n_val, window, hidRNN, quantiles = [0.5]): super(Model, self).__init__() self.use_cuda = True原创 2020-06-01 10:27:13 · 5796 阅读 · 1 评论 -
Quantile RNN
文章目录数据预处理piplineevaluationmodel数据预处理import numpy as npfrom toolz.curried import *@currydef clean_nan(dataset, how='any'): return dataset.dropna(how=how)@currydef lagger(dataset, n_lags, price_columns): df = reduce( lambda df, la原创 2020-05-27 23:45:09 · 1500 阅读 · 0 评论 -
Multi-Horizon Time Series Forecasting with Temporal Attention Learning
文章目录论文地址模型结构图注意力机制季节内的注意力季节间的注意力分位点回归论文地址https://dl.acm.org/doi/10.1145/3292500.3330662模型结构图使用注意力机制的时间序列多步预测模型:对离散输入做 Embeding对历史数据用单向 LSTM 提取特征,每一个历史时刻对应一个隐状态,图中的下面部分对未来的输入用双向的 Bi-LSTM 提取特征,图中的上面部分用注意力机制建立未来时刻特征和历史时刻特征的联系,图中的中间部分注意力机制从图中可以看出,原创 2020-05-27 19:19:56 · 3445 阅读 · 0 评论 -
DeepGLO
代码:https://github.com/rajatsen91/deepglo文章主要有三点创新:Leveled-Init TCN, 对 TCN 的改进,使用 LeveledInit 方法初始化 TCN 权重,使得 TCN 更好地处理不同尺度的时间序列;TCN-MF,用 TCN 来对多变量时间序列预测的矩阵分解法做正则化DeepGLO,把矩阵分解法 MF 得到的 包含全局信息的因子序列及其预测值 作为局部序列预测时的协变量。LeveledInit TCN从如下代码中可以看出对 TCN 权.原创 2020-05-26 22:08:38 · 2827 阅读 · 1 评论 -
【pytorch】用 GRU 做时间序列预测
文章目录数据datasetoptimizermodeltrain数据df.to_csv('traffic1.txt', header=None, index=None)df数据为每小时记录一次的交通流量数据,每周有几天出现早高峰。datasetimport torchimport numpy as np;from torch.autograd import Variabledef normal_std(x): return x.std() * np.sqrt((len(x原创 2020-05-24 09:16:00 · 10535 阅读 · 12 评论 -
LSTNet
文章目录代码论文LSTNet部分参数解释model代码https://github.com/laiguokun/LSTNet论文Modeling Long- and Short-Term Temporal Patterns with Deep Neural Networks.LSTNet部分参数解释参数默认值解释model(str)‘LSTNet’hidCNN(int)100number of CNN hidden unitshidRNN(int)原创 2020-05-22 23:09:47 · 3991 阅读 · 3 评论 -
【pytorch】封装 optimizer实现 “梯度截断” 与 “学习率下调”
文章目录参考代码初始化梯度截断下调学习率参考代码https://github.com/laiguokun/LSTNet初始化import mathimport torch.optim as optimclass Optim(object): def _makeOptimizer(self): if self.method == 'sgd': self.optimizer = optim.SGD(self.params, lr=self.lr)原创 2020-05-22 21:49:21 · 2836 阅读 · 0 评论 -
Dual Self-Attention Network (DSANet)
本文来对 DSANet 从源码的角度做自定向下的分析:总体结构3 个支路:全局自注意力模块、局部自注意力模块、线性自回归模块。参数含义参数含义window (int)the length of the input window sizen_multiv (int)num of univariate time seriesn_kernels (int)the num of channelsw_kernel (int)the default is 1,初始.原创 2020-05-21 22:04:19 · 3191 阅读 · 4 评论 -
动态因子图模型(Dynamic Factor Graphs)
文章目录DFG 相关论文《Dynamic Factor Graphs for Time Series Modeling》《DYNAMIC FACTOR GRAPHS –A NEW WIND POWER FORECASTING APPROACH》其它拓展DFG 原理模型结构模型推断模型训练pytorch 实现importutilsdatasetmodulesDFG modelload datatrainresultDFG 相关论文《Dynamic Factor Graphs for Time Series原创 2020-05-14 17:34:26 · 7216 阅读 · 5 评论 -
时间序列分解模型 —— Neural Decomposition
文章目录论文及代码模型代码model测试序列训练预测加点噪声pytorch 实现论文及代码原始论文:代码:https://github.com/trokas/neural_decomposition模型将时间序列分解成周期项和非周期项 g(t)g(t)g(t):x(t)=∑k=1N(ak⋅sin(wkt+ϕk))+g(t).x(t) = \sum _{k = 1}^{N}{( a_{k} \cdot \sin ( w_{k} t + \phi _{k} )) } + g(t).x(t)原创 2020-05-10 16:33:39 · 3109 阅读 · 0 评论 -
时空神经网络(STNN)
时空神经网络(STNN)对时空数据进行预测,以及序列之间的关系挖掘。原创 2020-05-10 12:27:59 · 6959 阅读 · 1 评论 -
深度学习三巨头的主要贡献
Geoffrey Hinton, Yoshua Bengio, Yann LeCun转载 2019-11-18 09:47:19 · 3420 阅读 · 0 评论 -
chebNet
切比雪夫原创 2019-11-04 22:40:10 · 2634 阅读 · 4 评论 -
Deep Graph Infomax
原创 2019-10-29 19:44:26 · 2430 阅读 · 0 评论 -
DeepWalk
《DeepWalk: Online Learning of Social Representations》原创 2019-10-13 21:20:05 · 1607 阅读 · 0 评论 -
pytorch 猫狗大战
pytorch 迁移学习 猫狗大战 kaggle原创 2019-09-29 15:36:39 · 2652 阅读 · 0 评论 -
pytorch 给数据增加一个维度
unsqueeze原创 2019-09-27 22:05:16 · 50985 阅读 · 0 评论 -
ModuleNotFoundError: No module named 'torch_scatter.cuda'
原因:没有安装 CUDA,CUDANN, 或者没有配好环境变量原创 2019-09-27 10:44:17 · 6551 阅读 · 0 评论 -
ModuleNotFoundError: No module named 'torch_sparse.unique_cuda'
原因:系统环境中没有 cuda,cudann原创 2019-09-26 23:55:40 · 9380 阅读 · 0 评论 -
梯度下降算法:Hessian 矩阵 与 学习率 的关系
梯度下降算法:Hessian 矩阵 与 学习率 的关系原创 2019-09-03 15:57:23 · 2992 阅读 · 0 评论 -
A mostly complete chart of Neural Networks
转载 2019-08-20 19:56:49 · 2256 阅读 · 0 评论 -
神经网络梯度反向传播公式
三层神经网络的 BP 公式原创 2019-08-19 21:03:13 · 2575 阅读 · 0 评论 -
Numpy 实现神经网络 梯度下降
Numpy 实现神经网络 梯度下降原创 2019-07-24 13:21:51 · 2161 阅读 · 0 评论 -
tensorflow 使用 TFRecord 读取图片(二)
将大数据集保存成多个 TFRecord 碎片原创 2019-06-10 18:01:17 · 5916 阅读 · 0 评论 -
tensorflow 使用 TFRecord 读取图片(一)
将数据集转化成 tfrecord, 读取 tfrecord,生成批量数据原创 2019-06-10 13:17:11 · 6408 阅读 · 0 评论 -
tensorflow 自定义向量外积
貌似在当前 tensorflow 版本中没有定义外积操作dim = 6template1 = np.zeros([dim,dim*dim])for i in range(dim): for j in range(dim): template1[i,dim*i+j] = 1log_info(template1)''' dim = 4[[1. 1. 1. 1. ...原创 2019-05-09 10:52:58 · 7634 阅读 · 2 评论 -
tensorflow 在 checkpoint 中记录 global_step
tensorflow 在 checkpoint 中记录 global_step原创 2019-05-08 22:29:09 · 7244 阅读 · 2 评论 -
python 生成批量数据
机器学习,生成批量数据,batch原创 2019-05-08 17:12:22 · 7395 阅读 · 0 评论 -
python 手动打乱数据集
x_train, y_train = np.array(x_train),np.array(y_train) index = [i for i in range(len(y_train))] np.random.shuffle(index) x_train = x_train[index] y_train = y_train[index]原创 2019-04-29 16:54:18 · 7170 阅读 · 0 评论 -
pytorch 初试
import torchimport torchvisionimport torchvision.transforms as transformsdevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")# Assuming that we are on a CUDA machine, this sho...原创 2019-04-23 16:34:48 · 6189 阅读 · 1 评论 -
python 建立本地 YOLOv3 服务器
本地 python 服务器原创 2019-04-16 23:03:34 · 6852 阅读 · 0 评论 -
GAN
原创 2019-04-12 14:23:53 · 6059 阅读 · 0 评论 -
Numpy 实现神经网络
#coding:utf-8import numpy as np #定义激活函数和他们的导数 def tanh(x): return np.tanh(x) def tanh_deriv(x): return 1.0 - np.tanh(x)**2 def logistic(x): return 1/(1 + np.exp(-x...原创 2019-04-09 20:07:18 · 7612 阅读 · 0 评论 -
【强化学习】 A3C MountainCarContinuous
import gymimport multiprocessingimport threadingimport numpy as npimport osimport shutilimport matplotlib.pyplot as pltimport tensorflow as tf# number of worker agentsno_of_workers = multipr...原创 2019-04-03 23:27:40 · 4226 阅读 · 0 评论 -
【强化学习】A3C
一个可用的 A3C,有待研究from: https://github.com/stefanbo92/A3C-Continuousimport gymimport multiprocessingimport threadingimport numpy as npimport osimport shutilimport matplotlib.pyplot as pltimport t...原创 2019-04-03 12:00:24 · 2099 阅读 · 0 评论