- 博客(255)
- 收藏
- 关注
转载 跳出内循环,继续下一次外循环的写法
跳出内循环,继续外循环:def work(): #定义函数 for i in range(5): for j in range(5): for k in range(5): if k=3: break...
2019-09-18 19:56:00
1311
转载 ImportError: cannot import name 'BaseDataset' from 'src.dataset'
因为我进行了相互调用,我在父类中调用了子类。from src.dataset import BaseDatasetclass PSINSDataset(BaseDataset):from src.main import PSINSDatasetclass BaseDataset(Dataset):转载于:https://www.cnblogs.com/xym4869/p/...
2019-09-12 17:10:00
1167
转载 神经网络中的反向传播法
直观理解反向传播法反向传播算法其实就是链式求导法则的应用。按照机器学习的通用套路,我们先确定神经网络的目标函数,然后用随机梯度下降优化算法去求目标函数最小值时的参数值。反向传播算法损失函数与正则化项假设我们有一个固定样本集\(\{(x^{(1)},y^{(1)}),···,(x^{(m)},y^{(m)})\}\)它包含m个样本。我们可以用...
2019-08-28 12:22:00
511
转载 Pytorch中ndarray tensor list互转
1.ndarray->tensor :b=torch.from_numpy(a)2.tensor->ndarray:b=a.numpy()'''但这么写会报错……RuntimeError: Can't call numpy() on Variable that requires grad. Use var.detach().numpy() instead.''...
2019-08-27 11:14:00
10204
转载 Python运行语法错误:IndentationError: unindent does not match any outer indentation level
python脚本没有对齐。新的Python语法,是不支持的代码对齐中,混用TAB和空格的。转载于:https://www.cnblogs.com/xym4869/p/11362355.html
2019-08-16 10:32:00
116
转载 module 'torch' has no attribute 'gesv'
新版torch不支持gesv,使用solve函数。Kt, _ = torch.gesv(P.mm(H.t()).t(), S)改成Kt, _ = torch.solve(P.mm(H.t()).t(), S)转载于:https://www.cnblogs.com/xym4869/p/11360206.html
2019-08-15 20:00:00
1988
转载 极大似然估计
原文链接:https://blog.youkuaiyun.com/zengxiantao1994/article/details/72787849贝叶斯决策贝叶斯分类贝叶斯公式:\[p(w|x)=\frac{p(x|w)p(w)}{p(x)}\]其中:p(w):为先验概率,表示每种类别分布的概率;\(p(x|w)\)为类条件概率,表示在某种类别前提下,某事发生的概率;\(p(w|x)\)为后...
2019-08-14 18:50:00
113
转载 Gaussian Processes
原文地址:https://borgwang.github.io/ml/2019/07/28/gaussian-processes.html一元高斯分布概率密度函数:\[p(x) = \frac{1}{\sigma\sqrt{2\pi}}\mathrm{exp}(-\frac{(x-\mu)^2}{2\sigma^2}) \tag{1}\]其中\(\mu\)和\(\sigma\)分别...
2019-08-13 09:57:00
490
转载 保存tensor至本地文件
path_temp = '../m39_data/temp3' #文件目录file_name = os.path.join(path_temp, "setQ.txt")Q = np.array(iekf.Q.detach().numpy()) # tensor转换成arraynp.savetxt(file_name, Q)转载于:https://www.cnblogs.c...
2019-08-12 10:57:00
4539
转载 Jensen不等式
转载自:碎片化学习之数学(一):Jensen不等式定义:对于一个凸函数\(f\),都有函数值的期望大于等于期望的函数值:\[E[f(x)]\geq f(E[x])\]上式当中\(x\)是一个随机变量,它可以是离散的或者连续的,假设\(x~p(x)\) 。回顾一下凸函数的定义:对于任意的值\(x_1,x_2\),且对任意的\(0\leq t \leq 1\),都有:\[tf(x_1)...
2019-08-10 17:11:00
409
转载 超算使用说明
1.打开putty,输入连接账号和密码,点击save保存以后都可以直接使用。2.进入要上传的文件夹的上一层,使用git将项目上传上去:scp -r XXX(项目名/文件夹名) username@ip:超算目录 //上传文件夹scp XXX(文件名) username@ip:超算目录 //上传文件3.putty进入超算项目中存在main函数的目录如果前台运行,命令是p...
2019-08-10 11:23:00
3521
转载 神经网络基础
转载自:神经网络基础,深度学习系列(1):神经网络与反向传播算法神经元模型1943年,McCulloch和Pitts将上图的神经元结构用一种简单的模型进行了表示,构成了一种人工神经元模型,也就是我们现在经常用到的“M-P神经元模型”,如下图所示:从上图M-P神经元模型可以看出,神经元的输出:\[y=f(\sum_{i=1}^nw_ix_i-\theta)\]其中\(\theta...
2019-08-07 17:20:00
436
转载 梯度下降法的三种形式BGD、SGD以及MBGD
转载自:梯度下降法的三种形式BGD、SGD以及MBGD在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。Basic一般线性回归函数的假设函数为:\[h_\theta = \sum_{j=0}^n\theta_jx_j\]对应的能量函数...
2019-08-06 17:36:00
189
转载 一元线性回归与代价函数(损失函数)
转载自:线性回归与非线性回归:1.0一元线性回归与代价函数(损失函数)回归分析:用来建立方程模拟两个或者多个变量之间如何关联因变量:被预测的变量(结果/标签),输出自变量:被用来进行预测的变量(特征),输入一元线性回归:包含一个自变量与一个因变量,并且变量的关系用一条直线来模拟一元线性回归公式:\(h_\theta = \theta_0+\theta_1x\)方程对应...
2019-08-06 15:54:00
1405
转载 墨卡托投影
转载自:墨卡托投影实现,墨卡托投影,WGS84坐标与web墨卡托投影坐标转换1.墨卡托投影:又称正轴等角圆柱投影,由荷兰地图学家墨卡托(G.Mercator)于1569年创拟。假设地球被套在一个圆柱中,赤道与圆柱相切,然后在地球中心放一盏灯,把球面上的图形投影到圆柱体上,再把圆柱体展开,就形成以一幅墨卡托投影的世界地图(如下图)。因其等角特性,广泛应用与航空、航海中。公式参数:...
2019-08-05 14:49:00
538
转载 pytorch中tensor数据和numpy数据转换中注意的一个问题
转载自:(pytorch中tensor数据和numpy数据转换中注意的一个问题)[https://blog.youkuaiyun.com/nihate/article/details/82791277]在pytorch中,把numpy.array数据转换到张量tensor数据的常用函数是torch.from_numpy(array)或者torch.Tensor(array),第一种函数更常用。下面...
2019-08-05 11:48:00
776
转载 利用python做矩阵的简单运算(行列式、特征值、特征向量等的求解)
import numpy as nplis = np.mat([[1,2,3],[3,4,5],[4,5,6]])print(np.linalg.inv(lis)) # 求矩阵的逆矩阵[[-1.2009599e+16 3.6028797e+16 -2.4019198e+16] [ 2.4019198e+16 -7.2057594e+16 4.8038396e+16] [-...
2019-08-05 11:18:00
1134
转载 numpy.linalg.svd函数
转载自:python之SVD函数介绍函数:np.linalg.svd(a,full_matrices=1,compute_uv=1)参数:a是一个形如\((M,N)\)的矩阵full_matrices的取值为0或者1,默认值为1,这时u的大小为\((M,M)\),v的大小为\((N,N)\) 。否则u的大小为\((M,K)\),v的大小为\((K,N)\) ,\(K=min(M...
2019-08-05 10:59:00
762
转载 梯度裁剪(Clipping Gradient):torch.nn.utils.clip_grad_norm
torch.nn.utils.clip_grad_norm_(parameters, max_norm, norm_type=2)1.(引用:【深度学习】RNN中梯度消失的解决方案(LSTM))梯度裁剪原理:既然在BP过程中会产生梯度消失(就是偏导无限接近0,导致长时记忆无法更新),那么最简单粗暴的方法,设定阈值,当梯度小于阈值时,更新的梯度为阈值,如下图所示:...
2019-08-03 16:23:00
2225
转载 tf.matmul()报错expected scalar type Float but found Double
tf.matmul(a,b)将矩阵a乘以矩阵b,生成a * b,这里的a,b要有相同的数据类型,否则会因为数据类型不匹配而出错。如果出错,请看是前后分别是什么类型的,然后把数据类型进行转换。转载于:https://www.cnblogs.com/xym4869/p/11294268.html...
2019-08-03 11:31:00
1672
转载 Markdown文字添加颜色
转自:原文地址添加红色效果: 写法: $\color{red}{red}$添加绿色效果: 写法: $\color{green}{green}$添加蓝色效果: 写法: $\color{blue}{blue}$添加清漾青(支持更丰富的16进制颜色)...
2019-08-01 16:34:00
987
转载 深度学习基础——感知机
转载自:原文地址神经网络如下图所示:上图中每个圆圈都是一个神经元,每条线表示神经元之间的连接。我们可以看到,上面的神经元被分成了多层,层与层之间的神经元有连接,而层内之间的神经元没有连接。最左边的层叫做输入层,这层负责接收输入数据;最右边的层叫输出层,我们可以从这层获取神经网络输出数据。输入层和输出层之间的层叫做隐藏层。感知器——神经网络的组成单元一个感知器有如下组成部分:...
2019-08-01 15:31:00
419
转载 Markdown插入表格语法
转自:Markdown插入表格语法我们知道默认情况下,Markdown 插入的表格,单元格中的内容默认左对齐;表头单元格中的内容会一直居中对齐(不同的实现可能会有不同表现)。普通的表格Markdown 代码:| 一个普通标题 | 一个普通标题 | 一个普通标题 || ------ | ------ | ------ || 短文本 | 中等文本 | 稍微...
2019-08-01 15:04:00
144
转载 Markdown数学公式语法
行内与独行行内公式:将公式插入到本行内,符号:$公式内容$,如:$xyz$独行公式:将公式插入到新的一行内,并且居中,符号:$$公式内容$$,如:$$xyz$$上标、下标与组合上标符号,符号:^,如:$x^4$下标符号,符号:_,如:$x_1$组合符号,符号:{},如:${x}^{y}_{ij}$汉字、字体与格式汉...
2019-08-01 14:58:00
263
转载 卷积神经网络CNN学习笔记
CNN的基本结构包括两层:特征提取层:每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;特征映射层:网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射...
2019-08-01 11:05:00
530
转载 python 安装离线库
(起因:报错找不到一个module,百度也找不到这个module,机智如我找宁博翻墙看怎么解决,毕竟是歪果仁的代码嘛,果真就在git找到了这个module哈哈哈哈机智如我!)方法:进入命令行窗口,进入该目录下,运行pip install .转载于:https://www.cnblogs.com/xym4869/p/11270511.html...
2019-07-30 15:46:00
163
转载 无法定位程序输入点到xxx.dll
Q:安装pytorch时报错无法定位程序输入点到Anaconda3\Library\bin\libssl-1_1-x64.dllA:下载libssl-1_1-x64.dll覆盖bin下的文件下载地址:https://download.youkuaiyun.com/download/r_jimy/9997095扩展:如果是window报这个错,就放到C:\Windows\System32和...
2019-07-27 16:26:00
600
转载 XMind配置防火墙
1.打开控制面板,找到防火墙2. 启用Windows防火墙3.高级设置,新建入站规则配置部分一律“下一步”。XMind配置防火墙完成。如果还不行,相同方式设置出站规则。转载于:https://www.cnblogs.com/xym4869/p/11244067.html...
2019-07-25 14:33:00
172
转载 简书 markdown 代码高亮标记
SyntaxHighlightlanguagelanguage_key1C1cActionScriptactionscriptApacheapacheAppleScript applescriptAsciiDocasciidocAspectJasciidocAuto...
2019-07-23 11:52:00
527
转载 clion ctrl+鼠标左键不能调到函数实现
问题:ctrl+鼠标左键只能在函数定义和申明之间跳转,不能跳转到implement,如果按ctrl+shift+B会报“no implement”。解决:更改CMakeList文件,更改版本号。cmake_minimum_required(VERSION 3.6.3)set(CMAKE_CXX_STANDARD 17)转载于:https://www.cnbl...
2019-07-22 09:31:00
8041
转载 Markdown 打出上下标
1. 打上标,下标2<sub>10</sub> <!--上标-->2<sup>10</sup> <!--下标-->2.同时打上下标$x^p_ {ij}$ <!--上标为p,下标为ij,{}是用来组合ij的-->转载于:https://www.cnblogs.c...
2019-07-19 15:44:00
1276
转载 matlab命令行双箭头消失
快捷键:ctrl + c转载于:https://www.cnblogs.com/xym4869/p/11126499.html
2019-07-03 15:06:00
7891
转载 关于python的深拷贝和浅拷贝
写类函数的时候出了一个错,原代码写在这里:def Update(self, wm, vm, ts, pos, vn, att): # 上一时刻位置,速度 pos_pre = pos self.pos = pos vn_pre = vn self.vn = vn # vn更新 ...
2019-07-03 14:23:00
107
转载 Git删除某个文件夹或整个仓库
删除仓库:进入仓库,选择settting:拉到最下面,有个Danger Zone,里面有删除仓库选项:输入仓库名称,即可删除:删除某个文件:删除文件和文件夹只能用命令行删除。如果直接git rm本地的文件夹也被删除,应该删缓冲。(以删除.idea文件夹为例):git rm -r --cached .idea #--cached不会把...
2019-06-27 14:29:00
458
转载 pycharm无法识别自己的文件夹的程序
网上找教程折腾了半天也没解决,然后我换了一下文件夹名称……文件夹名称不能用数字开头,否则识别不出来。转载于:https://www.cnblogs.com/xym4869/p/11061152.html...
2019-06-20 20:24:00
678
转载 Clion下同时编写多个main函数
在你的CMakeLists.txt文件下配置,使用add_executable(),前面的一定要不一样红色部分是描述main的,配置后运行处可以选择:转载于:https://www.cnblogs.com/xym4869/p/10974106.html...
2019-06-04 16:05:00
281
转载 pycharm plot独立窗口显示
import matplotlib.pyplot as plt...plt.show()进行如下设置:File->Settings->Tools->Python Scientific,取消掉Show plots in toolwindow选项转载于:https://www.cnblogs.com/xym4869/p/10942911.html...
2019-05-29 11:45:00
250
转载 更改matlab默认精度
我使用的是R2018a1.打开预设2.命令行窗口3.变量转载于:https://www.cnblogs.com/xym4869/p/10858014.html
2019-05-13 17:45:00
1670
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人