
基本功
文章平均质量分 65
玄云飘风
这个作者很懒,什么都没留下…
展开
-
【paddle】自带模型参数量和计算量统计
paddle自带模型的参数量和计算量统计原创 2022-11-18 17:16:37 · 2246 阅读 · 0 评论 -
【LaTeX】算法栏
来源:https://blog.youkuaiyun.com/lqhbupt/article/details/8723478导入包\usepackage{algorithm}\usepackage{algorithmic}带行号算法伪代码\begin{algorithm}[h] \caption{An example for format For \& While Loop in Al...原创 2019-01-14 10:14:37 · 2276 阅读 · 1 评论 -
算法题【剑指offer】
二维数组中查找要点:终止条件——跑出边界class Solution {public: bool Find(int target, vector<vector<int> > array) { int r=0, c=array[0].size()-1; while(r<array.size()&&(c&原创 2019-03-13 23:53:59 · 125 阅读 · 0 评论 -
算法题(314)
合并排序链表#include<iostream>using namespace std;struct ListNode { int val; struct ListNode *next; ListNode(int x) :val(x), next(NULL) {}};class Solution {public: ListNode* Merge(ListN原创 2019-03-14 09:46:51 · 199 阅读 · 0 评论 -
IoU计算
输入:vector<float> p1; //y1min, x1min, y1max, x1max;vector<float> p2; //y2min, x2min, y2max, x2max;输出:float IoU代码:float computeIoU(vector<float> p1, vector<float> p2){...原创 2019-03-06 23:19:57 · 623 阅读 · 0 评论 -
算法题(320-快手模拟)
前几个月放映的头号玩家简直火得不能再火了,作为一个探索终极AI的研究人员,月神自然去看了此神剧。由于太过兴奋,晚上月神做了一个奇怪的梦,月神梦见自己掉入了一个被施放了魔法的深渊,月神想要爬上此深渊。已知深渊有N层台阶构成(1 <= N <= 1000),并且每次月神仅可往上爬2的整数次幂个台阶(1、2、4、…),请你编程告诉月神,月神有多少种方法爬出深渊要点:动态规划,类似于爬楼...原创 2019-03-20 00:23:02 · 618 阅读 · 0 评论 -
算法题(315)
疯狂队列https://www.nowcoder.com/practice/d996665fbd5e41f89c8d280f84968ee1要点:起初设想是把值摆到两头,发现不对;于是把最值摆到中间即可。最后根据奇、偶数需要做微调。#include&lt;iostream&gt;#include&lt;vector&gt;#include&lt;algorithm&gt;#includ...原创 2019-03-15 22:59:01 · 355 阅读 · 0 评论 -
算法题(316)
给定一个字符串,请你将字符串重新编码,将连续的字符替换成“连续出现的个数+字符”。比如字符串AAAABCCDAA会被编码成4A1B2C1D2A。#include&lt;iostream&gt;#include&lt;string&gt;#include&lt;stack&gt;using namespace std;string intToStr(int n){ stack&l原创 2019-03-16 20:35:08 · 183 阅读 · 0 评论 -
算法题(312)
给定一个链表和和一个节点的指针,删除该节点。原创 2019-03-12 17:23:26 · 250 阅读 · 0 评论 -
算法题(313)
给定长为n的数组,切m-1刀成为m段,每段求和,获得m个和。记m个和的最大值为max,求所有可能切法产生的max的最小值。要点:二维动态规划,转移函数f(m,n)=min遍历k(max(f(m−1,n−k),sum(xk:)))f(m,n) = min_{遍历k}(max(f(m-1,n-k), sum(x_k:)))f(m,n)=min遍历k(max(f(m−1,n−k),sum(xk:)...原创 2019-03-13 13:09:09 · 502 阅读 · 0 评论 -
Dropout
https://stackoverflow.com/questions/53419474/nn-dropout-vs-f-dropout-pytorchimport torchimport torch.nn as nnclass Model1(nn.Module): # Model 1 using functional dropout def __init__(self, ...原创 2019-03-22 19:20:09 · 483 阅读 · 0 评论 -
算法题(317)
雷火笔试:寻找最长山脉的长度——输入数组v,输出非负整数。定义山脉:存在m,i,n:v[m]<v[m+1]<…v[i-1]<v[i]>v[i+1]…>v[n-1]>v[n];山脉的长度≥3\geq 3≥3,v的长度≥3\geq 3≥3例:输入:1,2,3,4,2 输出:5由于输入格式不好处理,所以果断由C++改成python作答的,成功AC。l=inpu...原创 2019-03-19 01:06:17 · 208 阅读 · 0 评论 -
算法题 (排序)
排序算法#include<iostream>#include<vector>#include<string>using namespace std;vector<int> selectS(vector<int> v) { for (int i = 0;i < v.size() - 1;i++) { for (int...原创 2019-03-19 10:26:24 · 341 阅读 · 0 评论 -
算法题
复制复杂链表要点:三个阶段:插入+复制值+复制next指针,复制random指针,断开。#include<iostream>using namespace std;struct RandomListNode { int label; struct RandomListNode *next, *random; RandomListNode(int x) : labe...原创 2019-03-23 00:02:37 · 190 阅读 · 0 评论 -
KMP算法
背景&暴力搜索法略看了好多文章和视频和书,这个视频属于帮我捅破一层窗户纸的那个。https://www.bilibili.com/video/av11866460?from=search&seid=311732569793729423输入:主字符串s,模式字符串p。输出:在s中,p第一次出现的位置或-1。最长公共前后缀序列这个概念有点拗口,拆开来看:对于模式字符串p,如...原创 2019-03-29 23:54:26 · 306 阅读 · 0 评论 -
PyTorch验证group normalization
import torchimport torch.nn as nnx=torch.randn([2,10,3,3])+1m=torch.nn.GroupNorm(num_channels=10,num_groups=2)firstDimenMean = torch.Tensor.mean(x[0,0:5])firstDimenVar= torch.Tensor.var(x[0,0:5...原创 2019-03-24 10:51:59 · 3517 阅读 · 2 评论 -
无偏估计中贝塞尔系数的由来
对于采样自分布XXX的样本xi:i∈[1,n]x_i: i\in[1,n]xi:i∈[1,n],用样本方差s2s^2s2去估计XXX的方差σ2\sigma^2σ2,为什么要除以n−1n-1n−1而不是nnn?证明用nnn除得到的估计是σ2−E[(Xˉ−μ)2]\sigma^2-E[(\bar X-\mu)^2]σ2−E[(Xˉ−μ)2],和无偏估计相比偏小。直观解释:因为真实分布的方差计算...原创 2019-03-24 13:13:11 · 1326 阅读 · 0 评论 -
L1正则化进行稀疏选择的数学解释
令L(w)=l0(w)+λ∑∣wi∣L(w)=l_0(w)+\lambda\sum|w_i|L(w)=l0(w)+λ∑∣wi∣,则∂L(w)∂wi=∂l0(w)∂wi+λsign(wi)\dfrac{\partial L(w)}{\partial w_i}=\dfrac{\partial l_0(w)}{\partial w_i}+\lambda sign(w_i)∂wi∂L(w)=∂w...原创 2019-04-15 14:55:56 · 866 阅读 · 0 评论 -
【XML】python解析XML
使用python元素树解析XML文件&lt;?xml version="1.0"?&gt;&lt;data&gt; &lt;country name="Liechtenstein"&gt; &lt;rank updated="yes"&gt;2&a原创 2018-12-18 17:45:30 · 369 阅读 · 0 评论 -
【XML】关于XML需要记住的
XML被设计用来传输和存储数据,HTML 被设计用来显示数据。所以XML仅仅包含数据结构,不包含显示格式。XML元素指的是从(且包括)开始标签直到(且包括)结束标签的部分。元素可包含其他元素、文本或者两者的混合物。元素也可以拥有属性。XML具有树状结构,且具有唯一的根元素。所有XML元素都须有关闭标签。每个XML元素可以有属性和子元素,且属性值要有引号。&lt;bookstore&...原创 2018-12-18 16:46:30 · 208 阅读 · 0 评论 -
关于cpp的一些整理
最近在给大一的小朋友做助教,顺带整理一下cpp的一些基本概念,不得不说,充满活力的年轻人真是令人羡慕啊。原创 2018-06-12 15:29:09 · 253 阅读 · 0 评论 -
蚁群算法求解旅行商问题(TSP)
流程图如下:原创 2018-06-14 09:12:04 · 4420 阅读 · 0 评论 -
循环字符串问题中的翻手算法
最近再看《编程珠玑》,原创 2018-06-15 13:03:59 · 539 阅读 · 0 评论 -
pytorch.nn中Module和functional的重叠功能
torch.nn.Module和torch.nn.Functional中有一大部分重叠的功能。如:卷积层、池化层、标准化、线型层等。区别是Functional通过method来实现,而Module通过class来实现,会自动提取可学习参数nn.Parameter。对于激活函数和池化层,由于没有可学习参数,一般使用nn.functional完成,其他的有学习参数的部分则使用类。但是Droupout由...原创 2018-08-31 11:34:22 · 633 阅读 · 0 评论 -
摩尔投票法
该算法用于解决寻找一个含有nnn个元素的数列{an}{an}\{a_n\}中出现超过1k1k\dfrac{1}{k}(即大于nknk\dfrac{n}{k}次)的元素(假设满足要求的元素存在)。可知,满足要求的元素最多有(k−1)(k−1)(k-1)个。使用暴力解法并不难,但是摩尔投票法给出了一个O(n)O(n)O(n)时间复杂度的解法。当k=2时维护一个初值为0的计数器counter...原创 2018-09-15 22:31:13 · 1676 阅读 · 0 评论 -
推导SVM
1.原始问题对于线性可分的ddd维训练样本集合D={(x1,y1),(x2,y2),...,(xm,ym)}D=\{(\pmb{x_1}, y_1), (\pmb{x_2}, y_2), ..., (\pmb{x_m}, y_m)\}D={(x1x1x1,y1),(x2x2x2,y2),...,(xmxmxm,ym)},yi∈{−1.+1}y_i \in...原创 2018-10-04 11:21:40 · 274 阅读 · 0 评论 -
《tricks of trade》读书笔记 bias和variance
Several theoretical efforts have analyzed the process of learning by minimizing the error on a training set (a process sometimes called Empirical Risk Minimization,经验风险最小化)Some of those theoretical a...原创 2018-10-04 22:59:44 · 161 阅读 · 0 评论 -
【python】保存、读取变量
with open('test.txt', 'w') as f: # 打开test.txt 如果文件不存在,创建该文件。 f.write(str(var)) # 把变量var写入test.txt。np.save("a.npy", a)c = np.load( "a.npy" )...原创 2018-11-10 21:36:32 · 2529 阅读 · 0 评论 -
【pytorch】数据转换
pytorch中的数据类型Data typedtypeCPU tensorGPU tensor32-bit floating pointtorch.float32 or torch.floattorch.FloatTensortorch.cuda.FloatTensor64-bit floating pointtorch.float64 or torch.d...原创 2018-10-21 16:49:41 · 1519 阅读 · 0 评论 -
【caffe】caffe需要shuffle训练数据吗?
原文见https://stackoverflow.com/questions/37658069/does-caffe-need-data-to-be-shuffled/37659171#37659171。本文不只是相对caffe而言的,更重要的是解释了为什么我们在训练模型的时候需要shuffle数据提问:我利用此处的代码把我的imagenet图片数据转换到caffe的db格式。数据需要s...翻译 2018-11-13 14:30:52 · 1203 阅读 · 0 评论 -
【caffe】官方提供的一些debug技巧
转载 2018-11-12 20:20:02 · 326 阅读 · 0 评论 -
PRML1.6 信息论简介
最近需要比较两个集合的KL散度,特意翻了一下PRML中的相关章节,做个小结。如果不够的化还得翻information theory的书TAT离散随机变量的信息量首先从最简单的离散随机变量X∈{x1,x2,...xM}X\in\{x_1,x_2,...x_M\}X∈{x1,x2,...xM}说起,假设Pr(xi)=piPr(x_i)=p_iPr(xi)=pi,则有∑i=1\sum_i=...原创 2018-12-03 22:22:58 · 379 阅读 · 0 评论 -
【caffe源码】caffe.proto
跟着m哥调了了一段时间代码,断断续续地初步用了一下caffe,但是始终有点若即若离的感觉,偶然看到了知乎的一个回答 https://www.zhihu.com/question/27982282/answer/80242005 ,决定开始系统地看一下caffe的源码,在此稍作整理备忘及供有缘人参考。...原创 2018-12-14 17:37:02 · 381 阅读 · 0 评论 -
《tricks of trade》读书笔记 1.2学习和泛化
本文来自1.2节Learning and Generalization对于机器学习问题的解答有很多种不同的思路,其中的绝大多数都可以归结为基于梯度的学习方法。如下图所示,一个机器学习模型M(Zˆp,W)M(Zˆp,W)M(Zˆp,W),其中ZˆpZˆpZˆp表示输入,WWW表示模型参数,是我们优化的对象,我们所说的模型MMM实际上等价于模型参数WWW。我们有带label的数据集:{(Zp,D...原创 2018-12-21 10:19:45 · 684 阅读 · 1 评论 -
一些结论
score函数 loss函数(hinge loss,正则化) 随即梯度下降softmax 神经图灵机 向量的方向传播原理:jacobian矩阵l5 卷积结果的sizel6 sigmoid函数:原点附近线性,远离原点导数为0(饱和的神经会杀掉梯度),均值非零,exp计算慢 tanh函数:远离原点导数为0(饱和的神经会杀掉梯度),均值为零 relu...原创 2018-06-02 20:28:43 · 210 阅读 · 0 评论