- 博客(179)
- 资源 (10)
- 收藏
- 关注
原创 nlp团队
https://www.cnblogs.com/aibabel/p/11780174.htmlhttps://blog.youkuaiyun.com/pony1001/article/details/97127246https://blog.youkuaiyun.com/wangxinginnlp/article/details/44890553https://blog.youkuaiyun.com/u011344545/article/details/93324454
2022-03-03 00:37:45
470
原创 pandas 存储list or tensor / pandas存储列表却变成字符串的解决办法
https://blog.youkuaiyun.com/yueyue_666/article/details/108381589
2022-02-11 00:59:24
1400
原创 交叉熵:pytorch版本 vs 日常版本
首先看下平时我们所说的交叉熵:传送门在信息论中,交叉熵可认为是对预测分布q(x)用真实分布p(x)来进行编码时所需要的信息量大小。而在机器学习的分类问题中,真实分布p(x)是one-hot形式,表明独属于one-hot中1对应的角标的那个类,因此这也是为什么交叉熵常用于做分类问题的损失函数。H(p,q)=∑xp(x)log1q(x)=−∑xp(x)logq(x)\begin{aligned} H(p, q) &=\sum_{x} p(x) \log \frac{1}{q(x)} \\ &a
2022-01-06 23:48:53
1215
原创 算法与数据结构总纲
算法与数据结构这一栏介绍的东西会比较杂:排序、递归、数组、链表、分治、二进制位运算、回溯、动态规划等等,这些加起来可能会让人分不清什么是算法、什么是数据结构,下面做个简要的介绍:在本栏目介绍中:分治、动态规划、回溯是解决一类问题的思想;递归是实现某种算法思想的形式or手段;排序算法、dfs、bfs等是具体的算法,不同的排序思想可能是不同的算法思想的具体实现;数组/链表是存储数据的方式,相关的blog也是为了熟练操作(可能有些相关的小算法)这种数据结构。当然,学过《算法》与《数据结构》区分这些很容易。
2021-12-05 22:11:41
660
原创 分治思想及实例
文章目录1.分治实现快排1.1 介绍1.2 代码2.分治求众数3.分治求最大、最小数4.分治法解决最近点对问题1.分治实现快排1.1 介绍1.2 代码/* 快速排序分治版本 *//* https://blog.youkuaiyun.com/u013948010/article/details/78690467 */ /*选取最右那个为主元,每轮排序时,小与主元的通过交换往前放,大于主元的通过交换放后边,最后for循环结束时通过最后一次交换将主元放过来*/#include <iostream
2021-12-05 22:02:57
1716
转载 微软无界鼠标(Mouse without Borders)安装及使用|多台电脑共用鼠标键盘
在办公中,我们经常会遇到这种场景,自己带着笔记本电脑外加公司配置的台式机。由于两台电脑,所以就需要搭配两套键盘鼠标。对于有限的办公桌面来说,显得杂乱和拥挤。对于这种情况,微软车库里有这么一个比较方便好用的工具微软无界鼠标(Mouse without Borders)本文就简单介绍一下这款软件的安装和使用。百度上有很多大神都做了详细的介绍。微软无界鼠标(Mouse without Borders)安装使用说明软件下载地址:微软无界鼠标一、下载软件点击软件下载地址,访问到微软车库下载页面。点击红色下载
2021-11-16 18:09:02
38850
2
原创 常见的采样方法
文章目录1. 概念2.采样2.1 均匀分布采样2.2 离散分布2.3 接受拒绝采样(Acceptance-Rejection sampling)2.4 MCMC(Markov Chain Monte Carlo)采样2.5 重要性抽样(Importance sampling)2.6 吉布斯采样(Gibbs)3.参考1. 概念在数学中,连续型随机变量的概率密度函数(在不至于混淆时可以简称为密度函数)是一个描述这个随机变量的输出值,在某个确定的取值点附近的可能性的函数。而随机变量的取值落在某个区域之内的概率
2021-11-05 21:36:52
5317
原创 机器学习经典方法
文章目录1.线性回归1.1 什么是线性回归1.2 公式1.3 过拟合、欠拟合如何解决1.4 线性回归的输出y服从正态分布2.逻辑(斯谛)回归(logistic regression)2.1 什么是逻辑回归2.2 公式2.3 多分类2.4 逻辑回归的优点2.5 逻辑回归常用优化方法2.5.1 一阶方法2.5.2 二阶方法2.5.2.1 牛顿法2.5.2.2 拟牛顿法2.5 输入数据的特征为什么要进行离散化3.决策树3.1 分类决策树3.2 树的生成3.2.1 信息增益 - ID3:分类3.2.1.1 计算信息
2021-10-04 18:39:53
204
原创 排序~~~
文章目录1. 序言2.代码(均为升序)2.1 冒泡排序2.2 选排2.3 插排2.4 快排2.4 归并排序2.5 堆排序https://blog.youkuaiyun.com/xiaoxiaojie12321/article/details/813808341. 序言2.代码(均为升序)2.1 冒泡排序def maopao(arr): length = len(arr) for i in range(length): for j in range(1,length-i): if arr[j]
2021-09-22 00:58:37
399
原创 数组(双头指针、二分查找、前缀和、滑动窗口)
1.序言介绍数组相关操作2.例题1.双头指针https://leetcode-cn.com/problems/diao-zheng-shu-zu-shun-xu-shi-qi-shu-wei-yu-ou-shu-qian-mian-lcof/https://leetcode-cn.com/problems/he-wei-sde-liang-ge-shu-zi-lcof/2.二分https://blog.youkuaiyun.com/weixin_43232955/article/details/10752
2021-09-20 19:28:53
222
原创 面经1-小米-所有考点都在统计学习书中
1.K近邻算法(KNN)以某个距离度量进行衡量,选出与输入x最近的k个点,然后对k个点进行多数投票,决定输入x的类别,本质上这是一种分类算法, 其关键要素有3个:k值的选择、距离度量以及分类决策的规则(多数投票法)2.朴素贝叶斯(naive bayes)朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法https://baike.baidu.com/item/%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF/4925905?fr=aladdin3.L
2021-09-11 18:37:06
252
原创 文本相似度
文本相似度计算复盘参考文献数据集及其评价指标介绍:https://blog.youkuaiyun.com/xixiaoyaoww/article/details/105460175模型评价指标:https://blog.youkuaiyun.com/u010420283/article/details/104994800ROC曲线和AUC面积理解:https://blog.youkuaiyun.com/program_developer/article/details/79946787语义相似度计算的各种指标:https://www
2021-08-12 19:41:06
495
原创 正则化(岭回归、lasso回归)、归一化、标准化、离散化、白化、权重、学习率
文章目录正则化、归一化、标准化、离散化、白化1.介绍2.L1、L2正则化2.1 为什么参数稀疏一定程度上会避免过拟合?(L1)2.2 为什么参数越小代表模型越可避免过拟合?(L2)2.3 L1使参数稀疏、L2使参数小的原因?3 权重衰减与L2的区别3.1 首先看下权重衰减是什么?3.2 然后L2为什么可以实现权重衰减?4. 学习率衰减5. 权重衰减和学习率衰减考虑正则化、归一化、标准化、离散化、白化https://www.bilibili.com/read/cv107129911.介绍正则化的本质可
2021-08-10 20:15:14
975
原创 embedding发展史
文章目录1.文本多类分类2.embedding2.1 离散型2.1.1 one-hot2.1.2 词袋2.1.3 TF-IDF2.1.4 n-gram2.2 分布型2.2.1 共现矩阵1.文本多类分类2.embedding2.1 离散型2.1.1 one-hot2.1.2 词袋2.1.3 TF-IDF2.1.4 n-gramn-gram介绍:https://zhuanlan.zhihu.com/p/32829048https://www.jianshu.com/p/c13b9
2021-08-10 08:49:50
1119
原创 熵值~~~~
文章目录1.信息熵2.交叉熵3.相对熵1.信息熵在信息论中,熵(Entropy)是接收的每条消息中包含的信息的平均量。被称为信息熵、信源熵、平均自信息量。 这里,“消息”代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大)。若一个离散随机变量X的可能取值为X={x1,x2,⋯,xn},而对应的概率为pi=p(X=xi),则随机变量X的熵定义为:H(X)=−∑i=1np(xi)logp(xi)H(X)=-\sum_{i=1}^{n} p
2021-08-10 08:39:13
284
原创 知识蒸馏 & label smooth
文章目录1.Knowledge distillation1.1概念1.2知识蒸馏原理为什么有用?1.3知识蒸馏的温度参数?1.4知识蒸馏的种类?1.5知识蒸馏的作用?1.6 知识蒸馏方法1.7online/自监督蒸馏2.label smooth2.1介绍2.2 label smooth + Knowledge distillation2.2.1论文贡献:2.2.2 Label smooth何时有用2.2.3 知识蒸馏与label smooth结合1.Knowledge distillation1.1概念
2021-08-10 08:32:14
593
原创 torch softmax计算出0,导致math.log报math domain error
文章目录1.torch softmax计算出0错误:2.解决办法:1.torch softmax计算出0错误:import torchentropy_softmax = torch.nn.Softmax(dim=0)t = torch.tensor([ 1.4588, 6.8605, -12.9596, 0.9334, 20.7457, -6.9825, 1.0430,35.1390, -5.0085, 11.4986, 14.0365, -24.9701, 9.1256, 15.3329,-
2021-06-02 20:44:05
1050
原创 机器学习问答
文章目录1.为什么机器学习的训练数据和测试数据要服从相同分布?2.为什么假设数据服从独立同分布3.汉明距离和编辑距离4.数据平滑1.为什么机器学习的训练数据和测试数据要服从相同分布?通俗理解:机器学习就是利用当前获取到的信息(或数据)进行训练学习,用以对未来的数据进行预测、模拟。所以都是建立在历史数据之上,采用模型去拟合未来的数据。因此需要我们使用的历史数据具有总体的代表性,所以历史数据(训练数据)和测试数据要服从相同分布。原文链接:https://blog.youkuaiyun.com/Metal1/arti
2021-06-01 12:27:57
458
原创 dfs、回溯、递归
1.序言转自:https://blog.youkuaiyun.com/fengchi863/article/details/80086915递归是一种算法结构,回溯是一种算法思想一个递归就是在函数中调用函数本身来解决问题回溯就是通过不同的尝试来生成问题的解,有点类似于穷举,但是和穷举不同的是回溯会“剪枝”,意思就是对已经知道错误的结果没必要再枚举接下来的答案了,比如一个有序数列1,2,3,4,5,我要找和为5的所有集合,从前往后搜索我选了1,然后2,然后选3 的时候发现和已经大于预期,那么4,5肯定也不行,这就
2021-05-21 17:44:30
236
原创 链表~~~
1.序言一种数据结构2.例题1.两数相加https://leetcode-cn.com/problems/add-two-numbers/
2021-05-19 21:55:06
108
原创 贪心
1. 序言所谓贪心算法是指,在对问题求解时,总是做出在当前看来是最好的选择。也就是说,不从整体最优上加以考虑,它所做出的仅仅是在某种意义上的局部最优解。贪心算法没有固定的算法框架,算法设计的关键是贪心策略的选择。必须注意的是,贪心算法不是对所有问题都能得到整体最优解,选择的贪心策略必须具备无后效性(即某个状态以后的过程不会影响以前的状态,只与当前状态有关。)所以,对所采用的贪心策略一定要仔细分析其是否满足无后效性。证明每次的局部最优解必须在全局最优解序列中,否则不可能到达全局最优!一般判断贪心是否能
2021-05-11 20:19:24
127
原创 python 常用语法
1.排序1.1 介绍首先我们得知道python中的两个排序方法,一个是sorted,一个是sortsort()是列表内置的方法,没有返回值,是将列表排序,列表变化了sorted是全局内置的方法,有返回值,返回对可迭代序列排序后的新对象,但是原来的序列不变python的sorted()函数、列表的sort()方法,都是稳定的。即排序不改变相同元素的前后关系。entry=[1,3,2,5,4,6,7]print(entry.sort()) #Noneprint(entry) #[1, 2,
2021-04-08 11:31:43
896
原创 dp(动态规划)
1.序言分治法:问题可分解为规模逐渐减小的同类型子问题,子问题相互独立,不包含公告子问题dp:问题可分解为规模逐渐减小的同类型子问题,但分解得到的子问题很多都是重复的。即总大问题可以分解为二级子问题,三级子问题。。。其中二级子问题中的每个子问题都需要用到每个三级子问题的解,因此每个三级自问题只需要计算一次,把其结果保存,在需要的时候调用。dp:每个动态规划都从一个网格开始2.开始1.入门—01背包https://www.cnblogs.com/kkbill/p/12081172.html(推荐)
2021-04-07 17:41:36
426
转载 pytorch乘法以及广播机制
pytorch中的广播机制和numpy中的广播机制一样, 因为都是数组的广播机制两个维度不同的Tensor可以相乘, 示例a = torch.arange(0,6).reshape((6,))'''tensor([0, 1, 2, 3, 4, 5])shape: torch.Size([6])ndim: 1'''b = torch.arange(0,12).reshape((2,6))'''tensor([[ 0, 1, 2, 3, 4, 5], [ 6,
2021-03-17 19:53:47
3363
转载 python函数传值改变值
和其他语言不一样,传递参数的时候,python不允许程序员选择采用传值还是传引用。Python参数传递采用的是“传对象引用”的方式。实际上,这种方式相当于传值和传引用的一种综合。如果函数收到的是一个可变对象(比如字典或者列表)的引用,就能修改对象的原始值--相当于通过“传引用”来传递对象。如果函数收到的是一个不可变对象(比如数字、字符或者元组)的引用,就不能直接修改原始对象--相当于通过“传值’来传递对象。python一般内部赋值变量的话,都是传个引用变量,和C语言的传地址的概念差不多。可以用id(
2021-03-13 21:55:31
1438
原创 python for循环次数避坑
先看第一段代码:for i in range(5): print(i) if i==1: i=i-1 print("y")结果:01y234这段代码按理说应该成为死循环,可是并没有,for循环依旧只执行了5次。第二段代码:array=[3,4,5]for i in range(len(array)): array.append(i) print(i)print(array)结果:012[3, 4, 5,
2021-02-08 21:17:36
1370
原创 python画图(树形图)
1.turtle库画树形跳转2.graphviz跳转跳转3.matplotlib跳转4.pyecharts文档(不详细)树形图例子更改大小、比例、颜色等大小、背景色、配色主题使用手册
2021-01-03 10:52:12
8607
原创 强化学习介绍
https://www.sohu.com/a/237554606_297710https://zhuanlan.zhihu.com/p/42055115https://blog.youkuaiyun.com/hellocsz/article/details/80835542https://blog.youkuaiyun.com/qq_39388410/article/details/88795124
2020-12-30 00:04:17
120
原创 UnicodeDecodeError: ‘utf-8‘ codec can‘t decode byte 0xff in position 0: invalid start byte
UnicodeDecodeError: ‘utf-8’ codec can’t decode byte 0xff in position 0: invalid start byte报错代码:df=pd.read_csv("./ttt.txt",sep=",",encoding=“utf-8”)解决办法就是将文档编码转为utf8,下面尝试了两种解决办法!解决办法一(失败):解决办法二(成功):用Notepad++打开,然后转为utf-8编码,这样转是成功的。参考:https://blog.csdn
2020-12-29 14:13:41
535
原创 pytorch lstm+attention
原生:https://www.cnblogs.com/cxq1126/p/13504437.htmlhttps://zhuanlan.zhihu.com/p/62486641https://blog.youkuaiyun.com/qsmx666/article/details/107118550?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-1.control&depth_1-utm_source=distrib
2020-12-10 22:56:58
1260
1
原创 pytorch 常见报错
文章目录1.RuntimeError: cuda runtime error (59) : device-side assert triggered2.CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`3.pytorch BrokenPipeError: [Errno 32] Broken pipe1.RuntimeError: cuda runtime error (59) : device-side as
2020-12-08 11:12:10
572
原创 pytorch tensor的基本函数
交换tensor维度:torch.Tensor.permute (Python method, in torch.Tensor)https://zhuanlan.zhihu.com/p/76583143https://blog.youkuaiyun.com/york1996/article/details/81876886tensor初始化(均匀分布、正态分布。。。):torch.nn.inithttps://blog.youkuaiyun.com/dss_dssssd/article/details/83959474t
2020-12-05 00:37:59
395
原创 深度主动学习综述2020
《A Survey of Deep Active Learning》三篇译文:https://zhuanlan.zhihu.com/p/218011458https://www.sohu.com/a/420778540_100007727https://blog.youkuaiyun.com/weixin_45798949/article/details/108842951
2020-11-30 16:52:00
250
原创 transformers-bert
https://blog.youkuaiyun.com/abcdefg90876/article/details/104725943/https://panchuangai.blog.youkuaiyun.com/article/details/104920315?utm_medium=distribute.pc_relevant.none-task-blog-searchFromBaidu-2.control&depth_1-utm_source=distribute.pc_relevant.none-task-blo
2020-11-30 15:05:57
160
原创 归一化(Normalization)和标准化(Standardization)
"标准化"和"归一化"这两个中文词要指代四种Feature scaling(特征缩放)方法:1.缩放到均值为0,方差为1(Standardization——StandardScaler())2.缩放到0和1之间(Standardization——MinMaxScaler())3.缩放到-1和1之间(Standardization——MaxAbsScaler())4.缩放到0和1之间,保留原始数据的分布(Normalization——Normalizer())由于中文翻译,网上对于归一化和正则化的定
2020-11-29 16:02:21
1215
原创 focal loss
文章目录1.综述2.理解3.公式3.1 二分类的focal loss公式3.2 多分类下的focal loss公式3.3 二分类到多分类(含代码,代码是根据4.1.1、4.2.1、4.2.3 演变的)3.3.1 二分类3.3.2 多分类4.代码4.1 二分类4.1.1 实现代码14.1.2 实现代码24.2 多分类4.2.1 版本14.2.2 版本1的另一种写法4.2.3 版本24.3 alpha值的确定4.3.1 根据个数确定4.3.2 根据范围确定5.参考1.综述Focal loss主要是为了解决o
2020-11-20 21:57:14
2006
1
原创 python之argparse模块
文章目录1.介绍2.步骤2.1 argparse.ArgumentParser()2.2 .add_argument()2.3 .parse_args()2.4 命令行使用3.参考1.介绍argparse 是 Python 内置的一个用于命令项选项与参数解析的模块,通过在程序中定义好我们需要的参数,argparse 将会从 sys.argv 中解析出这些参数,并自动生成帮助和使用信息。当然,Python 也有第三方的库可用于命令行解析,而且功能也更加强大,比如 docopt,Click。2.步骤三个
2020-11-17 17:03:19
287
GoogleNews-vectors-negative300.bin
2020-09-03
sgns.sogounews.bigram-char.pt
2020-08-02
day10_data.zip
2020-03-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人