
机器学习
APythonC
时常在卷
日常反卷
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
junyi PSLC 数据集处理 —— txt 转 csv
网上的代码import numpy as npimport pandas as pd txt = np.loadtxt('junyi_ProblemLog_for_PSLC.txt')txtDF = pd.DataFrame(txt)txtDF.to_csv('junyi_ProblemLog_for_PSLC.csv',index=False)实测不行改进的代码import numpy as npimport pandas as pdtxt = np.genfromtxt('ju原创 2021-06-25 12:24:14 · 888 阅读 · 2 评论 -
李宏毅老师课程:Unsupervised Learning:Auto-encoder
无监督学习:自动编码器IntroductionRecap: PCADeep Auto-encoderStructurePCA vs Deep Auto-encoderText Retrieval(文字检索)Similar Image SearchPre-training DNNDe-noising auto-encoder(去噪自动编码器)Auto-encoder for CNNCNN - UnpoolingDeconvolutionIntroductionAuto-encoder本质上就是一个自我压缩原创 2020-09-10 00:04:39 · 552 阅读 · 0 评论 -
李宏毅老师课程:Unsupervised Learning: PCA
无监督学习:PCAPCAFormulaDecorrelationAnother Point of ViewWeakness of PCAPCA for PokemonPCA for MNISTPCA for FacePCA如果reduce to 1D,我们使用z1=w1∗xz_1=w^1*xz1=w1∗x,使得xxx投影到w1w^1w1上,即达到了降维的目的,那么我们如何来评价降维的好坏呢?我们可以使用降维之后数据的variance来评价,variance越大越好如果reduce to 2D,那原创 2020-09-04 16:05:01 · 532 阅读 · 0 评论 -
李宏毅老师课程:Unsupervised Learning:Introduction
无监督学习 - 介绍OverviewClusteringIntroductionHAC(层次聚类)Dimension Reduction(降维)IntroductionWhy Dimension Reduction Help?How to do Dimension Reduction?Overview无监督学习(Unsupervised Learning)可以分为两种:化繁为简:聚类(Clustering)降维(Dimension Reduction)无中生有(Generation)Cl原创 2020-09-04 16:04:50 · 323 阅读 · 0 评论 -
李宏毅老师课程:Unsupervised Learning:Neighbor Embedding
无监督学习:邻居嵌入Manifold Learning(流形学习)Locally Linear Embedding (LLE)(局部线性嵌入)Laplacian Eigenmaps(拉普拉斯特征图)T-distributed Stochastic Neighbor Embedding (t-SNE)Manifold Learning(流形学习)在高维空间里,距离该点很远的点很可能与这个点也是有关联的,因此我们可以把3-D的空间进行降维,那么我们就可以更方便地进行clustering或unsupervis原创 2020-09-04 16:04:23 · 377 阅读 · 0 评论 -
李宏毅老师课程:Conditional Generation by RNN & Attention
RNN条件生成&注意GenerationConditional GenerationAttentionDynamic Conditional GenerationMachine TranslationSpeech RecognitionImage Caption Generation(图片字幕生成)Memory NetworkNeural Turing Machine(神经图灵机)Tips for GenerationAttentionMismatch between Train and TestM原创 2020-08-28 15:04:20 · 360 阅读 · 0 评论 -
李宏毅老师课程:Network Compression
网络压缩Why ?Network Pruning(修剪)Network can be prunedNetwork PruningWhy Pruning?Lottery Ticket Hypothesis(彩票假说)Pratical Issue(实际问题)Knowledge DistillationStudent and TeacherEnsemble(合奏)TemperatureParameter Quantization(参数量化)Architecture Design(架构设计)Low rank app原创 2020-08-28 15:04:01 · 532 阅读 · 0 评论 -
李宏毅老师课程:Attack ML Models
攻击机器学习模型MotivationWhat do we want to do?Loss Function for AttackConstraintHow to AttackExampleAttack ApproachesWhite Box v.s. Black BoxBlack Box AttackAttack in the Real WorldDefenseMotivationWhat do we want to do?attack要做的事就是把找到原图片x0x^0x0对应的x′x'x′Lo原创 2020-08-21 17:10:24 · 413 阅读 · 0 评论 -
李宏毅老师课程:Explainable ML
可解释的MLIntroductionWhy we need Explainable ML?Interpretable v.s. PowerfulLocal ExplanationBasic IdeaLimitation of Gradient based ApproachesAttack InterpretationGlobal ExplanationActivation Minimization (review)Constraint from GeneratorUsing a model to expla原创 2020-08-21 17:09:47 · 450 阅读 · 0 评论 -
李宏毅老师课程:Semi-supervised
这里写目录标题一级目录二级目录三级目录一级目录二级目录三级目录原创 2020-08-21 17:08:54 · 443 阅读 · 0 评论 -
李宏毅老师课程:Unsupervised Learning - Word Embedding
词嵌入:word embeddingIntroductionWord EmbeddingCount basedPrediction basedSharing ParametersTrainingVarious Architectures(各种架构)ResultIntroduction用vector来表示一个word,最传统的做法是1-of-N Encoding,可以把有同样性质的word进行聚类,划分成多个class,然后用word所属的class来表示这个word,最后把每一个word都投影到高维空间原创 2020-08-14 16:04:42 · 417 阅读 · 0 评论 -
李宏毅老师课程:Recurrent Neural Network
递归神经网络:一般用于记住之前的状态,以供后续神经网络的判断一级目录二级目录三级目录一级目录二级目录三级目录原创 2020-08-14 16:04:15 · 387 阅读 · 0 评论 -
李宏毅老师课程:Tips for Deep Learning
这里写目录标题一级目录二级目录三级目录一级目录二级目录三级目录原创 2020-08-07 15:15:41 · 357 阅读 · 0 评论 -
李宏毅老师课程:Backpropagation(反向传播)
反向传播一级目录二级目录三级目录一级目录二级目录三级目录原创 2020-07-31 11:52:12 · 318 阅读 · 3 评论 -
李宏毅老师课程:Convolutional Neural Network
卷积神经网络Why CNN for Image?Three Property for CNN Theory BaseThe Whole CNN StructureCNN – ConvolutionProperty 1Property 2Feature MapColorful imageConvolution V.s. Fully ConnectedCNN – Max PoolingOperation of max poolingConvolution + Max PoolingFlattenWhy CNN原创 2020-07-30 23:41:39 · 639 阅读 · 0 评论 -
李宏毅老师课程:Why Deep
DeepShallow V.s. DeepModularization(模块化)exampleSpeechlanguage basicsprocessAnalogyLogic Circuit剪窗花End-to-end LearningConclusionShallow V.s. DeepDeep Learning在很多问题上的表现都是比较好的,越deep的network一般都会有更好的performance那为什么会这样呢?有一种解释是:一个network的层数越多,参数就越多,这个model就越原创 2020-07-24 14:22:41 · 356 阅读 · 0 评论 -
李宏毅老师课程:Deep Learning
深度学习一级目录二级目录三级目录一级目录二级目录三级目录原创 2020-07-21 23:43:33 · 561 阅读 · 0 评论 -
李宏毅老师课程Classification: Logistic Regression
逻辑回归Step 1: Function Set二级目录三级目录Step 1: Function Set二级目录三级目录原创 2020-07-17 15:15:18 · 401 阅读 · 0 评论 -
Classification:Probabilistic Generative Model(概率生成模型)
分类问题输入数值化How to do Classification三级目录分类问题就是输入找⼀个function,它的input是⼀个object,它的输出是这个object属于哪⼀个class以宝可梦为例,已知宝可梦有18种属性,做⼀个宝可梦种类的分类器,找⼀个function的input是某⼀只宝可梦,output是这只宝可梦属于这18属性中的哪⼀个。输入数值化要想把⼀个东西当做function的input,就需要把它数值化,即用一组数字来描述一只宝可梦的特性(可以理解成各项属性的种族值)Ho原创 2020-06-19 13:50:53 · 890 阅读 · 0 评论 -
梯度下降法——一元线性回归(实战)
学自覃秉丰老师所授课程step 1:载入数据画出图像step 2:求解拟合此数据的直线的参数step 1:载入数据画出图像import numpy as npimport matplotlib.pyplot as plt# 载入数据data = np.genfromtxt("data.csv", delimiter=",")# 取所有行第0列数据x_data = data[:,0]# 取所有行第1列数据y_data = data[:,1]# 画图工具plt.scatter(x_dat原创 2020-06-11 22:33:08 · 636 阅读 · 0 评论 -
Gradient Descent
Gradient DescentReviewTip 1:Tuning your learning rates三级目录Review下图是将gradient descent在投影到⼆维坐标系中可视化的红色箭头是指在(θ1,θ2) 这点的梯度,梯度方向即箭头方向(从低处指向高处),梯度大小即箭头长度(表示在θ点处最陡的那条切线的导数大小,该方向也是梯度上升最快的方向) ;蓝色曲线代表实际情况下参数θ1和θ2的更新过程图,每次更新沿着蓝色箭头方向loss会减小,蓝色箭头方向与红色箭头方向刚好相反,代表着梯度原创 2020-06-11 12:23:24 · 269 阅读 · 0 评论 -
Basic Concept
Basic ConceptWhere does the error come from?Bias and Variance of Estimator三级目录Where does the error come from?越复杂的model不见得会带给你越低的errorerror主要来源于 bias(偏差) 和 variance(方差)了解了error的来源有助于采取适当的方法来improve你的modelBias and Variance of Estimator均值、方差、样本估计总体、无偏估计原创 2020-06-04 12:11:12 · 568 阅读 · 0 评论 -
Regression(Part 2)
RegressionHow to do betterregularization解决overfittingHow to do better需要重新设计model在gradient descent可以找到best function的前提下,function所包含的项的次数越高,越复杂,error在training data上的表现就会越来越小;但是,我们关心的不是model在training data上的error表现,而是model在testing data上的error表现。在本例中,之前我们的原创 2020-06-03 22:30:24 · 206 阅读 · 0 评论 -
Regression(Part 1)
RegressionModel函数的适合度挑选最好的函数回归:输出一个标量Model线性模型:b表示截距,w表示直线的斜率函数的适合度x轴表示输入前数值,y轴表示输入后数据Loss Function L:输入一个方法,输出告诉你这个方法有多不好Input:a FunctionOutput:How bad/good it is估测误差:真实值y减去预测值再取平方(最小二乘法)如果L(f)越大,说明该Function表现得越不好;L(f)越小,说明该Function表现得越好挑选最好原创 2020-06-01 21:30:07 · 259 阅读 · 0 评论 -
李宏毅老师机器学习入门
入门Learning Map你想要找什么样的函数怎样告诉机器你要找什么样的函数机器怎样找出你想要的函数课程作业安排机器学习就是自动找函数(方法)。典型应用如:语音识别、图像识别、下围棋、对话系统等等。Learning Map下图中,同样的颜色指的是同一个类型的事情蓝色方块指的是Scenario,即学习的情境。通常学习的情境是我们没有办法控制的,比如做Reinforcement Learning是因为我们没有Data、没有办法来做Supervised Learning的情况下才去做的。如果有Data原创 2020-06-01 21:16:04 · 393 阅读 · 0 评论