
机器学习
文章平均质量分 80
机器学习的学习笔记
Tiny_G
If we desire, we can create the whole world
展开
-
python之Numpy
计算机科学家edsger w.djkstra(艾兹格·W·迪科斯彻),delattr这一风格的解释应该是比较好的:- 当只有最后一个位置信息时,我们可以快速看出切片和区间里有几个元素: range(3)和my_list[:3]- 当起始位置信息都可见时,我们可以快速计算出切片和区间的长度,用有一个数减去第一个下表(stop-start)即可- 这样做也让我们可以利用任意一个下标把序列分割成不重叠的两部分,只要写成my_list[x]和my_list[x:]就可以了。原创 2023-08-21 21:11:58 · 393 阅读 · 0 评论 -
09强化学习
agent可以直接或间接的与之交互的一切,Agent执行操作时,Environment会发生变化;polocoes:策略是agent用来决定采取什么action的规则,可以是确定的,也可以是随机的。Reward:agent从环境中接收的数值,作为对agent操作对未来局势影响的判断。reward一般是人为定义的,reward定义的好坏可以直接影响结果。 在观察一种S时,根绝策略函数,Agent的A是随机的。Ut只是一个随机变量,在t时刻,并不知道它是什么,它依赖于未来所有的action和state。原创 2023-08-21 20:41:54 · 143 阅读 · 0 评论 -
08无监督学习——聚类
类别:无监督学习目的:通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。分层聚类擅长于发现数据中的嵌入式结构。基于密度的方法在寻找具有相似密度的未知数量的聚类方面表现优异。K-means考虑在整个数据集中找到"共识”,K-means考虑数据集中的每个点,并使用该信息在一系列迭代中进化聚类。高斯混合模型考虑重合数据的聚类。原创 2023-08-20 16:11:08 · 667 阅读 · 0 评论 -
07无监督学习——降维
维数灾难(Curse of Dimensionality):通常是指在涉及到向量的计算的问题中,随着维数的增加,计算量呈指数倍增长的一种现象。1.降维(Dimensionality Reduction)是将训练数据中的样本(实例)从高维空间转换到低维空间。2.有很多种算法可以完成对原始数据的降维,在这些方法中,降维是通过对原始数据的线性变换实现的。原创 2023-08-20 16:10:31 · 934 阅读 · 0 评论 -
06有监督学习——迁移学习
当两个域是相似的时候,那么它们之间会共享某种相似关系,将源域中学习到的逻辑网络关系应用到目标域上来进行迁移,比方说生物病毒传播规律到计算机病毒传播规律的迁移。当源域和目标域含有一些共同的交叉特征时,我们可以通过特征变换,将源域和目标域的特征变换到相同空间,使得该空间中源域数据与目标域数据具有相同分布的数据分布,然后进行传统的机器学习。基于模型的迁移,源域和目标域共享模型参数,也就是将之前在源域中通过大量数据训练好的模型应用到目标域上进行预测。(2)基于特征的迁移学习。(3)基于模型的迁移学习。原创 2023-08-20 16:09:46 · 566 阅读 · 0 评论 -
05有监督学习——神经网络
比方说对数线性回归(log-linear regression),令g(.) = In(.),此时模型预测值对应的是真实值标记在指数尺度上的变化。1986年,Rumelhart和McClIelland为首的科学家提出了BP( Back Propagation )神经网络的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,目前是应用最广泛的神经网络。神经网络模型可以非常方便地对数据进行升降维,随着特征数量的增多,样本的密度就下降了,继续升维度,就会过拟合,不适用于真实情况。1.能够自适应、自主学习。原创 2023-08-20 16:09:13 · 609 阅读 · 0 评论 -
04有监督算法——支持向量机
支持向量机( Support Vector Machine )要解决的问题什么样的法策边界才是最好的呢?特征数据本身如果就很难分,怎么办呢?计算复杂度怎么样?能实际应用吗?支持向量机( Support Vector Machine , SVM)是一类按监督学习( supervised learning )方式对数据进行二元分类的广义线性分类器( generalized linear classifier )。原创 2023-08-20 16:06:32 · 1491 阅读 · 0 评论 -
03.有监督算法——决策树
后剪枝:通过一定的衡量标准,具体来说:C4.5采用的悲观剪枝方法,用递归的方式从低往上针对每一个非叶子节点,评估用一个最佳叶子节点去代替这课子树是否有益。对于任意划分特征A,对应的任意划分点s两边划分成数据集D1和D2,求出使D1和D2各自集合的均方差最小,同时D1和D2的均方差之和最小所对应的特征和特征值划分点。表示特征X使得类Y的不确定性减小的程度(表示分类后的专一性,希望分类后的结果是同类在一起)如果目标变量是离散的,称为分类树。2.更新子集,在自己中选取新的特征,求信息增益的最大的特征。原创 2023-08-20 16:05:26 · 1025 阅读 · 0 评论 -
02.有监督算法——朴素贝叶斯
根据已经发生的事件来分析得到的概率。以P(Y | X)代表在假设X成立的情况下观察到Y数据的概率。根据以往经验和分析得到的概率。我们用P(Y)来代表在没有训练数据前,假设Y 拥有的初始概率。拉普拉斯平滑是一种用于平滑分类数据的技术。引入拉普拉平滑法来解决零概率问题。原创 2023-08-20 16:04:53 · 193 阅读 · 0 评论 -
01.机器学习引言
例如,平均损失函数(Quadratic Loss Function)L(Y,f(x)) = (Y- f(x))监督学习:输入的数据中有监督信息,以概率函数、代数函数或人工神经网络为基函数模型,采用迭代计算方法,学习结果为函数。提取目的:自动地构建新的特征,将原始数据转换为一组具有明显物理意义(例如,几何特征、纹理特征)或统计意义的特征。强化学习:以环境为反馈(奖/惩信号)作为输入,以统计和动态规划技术为指导的一种学习方法。4.用步骤3中选出的模型对测试集计算,得出推广误差(代价函数的值)原创 2023-08-20 16:04:23 · 694 阅读 · 0 评论