自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(113)
  • 收藏
  • 关注

原创 Web前端快速入门

可以让多个块级元素在同一行内排列显示,浮动的元素是相互贴靠在一起的,不会有缝隙。允许开发者通过HTML文档进行交互,动态的改变文档的结构、样式还有内容,对象的作用是为了让函数和变量之间建立联系,对象中的属性就是变量,方法就是函数,与普通的变量函数相比,区别就是在调用的时候,需要在对象的属性和方法前加上变量名。即嵌套,一个大标签嵌套一个小标签,先在<body>创建一个div标签,输入一个类名,div.father,内部在创建一个p标签,然后可以在<style>中添加样式,.father>.son{}

2025-03-16 09:37:13 464

原创 机器学习——回归树

所以我们需要为这个决策树填写的最后一件事是,如果有一个测试示例下到第一个节点,我们应该预测的权重是多少?对于一个长着尖耳朵和圆脸的动物来说,决策树会做出预测,根据下边训练样本中的平均重量,通过平均这四个数字得到了8.35分,如果另一方面,动物有尖耳朵和不圆的脸型,它会预测9.2,因为只是一只动物的重量,同样下边将是17.7和9.9,所以这个模型要做的是给出一个新的测试示例,像往常一样沿着决策节点向下,直到它到达叶节点,然后预测叶结点处的值,通过测量动物在训练过程中的平均体重,回到了同样的叶子音符上。

2025-03-05 17:19:58 769

原创 机器学习——连续的有价值特征

在考虑对权重特性进行拆分时,应该做什么?是考虑这个阈值的许多不同值,然后选择一个最好的,即能获得最好信息的,所以,如果你想把例子分开,基于重量是小于还是等于8,将把整个数据集分成两个子集,左边的子集有两只猫,右边的子集有三只猫和五只狗,所以如果计算通常的信息增益,需要计算根节点的熵,0.5的熵,左边分裂的时间熵有另外两只猫,所以另外两个的熵,另外,右边的分裂有十个例子中的八个,右边八个例子的熵三个是猫,所以输入三个工具,结果是0.24。修改决策树使用的不仅仅是离散值的特性,但是连续值可以是任何数字的特征。

2025-03-04 18:27:58 397

原创 机器学习——使用分类特征的一种独热编码,

如果一个分类特征可以具有k个可能的值,在我们的例子中,k=3,然后我们将通过创建k个二进制特性来替换它,它只能接受0或1的值,在这三个特征中,看其中的任意一行,恰好其中一个值等于1,这就是特征构造方法命名为一个热编码的原因。下图是我们宠物收养中心申请的新培训集,所有的数据都是一样的,除了耳形特征有尖软之外还有椭圆形,所以这个特征仍然是一个分类值特征,但它可以有三个可能的值,而不仅仅是两个可能的值,这意味着当你在这个功能上分裂时,最终创建了数据的三个子集,最后为这棵树建造了三个分支。

2025-03-03 18:18:56 421

原创 机器学习——整合

在此基础上,我们创建左右子分支,用尖头发送数据的子集,相对于左右分支松软的耳朵,所以首先覆盖住根节点和右边的子分支,把注意力集中在左边的分支上,共有五个例子,我们的拆分标准是不断拆分,直到节点中的所有内容都属于单个类,我们将查看这个节点是否满足拆分标准,它没有因为这里有猫和狗的混合,所以下一步是选择一个要拆分的特性,所以我们一次一个地检查这些特性,并计算每一个特征的信息增益,好像这个节点是经过训练的决策树的新根节点,只使用左边的五个示例,所以计算在胡须特征上分裂的信息增益,人脸形状特征分裂的信息增益。

2025-03-02 10:32:07 779

原创 机器学习—选择拆分信息增益

以耳朵特征为例,定义,左分支为P1left=左边子集中具有正标签的示例的分数,有四只猫所以=4/5,把W定义为例子的分数,在所有到左边分支的根节点的例子,=5/10,类似的,右分支定义为P1right,作为正例的分数,只有一个是猫,即为1/5,同样Wriget=5/10,P1root=0.5,所以公式如下所示,所以有了熵的定义,可以计算与选择任何特定特性相关联的信息增益,在节点上拆分,然后在所有可能的功能中,可以选择分类,然后选择一个给你最高的信息增益,这将提高数据子集的纯度。,因为在左分支和右分支中,

2024-12-05 16:10:35 839

原创 机器学习—测量纯度

给出一组像这样的六个例子,有三只猫和三只狗,我们把p定义为猫的例子分数,这是带有标签的示例分数,所以在本例中,P1=3/6,我们将测量一组例子的杂质,使用一个叫做熵的函数,如下所示,熵函数通常表示为这个数字的大写H(p1),函数看起来很像这条曲线,横轴是p,样本中猫的比例,垂直轴是熵的值,所以在这个例子中,其中P1=0.5,P1的熵值等于1,可以看出,当例子是50时,这条曲线是最高的,所以它是最不纯洁的,相比之下,你的一组例子要么都是猫,要么都不是猫,那么熵为0。这对于构建决策树也很有效。

2024-12-04 21:24:43 318

原创 机器学习—学习过程

但如果收益太小,可能你就不会在费心让树变小了,并降低过装风险,最后,如果节点上的示例数低于某个阈值,然后你也可能决定停止分裂,例如,如果在根节点上,在脸型特征上有分类,然后右边的分支就只有3个训练例子,一只猫两只狗,而不是把它分成更小的子集,如果你决定不使用3个或几个示例来拆分更多的示例集,然后你只需创建一个决策节点,而且因为主要是狗,这里有两三只狗,这将是一张预测不是猫的纸条,还有一个原因是。,我们使用的标准,对于上一个例子来说,直到直到百分之百所有的猫,或者百分之百所有的狗都不是猫,因为在这一点上,

2024-12-04 20:56:08 1169

原创 机器学习——决策树模型

假设你在经营一家猫收养中心,并提供了一些功能,你想训练一个分类器来快速告诉你,动物到底是不是猫,这里有10个训练例子,并与这10个例子中的每一个相关联,我们将有关于动物耳朵形状的特征、脸型、有胡须都作为标志,然后预测的真实标签是这只动物猫,所以第一个例子是有尖耳朵,圆圆的脸,有胡须,而且是一只猫。,会看到里边写着耳朵形状的特征,基于本例耳朵形状的值,是尖尖的,所以应该沿着左边的树枝往下走,在这里这个椭圆形节点结束,然后再看脸型,是圆的,沿着这个箭头向下,算法会作出一个推断,认为它是一只猫。

2024-12-03 21:12:49 433

原创 机器学习:精确率与召回率的权衡

或者两者之间最好的权衡,精确召回的一个挑战是你现在使用两个不同的度量来评估你的算法,所以如果你训练了三种不同的算法,精确召回数字是这样的,如何选择使用哪种算法并不那么明显,有一种算法在精度和召回方面都很好,那你可能想用那个,但是在这个例子中,算法二精度最高,但算法三的召回率最高,算法一在两者之间进行权衡,所以显然没有一种算法是最好的选择,所以为了帮助你决定选择哪种算法,找到一种将精确和召回结合起来的方法可能是有用的,变成一个单一的分数,所以你可以看看。,可以把精确度和召回率结合起来的一个方法是。

2024-12-03 19:47:27 1168

原创 机器学习:倾斜数据集的误差指标

换句话说,在所有你预测为积极的例子中实际得到的分数是多少,写这个公式的另一种方法是真正的正数,因为它是通过求和这个单元格最终得到了预测为阳性的总数,在本例中,分数的表达式为15/(15+5)=0.75,所以我们说这个算法有75%的精度,因为所有的事情都被预测为积极的,在所有它认为患有这种罕见疾病的病人中,75%的时间是正确的,第二个有用的计算指标是召回率,询问所有真正患有这种罕见疾病的病人,我们正确的检测到哪个部分,所以说,,因为算法预测为阳性,但它是假的实际上不是积极的,,因为预测是负面的而且是真的,

2024-12-02 16:36:43 584

原创 机器学习:机器学习项目的完整周期

需要根据所需的应用规模来决定使用什么样的软件工程,推理服务器能够做出可靠有效的预测,对于某些应用程序,部署过程可能需要一定数量的软件工程,如果只是在笔记本电脑或者一两个服务上运行它,也许不需要太多的软件工程,机器学习中有一个不断增长的领域叫做MLOPS,这代表机器学习操作,这是指构建、部署和维护机器学习系统,做所有这些事情,以确保机器学习模型是可靠的,并有良好的损耗监测,然后对模型进行适当的更新。,在一个服务器中实现,将调用一个推理服务器,它的工作是把你的机器学习模型(你训练的模型)做出预测,

2024-12-02 15:11:45 481

原创 机器学习快速入门(黑马程序员版)

datasets.fetch_*(data_home=None) 获取大规模数据集,需要从网络上下载,函数的第一个参数是data_home,表示数据集下载的目录,默认是~/scikit_learn_data/然后,很不巧已有的天鹅图片全是白天鹅的,于是机器经过学习后,会认为天鹅的羽毛都是白色的,以后看到羽毛是黑的天鹅就会认为那不是天鹅。ROC曲线的横轴就是FPRate,纵轴是TPRate,当二者相等时,表示的意义则是:对于不论真实类别是1还是0的样本,分类器预测为1的概率是相等的,此时AUC为0.5.

2024-11-30 11:51:52 1448

原创 机器学习(从Softmax到迁移学习的手写重点笔记)

2024-11-26 15:57:49 106

原创 机器学习—迁移学习:使用其他任务中的数据

就像角落,像这样的形状,神经网络的下一层可能已经学会了更复杂的,但仍然是一般的形状,如基本曲线,或者像这样的小形状,这就是为什么通过学习检测大量不同的图像,你在教线性网络检测边缘角和基本形状,这就是为什么通过训练神经网络探测各种各样的东西,比如猫、狗、汽车和人,你正在帮助它。,以适应手写数字识别的具体应用,如果你有一个小的数据集,几十个,几百个,几千个,或者数万张手写数字的图像,能够从这一百万张不太相关的任务的图像中学习,实际上可以帮助你的学习算法的性能很大,迁移学习的一个。

2024-11-21 21:52:48 1022 1

原创 机器学习—添加数据

今天我们可以访问的算法比如线性回归、逻辑回归、神经网络还有决策树,有一些算法非常好,将很好的适用于许多应用程序,因此,有时花更多的世家收集数据会更有成效,以人为中心的方法,在这种方法中,专注于设计算法使用的数据,这可以是任何事情,从收集更多的数据到收集更多的数据,只是在药品垃圾邮件上,如果这就是错误分析告诉你要做的使用。举一个现有的训练例子,创建新的训练示例,例如,如果你试图识别从A到Z的字母,光学字符识别问题,所以不仅仅是数字0到9,但从A到Z的字母也给出了这样的图像,你可能会决定通过。

2024-11-21 15:06:47 948

原创 机器学习—误差分析

但不是任何更多的数据,但试着找到更多关于药品垃圾邮件的数据,让学习算法更好的发挥作用,识别这些药品垃圾邮件,或者你可能会决定想出一些与特征相符的具体的名称,或者垃圾邮件发送者试图出售的药品的具体名称,为了帮助你的学习算法更好的识别这种类型的制药垃圾邮件,这可能会启发你对算法进行特定的更改,与检测网络钓鱼电子邮件有关,,尤其是,这个分析告诉你的是,即使你要建立非常复杂的算法找出,它只能解决你100个错误分类的例子中的3个,因此,帮助运行诊断的最重要的方法是选择下一步要尝试的内容,提高你的学习算法性能,

2024-11-19 20:43:05 911

原创 机器学习—机器学习的迭代发展

这是电子邮件的文本,或者和你可能决定想出检测拼写错误的算法或者故意拼写错误,比如手表,医药和抵押贷款,这也可以帮助你判断电子邮件是否是垃圾邮件,所以考虑到所有这些,甚至更多的想法,如何决定这些想法哪一个更有希望,例如,如果算法有高偏差而不是高方差,然后花几个月的时间在蜜罐上,D项目可能不是最有成效的方向,但是如果你的算法有很高的方差,然后收集更多的数据,可能会有很大的帮助。,在你训练好你的初始模型之后,如果它不像你希望的那样好,你很可能会有多种。更改lambda正则化参数。等等,根据这些决定,你将。

2024-11-19 08:47:30 527

原创 机器学习—偏差或方差与神经网络

然后可以继续通过这个循环,让神经网络越来越大,直到它在训练中表现出色,这意味着它在你的训练集上达到了一定程度的错误,与你希望达到的目标误差水平大致相当,可能是人类水平的表现,在训练中表现出色后,所以这个问题的答案是肯定的,然后会问,它在交叉验证集上做得好么,换句话说,它的方差大吗,如果答案是否定的,然后得出结论,算法有很高的方差,因为它确实想要训练集,在交叉验证机上不做,事实上,它甚至可以显著的帮助它,第二,只要你的训练不是太大,一个神经网络尤其是大型神经网络,往往是一个低偏置的机器,它。

2024-11-18 10:12:51 934

原创 机器学习—再次决定下一步做什么

3.反过来说,获取附加功能,那只是增加了额外的功能,与去一个较小的功能集相反,这将帮助修复一个高偏差问题作为一个具体的例子,如果你试图根据房子的大小来预测房子的价格,但是,事实证明,房子的价格取决于卧室的数量,在楼层数和房龄上,除非添加这些额外的特性,否则算法永远不会做的那么好,所以这是一个高偏差问题,因为你在训练场上做不到,当你只知道大小,只有当你告诉算法有多少间卧室时,有几层,这房子有几年历史了,有了足够的信息,甚至在训练集上做得更好,因此,,将有助于降低算法过度拟合数据的灵活性,所以这也可以。

2024-11-17 18:08:52 480

原创 机器学习—学习曲线

将从一个例子开始,当你只有一个训练例子,如果你拟合一个二次模型,你可以很容易的知道直线或曲线,你的训练误差将为0,如果你有两个这样的训练例子,你可以再次拟合一条直线,实现零训练误差,事实上,如果你有三个训练例子,二次函数仍可以很好的拟合这一点,几乎没有训练错误,但是如果你的训练集再大一点,假设你有四个训练例子,然后要完美地适应所有四个例子就变得有点难了,你可能会得到一条曲线,看起来很适合它,所以当你把训练集的大小增加到四个,训练误差实际上上升了一点,我们有五个训练例子怎么样你可以更好的适应它?

2024-11-17 09:55:53 1402

原创 机器学习—建立表现基准

有时性能的基线水平可能为零,如果你的目标是达到完美的表现,那么性能的基线水平可以为0%,但对于某些应用,如语音识别应用,在那里一些音频只是嘈杂的,那么基线水平的性能可能远远高于零,就算法是否有偏差或方差而言,所以具体地说,如果你得到这样的数字,那么基线和训练误差的差距就大了,这将4.6%,训练误差与交叉验证误差的差距也很大,这是4.2%,所以如果它看起来像这样,得出结论,具有高偏差和高方差。另一种估计性能基线水平的方法是,是否有一些竞争算法,可能是其他人以前实现的,甚至是。,要测量的两个关键量是。

2024-11-16 18:21:58 613

原创 机器学习—正则化和偏差或方差

然后可以计算交叉验证错误,现在尝试一个不同的值,假设lambda=0.01,最小化成本函数会给你第二组参数,还可以看到它在交叉验证集上做得有多好,继续尝试lambda的其他值,以此类推,通过尝试lambda拟合参数的一个大范围的可能值,使用这些不同的调节函数,然后在。的值,这将会为应用程序提供一个良好的模型。,它超过了这个数据,如果有一个lambda中间值,不是很大,看起来的模型就会恰到好处,与数据很吻合,Jtrain和Jcv都很小,所以如果你试图决定lambda的什么值用于正规化,

2024-11-16 17:02:40 1113

原创 机器学习—诊断偏差和方差

右边也是,当多项式的次数非常大时,假设4在交叉验证集上也做的不好,因为它也很高,但如果d在两者之间,然后它实际上做得更好,所以如果你改变多项式的次数,你实际上会得到一个曲线,看起来像这样,他下降然后又上升,如果多项式的次数太低,它不适合,所以在交叉验证集上做的不好,如果太高,它过于适合,在交叉验证集上也做的不好,它过于适合,在交叉验证集上也做得不好,,Jcv也会很高,因为如果你有一些新的例子,也许像这样的例子是算法以前在这里没有看到的,该算法在以前从未见过的示例上也做得不太好,

2024-11-15 20:22:10 944

原创 机器学习—模型选择和训练交叉验证测试集

如果你必须对你的模型做出决定,例如拟合参数或选择模型架构,如神经网络架构或多项式度,如果你用线性回归来做所有这些决定,仅使用训练集和交叉验证集完全不看测试集,当你还在为你的学习算法做决定的时候,只有在你想出一个模型之后这是你的最终模型,然后在测试集上进行评估,因为还没有使用测试集做出任何决定,这可以确保你的测试集是一个公平的。这指的是不在训练集中的新例子的平均误差,在上篇文章中看到的是J测试,算法在示例上的性能没有训练,关于这一点,这将是一个更好的指标,表明该模型在新数据上可能做的有多好,指的是。

2024-11-14 16:18:04 1239

原创 机器学习—模型评估

我们要做的是在训练集上训练模型的参数,在这个70%的数据上,然后我们将在这个测试集中用符号来测试这个性能,用(x1,y1)(x2,y2),与前面相同,通过x表示训练示例所以在这个小例子中,我们会有七个训练例子,并引入一个新的符号,M训练是训练实例的数量,在这个小数据集中是七个,所以下标只是强调如果我们看数据的训练集部分,对于测试集,我们将使用符号X一个下标测试来表示第一个测试示例,m是测试示例的个数,在本例中是三个,大部分数据都进入了训练集,一小部分进入测试集。的成本函数J,所以这是通常的。

2024-11-13 21:08:54 866

原创 机器学习—决定下一步做什么

现在已经看到了很多不同的学习算法,包括线性回归、逻辑回归甚至深度学习或神经网络。关于如何构建机器学习系统的一些建议。

2024-11-13 15:06:59 355

原创 机器学习—Additional Layer Types

如果你在神经网络中有多个卷积层,有时这叫卷积神经网络,为了说明卷积层,使用一维图像输入而不是二维,使用EKG,所以如果你在胸口放两个电极,你将记录如下所示的电压,与你的心跳相对应,实际上是在读取心电图信号,这些信号看起来像这样,试图诊断,如果病人有心脏问题,所以心电图信号有一个数字列表,对应于这个表面的高度,在不同的时间点,所以可能会有100个数字对应于这条曲线的高度,在100个不同的时间点,给出这个时间序列的学习任务,给这个心电图信号来分类,说这个病人是否有心脏病或一些可诊断的心脏病,以下是。

2024-11-12 20:45:11 567

原创 机器学习—高级优化方法

模型和以前一摸一样,编译的方式,这个模型和以前的很相似,除了我们现在向编译函数添加一个额外的参数,即我们指定要使用的优化器是TF.Keras.优化器,.Adam优化器,所以Adam优化算法确实需要一些默认的初始学习速率,在这个例子中,初始学习率是10的-3,但是你在实践中使用Adam算法时,值得尝试这个首字母的几个值,此默认全局学习速率,尝试一些较大和较小的值,看看什么能给你最快的学习性能,通过Adam算法,可以自动调整学习速度,使其更加精确。在代码中,这是如何实现的?

2024-11-11 19:58:39 534

原创 机器学习—多个输出的分类(Optional)

一种方法是把它看作三个完全独立的机器学习问题,可以建立一个神经网络来决定,第一个检测汽车,第二个检测公交车,第三个是检测行人,这其实不是一个不合理的做法,第一个是检测汽车的神经网络,第二个是检测公交车,第三个检测行人,还有另一种方法,就是训练一个神经网络同时检测三辆车,公共汽车,汽车和行人,如果你的神经网络结构是这样的,X第一隐藏层输出1,第二个隐藏层输出一个2,在这种情况下,最后的输出层会有三个输出神经元,并将输出一个3,它将是一个由三个数字组成的向量,因为正在解决三个二进制分类问题,

2024-11-11 16:09:13 417

原创 机器学习—softmax的改进实现

在这种情况下,取决于你决定如何计算价值超过一万,结果可能有或多或少的数值舍入误差,结果发现,虽然计算SoftMax成本函数的方法是正确的,有一种不同的表述方式,减少了这些数字舍入误差,导致了Tensorflow中更精确的计算,首先使用Logistic回归来更详细地解释这一点,然后展示这些思想如何应用于改进SoftMax的实现,首先,对于逻辑回归,如果要计算损失函数,对于一个给定的例子,首先计算。计算机只有有限的内存来存储每个数字。

2024-11-11 11:58:27 645

原创 机器学习—神经网络的Softmax输出

对于SoftMax层或SoftMax激活函数,在一个方面不同,与我们目前看到的其他激活函数相比,像Z状结肠,Relu和线性,当我们观察Z状结肠或Relu或线性激活函数时,a1只是z1的函数,换句话说,获取激活值,我们可以应用激活函数,不管是Z状结肠还是其他什么,但是有了Softmax激活功能,注意。稀疏范畴指的是把y分类,它的值从1到10,稀疏指的是y只能取这十个值中的一个,所以每个图像要么是零,要么是1,要么是2,最多到9,你不会看到照片的,同样是数字2和数字7,

2024-11-11 09:37:36 537

原创 机器学习—Softmax

它以为y=2,以此类推,如果y=j,那么损失函数loss=-log aj ,aj的负对数是一条曲线,如果aj非常接近1,那么会在曲线的右边,而且损失会很小,但如果aj只有50%的机会,就是就大了一点,aj越小损失越大,因此尽可能使aj大,尽可能接近损失小,注意,在这个损失函数中,每一个训练示例只能接收一个值,所以你最终计算出一个aj的负对数,只对aj的值,在那个特定的训练例子中,y=1的实际值是多少。Softmax回归算法是Logistic回归的推广,它是一种针对多类分类上下文的。

2024-11-09 14:58:15 544

原创 机器学习—多类

以手写数字为例,到目前为止研究的分类问题,只是想区分手写的数字0和1,但如果你想阅读信封上的邮政编码,实际上有十个可能的数字你可能想识别,或者患者可能患有三种或五种不同的疾病中的任何一种,也会是一个多类分类问题,可能会看到一张制药公司生产的药丸的照片,尝试找出它有划痕缺陷或变色缺陷或芯片缺陷,这也是个多类问题,可以将此投票归类为具有的不同类型的缺陷,所以多类分类问题仍然是分类问题,因为y只能接受少量离散范畴,不是任何数字,但是现在y可以接受不止两个可能的值。

2024-11-09 12:57:30 379

原创 机器学习—为什么我们需要激活函数

用一个更简单的例子来说明这一点,看一个神经网络的例子,其中输入x只是一个数字,有一个隐藏单位,参数w和b,输出一个,这里只是一个数字a[1],然后第二层是输出层,它也只有一个输出单元,参数为w2 b2,输出一个a2,也就是一个数字,只是一个标量,它是神经网络f(x)的输出,如果用线性激活函数,g(z)=z,将x=a1计算,神经网络将使用a1=g(w)*x+b1,具体替换如下图所示,所以w只是一个线性函数而不是使用一个隐藏层和一个输出层的神经网络,还不如用线性回归模型,如果熟悉线性代数,

2024-11-09 12:16:08 623

原创 机器学习—选择激活函数

总结一下,对于输出层,使用Z状结肠,如果有二进制分类问题,线性,如果y是一个可以具有正值或负值的数,或者使用relu,如果y只能取正值或零正值或非负值,对于隐藏的图层,只使用relu作为默认激活函数,在张量流中,与其说激活等于Z状结肠,对于隐藏的图层,要求TensorFlow使用relu激活函数,然后对于输出层,它使用Z状结肠激活功能,但是如果使用线性激活函数,该函数显示了它的语法。有了这组更丰富的激活函数,将会很好的建立比上一次更强大的神经网络,仅使用Z状结肠激活功能。

2024-11-09 11:28:18 485

原创 机器学习—sigmoid的替代品

有时我们会使用不同于Z状结肠激活函数的选择,最常用的激活函数是Z状结肠激活函数,激活功能还有一个功能,称为线性激活函数,也就是g(z)=z,有时如果你使用线性激活函数,人们会说我们没有使用任何激活功能,所以当你使用线性激活函数时,有人会说,我们没有使用任何激活函数,使用线性激活函数而不是没有激活函数,但如果听到别人用这个术语,只是指线性激活函数,这三个可能是迄今为止神经网络中最常用的激活函数。分别是Z状结肠激活函数,relu激活函数,线性激活函数。

2024-11-08 17:21:28 373

原创 机器学习—训练细节

然后张量流会试图最小化均方误差,在这个表达式中,用大写的J(W,B)来表示成本函数,成本函数是神经网络中所有参数的函数,所以你可以把W,B看作包括整个神经网络中的所有的W,B参数,所以如果你优化关于w和b的成本函数,会试图优化关于神经网络中的所有参数以及上面的,f(x)写成神经网络的输出,也可以写成Fw,b(x),如果想强调神经网络的输出,作为x的函数,取决于神经网络的所有参数和所有层,这就是损失函数和成本函数,在张量流中,这被称为。,这是在建立逻辑回归时所做的第二步,逻辑回归模型的最后一步是。

2024-11-08 16:53:56 677

原创 机器学习—TensorFlow实现

继续运行手写数字识别的示例,识别此图像,一个0还是1,我们所使用的是神经网络架构,其中有一个输入X,然后是第一个隐藏层,有25个单位,第二个隐藏层,有15个单元,然后一个输出单元,将得到一组由图像x组成的训练示例,以及地面真相标签Y。,它告诉TensorFlow拟合在步骤一中使用损失指定的模型,或者在第二步中指定的数据集x y的成本函数,当我们谈到梯度下降时,我们必须决定梯度下降要走多少步或者梯度下降要跑多长时间,所以。,其关键步骤是指定要使用的损失函数是什么,在这种情况下,将使用一种神秘的稀疏名称——

2024-11-06 19:28:20 230

原创 机器学习——矩阵乘法代码

如何在代码中实现这一点,AT=np.array([[200,17]]),矩阵W是一个2×3矩阵,B是一个1×3矩阵,所以在一个圈层中实现前向支柱的方法是密集的,输入转置w b等于z,z=np.matmul(AT,W)+b,所以它只是实现了这一行代码,然后a_out=g(z),激活函数对这个矩阵z应用元素,然后返回一个out,就给出这个值。按照惯例,这是在TensorFlow中实现的方式,我们不调用这个变量Xt,而是调用AT,张量流中有一个约定,单个例子实际上是在矩阵x中按行排列的,而不是在矩阵x转置。

2024-11-06 16:25:36 280

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除