- 博客(87)
- 资源 (1)
- 收藏
- 关注
原创 标签的学习
在HTML中如果属性名和属性值一样就可以简写为一个单词。先打上img然后回车在双引号里面打"./"会有提醒。标题名:h1~h6(双标签)水平线:hr(单标签)标签名:p(双标签)换行:br(单标签)
2025-01-19 11:16:45
156
原创 标签语法的学习
单标签:只有开始标签,没有结束标签(只需要一个效果:换行线,水平线)标记:也叫标签(成对出现,中间包裹内容(标签名)),带尖括号的文本。保存HYML标签的文件扩展名是.html。双标签:(要包裹内容的用)HTML超文本标记语言。
2025-01-19 11:15:02
96
原创 CMD的学习
打开环境变量:打开我的电脑(winders+E)右击空白处选择属性,点击左边的高级系统设置,在上面选高级,下面有一个环境变量进入,看下面的系统变量的框点击path。然后复制好路径一直点确定就行了。环境变量:将一个路径保存在环境变量中,在查找信息时,如果当前文件夹没有,就会在环境变量中查找。(可以在任意目录下面都可以打开指定软件)要进入多级目录的意思是进入一个目录他在一个大目录里面,一层一层的打开。winders+R打开小窗口输入cmd回车。
2025-01-19 11:10:44
113
原创 用python联系SQL
通过python来在SQL中建立数据库 在python中查询SQL的数据内容 通过python在SQL中的数据库中添加数据 自动commit
2025-01-15 19:33:50
142
原创 SQL分组聚合-结果排序-结果分页限制
ASC表示从小到大(不写也行是默认的)DESC表示从大到小。n表示限制几条数据,n,m表示从第n条开始取m条。by后面是什么select后面就是什么。
2025-01-15 17:18:56
98
原创 神经网络前向传播
当我们学习线性回归和逻辑回归时,我们使用f(x)来表示线性回归或逻辑回归的输出。所以我们也可以使用f(x)来表示神经网络计算的函数作为x的函数。因为这个计算是从左到右进行的所以这个也被称为向前传播,这种类型的神经网络架构,最初有很多的隐藏单元,并且越接近输出层,隐藏单元的数量会减少。
2025-01-04 22:05:45
139
原创 如何用代码实现推理
看看如何使用TensorFlow实现推理代码。假设烤咖啡豆,我们如何推断一个神经网络让它告诉我这个温度和持续时间是否设置是否会产生好咖啡?密集是神经网络层的另一个名称,来看另一个例子,手写数字的分类问题。
2025-01-04 21:47:58
196
原创 Tensorflow中数据形式
Tensorflow旨在处理 非常大的数据库,并通过在矩阵而不是一维数组中表示数据,他让Tensorflow在内部更高效的计算lee。这里有张量(张量是一个多维数组)它是Tensorflow团队创建的一种数据类型,有效的储存和执行矩阵的计算。从技术上讲,张量比矩阵更通用一点,但在这里将张量视为表示矩阵的一种方式。请记住Tensorflow表示矩阵的方式和numpy(NumPy是一个开源的Python科学计算库,专门用于进行大规模数值和矩阵运算)表示矩阵的方式。惯例是将矩阵的维度写为滚动数乘以列数。
2025-01-04 21:47:16
307
1
原创 搭建一个神经网络
除了向前计算的一种明确的方法,事实证明,张量流(TensorFlow)具有不同的实现前向道具和学习都方法。另一种方法构建神经网络密集型地球的方法,这与你要创建第一层和创建第二层之前的方法相同,但现在不是您手动获取数据并将其传递到第一层,然后从第一层和可能的第二层获取激活。他们想通过第二层和第三层应用到x等等,以便尝试对数字进行分类,通过这种使用TensorFlow顺序函数的新编码约定,您可以指定什么是第一层,第二层,第三层并告诉TensorFlow将这些层串联在一起,形成一个新的网络,和之前一样。
2025-01-04 21:47:06
115
原创 单个网络层上的前向传播
因此,你可以通过如下方式使用np,数组将他们分组再一起,所以你已经计算了a_1,让我们也实现第二层。所以您计算输出a2,所以a2是使用这个表达式来计算的,所以我们会有参数w2_1和b2_1对应这些参数。然后将z计算为w2_1和a1之间的点积,然后添加b2_1,然后应用sigmoid函数得到a2_1。为了计算a1_1,我们有参数w1_1和b1_1,然后计算z1_1作为该参数w1_1和输入x之间的点积,并添加到b1_1,最后a1_1等于g(这个g就是逻辑函数),sigmoid函数应用于z1_1.。
2025-01-04 21:46:56
115
原创 前向传播的一般实现
密集函数所做的是将前一层的激活作为输入,这里的a可以是a_0,等于x,或者来自后一层的激活,以及堆叠在列中的w参数,以及b参数也堆叠成一维数组。密集函数的作用是输入前一层的激活,并给定当前层的参数,它返回下一层的激活。给定密集函数这是字符串的方法,依次将几个密集层组合在一起,以在神经网络中实现前向prop。w_1,b_1是参数有时也称为第一个隐藏层的权重。你可以做的是编写一个函数来实现一个密集层,那是神经网络的单层。我将定义密集函数,他作为输入来自上一层的激活,以及参数w和b表示给定层中的神经元。
2025-01-04 21:46:41
201
原创 强人工智能
这是一个AI系统,他只做一件事,一项狭窄的任务,有时非常好并且可能非常有价值,(发展快)例如智能扬声器或自动驾驶汽车或网络搜索或人工智能应用于特定应用,如农业或工厂。人工智能中有一个不同的想法,那就是AGI,人工智能。(发展慢)可能有一种算法可以仅根据给定的数据或给定的数据,学会相应的处理输入。例可以安装可以安装相机的系统在额头,并将其映射到某人舌头上的网格中的电压模式。通过灰度图像映射到舌头上的电压模式,这可以帮助那些没有引线的人学会用你的舌头看东西,或者用人类回声定位或人类声纳进行有趣实验。
2025-01-03 20:36:25
171
原创 神经网络为何如此高效
深度学习研究人员能够扩展神经网络的原因之一,是因为神经网络可以向量化。他们可以使用矩阵乘法非常有效的实现。包括GPU在内的并行计算硬件,但也有一些CPU函数非常擅长做非常大的矩阵乘法。我们将学习神经网络的矢量化实现是如何工作的。Matmul是Numpy执行矩阵乘法的方式。所以最后计算的z他现在是个矩阵,A_out等于激活函数g,即sigmoid函数。左边是普通数组,右边是矩阵形式。
2025-01-03 20:36:03
93
原创 (回顾)决定下一步做什么
3.增加lambda,如果过度拟合了数据,增加lambda是有意义的,只是将过多的注意力放到合适的训练集上,但以泛化到新示例为代价,(这通常是指模型在训练集上表现很好,但在未见过的新数据上表现不佳,这种情况称为“过拟合”。这意味着减少对这个术语的关注,而更多的关注前面的式子,以尝试在训练集上做的更好。结论:如果算法具有高方差,两种主要的解决方法是:既没有得到更多的训练数据也没有简化你的模型(简化模型意味着获得更小的特征集,要么增加正则化参数lambda)你的算法不太适合非常复杂,非常摇摆不定的曲线。
2025-01-03 20:35:40
281
原创 方差与偏差
因此,测量Jtrain并查看他是否高,减少偏差的一种方法是只使用更大的神经网络(更多的隐藏层或每层更多的隐藏单元。查看他是否具有高方差,如果模型在交叉验证集上的表现与训练集上的表现差异很大,那么我们可以认为模型具有高方差,那么可以得出该算法具有高方差,所以训练集上的表现不能推广到交叉验证集上。另一个限制是更多数据。如果有适当的正则化,那神经网络的复杂程度不重要了,如果没有适当的正则化,神经网络多一点没有坏处,就是计算时变慢了。一个更大的神经网络会减慢你的算法,但他很大程度上不会伤害你的专辑表现。
2025-01-03 20:35:26
292
原创 机器学习开发的迭代
像之前所说,当训练一个模型时,他几乎永远不会像你想要的那样工作。根据诊断的见解,你可以做出决定,例是否要扩大你的神经网络或更改lambda正则化参数,或可能添加更多的数据或添加更多功能或减去功能。一种方法是训练一个监督学习算法,输入特征是电子邮件的特征,输出标签是1或0,此应用程序是文本分类的示例(因为着是获取电子邮件的文本文档来分类的)。例收集更多数据,或者通过不同的方法收集数据有时电子邮件经过的路径可以帮助你判断它是否由垃圾邮件发送者发送,或者你可以提出算法来检测故意拼错的单词来检测。
2025-01-03 20:35:04
137
原创 误差分析学习
错误分析就是假如有500个数据,其中你的算法错误分类了100个。错误分析过程就是手动查看这100个示例,并试图深入了解算法出错的地方。可以从交叉验证集中找到一组算法错误分类的示例,并尝试将他们分组为同一主题或共同的属性或共同的特征。就是检查并计算错误分类中的示例。如果交叉验证集很大,那么就需要很多时间。就帮助运行诊断以选择下一步尝试来提高学习算法性能的最重要的方法是偏差和方差,错误分析排第二位。
2025-01-03 20:34:52
97
原创 添加更多的数据
一些添加数据或收集更多数据的技巧。另一种技术是用一个现有的训练示例来创建一个新的训练示例。例你可以将字母A旋转扭曲成不同的样子,但他还是A。将新建的训练示例提供给学习算法希望他变得更稳健。但在某种程度上,你得到的东西依然要与你在测试集中得到的东西很相似,因为这是你学习算法最终会做的很好的地方。在这种技巧中有一项技术是数据合成,你可以从头开始构建全新的示例。
2025-01-03 20:34:27
73
原创 迁移学习-使用其他任务中的数据
因为两个网络的本质都是图像分类,所以在隐藏层的大部分工作都是相似甚至一样的,所以直接把第一个网络的隐藏层拿过来,对输出层重新训练就能实现新的功能。将重新设计的网络先在大型数据集上进行训练,然后在较小的数据集上进一步调整数据,这被称为监督预训练。所以说如果你的目标是构建一个语音识别系统来处理音频,那再图像上预训练的神经网络可能不会对音频有太大的帮助。应用迁移学习的两个步骤:第一步下载神经网络,其参数已在与你的应用程序具有相同输出类型的大型数据集上进行预训练。它可以使用来自不同任务的数据来帮助你的应用程序。
2025-01-03 20:34:00
145
原创 机器学习项目的完整周期
机器学习项目的第一步是确定项目范围。收集更多数据或者收集更多特定类型的数据,你的错误分析将能提高你的学习算法的性能。你绕着训练模型,错误分析,回去收集更多数据循环几次直到你的模型足够好。当你部署一个系统时,你还必须确保你继续监控系统的性能并维护系统以防性能变差来恢复性能,而不是仅仅在服务器上托管你的机器学习模型。事实上,如果用户和你有权使用生产部署中的数据,有时你的工作语音系统中的数据可以让你访问更多数据,从而不断提高系统性能。)可以为你的学习算法提供输入x,并在输出中为你的机器学习模型提供预测例y帽子。
2025-01-03 20:33:46
208
原创 公平,偏见与伦理
在部署可能造成伤害的系统之前,这里有一些建议可以让你的工作更公平,更少偏见更合乎道德。尝试组件一个多元化的团队来集思广益可能出错的地方,并强调可能带来的伤害。对你的行业或特定的应用领域的任何标准或指南进行文献搜索很有用。在适用的情况下指定缓解计划很有用。简单的缓解计划是回滚到我们认为相当公平的早期系统。在未经同意和不公开的情况下进行换脸这项技术生成虚假视频是不道德的,社交媒体有时会传播有毒或煽动性的言论,这是因为针对用户参与度的优化会导致这样。还有机器学习的用户制造有害产品,进行欺诈等等。
2025-01-03 20:33:32
121
原创 倾斜数据集的误差指标
在顶部的轴上写下实际的类,它可以是1或0,在纵轴上要写预测类,也就是你的学习算法再给定例子上预测了1或0.为了评估你的算法在交叉验证集或测试集上的表现,我们会计算多个例子。假设一些例子,当实际类别为一且预测类别为一时我们将其称为真阳性,实际类别为0且预测类别为0时我们将其称为真负性,实际类别为0且预测类别为一时我们将其称为假阳性,实际类别为一且预测类别为0时我们将其称为假阴性。在实际中,如果一个算法连正例都没有预测到,就说精度等于零,如果精度和召回率都相当高这说明你的学习算法实际上是有用的。
2025-01-03 20:33:08
209
原创 精确率和召回率的权衡
如果使用逻辑回归进行预测,结果输出1或0,我们为了更准确将分割值设置成0.7.高的阙值会导致更高的精度但也会导致较低的召回率。如果将阙值设置为0.3或更低,表明只有当你非常确定该疾病不存在时,预测才为零,会得到非常低的精度和相当高的召回率。有一个指标称为F1分数,有时用于自动结合精度召回率以帮助你选择最佳价值权衡,如果将精度和召回率结合到一个分数中就很好选出选择哪个算法。常见的一种方法是计算一种叫F1分数的东西,F1分数是一种结合P和R精度和召回率的方法,但他更强调这些值中较低的那个。
2025-01-03 20:32:49
229
原创 黑马人工智能概述
人工智能包括机器学习,机器学习包括深度学习。深度学习是机器学习的一个方法(人工神经网络)发展而来。应用:传统预测,图像识别,自然语言处理。
2025-01-03 20:32:10
118
原创 决策树纯度
熵是衡量一组数据是否不纯的指标。熵函数通常表示为大写H,在这里横轴是样本中目标的比例,纵轴是熵的值。当熵等于1时他是最不纯的。熵函数H(p_1)的实际方程,
2025-01-03 20:31:29
110
原创 决定下一步做什么
假设你已经实现了正则化线性回归来预测房价,所以你的学习算法有通常的成本函数,平方误差加上这个正则化项。(正则化是机器学习中用来防止模型过拟合的一种技术。将平方误差与正则化项结合起来,可以形成一个完整的成本函数,它不仅衡量了模型的预测误差,还考虑了模型的复杂度,从而在训练过程中平衡了模型的偏差和方差,提高了模型的泛化能力。但是如果你训练的模型,发现他无法接受的大错误是预测。在下面就是在构建机器学习算法时,通长有很多,可以尝试的不同东西,例:你可以决定获取更多的训练示例。
2024-12-07 19:20:44
789
原创 决策树学习过程
最后,你可能用来决定停止拆分的另一个标准可能是优先级分数的改进,如果拆节点对纯度的改善最小或者杂志减少了,但收益太小了,这样就可以不再向下分了。同样既要保持树更小,又要降低过度拟合的风险。限制决策树深度的一个原因是为了确保我们的树不会变得太大和笨重,其次要保持树很小,他不太容易过度拟合。在决策树中,节点的深度定义为跳数从表示为最顶部的根节点到该特定节点所需要的时间。第一步,决定在根节点使用什么特征。第二步,决定何时停止拆分。建立决策树需要做什么?
2024-11-26 21:33:53
120
原创 决策树模型
会有一些二分类的问题,将他们联系在一起就像树的形状。该模型的工作方式是,如果有一个新的测试示例,这个模型将对这个例子做出分类决定,先从顶层节点处的示例开始,这称为树的根节点,我将看看里面写的特征。最顶层的节点称为根节点。所有的这些节点也就是所有这些椭圆形,除了底部的框架外,所有这些都称为决策节点。底层的这些节点,这些矩形框称为叶子节点。决策树学习算法的工作是,在所有可能的决策树中尝试选择一个希望,在训练集上表现良好的。然后在理想情况下也可以很好的推广到新数据。
2024-11-26 21:10:19
215
原创 黑马字典特征抽取
字典特征提取(特征离散化)-类别转换成one hot编码(One-hot 编码是一种将分类变量转换为机器学习算法可以处理的数值形式的方法,他形成的代码会差有很多零)降维-降低维度 对象:二维数组 在此处表示降低特征的个数,得到一组“不相关”主变量的特征(特征与特征之间不相关)相关特征:例相对湿度与降水量。信息熵是衡量一个随机变量不确定性的量度,即信息的“熵”越大,表示该变量的不确定性越高,包含的信息量也就越多。朴素贝叶斯分类方法是将数据分成不同的概率,然后估计他们的可能性,像下面一样。
2024-11-23 16:58:05
555
原创 更复杂的神经网络
这是第l层的波向量,第l层的第j个单元,然后是点积。然后加上该单元j的 这一层的参数。这提供了第l层单元j的激活,在神经网络中单元j指的是第j个神经元,互换使用这些术语,其中每个单元是层中的单个神经元。这里的g是sigmoid函数。在神经网络中g也叫做激活函数,因为g输出这个激活值。输入层被称为第零层,其中第一二三层是隐藏层,四层是输出层,这是一个具有四层的神经网络,以传统的方法计算网络中的层数。要想进行上一层的激活我们让输出向量x等于a_0。
2024-11-17 09:06:41
115
原创 神经网络中的网络层
特别是方括号1中的上标,我将使用,这是一个表示该神经网络隐藏层的第1层输出的符号,同样w1,b1这里是参数神经网络的第一层的第一个单元,所以我还要添加方括号1,和w2,b2是第二个隐藏单元的参数或第一层中的第二个隐藏神经元。要记住,每当你看到这个上标方括号1,这只是指与神经网络的第一层相关联的数量。让第二层的输入是第一层的输出,因为输出层只有一个神经元,他所做的只是计算a1,及第一个也是唯一一个神经元的输出,作为g,应用于w的sigmoid函数,得出的得数就是神经网络的输出层。
2024-11-17 09:06:34
261
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人