- 博客(402)
- 资源 (5)
- 问答 (2)
- 收藏
- 关注
原创 李沐动手学深度学习 - 线性回归代码最详细讲解
linereg 函数实现了线性回归模型的预测计算。它通过矩阵乘法将特征矩阵 X 与权重矩阵 w 相乘,并加上偏置 b,计算得到每个样本的预测值。
2024-08-19 11:13:58
1322
1
原创 软件缺陷预测技术研究综述
软件缺陷预测作为软件工程领域的重要研究方向,已经取得了显著的进展。通过对大量历史数据的分析和建模,研究人员和开发者能够预测软件系统中的潜在缺陷,从而在软件开发过程中进行预防和修正,以提高软件质量和可靠性。
2024-08-15 21:56:26
2465
原创 深度学习线性代数基础
一个多维数组,其中的元素可以根据一个或多个索引来访问。一个在向量空间上的多重线性映射,与基的选择无关。对于一个n×n的置换矩阵Pn \times n 的置换矩阵Pn×n的置换矩阵P矩阵 P 的每一行和每一列都恰好有一个1,其余元素都是0。矩阵 P 的对角线上的元素可以是0或1,取决于置换是否包括自身的交换。
2024-08-09 14:32:52
989
原创 python数组切片
NumPy是Python中用于科学计算的一个库,它提供了对大规模多维数组和矩阵的支持。切片(slicing)是从这些数组中提取子数组的一个强大工具。NumPy切片是一种强大且灵活的工具,用于从数组中提取子集。除了基础的切片,NumPy还支持一些高级切片技术,如布尔索引和花式索引(fancy indexing)。对于多维数组,切片操作适用于每一个维度。这个例子展示了如何使用切片从数据集中提取目标变量和特征数据。
2024-08-06 15:39:51
2249
原创 机器学习 - 决策树
熵用于衡量数据集的不确定性,熵越高,数据的不确定性越大。节点类用于存储决策树的结构。决策树类包含构建树和预测的主要逻辑。return 0n = len(y)return ig决策树是一种强大且易于理解的机器学习算法,广泛应用于分类和回归任务。尽管决策树有一些固有的缺点,如易于过拟合和对数据扰动敏感,但通过剪枝和集成方法等技术可以有效地改进决策树的性能。理解决策树的基本原理和构建过程,并掌握其改进方法,对于在实际应用中充分发挥决策树的优势具有重要意义。
2024-07-24 17:32:21
864
原创 机器学习 - 随机森林降方差公式推导
在随机森林算法中,我们通过对数据集进行多次采样(有放回地抽样)并训练多个决策树模型,然后将这些模型的预测结果进行平均来得到最终的预测结果。这样做的一个重要好处是能够降低模型的方差(Variance),从而提高模型的泛化能力。这样,我们就得到了随机森林模型的方差公式,它表示为基模型方差与基模型间协方差的组合。,即随机森林模型的预测结果的方差。个基模型(决策树)的预测结果,是随机森林模型的预测结果,
2024-07-24 16:17:58
1074
原创 算法 - 图论Dijkstra(原理、思路代码实现、以东南大学真题为例讲解手算方法)
Dijkstra算法是一种经典的用于计算单源最短路径的算法。它可以在带权重的图中找到从源节点到所有其他节点的最短路径。Dijkstra算法通过贪心策略,不断选择当前已知最短路径最小的节点,更新其邻接节点的路径长度,直到处理完所有节点。9int main()通过上述代码和解释,读者应该可以理解Dijkstra算法的原理和实现步骤,并在实际应用中使用该算法计算最短路径。
2024-07-21 16:14:50
1489
原创 算法 - 查找算法(顺序、折半、红黑树、AVL树、B+树、散列)
本文一共讲解了以下查找算法:1. 顺序查找2. 折半查找(二分查找)3. 分块查找4. 二叉排序树查找5. 平衡二叉树(AVL树)查找6. 红黑树查找7. B树查找8. B+树查找9. 散列查找每种查找算法都包括了其查找原理、实现步骤、代码实现思路、C语言代码以及代码解释。
2024-07-21 16:09:29
1339
原创 机器学习 - 信息增益
信息增益通过减少数据集的不确定性来选择特征,选择信息增益最大的特征作为划分标准。它在构建决策树的过程中起到了重要作用,有助于选择最能区分数据的特征。
2024-07-20 21:00:29
1665
原创 机器学习 - KNN算法
KNN(K-最近邻,K-Nearest Neighbors)是一种基本且直观的监督学习算法,用于分类和回归任务。其核心思想是:如果一个样本在特征空间中和其K个最近的邻居比较接近,那么这些邻居的标签可以用于预测该样本的标签。# 距离res = 0该函数计算两个样本之间的欧几里得距离。radiustextureperimeterareasmoothnesssymmetry和。K = 5# 1.距离res = [# 2.排序-升序# 3.取前k个# 4.加权平均# 总距离sum = 0。
2024-07-20 19:57:39
794
原创 机器学习 -逻辑回归的似然函数
将似然函数转换为对数似然函数的过程利用了对数的基本性质:对数将乘法转换为加法,并将指数转换为乘法。这种转换简化了复杂的乘积运算,使得梯度计算和优化问题变得更容易处理。对数似然函数在机器学习算法中尤为常用,尤其是逻辑回归中,用于最大化似然估计(MLE)。
2024-07-20 15:15:48
1474
原创 机器学习 - 逻辑回归
在逻辑回归中,对数似然函数前面加负号的主要目的是为了将最大化问题转化为最小化问题,这样我们可以使用标准的优化算法(如梯度下降)来训练模型。最小化负对数似然函数即等同于最大化对数似然函数,从而找到最佳的模型参数。平均损失L−1N∑i1Nyilogpi1−yilog1−piL−N1∑i1Nyilogpi1−yilog1−pi。
2024-07-20 15:03:23
1128
原创 软件可靠性 - Gödel不完备定理
构造自指公式:Gödel使用一种被称为“Gödel编码”的技术,将形式系统中的语句编码成自然数。然后,Gödel构造了一个自指公式 ( G ),其大意是:“这个命题在系统内不可证明”。不完备性:假设系统是自洽的,那么 ( G ) 在系统内不可证明,否则会导致矛盾(即系统证明了一个假命题)。同样, (¬G\neg G¬G) 也不可证明,因为这将意味着系统不自洽(即系统证明了自己的自洽性)。这种方法类似于理查德·罗宾逊悖论的数学形式,即“这个句子是假的”的形式版本。假设自洽性可证明。
2024-07-19 10:48:10
876
原创 软件可靠性 - Manna-Pnueli通用证明系统
背景:Manna 和 Pnueli 提出的证明系统类似于 Hoare 证明系统。特点:该系统包含了一组适用于验证程序的结构SSS上的一些重要一步逻辑的正确性和完整的一阶公理化。
2024-07-19 10:47:02
493
原创 软件可靠性 - 霍尔逻辑证明整数除法
霍尔逻辑(Hoare Logic)是一种用于描述和验证计算机程序正确性的形式化系统,得名于英国计算机科学家托尼·霍尔(Tony Hoare)。它主要用于证明程序在执行过程中是否满足特定的性质或断言。霍尔逻辑基于三元组 (Hoare Triple),即 {P} C {Q},这里 P 和 Q 是逻辑断言,C 是程序代码。这种表示法表示:如果在执行程序 C 之前 P 为真,那么在程序 C 执行之后 Q 将为真。以下是详细介绍:
2024-07-18 14:07:38
1228
原创 MPNN消息传递神经网络
MPNN是一种强大的图神经网络模型,通过消息传递机制捕捉图结构数据的复杂关系。它的灵活性和通用性使其在多个领域有广泛的应用。
2024-07-16 20:59:21
2611
原创 软件可靠性 - 结构以及赋值等概念的理解
程序的一个状态简单地说就是程序变量的一组赋值。我们说过:赋值a(一个状态)满足公式φ可以记为MaφTRUE(这里未提及结构S,假设S可由上下文获得),或者记为a⊨Sφ。程序的执行是一个有限或无限的状态序列,其中第一个状态满足初始条件,其余每个后继状态b都由其前驱状态aapba⊨Spbaapba⊨S¬pbaav:=ebbaTaevTaeeaadvvdabvavea下面来解释这段文字中的一些概念,更好地理解它的意思。
2024-07-14 10:57:03
638
原创 二元逻辑回归模型的梯度下降法(全网最详细的求导过程,高数很差也能看懂)
详细地介绍二元逻辑回归模型的梯度下降算法,逐步解释每次求偏导过程,高数再差也可以看懂
2024-07-09 11:51:44
1121
原创 机器学习统计学基础 - 最大似然估计
最大似然估计(Maximum Likelihood Estimation, MLE)是一种常用的参数估计方法,其基本原理是通过最大化观测数据出现的概率来寻找最优的参数估计值。具体来说,最大似然估计的核心思想是利用已知的样本结果,反推最有可能导致这样结果的参数值。
2024-07-08 15:46:00
1754
1
原创 损失函数和成本函数的区别
损失函数和成本函数密切相关,但侧重点不同。损失函数针对单个样本,而成本函数关注整体数据集的表现。个样本的数据集,每个样本的损失函数为。
2024-07-08 15:41:32
1240
原创 逻辑回归的损失函数
逻辑损失函数通过对预测值和真实标签之间的差异进行量化,帮助优化算法调整模型参数,从而提高预测的准确性。损失函数的形式确保了在错误预测严重时(如将0预测为1或将1预测为0)会有较大的惩罚,从而推动模型学习更加准确的预测。
2024-07-08 15:16:33
881
原创 周志华西瓜书机器学习 - 第一章绪论
经典定义 利用经验改善系统自身的性能随着时代发展,主要研究智能数据分析的理论和方法,并已成为智能数据分析的源泉之一。无免费午餐定理是机器学习和优化领域中的一个基本理论,揭示了算法性能的本质限制。它提醒我们,在选择和设计算法时,需要充分考虑具体问题的特性和数据的分布。理解和应用NFL定理,可以帮助我们在实际应用中做出更为合理和有效的算法选择。
2024-07-08 10:48:17
1663
原创 算法 - 动态规划
动态规划通常用于求解最优解问题,动态规划算法与分治法类似,其基本思想也是将待求解问题分解成若干子问题,先求解子问题,然后从这些子问题的解得到原问题的解。与分治法不同的是,适合于用动态规划求解的问题,经分解得到的子问题往往不是互相独立的。若用分治法来解这类问题,则分解得到的子问题数目太多,有些子问题会被重复计算多次。而动态规划的做法是将已解决子问题的答案保存下来,在需要子问题答案的时候便可直接获得,而不需要重复计算,这样就可以避免大量的重复计算,提高效率。
2024-07-08 10:33:00
673
原创 机器学习 - 比较检验
列联表是一个用于显示两个或多个分类变量之间关系的表格,通过分析列联表中的频数分布,可以了解变量之间的关联性,并进行统计检验。
2024-07-06 12:07:53
889
1
原创 机器学习 - 模型性能评估
F1度量是用于评估分类模型性能的一个综合指标,它同时考虑了查准率(Precision, P)和查全率(Recall, R)。其中,TP(True Positive)是真正例,FP(False Positive)是假正例,FN(False Negative)是假负例。如果我们对查准率和查全率有不同的偏好,可以使用加权F度量(Fβ),其中β是一个权重参数。这个公式可以帮助我们理解在不同的β值下,查准率和查全率对Fβ的贡献。
2024-07-06 11:42:20
1338
原创 RNN文献综述
循环神经网络(Recurrent Neural Network,RNN)是一种专门用于处理序列数据的神经网络模型。它在自然语言处理、语音识别、时间序列预测等领域有着广泛的应用。本文将从RNN的历史发展、基本原理、应用场景以及最新研究进展等方面进行综述。
2024-07-05 20:11:57
2306
原创 CNN文献综述
卷积神经网络作为深度学习的重要分支,凭借其强大的特征提取能力和广泛的应用前景,成为了当前人工智能研究的热点。未来,随着计算资源的不断增长和算法的持续优化,CNN将继续在各个领域发挥重要作用,并推动人工智能技术的进一步发展。
2024-07-05 20:03:51
1909
原创 ANN文献综述
人工神经网络(Artificial Neural Networks, ANNs)是由多个简单的、相互连接的处理单元组成的自适应系统,通过调整这些单元之间的连接强度,ANNs能够实现对复杂数据的建模和预测。本文综述了ANNs的基本原理、发展历程、主要应用领域以及当前研究热点。
2024-07-05 19:58:47
1247
原创 机器学习 - one-hot编码技术
One-hot编码是一种数据处理技术,主要用于将分类变量转换为适合机器学习算法处理的格式。在One-hot编码中,每个类别值都会被转换成一个二进制向量,其中只有一个元素是1,其余所有元素都是0。这种编码方式确保了类别之间的独立性和唯一性,使得机器学习模型能够正确地处理和学习不同类别的特征。原理是基于将每个类别映射到一个独立的二进制位上,这样可以避免类别之间存在任何潜在的相关性或相似性,从而使得模型能够更准确地学习和预测。例如,在Python中实现One-hot编码可以通过pandas库的。
2024-07-05 19:01:12
1848
原创 机器学习-利用 scikit-learn 使用梯度下降实现线性回归
线性假设:确认自变量与因变量之间的线性关系,即假设目标变量可以通过特征的线性组合来预测。模型选择:选择合适的线性回归模型,如普通最小二乘法(OLS)、岭回归、Lasso回归或梯度下降法等,根据数据集的大小和复杂度进行选择。
2024-07-04 16:12:22
528
原创 数据结构 -AVL树
AVL树得名于它的发明者G. M. Adelson-Velsky和E. M. Landis,他们在1962年的论文《An algorithm for the organization of information》中发表了它。把 B 旋转到根节点,然后把 A 变成 B 的右孩子,把 E 补偿给 A 作为 A 的左孩子。BST 本质上是维护一个有序序列,AVL 树中的左旋右旋操作,并不会改变树的中序遍历结果。AVL 树的意义:是二分查找树 BST。,因此,我们让树的尽可能平衡,即最大高度尽可能的小。
2024-07-02 21:30:34
990
原创 深度学习数学基础 - 概率与信息论
概率论是用于表示不确定性声明的数学框架。它不仅提供了量化不确定性的方法,也提供了用于导出新的不确定性声明statement)的公理。概率论的知识在机器学习和深度学习领域都有广泛应用,是学习这两门学科的基础。条件概率()就是事件 A 在事件 B 发生的条件下发生的概率。条件概率表示为PA∣BP(A|B)PA∣B,读作“A 在 B 发生的条件下发生的概率”。联合概率表示两个事件共同发生的概率。A与B的联合概率表示为PA∩BP(A\cap B)PA∩B或者PAB。
2024-07-02 12:50:27
1150
原创 WGAN(Wassertein GAN)
WGAN前作分析了Ian Goodfellow提出的原始GAN两种形式各自的问题,第一种形式等价在最优判别器下等价于最小化生成分布与真实分布之间的JS散度,由于随机生成分布很难与真实分布有不可忽略的重叠以及JS散度的突变特性,使得生成器面临梯度消失的问题;第二种形式在最优判别器下等价于既要最小化生成分布与真实分布直接的KL散度,又要最大化其JS散度,相互矛盾,导致梯度不稳定,而且KL散度的不对称性使得生成器宁可丧失多样性也不愿丧失准确性,导致collapse mode现象。
2024-07-02 12:41:30
1040
原创 机器学习 - 梯度下降在多参数线性回归模型的应用以及解析
通过以上的迭代过程,我们逐步更新参数w1w2和b,使得模型的预测值更加接近目标值。实际中,这个过程通常会重复多次,直到参数收敛。
2024-07-01 12:08:24
1517
2
原创 神经网络与深度学习 - 神经网络基础
- 知道逻辑回归的算法计算输出、损失函数- 知道导数的计算图- 知道逻辑回归的梯度下降算法- 知道多样本的向量计算
2024-06-23 15:15:40
1452
原创 神经网络与深度学习 - 深度学习介绍
深度学习通常由多个层组成,它们通常将更简单的模型组合在一起,通过将数据从一层传递到另一层来构建更复杂的模型。深度学习算法试图从数据中学习高级功能,这是深度学习的一个非常独特的部分。过去十多年,得益于数字社会的发展,积累了大量的数据。以前的一些算法到达了瓶颈期,它们无法适用于大量的数据。每层的圆圈代表一个神经元,隐藏层和输出层的神经元有输入的数据计算后输出,输入层的神经元只是输入。那么为什么设计这样的结构呢?神经网络是深度学习的重要算法,用途在图像(如图像的分类、检测)和自然语言处理(如文本分类、聊天等)。
2024-06-23 14:58:26
445
原创 算法-分治策略
分治算法(Divide and Conquer)是一种解决问题的策略,它将一个问题分解成若干个规模较小的相同问题,然后递归地解决这些子问题,最后合并子问题的解得到原问题的解。分治算法的基本思想是将复杂问题分解成若干个较简单的子问题,然后逐个解决这些子问题,最后将子问题的解合并得到原问题的解。分治算法的基本步骤如下:分解(Divide):将原问题分解成若干个规模较小的相同问题。这些子问题应该是相互独立的,即解决一个子问题不会影响其他子问题的解。解决(Conquer):递归地解决这些子问题。
2024-06-07 23:03:05
1266
原创 2020GPLT真题题解
Linux 之父 Linus Torvalds 的名言是:“Talk is cheap. Show me the code.”(嫑废话,上代码)。本题就请你直接在屏幕上输出这句话。本题没有输入。在一行中输出 Talk is cheap. Show me the code.。无Talk is cheap. Show me the code.L1-2 猫是液体 (5分)测量一个人的体积是很难的,但猫就不一样了。因为猫是液体,所以可以很容易地通过测量一个长方体容器的容积来得到容器里猫的体积。本题就请你完成这
2024-06-03 10:17:27
1012
计算机考研院校录取复试分数线考试科目详细信息汇总
2022-05-12
TA创建的收藏夹 TA关注的收藏夹
TA关注的人