
人工智能专栏
文章平均质量分 95
普修罗双战士
大家好!我是Jin,来自中国北京。我是一名拥有多年开发经验的PHP/JAVA工程师。在我的优快云博客中,我将分享我在底层开发、后端开发和数据库设计方面的知识和经验。
我一直追求不断学习和成长,在技术的道路上持续探索和实践。通过在优快云上写博客,我希望与大家共同学习,互相交流技术思想和解决问题的方法。
我非常欢迎读者们的留言和建议,如果你对我在博客中分享的内容有任何问题,或者想与我一起协作开发项目,可以通过我的邮箱:1598047806@qq.com与我联系。
希望我的博客可以成为你学习和提升的良好资源!谢谢大家的关注和支持!
展开
-
人工智能福利站,初识人工智能,图神经网络学习,第五课
Relational Graph Convolutional Networks(R-GCN)是一种用于处理关系图数据的图神经网络模型。R-GCN的主要目标是在具有多种不同关系的图中进行节点分类和关系预测。R-GCN的原理如下:输入表示:R-GCN接收一个有向图和每个节点的特征向量作为输入。每个节点的特征向量可以是一个one-hot编码或者由其他图嵌入方法生成的实值向量。关系表示:R-GCN引入了关系特征矩阵来表示每种关系。原创 2024-03-01 08:15:00 · 1192 阅读 · 0 评论 -
人工智能福利站,初识人工智能,图神经网络学习,第四课
自注意力机制(Self-Attention)是一种利用输入序列内部的关系来计算所有位置之间的相关性的方法。它被广泛应用于自然语言处理领域,用于处理序列数据中不同位置之间的依赖关系。在自注意力机制中,通过计算每个位置与所有其他位置之间的相关性得分,以确定每个位置对其他位置的重要性。这些得分可用于加权聚合不同位置的特征表示,从而构建更具上下文信息的表示。在图神经网络中,自注意力机制可以被引入用于处理图数据中节点之间的依赖关系。原创 2024-02-08 08:00:00 · 1104 阅读 · 0 评论 -
人工智能福利站,初识人工智能,图神经网络学习,第三课
从图的节点开始,通过聚合邻居节点的特征,获取每个节点的上下文信息。这个聚合过程可以有不同的方式进行,如图卷积、图注意力等。聚合邻居特征的目的是为了丰富每个节点的表示,并考虑节点之间的连接关系。原创 2024-02-07 08:15:00 · 1202 阅读 · 0 评论 -
人工智能福利站,初识人工智能,图神经网络学习,第二课
图卷积网络(Graph Convolutional Networks,GCN):GCN是一种基于邻居聚合的图神经网络模型。它通过对节点的邻居节点进行聚合来更新节点的表示。GCN使用了局部一阶邻居的信息,具有计算效率和扩展性高的优点。GraphSAGE:GraphSAGE是一种聚合多层邻居信息的图神经网络模型。它对每个节点的邻居节点进行采样,并通过聚合这些邻居节点的特征来更新节点的表示。GraphSAGE使用一种类似于多层感知机的结构,在保留全局图结构的同时能够捕捉到更丰富的邻居信息。原创 2024-02-06 08:00:00 · 1857 阅读 · 0 评论 -
人工智能福利站,初识人工智能,图神经网络学习,第一课
图神经网络(Graph Neural Network,GNN)是一类用于处理图结构数据的神经网络模型。与传统的神经网络模型专注于处理向量形式的数据不同,GNN能够有效地捕捉图结构中的相邻节点之间的关系和全局拓扑信息。图神经网络的核心思想是通过节点之间的信息传递和聚合来更新节点的表示。在图中,每个节点可以存储一个特征向量,代表节点的属性或状态,同时还可以与其他节点通过边连接。GNN会通过迭代地聚合邻居节点的信息来更新当前节点的表示,从而融合节点的局部和全局信息。原创 2024-02-05 08:00:00 · 1759 阅读 · 0 评论 -
人工智能福利站,初识人工智能,机器学习,第六课
学习率衰减(Learning Rate Decay)是指在随机梯度下降(Stochastic Gradient Descent,简称 SGD)中逐渐减小学习率的过程。学习率衰减的目的是在训练过程中更好地平衡梯度下降的速度和准确性,以帮助模型更好地收敛到全局最优解或更好的局部最优解。梯度下降的速度过快导致震荡:较大的学习率可能会导致训练过程中参数在损失函数中跳来跳去,无法稳定地收敛。这是因为参数更新的步长过大,可能会错过更好的解决方案或使得模型无法收敛。原创 2024-02-04 09:18:01 · 1147 阅读 · 0 评论 -
人工智能福利站,初识人工智能,机器学习,第五课
在强化学习中,价值函数(Value Function)和策略函数(Policy Function)是两个核心概念,用于描述智能体在环境中的行为决策过程。价值函数:价值函数用于评估在给定策略下,智能体在不同状态或状态动作对上的价值。它表示的是从当前状态出发,智能体能够获取到的未来奖励的总和或期望值。a. 状态价值函数(State Value Function):表示在当前状态下,智能体能够获得的长期累积奖励的期望值。用V(s)表示,其中s为状态。原创 2024-02-03 09:13:11 · 1309 阅读 · 0 评论 -
人工智能福利站,初识人工智能,机器学习,第四课
*层次聚类是一种无监督聚类算法,通过在数据点之间构建层次化的聚类结构来进行数据分类和群组化。**层次聚类不需要预先指定聚类数量,而是根据数据之间的相似性来自动划分为不同的簇。层次聚类算法有两种主要的方法:凝聚聚类(Agglomerative Clustering)和分裂聚类(Divisive Clustering)。凝聚聚类(自底向上):凝聚聚类从每个数据点作为一个簇开始,然后迭代地将最相似的簇合并成一个新的簇,直到最终形成一个包含所有数据点的簇。原创 2024-02-02 08:15:00 · 1066 阅读 · 0 评论 -
人工智能福利站,初识人工智能,机器学习,第三课
K近邻(K-Nearest Neighbors,简称KNN)算法是一种基本而直观的分类和回归算法。它的工作原理是基于样本的特征相似性来进行预测。训练数据准备:首先,需要准备一个带有类别标签的训练数据集。计算距离:对于待预测样本,算法会计算其与训练集中每个样本之间的距离(如欧氏距离、曼哈顿距离等)。选择K值:选择一个合适的K值,它表示在预测过程中要考虑的最近邻样本的数量。选择K个最近邻:根据距离计算结果,选择距离最近的K个样本作为待预测样本的近邻。原创 2024-02-01 08:00:00 · 1029 阅读 · 0 评论 -
人工智能福利站,初识人工智能,机器学习,第二课
特征选择(Feature Selection)和特征提取(Feature Extraction)是在机器学习和数据分析中常用的方法,用于减少特征维度、提取有用信息和改善模型性能。1.特征选择(Feature Selection):特征选择是从原始数据集中选择最具有预测能力的特征子集的过程。通过特征选择,可以减少特征维度,提高模型的简洁性和解释性,并降低训练和预测的计算成本。过滤法(Filter):通过统计指标、相关性或信息论方法来评估特征的重要性,然后选择最相关的特征。原创 2024-01-31 08:15:00 · 1027 阅读 · 0 评论 -
人工智能福利站,初识人工智能,机器学习,第一课
机器学习(Machine Learning,简称ML)是人工智能(Artificial Intelligence,简称AI)领域的一个重要分支,它研究如何设计和开发能够从数据中自动学习和改进的算法和模型。通常,通过机器学习的方法,计算机系统可以从大量的数据中学习到模式、规律和知识,并根据学习到的知识做出预测或做出决策。与传统的程序设计不同,机器学习算法能够从数据中自动进行学习,而不需要显式地编写特定的规则或逻辑。机器学习的关键思想是通过训练样本集来构建模型,并通过对模型进行推断或预测来处理新数据。原创 2024-01-30 08:00:00 · 1049 阅读 · 0 评论 -
初识人工智能,一文读懂贝叶斯优化进阶的知识文集(9)
贝叶斯优化(Bayesian Optimization)是用于优化函数的一种方法,旨在通过有限次数的函数评估来找到全局最优解。通常适用于黑箱函数,无法直接求解梯度或没有解析形式的函数。贝叶斯优化通过建立函数的先验模型和使用贝叶斯推断来引导搜索,逐步调整采样点以找到全局最优解。原创 2024-01-29 08:00:00 · 1096 阅读 · 0 评论 -
初识人工智能,一文读懂机器学习之逻辑回归知识文集(7)
逻辑回归模型的损失函数通常使用对数似然损失函数(log loss)来衡量模型的拟合度。对于二分类问题,损失函数的表达式为: J(θ) = -1/m * ∑[y*log(h) + (1-y)*log(1-h)] 其中,θ表示要学习的参数,m表示样本数量,h表示预测值,y表示真实标签。原创 2024-01-28 08:15:00 · 1859 阅读 · 0 评论 -
初识人工智能,一文读懂机器学习之逻辑回归知识文集(6)
方差(Variance)指的是模型的预测值在不同数据集上的波动程度,它表示了模型的稳定性和泛化能力。如果模型的方差较大,说明模型对训练数据的波动较敏感,容易出现过拟合(Overfitting)的情况。当模型的方差较小时,说明模型对训练数据的波动性较不敏感,能够较好地适应新的数据。原创 2024-01-27 08:38:55 · 1265 阅读 · 0 评论 -
初识人工智能,一文读懂机器学习之逻辑回归知识文集(5)
在逻辑回归中,存在一些权衡(trade-offs)需要考虑,这些权衡涉及模型的性能和特征的复杂性等方面。以下是一些常见的权衡:预测能力与解释能力的权衡:逻辑回归可以用于分类任务,并提供相对较好的预测能力。然而,逻辑回归模型的解释性相对较强,可以解释特征对目标变量的贡献。在这种情况下,需要权衡模型的预测能力和解释能力,根据具体需求选择适当的模型。模型复杂性与过拟合的权衡:逻辑回归是一种线性模型,其参数数量相对较少,模型相对简单。这使得逻辑回归模型在处理大规模数据集时具有较好的计算性能和高效性。原创 2024-01-26 08:15:00 · 2098 阅读 · 0 评论 -
初识人工智能,一文读懂机器学习之逻辑回归知识文集(4)
在逻辑回归中,权重(weights)和偏差(bias)是模型的参数,用于计算特征的线性组合以及决策边界。权重是逻辑回归模型中特征的系数,用于衡量每个特征对预测的影响程度。对于每个输入特征,都有一个对应的权重。权重值越大,表示该特征对分类结果的影响越大,权重值的正负则表示影响的方向。偏差是逻辑回归模型中的常数项,也称为截距(intercept)。它表示在没有任何特征输入时模型的基础预测。偏差相当于在特征加权和的结果上进行调整,可以影响模型预测的阈值和决策边界的位置。原创 2024-01-25 08:00:00 · 1240 阅读 · 0 评论 -
初识人工智能,一文读懂机器学习之逻辑回归知识文集(3)
L1正则化算法,也称为LASSO(Least Absolute Shrinkage and Selection Operator),是一种常用的正则化方法。它通过在损失函数中引入参数权重的L1范数作为惩罚项,来控制模型复杂度并实现特征选择。L1正则化的优化目标是最小化损失函数和L1正则化项的和。通常使用坐标下降法(coordinate descent)或梯度下降法(gradient descent)等方法来求解L1正则化问题。原创 2024-01-24 08:15:00 · 1330 阅读 · 0 评论 -
初识人工智能,一文读懂机器学习之逻辑回归知识文集(2)
逻辑回归的迭代收敛是指通过反复迭代优化算法,使模型的参数逐渐调整到最优值的过程。在训练逻辑回归模型时,我们需要通过最小化损失函数来找到最优的参数值。逻辑回归使用的是梯度下降算法来最小化损失函数。梯度下降算法通过不断调整模型参数来降低损失函数的值,直到达到最小值。迭代是必要的,因为在逻辑回归中,很难找到一个闭式解(解析解)来直接计算最优参数。相反,我们需要通过迭代的方式逐步优化模型参数。在每次迭代中,算法会计算损失函数的梯度,然后朝着梯度的负方向更新参数。原创 2024-01-23 08:15:00 · 1118 阅读 · 0 评论 -
初识人工智能,一文读懂机器学习之逻辑回归知识文集(1)
逻辑回归是一种用于分类问题的统计学习方法。它被广泛应用于预测和分析二元变量的概率。逻辑回归的目标是根据给定的输入变量,将样本分为两个不同的类别。逻辑回归的基本原理是通过使用逻辑函数(也称为sigmoid函数)将线性回归模型的输出转换为概率值。逻辑函数将连续的输入映射到0到1之间的概率值。在逻辑回归中,输入变量的线性组合通过逻辑函数转换为一个概率值,表示样本属于某个类别的概率。逻辑回归模型的训练过程是通过最大似然估计来确定模型的参数。最大似然估计的目标是找到最合适的参数,使得模型产生观测数据的概率最大化。原创 2024-01-22 08:08:19 · 1694 阅读 · 2 评论 -
浅讲人工智能,初识人工智能几个重要领域。
梯度消失和梯度爆炸是在神经网络训练中可能出现的问题,影响着梯度优化算法的收敛性和网络的训练效果。当神经网络的层数较多时,反向传播算法中的梯度信息会通过很多层传递回输入层,而在每一层中都会乘以激活函数的导数。如果这些导数都小于1,那么随着层数的增加,乘以导数的梯度会不断缩小,最终会变得非常接近于0。这导致了梯度在传播过程中逐渐消失,无法有效地更新浅层网络的权重,从而使得网络无法学习到有效的表示和模型。梯度消失问题主要发生在深层神经网络中。与梯度消失相反,梯度爆炸指的是梯度值在反向传播过程中变得非常大。原创 2024-01-08 10:56:01 · 1980 阅读 · 0 评论 -
机器学习之逻辑回归,一文掌握逻辑回归算法知识文集
梯度下降法是最常用的优化算法之一。它通过迭代更新模型参数,沿着损失函数梯度的反方向逐步进行参数调整。包括批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)和小批量梯度下降(Mini-batch Gradient Descent)等变种。牛顿法和拟牛顿法是一类基于二阶导数信息的优化算法。牛顿法使用二阶导数(海森矩阵)来更新参数,可以更快地收敛,但计算代价较高。拟牛顿法通过近似海森矩阵来降低计算复杂度,并在一定程度上保持收敛性能。原创 2023-12-20 15:32:08 · 941 阅读 · 0 评论 -
初识人工智能,一文读懂贝叶斯优化和其他算法的知识文集(8)
贝叶斯优化是一种用于黑盒函数优化的方法,旨在在非线性、高度噪声和昂贵的优化问题中找到全局最优解。在贝叶斯优化中,我们将目标函数视为一个黑盒子,无法获取其解析表达式或梯度信息,只能通过函数评估得到函数值。贝叶斯优化的核心思想是利用已有的函数评估结果来更新对目标函数的估计,并在不同参数配置之间实现探索和利用的平衡。这通过构建代表目标函数先验分布的高斯过程模型来实现。初始时,我们对目标函数没有任何信息,所以要使用先验分布来估计它的行为。然后,我们选择最能帮助我们了解目标函数的下一个点进行评估。原创 2023-12-13 20:00:07 · 3086 阅读 · 0 评论 -
初识人工智能,一文读懂贝叶斯优化进阶的知识文集(7)
贝叶斯优化的收敛性是指贝叶斯优化算法在有限次迭代后收敛到目标函数的局部最优解的可能性。贝叶斯优化算法可以保证在有限次迭代后收敛到目标函数的局部最优解,但不能保证收敛到全局最优解。目标函数的性质贝叶斯优化算法的参数设置贝叶斯优化算法的实现如果目标函数是凸函数,那么贝叶斯优化算法可以保证在有限次迭代后收敛到目标函数的全局最优解。如果目标函数是非凸函数,那么贝叶斯优化算法只能保证在有限次迭代后收敛到目标函数的局部最优解。贝叶斯优化算法的参数设置也会影响其收敛性。原创 2023-12-12 10:00:00 · 1604 阅读 · 0 评论 -
初识人工智能,一文读懂贝叶斯优化的知识文集(6)
高斯过程(Gaussian Process, GP)是一种用于概率机器学习的非参数模型。它被用来描述一个函数集合,这些函数的输出值是一组高斯变量。高斯过程模型可以用于回归和分类问题,以及在无监督学习中的降维。在高斯过程中,每个样本的输出都被视为一个高斯变量,因此可以使用高斯分布来描述整个函数集合的概率分布。高斯过程模型通过定义一个核函数来确定不同样本之间的相似度,从而对函数进行建模。核函数可以度量输入空间中样本之间的相似度,而不必考虑它们的具体数值。原创 2023-12-11 10:30:00 · 1656 阅读 · 0 评论 -
初识人工智能,一文读懂强化学习的知识文集(5)
强化学习(Reinforcement Learning)是机器学习的一个分支,它通过在环境中与其交互并根据其行为获得的奖励或惩罚来学习如何采取行动。强化学习算法可以被训练来执行各种任务,包括游戏、机器人控制和投资组合管理。强化学习与监督学习和无监督学习不同。在监督学习中,算法被提供带有标签的数据,这些数据告诉它哪些输入是正确的。在无监督学习中,算法被提供没有标签的数据,它必须从中学习模式。在强化学习中,算法必须在与环境交互时学习如何采取行动。强化学习算法通常使用一种称为价值函数的方法来学习。原创 2023-12-10 10:30:00 · 1414 阅读 · 0 评论 -
初识人工智能,一文读懂迁移学习的知识文集(4)
迁移学习是一种机器学习方法,它利用已经学习到的知识来改善在不同任务上的学习性能。通常情况下,迁移学习是通过将一个模型的知识应用到另一个相关任务上来实现的。迁移学习的基本思想是,通过将已经学习到的知识迁移到新任务上,可以加快新任务的学习速度,提高模型的性能。这是因为在许多实际应用中,数据集往往是有限的,而从头开始训练一个复杂的模型需要大量的数据和计算资源。迁移学习可以通过利用已有的知识来解决这个问题。基于特征的迁移学习:将已经学习到的模型的特征提取部分应用到新任务上,然后在新任务上训练一个新的分类器。原创 2023-12-09 10:30:00 · 963 阅读 · 0 评论 -
初识人工智能,一文读懂过拟合&欠拟合和模型压缩的知识文集(3)
过拟合(overfitting)是指模型在训练数据上表现良好,但在测试数据上表现不佳。这通常发生在模型过于复杂,以至于它开始学习训练数据中的噪声和随机性。欠拟合(underfitting)是指模型在训练数据上表现不佳,在测试数据上表现也不佳。这通常发生在模型过于简单,以至于它无法捕捉到训练数据中的模式。过拟合和欠拟合之间的平衡在机器学习中,我们总是希望找到一个模型,它在训练数据上表现良好,但在测试数据上也表现良好。这是一个困难的权衡,因为如果模型太简单,它就可能无法捕捉到训练数据中的模式;原创 2023-12-08 17:02:27 · 1363 阅读 · 0 评论 -
初识人工智能,一文读懂梯度消失和梯度爆炸的知识文集(2)
梯度消失(Gradient vanishing)是指在反向传播过程中,梯度在反向传播的过程中逐渐变小,直至梯度接近于0,从而导致模型无法有效地进行训练。梯度消失主要发生在深度神经网络中,因为深度神经网络的层数较多,在反向传播过程中,梯度需要经过很多层,每经过一层,梯度就会被衰减一次,因此梯度会越来越小。梯度消失会导致模型无法有效地进行训练,因为梯度越小,模型的更新幅度就越小,模型的学习速度就会越慢。如果梯度过小,模型可能无法收敛到全局最优解。使用ReLU激活函数。ReLU激活函数可以避免梯度消失。原创 2023-12-07 18:00:08 · 1188 阅读 · 0 评论 -
初识人工智能,一文读懂人工智能概论(1)
人工智能(Artificial Intelligence,简称 AI)是模拟人类智能的一种技术手段,是利用各种软硬件手段,模拟、延伸和扩展人的智能功能。人工智能是计算机科学的一个分支,它企图了解智能的实质,并构造出一种新的智能主体,这种智能主体能够理解或学习人类所理解或学习的知识,并运用这种知识来解决人类的问题。人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。原创 2023-12-06 14:38:37 · 1914 阅读 · 0 评论