
人工智能理论知识
文章平均质量分 79
人工智能入门相关理论和算法知识
不断进步的咕咕怪
烂笔头
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习相关概念整理
残差连接(Residual Connection)是一种在深度学习领域,特别是在深度神经网络架构设计中的关键技术。它最初由何凯明等人在2015年的论文《Deep Residual Learning for Image Recognition》中提出,并应用于ResNet(Residual Network)中,极大地推动了深度神经网络的发展,尤其是在图像识别任务上的突破。残差连接的核心思想是引入“捷径”或“跳过连接”,它允许输入信号可以直接传递到网络的较深层,而不仅仅依赖于逐层前向传播的计算结果。原创 2024-04-13 18:37:43 · 4288 阅读 · 0 评论 -
机器学习和深度学习算法
机器学习算法和深度学习算法原创 2023-03-11 17:17:25 · 500 阅读 · 0 评论 -
性能指标、参数概念
在Evo模型的研究中,Spearman相关系数被用来量化模型预测的序列概率(如序列似然性或伪似然性)与实验测量的适应度值(代表分子功能的实验评估结果)之间的关联性。也称均方根差(RMSE),是观测值与真值偏差的平方和与观测次数m比值的平方根,是用来衡量观测值同真值之间的偏差。RMSE是一种常用的测量数值之间差异的量度,其数值常为模型预测的量或是被观察到的估计量。具体来说,它会计算机器生成的句子和参考句子之间的n-gram(n元语法)重叠程度,并根据这些重叠的程度来计算一个得分。原创 2024-06-25 21:29:14 · 1974 阅读 · 0 评论 -
深度学习之正则化方法
正则化(Regularization)是一种用于防止过拟合、提高模型泛化能力的机器学习和统计建模技术。过拟合指的是模型在训练数据上表现很好,但在测试数据或新数据上表现较差的现象。为了提高模型在新数据上的泛化能力,正则化通过在原始损失函数中添加一个惩罚项来平衡模型的复杂度与拟合优度。原创 2024-07-30 14:49:41 · 366 阅读 · 0 评论 -
卷积神经网络中的池化方法
对于池化操作,大部分人想到的可能就是Max_Pooling和Average_Pooling,但实际上卷积神经网络的池化方法还有很多,本文对业界目前所出现的一些池化方法进行了归纳总结。原创 2024-07-31 17:08:31 · 328 阅读 · 0 评论