
AI
文章平均质量分 96
AI
GG_Bond21
关注回关,大家多多关照
展开
-
神经网络基础
人工神经网络( Artificial Neural Network, ANN)也简称为神经网络(NN),是一种模仿生物神经网络结构和功能的计算模型原创 2025-02-03 00:40:44 · 809 阅读 · 0 评论 -
正则化详解
正则化是指在机器学习和统计建模中的一种技术,用于控制模型的复杂度,防止模型在训练数据上过度拟合(overfitting)。当模型过度拟合时,会学习到训练数据中的噪声和细微变化,导致在新数据上的性能下降正则化通过在模型的损失函数中引入额外的惩罚项,来对模型的参数进行约束,从而降低模型的复杂度。这个额外的惩罚通常与模型参数的大小或者数量相关,旨在鼓励模型学习简单的规律,而不是过度拟合训练数据在深度学习中,正则化通常涉及到对网络的权重进行约束,以防止其变得过大或过复杂。原创 2025-04-07 15:52:57 · 603 阅读 · 0 评论 -
卷积神经网络CNN
卷积神经网络是深度学习在计算机视觉领域的突破性成果。在计算机视觉领域,往往输入图像都很大,若使用全连接网络,计算代价较高。图像也很难保留原有的特征,导致图像处理的准确率不高卷积神经网络(Convolutional Neural Network)是含有卷积层的神经网络。卷积层的作用就是用来自动学习、提取图像的特征CNN网络主要有三部分构成:卷积层、池化层和全连接层构成,其中卷积层负责提取图像中的局部特征;池化层用来大幅降低参数量级(降维);全连接层用来输出想要的结果。原创 2025-02-14 00:32:29 · 1066 阅读 · 0 评论 -
【NLP】文本预处理
文本语料在输送给模型前一般需要一系列的预处理工作,才能符合模型输入的要求,如:将文本转化成模型需要的张量,规范张量的尺寸等,而且科学的文本预处理环节还将有效指导模型超参数的选择,提升模型的评估指标原创 2025-02-16 23:29:21 · 1439 阅读 · 0 评论 -
【NLP】循环神经网络RNN
RNN(Recurrent Neural Network),中文称作循环神经网络,一般以序列数据为输入,通过网络内部的结构设计有效捕捉序列之间的关系特征,一般也是以序列形式进行输出RNN的循环机制使模型隐层上一时间步产生的结果,能够作为当下时间步输入的一部分(当下时间步的输入除了正常的输入外还包括上一步的隐层输出)对当下时间步的输出产生影响。原创 2025-02-14 17:27:32 · 1211 阅读 · 0 评论 -
【NLP】注意力机制
人类观察事物时,之所以能够快速判断一种事物(当然允许判断是错误的),是因为大脑能够很快把注意力放在事物最具有辨识度的部分从而作出判断,而并非是从头到尾的观察一遍事物后,才能有判断结果。正是基于这样的理论,就产生了注意力机制需要三个指定的输入Q(query)、K(key)、V(value),然后通过计算公式得到注意力的结果,这个结果代表query在key和value作用下的注意力表示。当输入的Q=K=V时,称作自注意力计算规则。原创 2025-02-21 15:08:05 · 1238 阅读 · 0 评论 -
【NLP】Transformer模型架构
Transformer是一种用于处理序列数据的深度学习模型架构,谷歌在2017年的论文《Attention Is All You Need》中提出的,用于NLP的各项任务,现在是谷歌云TPU推荐的参考模型。原创 2025-01-10 15:18:54 · 1654 阅读 · 0 评论 -
【NLP】BERT模型
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一种预训练模型,该模型在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩: 全部两个衡量指标上全面超越人类,并且在11种不同NLP测试中创出SOTA表现,包括将GLUE基准推高至80.4% (绝对改进7.6%),MultiNLI准确度达到86.7% (绝对改进5.6%),成为NLP发展史上的里程碑式的模型成就。原创 2025-01-20 21:02:33 · 1151 阅读 · 0 评论