自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 神经网络基础

偏导数的求导较为复杂,但是在同一个层中的激活函数较为简单,我们可以利用复合函数链式求导法则,从输出层(右)向输入层(左),将每个变化的程度相乘即可得到最初变化量对结果的影响,以上操作简称为。拟合好的w和b是较好的参数,判断是否好的依据为损失函数L(w,b) = 1/N(x_point-x_line)^2,即均方误差MSE。w变化一点使得损失函数变化的多少就是损失函数对w的偏导数(偏导数分身指的是损失函数增长最快的方向),控制变化快慢的位位学习率。符号主义,一眼看出规律,找到精确的函数(线性函数)

2025-11-16 22:42:46 272

原创 电路理论基础笔记

一周天天满课,暂停更新

2025-08-14 13:57:54 2287

原创 关于深度学习的个人见解

深度学习中的卷积神经网络(CNN)由输入层、卷积层(CONV)、池化层(Pool)、全连接层(FC)和输出层组成。卷积层通过滤波器(filter)提取特征,使用ReLU激活函数增加非线性,池化层(如MaxPool)用于降维。网络结构通常为[CONV+ReLU+CONV+ReLU+Pool]的循环,最后通过全连接层输出。经典网络如AlexNet和VGG展示了不同设计思路,但网络深度并非越深越好。卷积层参数包括步长(Stride)、填充(Pad)等,需合理设置以优化特征提取效果。

2025-07-28 11:44:30 1946

原创 数学建模笔记

1.变量完全为整数,称为纯整数规划:此时引进的松弛变量(大于等于0的数,解决小于等于0时的整数规划)和剩余变量(小于等于0的数,解决大于等于0的整数规划)可以不要求整数。多目标规划可以改为线性规划,此时只需要固定其中一个变量,比如在求解风险最小且收益最大时,可以通过引入变量a来判断当总和大于a是为最大或者当总和小于a时为最小。中、大样本的随机因素或周期特征的未来趋势未来预测:时间序列方法。模型:目标函数+决策变量(主要变量)+约束条件(约束公式)Matlab约束标准型:不等式约束、等式约束、决策变量约束。

2025-07-25 10:46:37 130

原创 C#语言入门

在Windows系统下可以通过官网直接进行下载,对于MacOS,由于Visual Studio未对MacOS进行支持,目前之可以通过Visual Studio Code加装C#插件进行编写。特别注意在Install界面要假装所需的插件。对于Windows系统,若需要更改默认下载位置,请打开注册表,进入Local-Software--Microsoft-Visual Studio-Setup下更改公共下载路径选项或者直接删除该项。

2025-06-16 22:42:37 306

原创 LLM笔记

大语言模型真正令我们震撼的地方是,它与小型预训练语言模型采用了相似的网络架构以及训练方法,但通过扩展模型参数规模、数据数量以及算力资源,却带来了令人意料之外的模型性能跃升。为了有效提升大模型的性能,研究人员需要深入了解大模型相关的工程技术,对于理论与实践的结合提出了更高的需求。此外,大语言模型对于产业应用带来了变革性的技术影响,将会催生一个基于大语言模型的应用生态系统。回顾以上历程可以看出,早期的语言模型主要面向自然语言的建模和生成任务,而最新的语言模型(如GPT-4)则侧重于复杂任务的求解。

2025-03-11 15:08:27 1863

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除