- 博客(4)
- 收藏
- 关注
原创 神经网络与深度学习课程学习报告(四)—— Transformer架构与注意力机制的深入探索
本阶段的学习让我对Transformer模型及其在自然语言处理中的应用有了更深入的理解。通过理论学习、实践项目和问题调优,我不仅提升了算法理解力,更增强了解决问题的能力。未来我将持续关注以下方向:大语言模型(LLM)训练机制Prompt Engineering与少样本学习多模态融合模型与跨任务迁移深度学习是一个实践与理论并重的领域,只有不断试错、深入反思、保持热情,才能在这个快速发展的领域站稳脚跟。
2025-05-26 08:22:39
1056
原创 神经网络与深度学习课程学习报告(三)—— 以 Transformer 和注意力机制为核心的深度学习探索之旅
本阶段的学习让我对 Transformer 模型及其在 NLP 中的应用有了更深入的理解。通过理论学习、实践项目和问题调优,我不仅提升了算法理解力,更增强了解决问题的能力。未来我将持续关注以下方向:大语言模型(LLM)训练机制Prompt Engineering 与少样本学习多模态融合模型与跨任务迁移深度学习是一个实践与理论并重的领域,只有不断试错、深入反思、保持热情,才能在这个快速发展的领域站稳脚跟。
2025-05-17 16:38:03
757
原创 [特殊字符] 神经网络与深度学习课程学习心得(二)
回顾整个学习过程,从感知机模型到卷积神经网络、循环神经网络,每一个模块都让我对人工智能系统背后的机制理解更深一层。通过理论推导与实战演练的结合,我不仅提高了编程技能,更培养了数据分析与问题拆解的能力。这不仅是对“深度学习”的一次系统性理解,也是向更高维度的智能系统设计迈进的重要一步。未来,我将继续以科研精神探索AI前沿,不断挑战更复杂的智能系统设计。
2025-05-11 16:44:40
640
原创 神经网络与深度学习课程学习心得1
通过学习这一部分,我体会到机器学习中分类和回归在形式上的联系与区别:回归输出连续值,分类输出离散标签,但本质上都依赖于对参数的优化。Sigmoid与Softmax等激活函数的引入,使得模型输出具有明确概率意义,优化目标也从简单误差最小化演化为最大似然估计,从而增强了模型的理论基础与实践效果。感知机模型是用于二分类的早期神经网络形式,其输出为y = sign(w^T x),其中w为权重,x为输入。以XOR问题为例,其输出无法通过单层线性函数实现,但通过两层(含一个隐藏 层)神经网络可以实现对其逻辑的拟合。
2025-05-01 12:41:30
631
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅