自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 一篇带你读懂计算机网络概述与网络硬件基础

"局域网是小家庭,城域网连全城行,广域网通天下事,广播点对分得清"

2025-05-08 10:10:19 412

原创 一句话秒懂4NF​

4NF的目标​​:解决数据中“一对多且互不相关”的冗余问题。用更简单的例子和语言重新解释第四范式(4NF)

2025-04-24 11:30:30 928

原创 Armstrong公理系统

Armstrong公理:是数据库设计中的“逻辑推理工具箱”,用于从已知的函数依赖推导出所有隐含的函数依赖。核心作用:验证关系模式的规范化(如2NF、3NF、BCNF),确保数据依赖的完整性。

2025-04-22 17:03:11 948

原创 软考数据库系统工程师高阶范式解析​

在软考数据库系统工程师考试中,除了经典的​​1NF、2NF、3NF​​外,还需掌握更高阶的范式理论,包括​​BCNF(巴斯-科德范式)​​、​​4NF(第四范式)​​和​​5NF(第五范式)​​

2025-04-21 17:38:53 975

原创 数据库三大范式深度解析​

三大范式:是数据库设计的“黄金法则”,用于消除数据冗余和异常,确保数据结构的简洁和高效。

2025-04-21 16:54:54 1314

原创 《软考关系数据库:从零到精通的超全考点解析+避坑指南!》

软考必看!关系数据库核心知识点全解析+记忆口诀+避坑指南​

2025-04-16 16:22:23 504

原创 《软考数据库系统工程师:从零到通关的保姆级知识点图谱!》

🔥《软考数据库系统工程师:从零到通关的保姆级知识点图谱!

2025-04-16 16:15:59 838

原创 《5分钟搞懂 Transformer》​

(就像快递分拣系统的扫描、排序、分类三步走!

2025-04-01 14:46:30 688

原创 多头注意力并行处理不同层次相关性、自注意力蒸馏(减少冗余计算)、时间延迟嵌入(TDE)与图卷积融合

1️⃣ ​。

2025-04-01 10:00:51 331

原创 1分钟掌握BPTT(附RNN训练秘籍)

像倒放一部电影,从结局逐帧分析每个角色(神经元)对结果的影响,最终找到所有时间点的责任分配。读一本长篇小说时,每次只回顾最近10页的内容来理解当前剧情,同时记住关键人物关系。(表情包创意:⏳一个沙漏倒流,沙子变成反向传播的梯度箭头)

2025-03-24 20:37:15 469

原创 [特殊字符] 1分钟突破|Transformer最后两层的秘密武器:Linear和Softmax(NLP入门必看)

在Transformer解码器末端,通过。

2025-03-20 10:46:52 401

原创 Linear与Softmax——Transformer输出层的「数学翻译官」

Linear层把模型的抽象思考转成词语分数,Softmax层将分数变为概率,二者共同决定了Transformer最终说出的词。

2025-03-20 10:26:05 727

原创 一步步解释 ​Self-Attention层、Point-wise层​(如Point-wise Feed-Forward)和全连接层(Dense Layer)​的核心区别、作用,以及它们如何配合工作

Self-Attention是“关系分析师”,Point-wise层是“特征工程师”,全连接层是“决策者”,三者协作让模型既懂上下文又能解决具体任务!输入向量:某个词的Embedding(如“猫”对应的向量)

2025-03-17 10:41:06 1183

原创 一句话记住“什么是BERT?”

​(Bidirectional Encoder Representations from Transformers)是一个 ​。BERT就像一位“读过万卷书”的语言专家,通过上下文精准理解语义,成为NLP的瑞士军刀!,通过阅读海量文本,学会每个词在不同语境中的含义,从而解决各种NLP任务。

2025-03-13 18:53:53 967

原创 ​两分钟理解CNN 和 RNN,以及它们和 ​Transformer 的区别

​一个“局部扫描仪”。​专门处理​(比如像素、时间序列)。​​​​你让CNN读句子:“我爱吃苹果,因为它们很甜”。CNN会拆成碎片:“我爱”、“吃苹果”、“因为它们”、“很甜”,可能漏掉“苹果”和“甜”的关联。

2025-03-13 10:06:34 811

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除