- 博客(15)
- 收藏
- 关注
原创 Armstrong公理系统
Armstrong公理:是数据库设计中的“逻辑推理工具箱”,用于从已知的函数依赖推导出所有隐含的函数依赖。核心作用:验证关系模式的规范化(如2NF、3NF、BCNF),确保数据依赖的完整性。
2025-04-22 17:03:11
948
原创 软考数据库系统工程师高阶范式解析
在软考数据库系统工程师考试中,除了经典的1NF、2NF、3NF外,还需掌握更高阶的范式理论,包括BCNF(巴斯-科德范式)、4NF(第四范式)和5NF(第五范式)
2025-04-21 17:38:53
975
原创 1分钟掌握BPTT(附RNN训练秘籍)
像倒放一部电影,从结局逐帧分析每个角色(神经元)对结果的影响,最终找到所有时间点的责任分配。读一本长篇小说时,每次只回顾最近10页的内容来理解当前剧情,同时记住关键人物关系。(表情包创意:⏳一个沙漏倒流,沙子变成反向传播的梯度箭头)
2025-03-24 20:37:15
469
原创 [特殊字符] 1分钟突破|Transformer最后两层的秘密武器:Linear和Softmax(NLP入门必看)
在Transformer解码器末端,通过。
2025-03-20 10:46:52
401
原创 Linear与Softmax——Transformer输出层的「数学翻译官」
Linear层把模型的抽象思考转成词语分数,Softmax层将分数变为概率,二者共同决定了Transformer最终说出的词。
2025-03-20 10:26:05
727
原创 一步步解释 Self-Attention层、Point-wise层(如Point-wise Feed-Forward)和全连接层(Dense Layer)的核心区别、作用,以及它们如何配合工作
Self-Attention是“关系分析师”,Point-wise层是“特征工程师”,全连接层是“决策者”,三者协作让模型既懂上下文又能解决具体任务!输入向量:某个词的Embedding(如“猫”对应的向量)
2025-03-17 10:41:06
1183
原创 一句话记住“什么是BERT?”
(Bidirectional Encoder Representations from Transformers)是一个 。BERT就像一位“读过万卷书”的语言专家,通过上下文精准理解语义,成为NLP的瑞士军刀!,通过阅读海量文本,学会每个词在不同语境中的含义,从而解决各种NLP任务。
2025-03-13 18:53:53
967
原创 两分钟理解CNN 和 RNN,以及它们和 Transformer 的区别
一个“局部扫描仪”。专门处理(比如像素、时间序列)。你让CNN读句子:“我爱吃苹果,因为它们很甜”。CNN会拆成碎片:“我爱”、“吃苹果”、“因为它们”、“很甜”,可能漏掉“苹果”和“甜”的关联。
2025-03-13 10:06:34
811
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅