- 博客(663)
- 收藏
- 关注

原创 深入理解深度学习中的【卷积】和 feature map
深入理解深度学习中的卷积和feature map 虽然深度学习的概念已经传遍大街小巷,本文还是说一说CNN中的卷积。 本文主要介绍卷积层的结构。下图显示了CNN中最重要的部分,这部分称之为过滤器(filter)或内核(kernel)。因为TensorFlow官方文档中将这个结构称之为过滤器(filter),故在本文中将统称这个结构为过滤器。如下图所示,过滤器可以将当前层网络上的一个子节点矩
2017-12-09 18:10:18
23723
1

转载 简单易懂的softmax交叉熵损失函数求导
简单易懂的softmax交叉熵损失函数求导 本博客转自:http://m.blog.youkuaiyun.com/qian99/article/details/78046329 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的步
2017-11-21 13:58:34
20721

转载 卷积神经网络中feature map的含义
卷积神经网络中feature map的含义 在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,
2017-10-23 09:59:56
31783
4

原创 c\c++中比较两个字符串或string对象是否相等
c\c++中比较两个字符串或string对象是否相等 在写程序的过程中,经常会遇到要比较两个字符串是否相等的情况。如果要比较的对象是char*字符串,则利用int strcmp(const char* s1,const char* s2) 当s1<s2时,返回为负数; 当s1==s2时,返回值= 0; 当s1>s2时,返回正数。 ...
2017-10-16 21:32:18
114867
3
原创 一些题目记录
Leetcode 编辑距离,最长递增子序列、买卖股票等等,其他的记不清了;实现 MultiHeadSelfAttention,大概 三四次;用 Numpy 或者 List 实现MLP 的前向和反向,4次;Leetcode 反转链表以及衍生的,3次;Leetcode 岛屿数量,大概得五六次;Leetcode 数组中第K大的数,2次;实现 NMS,七八次,很高频;
2025-03-26 00:09:58
272
原创 统计中位数为 K 的子数组
链接:https://blog.youkuaiyun.com/weixin_45925735/article/details/129589721。
2025-02-17 23:27:13
113
原创 self-attention(上)李宏毅
a1-a4乘上martix Wq,得到q1-q4,a1-a4乘上martix Wk,得到k1-k4,q2和k1-k4做dot-product操作,得到self-attention score(可能还会经过softmax处理): a21‘,a22‘,a23‘,a24‘,然后各自与v1~v4相乘,然后相加得到b2。然后依次计算b2,b3,b4,所以哪个关联性更大,得到的结果也就越接近那个关联性数据(比如a11’最大,得到的b1也就最接近a11‘,或者说b1的主要构成是由a11’构成)从矩阵角度理解计算过程。
2024-01-07 12:11:22
556
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人