- 博客(2)
- 收藏
- 关注
原创 自注意力机制(self attention)解析
本文是作者第一次写技术博客,目前是大四上学期,虽然本科期间有多项科研经历,也早就接触过深度学习,但是实践以及调试源代码的训练实在是太少了,只是对YOLOV8的代码比较熟悉,也能上手添加一些小模块。该仓库配套的讲解视频真得是十分的友好,通过他的视频我第一次彻底弄明白了注意力机制和transformer大概是怎么一回事。自注意力机制其实没有大家想的那么难,但是代码的实现想要理解也是十分需要时间,多读多练多调试是进步的最好办法!
2024-09-02 21:45:30
1229
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人