- 博客(3)
- 收藏
- 关注
原创 【Datawhale AI 夏令营】Task 3 —— 神奇的调参与越调越差的秘诀
在循环神经网络中,由于受限的上下文窗口大小,导致其在建模长文本方面存在劣势,必须经过多层卷积才能完成关注长文本的工作。而Transformer可以完全通过注意力机制完成对序列的全局依赖建模,增加了计算效率。虽然几个方法都尝试过了,但是交上去的分数是越交越差=_=||,不愧是炼丹啊。不过在学习AI的过程中体验到了调参的快乐,确实是有点上头的。
2024-08-03 22:29:17
527
1
原创 PTA Basic #1045 快速排序
1045 快速排序 著名的快速排序算法里有一个经典的划分过程:我们通常采用某种方法取一个元素作为主元,通过交换,把比主元小的元素放到它的左边,比主元大的元素放到它的右边。 给定划分后的N个互不相同的正整数的排列,请问有多少个元素可能是划分前选取的主元? 例如给定N=5, 排列是1、3、2、4、5。则: 1 的左边没有元素,右边的元素都比它大,所以它可能是主元; 尽管 3 的左边元素都比它小,但其右边的 2 比它小,所以它不能是主元; 尽管 2 的右边元素都比它大,但其左边的 3 比它大,...
2021-09-30 09:38:50
405
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人