- 博客(39)
- 收藏
- 关注
原创 TypeError: forward() got an unexpected keyword argument ‘inputs_embeds‘
TypeError: forward() got an unexpected keyword argument 'inputs_embeds',llama3
2024-06-06 18:41:32
1668
原创 考研复试-项目辅导-简历修改-实习辅导
本人具有20-30场中厂和大厂的实习面试经验,可以为想找实习的同学提供学习指导,面试经验,以及具有时效性的面经等。本人面试的包含IDEA实验室、字节跳动、快手、百度、特斯拉、商汤、智谱、淘天等一些知名大厂以及独角兽企业。本人具有丰富的项目经验,可为计算机复试的同学提供能写上简历的的项目,也可以为小白指明学习路线少走弯路,项目可以售后,包含答疑,代码等。同时也提供简历修改等服务。
2024-03-05 14:36:27
318
3
原创 复现Transformer模型
假如进来一句话,首先这里面有15个token,第一步经过embedding层,每一个词都是128维度的向量**[15,128],**接着为这个embedding提供position encoding。该函数的第一个参数是输入的矩阵,第二个参数 diagonal 是一个可选参数,用于控制对角线的偏移量。在transformer中,embedding主要是为每个词提供一个向量,然后position embedding主要是提供位置信息,这里着重讲解一下一个句子进来,它是如何进行嵌入和位置相加的。
2024-02-09 11:10:40
624
原创 电子科技大学考研
主要考察学生对操作系统基本概念、原理的理解程度,重点考察操作系统的设计方法与实现技术,同时能够具备运用所学的操作系统原理、方法与技术分析问题和解决问题的能力。《数据结构》是计算机程序设计的重要理论技术基础,是计算机科学与技术学科的核心课程。(3)各种变形链表(循环链表、双向链表、带头结点的链表等)的表示和基本操作的实现。(5)二叉树的先序、中序、后序三种遍历方式的关系以及实现;哈希函数的基本构造方法,解决地址冲突的基本策略。3.广义表的基本概念、存储结构和基本操作。(1)图的基本概念和术语。
2024-01-14 21:14:21
1116
原创 民大计算机视觉Faster-RCNN实验作业
双阶段目标检测是指将目标检测任务分解为两个阶段进行,第一阶段生成候选框,第二阶段对候选框进行分类和位置回归。具体来说,第一阶段通常使用一种称为“区域提议网络”(Region Proposal Network,简称RPN)的模块生成候选框。RPN使用滑动窗口的方式在图像上移动,对每个位置生成若干个大小和长宽比不同的候选框,然后使用卷积神经网络对每个候选框进行分类和回归。第二阶段则使用一个分类器对每个候选框进行分类,判断其是否包含目标,并使用一个回归器对候选框的位置进行微调,得到更准确的目标框。
2024-01-14 20:08:53
963
原创 强化学习基础
RL:分为两部分三要素,agent→智能体,environment→环境,三要素为state状态,action动作,reward奖励。核心思想为:智能体在环境中学习,通过环境的状态,执行动作,并根据环境的反馈(reward)来指导更好的动作。
2024-01-13 23:50:42
394
1
原创 民大机器学习Mnist小作业
任务是对mnist手写数据集进行分类,那么我们用pytorch来做的话,它是内置了Fashion-Mnist和Mnist数据集,我们只要从框架里面下载即可。然后我们创建dataloader,设置batch_size,设置交叉熵损失函数因为这是一个多分类问题。设置训练函数,进行训练,将正确率和loss显示在终端上,最后可视化每一个epoch的准确率和损失。# 28 * 28 * 1 #----> 卷积核 11*11*96 (n-f)/s+1--> 5 * 5 * 96。3 调参过程 展现最优结果。
2024-01-13 23:23:15
1059
1
原创 ResNet网络总结
ResNet结构非常容易修改和扩展,通过调整block内的channel数量以及堆叠的block数量,就可以很容易地调整网络的宽度和深度,来得到不同表达能力的网络,而不用过多地担心网络的“退化”问题,只要训练数据足够,逐步加深网络,就可以获得更好的性能表现。ResNet不再尝试学习x到H(x)的潜在映射,而是学习两者之间的不同,或说残差(residual)。然后,为了计算H(x),可将残差加到输入上。假设残差是F(x)= H(x) - x,我们将尝试学习F(x)+ x,而不是直接学习H(x)。
2024-01-13 23:22:01
442
1
原创 关于深度学习GPU相关问题总结
GPU的内存占用率主要是模型的大小,包括网络的宽度,深度,参数量,中间每一层的缓存,都会在内存中开辟空间来进行保存,所以模型本身会占用很大一部分内存。这个是Volatile GPU-Util表示,当没有设置好CPU的线程数时,这个参数是在反复的跳动的,0%,20%,70%,95%,0%。其实是GPU在等待数据从CPU传输过来,当从总线传输到GPU之后,GPU逐渐起计算来,利用率会突然升高,但是GPU的算力很强大,0.5秒就基本能处理完数据,所以利用率接下来又会降下去,等待下一个batch的传入。
2024-01-13 20:58:17
1047
1
原创 深度学习-AlexNet论文阅读总结
就是在训练阶段,每个神经元都有百分之50的几率被干掉,意思就是说把神经元的输出设置为0阻断其神经元的前向-方向传播。这样减少了神经元的依赖,因为我掐死一半的话,神经元本来连着其他的神经元,现在要跟别的神经元建立联系,那么这样就可以减少神经元的相互依赖,达到模型集成的效果。AlexNet用了五个卷积层和三个全连接层,论文的原图是这样的,因为分了两个GPU训练,我们也可以把这个结构拼在一起都是一样的。主要思想就是一个大的神经元,会对旁边小的通道或者神经元会产生抑制作用,然后就有了LRN来防止抑制。
2024-01-13 20:56:54
373
1
原创 民大机器学习复习资料、计算机网络复习资料、操作系统复习资料、数据库复习资料、自然语言处理整理资料、强化学习整理资料打包分享,也可以单独分享。
以上可出售的内容,需要可以联系。
2024-01-11 18:07:14
479
3
保研申请材料清单-夏令营预推免专用
2024-03-09
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人