- 博客(21)
- 收藏
- 关注
原创 大厂面试题备份20250201
如果三面往后遇到传说中让人忍受不了的业余面试官,就舔着苟过去,入职大概率见不着他,但一二面遇到,反问环节就主动说不够match,让释放流程。百面机器学习计算机网络、操作系统、计算机组成原理、数据库和设计模式,这些我从来没被问过。反而经常会被问数据结构和一些常用的搬砖工具,但是非常浅,这部分适当瞄一眼就ok。还有些面试官喜欢问一些偏概率和数学的东西,下面是一些常见的概率题,最好准备一下。如果你学习能力和自制力都比较强,准备2个月差不多可以搞定。
2025-02-02 18:58:58
998
原创 大厂面试题备份20250129
在大语言模型推理中,KV Cache(Key-Value Cache)用于存储过去的注意力键(Key)和值(Value),加速自回归解码。然而,KV Cache会随输入长度增加而占用大量内存,影响推理效率。因此,KV Cache压缩成为优化推理速度和降低显存占用的重要研究方向。KV Cache 压缩的目标是 降低显存占用,提高推理速度,但需要权衡计算精度、存储需求和推理性能。常见方法包括:Online Top-K 是在动态数据流(Streaming Data)或增量更新的场景下,实时维护前 K 大(或前 K
2025-01-30 03:11:13
1276
原创 大厂面试题备份20250127
移动端部署模型需要针对计算资源、内存限制、实时性等问题进行优化。通过使用量化、剪枝、知识蒸馏等技术,结合移动端专用的推理框架(如 TensorFlow Lite、NCNN),可以实现高效、低功耗的模型运行。此外,硬件加速(GPU/NPU)和任务定制化优化也是重要手段。成功的部署依赖于训练和部署阶段的通力合作,以及对应用场景的深刻理解。
2025-01-27 22:18:45
859
原创 大厂面试题备份20250126
L1 正则化:有助于特征选择,生成稀疏模型,部分权重变为零。L2 正则化:平滑模型,所有特征的权重都被压缩但不会变为零,适用于防止过拟合。这两者可以结合使用,形成ElasticNet正则化,综合了 L1 和 L2 的优点。常见的选择:一般情况下,k = 5 或 k = 10 是一个常见且合理的选择,适用于大部分任务和数据集。小数据集:如果数据集非常小,选择更大的 k 值(例如 k = 10)有助于减少评估的偏差。大数据集。
2025-01-27 03:20:46
636
原创 08.05-08.10第32周已完成
我们需要一个通用的、与类别无关的物体性度量:图像区域包含物体的可能性使用此方法可以产生许多值得关注的候选对象提案或感兴趣区域 (RoI)。(现在是两个阶段:先找RoI,然后分类器)FCN很简单,6个尺度的滑窗,每个又有offset池化产生9张图,9个图每个图拉成一维向量,取最大值为该类概率,然后6个尺寸求平均概率。训练分为多个步骤,比较繁琐。需要微调CNN网络提取特征,训练SVM进行正负样本分类,训练边框回归器得到正确的预测位置SVM分类器和边框回归器的训练过程,和CNN提取特征的过程是分开的,
2024-08-12 17:45:01
866
原创 07.08-07.013第28周已完成
开始每天三小时学习第一小时:补python基础。55-59课if选择,for,while循环,可迭代对象非常灵活第二个小时:实战构建简单的神经网络作用:将连续的维度范围展平为张量。经常在nn.Sequential()中出现,一般写在某个神经网络模型之后,用于对神经网络模型的输出进行处理,得到tensor类型的数据。注意是从开始的,也就是第二个维度而torch.flatten()是从开始的。
2024-07-15 16:23:34
1005
原创 06.03-06.09第23周已完成
最近在b站上看了兄弟的誓言,突然觉得能安安静静、朴素的活着,有机会学学写代码很幸福了。这周科研目标是找到winograd成熟的项目,然后做自己实验。这周玩了四天,结束了。
2024-06-10 16:49:38
132
原创 神经网络代码从零开始
主要学习:1.搭建神经网络;3.在前向传播中使用定义过的函数;4.构建自己的神经网络;7.在# 4.构建自己的神经网络 处插入损失函数,在主函数中执行损失函数。6.使用Sequential把神经网络中的各层写到一起,简化书写。8.在# 4.构建自己的神经网络 处插入优化函数,在主函数中执行。如何在pytorch中搭建神经网络。8.2.梯度反向传播。
2024-06-05 16:46:37
368
原创 05.06-05.12第十九周已完成
看了SPPnet,发现有点像是一个即插即用的模块。spatial pyramid pooling空间金字塔池化。1.实现了不同尺寸的图片输入(因为fc层的参数数量固定,所以修改池化层就可以达到目的了)2.可以进行不同尺度的池化,减少过拟合风险,把不同尺度池化后的图片拼在了一起。开始看经典论文讲解,RCNN,先粗略过了一遍。消融试验:ablation study。
2024-06-05 16:45:55
301
原创 03.18-03.24 04.08-04.14第十二、十五周已完成(没有第十一、十三和十四周)
每一个神经元都是两部分:加权求和和激活函数。激活函数就是relu函数。可以看上边链接里的图。常见的距离计算方式:闵可夫斯基距离;欧式距离/欧几里得距离;方法论:04.13看了larry老师视频:如何调参。看了../ / \ \\ /// ~的区别,这篇是我觉得讲的比较好的。常见的相似度函数:余弦相似度;找了个免费gpt在线网站,准备开始缝合模块了。单层感知机:只能处理超平面线性可分的数据集。提出了辞职,准备一心搞科研。突然发现自己对召回率的理解不对:(~:其实就是用户根目录。
2024-04-19 15:36:19
282
1
原创 03.11-03.17第十周已完成
看第一节,居然是2017年尚学堂.百战程序员高淇老师的课,现在都2024年了,🤮。开始看B站Larry同学视频,不知道他的谷歌学术为啥可以标出来文章是几区的。CMD可以退出当前运行程序 exit(),CTRL+Z也可以。解释了为啥CMD里运行python会warning。主要学习了IDLE交互模式使用。学了turtle部分语法。在艾学无忧上买了辅导课。
2024-03-17 14:53:46
432
1
原创 03.04-03.10第十周已完成(没有第九周)
下载数据集时报:TypeError: default_collate: batch must contain tensors, numpy arrays, numbers, dicts or lists found。研究了啥是EI工程索引,在哪里查,研究了scopus数据库,顺便注册了。我发的scopus居然是四区,也没被EI收录。学习了咋做github个人主页,自己笨比,在about里边的前八行不要删掉,应该是涉及到引用了,结果自己删掉搞了两天。写的很好,但时间有点早了。深度学习保姆级入门教程。
2024-03-13 02:58:00
610
1
原创 02.26-03.03第九周已完成
AttributeError: module 'cv2.cv2' has no attribute 'ximgproc'解决。torch分为gpu版本和cpu版本,要装对应的torch和torchvision包。看了什么是消融试验,因为唐老师说做目标检测时,找离谱一些的模块,做三到四个(ps:唐老师还说,可以自己在kaggle上找数据集自己标注,算自己的数据集。找到在哪里切换github上的代码版本。怎么根据requirement安装包。找到在哪里下载火焰数据集。labelimg闪退。
2024-03-03 20:21:39
649
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人