- 博客(62)
- 收藏
- 关注
原创 Opencv总结4——项目实战-信用卡数字识别
先看效果:代码资料看本人博客资源。首先模板是需要预测的图像是任务是:使用模板匹配,一定要是数字特别接近的模板,然后匹配银行卡上面的数字。
2025-12-28 22:04:54
405
原创 Opencv总结3——直方图和傅里叶变化
图像直方图是,它以像素值(0~255,针对 8 位灰度图)为横轴,以该像素值在图像中出现的为纵轴,直观反映图像的亮度分布、对比度、明暗占比等特征。核心本质:统计图像中每个像素值对应的像素点个数,不关注像素的位置,只关注像素值的分布规律。应用场景:图像阈值分割、曝光校正、对比度调整、图像匹配(如直方图对比法)等。images: 原图像图像格式为 uint8 或 float32(一般是转化成灰度图来输入的)。当传入函数时应括来例如[img]
2025-12-27 22:51:27
997
原创 大模型面试必备08——lora和qlora学习和实践
资料:视频来源:【【手把手带你实战HuggingFace Transformers-高效微调篇】参数高效微调与BitFit实战】 https://www.bilibili.com/video/BV1Xu4y1k7Ls/?Hugging Face PEFT库的官方LoRA示例。
2025-12-25 21:57:39
888
原创 大模型面试必备07——HuggingFaceDatasets数据集组件使用
datasets库是一个轻量级、易用的数据集加载工具,支持从本地文件或快速加载数据集,适用于机器学习、自然语言处理等任务。公开数据集地址说明:Hugging Face Hub上托管了数万个公开数据集(如GLUE、SQuAD、COCO等),可直接通过该平台搜索和下载。文档地址说明:官方文档提供了完整的库使用方法,包括数据集加载、处理、分片、流式加载等高级功能。使用load_dataset加载的数据集是一个dict1、导入。
2025-12-24 20:56:36
567
原创 Opencv总结2——图像金字塔与轮廓检测
模板匹配和卷积原理很像,模板在原图像上从原点开始滑动,计算模板与(图像被模板覆盖的地方)的差别程度,这个差别程度的计算方法在opencv里有6种,然后将每次计算的结果放入一个矩阵里,作为结果输出。把右边的图片分成九宫格,然后opencv会从左到右,从上到下进行一点点的匹配(逐像素匹配,像素点的差异),看看左边的图像是在右边的哪个位置。TM_SQDIFF_NORMED:计算归一化平方不同,计算出来的值越接近0,越相关(推荐用归一化的,结果会更可靠一些。TM_CCORR:计算相关性,计算出来的值越大,越相关。
2025-12-23 23:37:01
801
原创 大模型面试必备06——InstructGPT精读
论文题目Training language models to follow instructions with human feedback,即训练语言模型,使得它们能够服从人类的一些指示。语言模型每次是给定一段东西,然后去预测下一个词,它是一个自监督模型,所以认为它是没有标号的。如果想让语言模型去解释某一个概念的话,就需要文本中出现过类似的东西,因此模型的行为取决于文本搜集的好坏。这样的问题在于:有效性:如果想让模型去做某个事情,但是模型始终学不会怎么办?因为文本中没有相应的东西。
2025-12-23 21:04:57
1301
原创 Opencv总结1——视频读取与处理,图像阈值和平滑处理,图像形态学操作
读取视频VideoCapture可以捕获摄像头,用数字可以空中不同的设备,比如0和1视频文件直接指定位置就可以。
2025-12-22 20:21:17
516
原创 时间序列预测总结-Informer论文解读
偷懒的Q感觉就像是均匀分布,没啥特点,你有我有全都有Active的Q明显在某些位置比较活跃,权重差异较大对于每一个Q,计算其与均匀分布的差异,差异越大则表示其越活跃。衡量每个Query的 Attention 分布与均匀分布之间的差异。
2025-12-21 17:17:32
969
原创 sklearn函数总结十二 —— 聚类分析算法K-Means
n_init=10,核心参数n_clusters(最重要的参数):形成的簇数init(初始化方法)初始化质心的策略。这个一般推荐使用 k-means++n_init,算法用不同的质心种子运行的次数。max_iter:单次运行中的最大迭代次数。random_state::随机数种子,一般是42。
2025-12-21 13:46:25
1348
原创 大模型面试必备05——ChatGLM详解
GLM:https://arxiv.org/abs/2103.10360GLM130B: https://arxiv.org/abs/2210.02414 code: https://github.com/THUDM/GLM-130B/Code: https://github.com/THUDM/ChatGLM-6B相关博客参考(按优先级顺序):https://blog.youkuaiyun.com/zsq_csh1/article/details/130908593https://zhuanlan.zhihu.com
2025-12-21 13:24:17
806
原创 大模型面试必备04——BERT 论文逐段精读
参考视频:【BERT 论文逐段精读【论文精读】】 https://www.bilibili.com/video/BV1PL411M7eQ/?
2025-12-18 18:06:11
789
原创 大模型面试必备03——llama文章精读
LLaMA是一个系列模型,模型参数量从7B到65B。在大部分的任务上,LLaMA-13B强于GPT-3(175B)。LLaMA-65B的性能,可以和最好的LM相媲美,如Chinchilla-70B 和PaLM-540B。
2025-12-17 20:07:37
876
原创 大模型面试必备02—— Scaling Laws与涌现能力、CLM vs MLM建模
量变引起质变,当规模达到一定程度的时候,产生了一种群体的现象,这种群体的现象再也不能从原来的个体现象推知,可能需要一个新的学科,或者一些新的定律来研究整体的系统。(说人话就是一开始模型学习翻译的,训练完之后,模型也学会了做完型填空……)总结:大模型出现涌现现象(Emergent Abilities)的本质是复杂系统在规模效应和高维表征能力的共同作用下,产生的非线性相变。小模型不具备,但是大模型拥有的,但是大模型达到哪一个规模(7B,70B?),会出现涌现能力?这个是不能确定的。
2025-12-16 21:26:30
1562
原创 大模型面试必备01——GPT参数计算、BPE分词算法
所有参数=$$词向量维度 × (词表大小 + 窗口长度) +(4D^2 + 8D^2 + 5D)*注意力层数 $$,D为词向量维度代码计算看7、代码计算。(计算复杂度和宽度是平方关系,和层数是线性关系)
2025-12-16 17:42:54
694
原创 sklearn函数总结九— 朴素贝叶斯
在学习朴素贝叶斯之前,我们必须要先掌握贝叶斯公式:这个公式乍一看,你肯定很懵逼,不过不用怕,我们来解释和分解下,你就懂了。朴素贝叶斯(Naive Bayes)算法 是一种基于贝叶斯定理的分类方法,广泛应用于文本分类(如垃圾邮件识别、情感分析等)和其他机器学习领域。特征与特征之间条件相互独立,即在给定类别的条件下,特征之间没有任何关系或依赖。公式数学推导略。
2025-12-14 14:19:10
806
2
原创 sklearn函数总结八—线性模型 逻辑回归
线性模型用于分类的核心思想非常直观:试图找到一个线性决策边界(在特征空间中是一条直线、一个平面或一个超平面),将不同类别的数据点分开。对于二分类问题,模型学习的是:x[0] 到 x[p] 表示样本的 p 个特征。w[0] 到 w[p] 是模型学习到的权重系数(Coefficients),体现了每个特征对决策的重要性。b 是截距(Intercept),也叫偏置。如果这个线性函数的结果大于 0,样本被预测为类别 A;否则被预测为类别 B。这个决策边界就是函数y=0 所代表的那个超平面。
2025-12-14 13:49:05
785
原创 Bev感知特征空间算法
BEVFormer是一种基于Transformer的自动驾驶视觉感知框架,通过时空注意力机制构建统一的鸟瞰图(BEV)特征空间。
2025-12-13 14:39:23
1085
原创 01、yolov8合集1
YOLOv8目标检测系统的完整配置与使用流程。主要内容包括:1) 环境配置(Miniconda安装、conda环境创建、PyPI国内源配置);2) 关键组件安装(PyTorch和Ultralytics YOLOv8的三种安装方式);3) 模型预测的两种实现方式(命令行和Python API)及参数详解;4) 数据准备与标注方法(图片/视频处理、LabelImg工具使用);5) 训练流程(数据集结构、配置文件编写、训练命令);6) 常见问题解决方案。
2025-12-08 23:21:17
1059
原创 sklearn函数总结六——特征降维 压缩数据 - 特征提取(PCA&LDA)
• 默认或特征数很多 -> 'svd'• 需要收缩(Shrinkage)-> 'lsqr' 或 'eigen'
2025-12-06 15:42:46
1062
原创 sklearn函数总结五——特征降维 压缩数据 - 特征选择
纯手打,代码整理中,持续更新中^-^需要延用总结四本节学习特征降维的相关知识点特征降维是机器学习中常用的技术,用于减少特征的数量,同时尽可能保留原始数据的信息。在Scikit learn中,特征降维主要有两种方法:特征选择和特征提取。1.:从原始特征中选择一部分特征。方法包括:移除低方差特征(VarianceThreshold),单变量统计(SelectKBest, SelectPercentile)、基于模型的特征选择(如SelectFromModel)、递归特征 消除(RFE)等。2.
2025-12-06 14:30:32
792
原创 sklearn函数总结二——字典特征提取&文本特征提取词袋模型
纯手打,代码整理中……序号沿用总结一将特征名称和值映射为字典的列表转换为数值矩阵,非常适合处理混合类型的特征。 DictVectorizer 是一个非常有用的工具,它用于将特征名称到特征值的映射字典(例如列表)转换 为 scikit-learn 模型可以使用的数值矩阵。它的强大之处在于能同时处理分类特征(进行One-Hot编码)和数值特征(保持原值),非常适用于处理混合类型的特征或从类似JSON结构的数据中提取特征。代码示例:(主要是转换成特征矩阵很有用)输出参数说明:1.dtype,可以设置为flo
2025-11-24 22:01:10
982
原创 sklearn函数总结一
官方文档: https://scikit-learn.org/stable/ - 这是最权威、最全面的学习资料,包含教程、 API文档和大量示例。2. 用户指南:官方文档中的 User Guide 部分系统地讲解了所有概念和算法。3. 示例库:官方文档提供了数百个示例代码,覆盖了各种应用场景,是解决问题时最好的参 考。安装sklearn。
2025-11-22 20:46:23
272
原创 Neo4j图数据库安装
neo4j 库:https://neo4j.com/deployment-center/主要是用到java,我自己装的是5.26.16,需要java 25。neo4j 库:直接找到社区版下载社区版本。然后命令行输入下面命令启动。
2025-11-22 20:23:47
173
原创 Mysql 插入中文错误:Incorrect string value: ‘\xE7\xA8\x8B\xE5\xBA\x8F...‘ for column ‘name‘ at row 1
【代码】Mysql 插入中文错误:Incorrect string value: ‘\xE7\xA8\x8B\xE5\xBA\x8F...‘ for column ‘name‘ at row 1。
2023-11-05 16:49:57
776
原创 Leetcode刷题之1005.K次取反后最大化的数组和&134. 加油站&135. 分发糖果
如果ratings[i] > ratings[i - 1] 那么[i]的糖 一定要比[i - 1]的糖多一个,所以贪心:candyVec[i] = candyVec[i - 1] + 1。情况二:rest[i] = gas[i]-cost[i]为一天剩下的油,i从0开始计算累加到最后一站,如果累加没有出现负数,说明从0出发,油就没有断过,那么0就是起点。情况三:如果累加的最小值是负数,汽车就要从非0节点出发,从后向前,看哪个节点能把这个负数填平,能把这个负数填平的节点就是出发节点。
2023-09-28 08:54:45
191
原创 Leetcode刷题之435. 无重叠区间
此时问题就是要求非交叉区间的最大个数。这里记录非交叉区间的个数还是有技巧的,如图:区间,1,2,3,4,5,6都按照右边界排好序。当确定区间 1 和 区间2 重叠后,如何确定是否与 区间3 也重贴呢?就是取 区间1 和 区间2 右边界的最小值,因为这个最小值之前的部分一定是 区间1 和区间2 的重合部分,如果这个最小值也触达到区间3,那么说明 区间 1,2,3都是重合的。接下来就是找大于区间1结束位置的区间,是从区间4开始。
2023-09-27 19:37:05
911
原创 leetcode刷题122.买卖股票的最佳时机 II
给定一个数组,它的第 i 个元素是一支给定股票第 i 天的价格。设计一个算法来计算你所能获取的最大利润。你可以尽可能地完成更多的交易(多次买卖一支股票)。注意:你不能同时参与多笔交易(你必须在再次购买前出售掉之前的股票)。示例 1:示例 2:示例 3:提示:这道题目可能我们只会想,选一个低的买入,再选个高的卖,再选一个低的买入.....循环反复。如果想到其实最终利润是可以分解的,那么本题就很容易了!如何分解呢?假如第 0 天买入,第 3 天卖出,那么利润为:prices[3] - prices[0]。相
2023-09-26 21:41:53
196
原创 Leetcode刷题之贪心算法455.分发饼干
对每个孩子 i,都有一个胃口值 g[i],这是能让孩子们满足胃口的饼干的最小尺寸;如果 s[j] >= g[i],我们可以将这个饼干 j 分配给孩子 i ,这个孩子会得到满足。你的目标是尽可能满足越多数量的孩子,并输出这个最大数值。假设你是一位很棒的家长,想要给你的孩子们一些小饼干。大尺寸的饼干既可以满足胃口大的孩子也可以满足胃口小的孩子,那么就应该优先满足胃口大的。然后从后向前遍历小孩数组,用大饼干优先满足胃口大的,并统计满足小孩数量。为了满足更多的小孩,就不要造成饼干尺寸的浪费。
2023-09-26 21:24:39
102
原创 Leetcode刷题之回溯总结
在每一步中,它尝试一种可能的解决方案,并继续向下探索。如果发现无法找到有效的解决方案,它会返回上一步,撤销之前的决策,并尝试其他可能性。回溯算法是一种强大的问题求解方法,它在计算机科学和编程中有着广泛的应用。无论你是初学者还是有一定编程经验的开发者,深入了解回溯算法都是值得的。本篇博客将引导你进入回溯算法的世界,从基本概念到实际应用,帮助你掌握这一强大的工具。回溯算法不仅在算法竞赛中有用,还在现实生活和工程项目中有广泛应用。回溯算法是一种通过不断尝试可能的解决方案来解决问题的算法。
2023-09-22 20:54:27
75
原创 Leetcode刷题之491.递增子序列&46.全排列&131.分割回文串
因为排列问题,每次都要从头开始搜索,例如元素1在[1,2]中已经使用过了,但是在[2,1]中还要再使用一次1。可以使用双指针法,一个指针从前向后,一个指针从后向前,如果前后指针所指向的元素是相等的,就是回文字符串了。示例: 输入: "aab" 输出: [ ["aa","b"], ["a","a","b"] ]给定一个整型数组, 你的任务是找到所有该数组的递增子序列,递增子序列的长度至少是2。给定一个字符串 s,将 s 分割成一些子串,使每个子串都是回文串。返回 s 所有可能的分割方案。
2023-09-21 19:31:45
83
原创 Leetcode刷题之93.复原IP地址&78.子集&90.子集II
例如:"0.1.2.201" 和 "192.168.1.1" 是 有效的 IP 地址,但是 "0.011.255.245"、"192.168.1.312" 和 "192.168@1.1" 是 无效的 IP 地址。示例: 输入: nums = [1,2,3] 输出: [ [3], [1], [2], [1,2,3], [1,3], [2,3], [1,2], [] ]给定一个可能包含重复元素的整数数组 nums,返回该数组所有可能的子集(幂集)。说明:解集不能包含重复的子集。
2023-09-19 20:54:28
159
原创 leetcode刷题之39. 组合总和&40.组合总和II&131.分割回文串
给定一个无重复元素的数组 candidates 和一个目标数 target ,找出 candidates 中所有可以使数字和为 target 的组合。candidates 中的数字可以无限制重复被选取。说明:示例 1:示例 2:这里依然是定义两个全局变量,二维数组result存放结果集,数组path存放符合条件的结果。(这两个变量可以作为函数参数传入)首先是题目中给出的参数,集合candidates, 和目标值target。此外我还定义了int型的sum变量来统计单一结果path里的总和,其实这个sum也可
2023-09-18 21:37:33
86
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅