自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(80)
  • 收藏
  • 关注

原创 comfyui安装的报错:cuda driver && easyphoto的报错坑:ONNXRuntimeError FAIL

行吧,花了几个小时,才知道要把torch版本降级,连同torchvision降级、torchaudio也降级。在github上随便找的一个补救贴,也就随便试了一下,就不再报错了,稀里糊涂就好了。安装comfyui的时候,comfyui默认的是最新版的torch 2.5.1版本。稍显麻烦,要先查看自己电脑里的cuda版本,去找对应的torch版本下载。原以为是tensorrt版本跟onnx版本不同,但是。但是,能不报红,还能跑起来就行吧,不管那么多。同事升级cuda驱动之后。

2024-07-30 17:02:04 613

原创 Lora模型训练的参数-学习笔记

刚做完正则化训练的课,有个很惊奇的发现,之后有时间了,再抽空去梳理吧。

2024-07-17 19:02:46 3684 4

原创 KMP算法与Next数组

(因为repeat[4]=2,子串当前冲突字符的前个字符的repeat[4]=2值,表示与前缀相同的字符长度为2,但下标是从0开始的,所以实际上repeat值,表示第0~repeat[j-1]位,即第0、1位的前缀都能匹配到冲突位之前的字符,那冲突位只要变为前缀的第repeat[j-1]位,即子串的第2位,Word[2]开始,继续与主串继续做比较)(即Word[j=0]≠Main[i],再回溯j = next[j]=next[0]=-1,表示已经回溯到子串的第-1位字符,无字符)

2024-07-14 23:59:02 548

原创 机器学习——CBOW基于矩阵(手动实操)

我已经很满意了,至少这个东西是可以去预测的,至于预测为什么不正确,我目前猜测主要还是跟词频有关。在结果中,and和the、a的预测准确率较高,经过打印词频,确实词频高。但其中,预测准确的,也有一些低词频的词汇,所以这个方式目前是可用的。至于预测效果是否好,主要还是看调参了,比如迭代次数、比如学习率等等。基于矩阵的CBOW基础算法,其实是负采样的前提算法。我只要模型流程是正确的,能跑的通。预测准确率为22%左右。但这不是我重点考虑的。

2024-02-25 15:03:14 680

原创 controlnet的模型下载

controlnet模型有sd15和基于sd15上的fp16版本fp16版本的模型比较小,但功能效果跟sd15是一样的controlnet的fp16模型下载地址controlnet的openpose里,有个dw_openpose的预处理器,这个姿态检测的模型效果特别好,比openpose_full好太多,准确太多,这个也需要单独下载。

2024-02-12 19:44:26 9849

原创 Roop的安装教程

roop插件的安装,并不容易并且最好就是在电脑本地完成,因为涉及到C++、visual studio软件,并且还需要在电脑本地放置一些模型,用autoDL其实也有镜像,但是需要数据扩容至少100G,烧钱。。。电脑本地,自己部署,免费,省钱。。。贫穷使人开智。。。

2024-02-12 18:16:54 2297 1

原创 机器学习——CBOW负采样(手动实操)

CBOW的Hierarchical softmax代码,虽然没有成功,但至今我仍然认为代码逻辑是没有问题。一定是有某些地方,是我理解有误,先暂时搁置Hierarchical Softmax的方式。今天开个坑吧,虽然这个坑,可能年后才能填完,这两天先试试。负采样这个词,好像在哪看到过,忘了。

2024-01-29 22:16:07 639

原创 SD杂症:TemporalKit的key关键帧无图片问题

本地安装好temporalkit后,进行Ebsynth预处理后,居然发现key文件夹里,没有一张图片搜遍百度,搜到了原因,也搜到了解决方案但是。。。。这个解决方案我觉得很不cool,像个打补丁的老师傅,缝缝补补又三年还好,终于发现,并不是temporalkit的问题,其实是SD本身的设置问题。

2024-01-05 14:49:17 2683 8

原创 TemporalKit的纯手动安装

最近在用本地SD安装temporalkit插件本地安装插件最常见的问题就是,GitCommandError:…原因就是,没有科学上网,而且即使搭了ladder,在SD的“从网址上安装”或是“插件安装”都不行,都不行!!!!一气之下,不如自己先从git上下载文件夹,再解压到SD本地文件夹里过程遇到了一些问题报错,逢山开路,遇水搭桥,记录一下。

2024-01-03 15:36:12 3415

原创 机器学习——词向量模型(CBOW代码实现-逻辑顺利,预测准确率为0,暂告一段落)

如果是按句取上下文,那么一个句子开头和末尾单词的下文就是None,语料文件有很多个句子,就会有很多个None。:毕竟CBOW是获取关键词的前c个和后c个单词来训练的,但开头单词没有前c个单词,末尾单词没有后c个单词。如果按所有句取上下文,那整个语料文件就只有开头有None,末尾有None,None数量很少。只希望,CBOW案例,不要太难,不然我根本寸步难行,只能天天打游戏聊以自慰。:不行,因为中文分词很麻烦,我懒得去搞分词,重点是CBOW。我看书的时候,感觉有点儿困难,哭的很大声…

2023-11-24 12:09:24 1573

原创 批量添加PPT备注

但直到最近写课做PPT,做了80多页PPT,要把每一页PPT的备注粘贴进去时。毫无疑问,复制粘贴的手指头,会僵硬,我将不再是那个和平经营里优秀的我自己。而且,我还不止是做这一个PPT,以后还要做几个PPT,每次都要这么粘?我一直都觉得,用python高效办公,是件没必要的事。但是粘到5页,我感觉ctl+c\v频率有点儿高。所以,还是搞个批量导入PPT备注的小工具吧~~我觉得,有什么关系呢,一页一页粘。隐隐担心,腱鞘炎会不会出现。

2023-11-24 11:01:11 804

原创 深度学习——前馈神经网络(未开始)

但按照GPT的学习指引,真正要学习模型或是相关干货,还是要从前馈神经网络。买了二手的深度学习和神经网络,前边基础认知看的是津津有味。机器学习入门,终于看完辣。

2023-11-14 11:36:30 116

原创 机器学习——奇异值分解案例(图片压缩-代码简洁版)

如果不直接调包,感觉自己又像是在造轮子造螺丝,明明别人都已经造好了,为什么还要自己造一遍呢。首先,获取到的图片信息是个嵌套数组,一般每个像素表示一个向量,这个向量里含有RGB三个数值。既然初衷至今没变,那就不应该求快,应该尽可能合格专业地磨洋工。好叭,那就慢慢来,自己造个破破烂烂的轮子,也能敝帚自珍。生活本就没有意义,再加快脚步,又有什么意义呢?这就需要opencv来获取图片的RGB信息。如果没有实际操作,会有一种浮在云端的虚无感。但是如果要实际操作,我又不想直接调用库包。通过奇异值分解,来压缩图片。

2023-11-09 19:12:33 562

原创 机器学习——CBOW负采样(纯理解)

刚从前一个坑里,勉强爬出来,又掘开另一坑看了很多文章+B站up主。。。糊里糊涂但是我发觉,对于不理解的东西,要多看不同up主写的知识分享书读百遍,其意自现,我是不相信的,容易钻牛角尖但是,可以多看看一千个哈姆雷特的想法,想法积累多了,一定有那么一刻,让人灵光乍现!!!拍脑顿悟:原来如此!给我顿悟的是优快云的一篇文章优快云啊,听大神一席话,如长夜得明灯啊!倒不是其他的文章和up主,没有解释过负采样,但这篇能让我顿悟的点在于:前后对比。

2023-11-03 14:25:08 519

原创 机器学习——词向量模型(纯理解)

下边这篇,让我大致理解了训练过程数据的变化,嗷。。。太牛了举例说明CBOW训练时的数据变化直到我看到这篇NLP笔记之word2vec算法(2)–Hierarchical Softmax原理+数学推导 - 张小彬的文章 - 知乎我天呐。。。瞬间有种顿悟的通透感!虽然还是有一些不明确的地方,但是朦胧之中,抓住了一丝丝的脉络看别人总结的关系,很清晰了。为了更方便自己理解,且减少工作量,只梳理【基于HierarchicalSoftmax模型下的CBOW模型】先理解【基于HierarchicalSoftmax

2023-10-22 18:07:05 1503

原创 机器学习——主成分分析(PCA,纯理解)

略略翻了下书,差点儿窒息在床上…

2023-10-15 18:12:14 170

原创 机器学习——奇异值分解二(特征分解+SVD纯理解,头疼系列)

矩阵的特征分解特征值和特征向量的定义抄来的:奇异值分解困惑1:特征值和特征向量,和原矩阵是怎样的关系,需要一个栗子进行更具象的认识困惑2:为什么多个特征向量组合成的矩阵,可以构成矩阵A的特征分解?需要推导困惑3:为什么要特征向量标准化?困惑4:标准正交基是什么,为什么满足WTW=IW^TW=IWTW=I为什么。。。。太多why,只能自己来解决吗。。。涕泪横流。。。先来看看特征值和特征向量特征值与特征向量的推导求解特征向量与特征值Ax=λxAx=λxAx=λx,λ是特征值,但特征

2023-10-15 18:10:03 603 2

原创 机器学习——奇异值分解一(矩阵向量,纯理解)

先把坑挖了,再慢慢填,避免自己划水跳过。开坑,刚看完书,已经有些窒息了。我爱线代,线代爱我,阿弥陀佛。

2023-09-18 11:49:49 246

原创 机器学习——聚类之K-means(手动代码)

这是我看下来,最简单的内容,哭了,K-means,so niceK-means,由于太过简单,不需要数学推导时,一时间甚至无从下指首先,K-means需要提前锚定几个点,然后让所有数据样本根据与这几个点的距离,将分别选择最短距离凑成一簇有那么点近水楼台先得月,兔子硬吃窝边草的意思然后所有样本分别站队分组后,每个组再重新选出新的锚定点:计算出所有特征各自的均值,作为新锚定点重复分组与计算新锚点,直到最终所有组的锚点不再改变,或是超过最大迭代次数。但非常关键的是,如何确定初始锚点?

2023-09-16 21:35:27 403

原创 机器学习——boosting之XGBoost(推导+手动代码)

看了几篇,总感觉这个XGBoost不仅仅是对GBDT的改进版,还包含了对CART决策树的改进。书上说,XGBoost有很好的性能,在各大比赛中大放异彩,行吧,冲这句,好好看看!划水一整天,模型看了仨!不错,虽然现在在打哈欠,还是很想把XGBoost梳理梳理。这仨都是前k-1轮的,相当于常数。

2023-09-07 19:27:55 630 1

原创 机器学习——boosting之GBDT

问题来了,我们现在要求Loss最小,原本是可以直接使Loss对x求导,进而求出θ,得到强分类器的。发现,我的GBDT回归,实际就是上一篇提升树的二叉回归树…还是要再深挖深挖,小小的boosting,挖呀挖呀挖呀挖。要使下一次迭代时,Loss降低,则需要ΔLoss

2023-09-07 17:40:18 365

原创 机器学习——boosting之提升树

提升树和adaboost基本流程是相似的我看到提升树的时候,懵了这…跟adaboost有啥区别???直到看到有个up主说了,我才稍微懂相当于,我在adaboost里的弱分类器,换成CART决策树就好了呗?书上也没有明说,唉。。。还好,有。

2023-09-07 00:15:47 558

原创 机器学习——Adaboost(推导+手动代码)

但不同的是,随机森林是每个学习器都统计分类结果,采用票高者得的方式,获取最终分类结果。Adaboost,与随机森林相似,也是由多个学习器共同决定最终分类的。Adaboost,则是采用权重衡量学习器的分类结果。

2023-08-21 12:48:35 533

原创 机器学习——随机森林【手动代码】

随机森林这个内容,是目前来说。最最最简单,最好理解,应该也是最好实现的了!

2023-08-15 10:09:51 496

原创 机器学习——SVM核函数

(性别)(年龄)(样貌),那么根据这三个维度的数据,可以拓展成更高维度(更多个不具名的影响因素),例如xc、xd、xe、xf、xg,再代入SVM的对偶问题里进行计算。这里的推导,实际就是在印证高斯核函数中,是如何拓展成高维向量,并且高维向量的点积,是如何用当前低维数据进行计算的。但由于高维度的点积计算量太大,找到一个原低维的计算式等于高维的点积结果,那个计算式就是核函数!但如果,现在将3个影响因素通过某种关系,上升到无穷个影响因素,,当x,y两条数据差距非常小,很接近时,核函数值接近1,

2023-08-06 22:07:44 777 1

原创 机器学习——SMO算法推导与实践

最后拉格朗日对偶问题,是要求解MAXλL(λ)=∑λi−∑i=1n∑j=1nλiλjxixjyiyj2MAX_λL(λ)=∑λ_i-\frac{∑_{i=1}^n∑_{j=1}^nλ_iλ_jx_ix_jy_iy_j}{2}MAXλ​L(λ)=∑λi​−2∑i=1n​∑j=1n​λi​λj​xi​xj​yi​yj​​即,通过调整λ值,求解L函数极大值而Max:LMax: LMax:L可以转化为求Min:−LMin:- LMin:−L,即求解MinλL(λ)=∑i=1n∑j=1nλiλjxixjyiyj2

2023-08-06 20:00:05 1540

原创 理解区分全微分、导数、偏导数等

多元函数下的全微分、导数、偏导数、偏微分等理解

2023-07-08 19:38:58 3145

原创 机器学习——支持向量机(数学基础推导篇)

支持向量积的原理,网上已经有很多人解释了。支持向量机(SVM)——原理篇机器学习笔记(五):支持向量机(SVM)支持向量机算法(SVM)详细讲解(含手推公式)但即使看了原理篇,依然有绊倒自己的地方,或许是自己数学基础跟不上各大阿婆主,只好自己列出困惑的数学问题。当数据集线性可分时,假设有一个线性函数能将数据集分类,这就是感知机模型该做的事:找到能让数据集线性划分的一个线性函数 y=∑wixi+by = ∑w_ix_i + by=∑wi​xi​+b但实际上,不一定只有一个线性函数,能线性划分数据集,那

2023-07-04 00:22:33 944

原创 机器学习——决策树(手动代码)

首先,构造决策树的过程如下:① 按特征划分群体,并计算衡量指标(信息增益、信息增益率、基尼系数)② 选取衡量指标表现最好的特征,对群体进行划分,并构建第一层树③ 重复①②步骤,当特征全被分完,或是类别唯一确定后,停止划分(还可以是其他条件)

2023-06-30 15:18:36 342 1

原创 机器学习——决策树(三种算法)

信息量、信息熵、条件熵、信息增益、基尼系数...通俗理解

2023-06-27 20:02:31 2891 1

原创 机器学习——感知机模型(手动代码)

感知机,应该是很简单的模型了。

2023-06-19 20:01:18 1526 1

原创 机器学习——KNN算法(手动代码,含泪)

徒手实现代码的过程,真是含泪和心酸,浪费了生命中的三天,以及工作中的划水一小时终于滤清思路后,自己实现了KNN都说KNN是最基础,最简单的分类器放屁!骗纸!!!它的想法是简单的,但实现的过程何其复杂!!!问题何其之多!!是我实现感知机、逻辑回归分类、线性回归、朴素贝叶斯中,最难实现的分类算法!!!!给多少时间都无法将这个槽吐尽,甚至算法都没完全弄好,但只剩收尾工作了。

2023-06-19 20:00:02 627 3

原创 机器学习——朴素贝叶斯(手动代码实现)

从小菜鸡的试错思考中逐步清晰!python纯手动实现朴素贝叶斯的算法,对比 sklearn实现的算法,两者结果有差异,但差异不算太大。

2023-06-19 19:23:00 2583

原创 极大似然估计法及其损失函数的优化方法

二分类、多分类极大似然估计法的推导与计算,手动实现softmax分类过程,重难点解决:1、sofgmax的交叉熵损失函数求导(梯度计算)2、独热编码的实现和逆解

2023-05-25 20:03:15 1092

原创 最小二乘法-损失函数及优化算法

真尼玛神奇啊!!!!梯度下降法居然比求导法的结果要好很多,这是为什么???????手动梯度下降法,真的是。。。太慢了

2023-05-25 13:02:07 1737

原创 分类逻辑回归实例一

多分类逻辑回归sklearn简洁实现

2023-05-24 15:52:37 492

原创 多元线性回归实例

多元线性回归简单实例

2023-05-24 14:25:19 871 1

原创 机器学习基础认识(一)

预测,一般是指:根据数据,预测数值分类,一般是指:根据数据,进行分类。

2023-05-18 19:01:39 611

原创 机器学习基础(粗学)【未完待续】

理解基础,梳理一下模型、优化算法

2023-05-12 19:29:01 651

原创 正态分布线性计算的方差推导(含协方差推导)

正态分布的线性加减计算,涉及到方差计算的推导,要深度了解里边不止是方差相加,还涉及到协方差的!!!尤其当两组数据是相关时,协方差是必然要计算进去的!

2023-05-11 20:41:27 2662

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除