- 博客(14)
- 收藏
- 关注
原创 闭坑qt推荐的pyside6-depoly打包软件
当然比较一下使用pyside6-depoly有一个优点就是体积小很多,同样是onefile,pyside6-depoly生成的300M,pyinstaller生成700M的文件,如果代码和库使用的比较规范的,还是可以试一下。完成的软件有点大,看到qt文档中推荐用pyside6-depoly来打包,没想到一次就是2h左右,一旦出了问题,报错基本等于0,提示也是千篇一律提示error,找不到main.exe之类的,完全找不到问题出在哪。剩下的情况无脑使用pyinstaller就可以了,要不等的心累,调的也累。
2025-08-19 21:33:30
172
原创 面试资料-激活函数相关
激活函数(AFs)通过将非线性引入神经网络层而发挥重要作用。在没有非线性AFs的情况下,典型的神经网络只能对输入的加权和进行建模,从而限制了它们捕捉数据中复杂关系的能力。有效的激活函数具有几个关键属性:a)引入非线性曲率以增强优化景观中的训练收敛性;b)在训练过程中保持梯度流动畅通;c)确保模型计算复杂度的最小增加;d)保持数据的分布以优化网络的训练下面的分类参考文章整体分为2大类 固定AFs 和 自适应激活函数(AAFs)
2025-08-19 17:15:45
895
原创 pyside6-deploy 报错
使用pyside6-deploy打包的时候报了一个很离谱的错误local variable 'tree' referenced before assignment。令人迷惑的报错,修改库中的dependency_util.py文件后,主要输出完整的异常捕获,可以看到错误是文件编码的问题。原因是这个文件的编码是utf-8 bom,修改成utf-8就可以了。
2025-08-18 23:26:24
368
原创 更好的理解Model Fusion via Optimal Transport(二)
文章中最难理解的就是如何最优传输跟模型合并有什么关系,因为如果没了解过这个优化问题的,很难将它跟神经网络、神经元的合并结合在一起理解,所以我们先看一个例子,忽略其中的细节,理解整体。
2025-08-18 15:17:43
685
原创 随机森林-论文(二)
即使不剪枝,当分裂到 “叶子节点” 时(比如节点中所有样本属于同一类,或样本数量为 1),分裂会停止;训练数据是有限的,因此一棵树上的叶子节点数量必然有限,对应的超矩形数量也有限(每个叶子节点对应一个超矩形)。因此,对于任意一棵决策树(由固定的 Θ 和训练集生成),它将 x 判定为类别 j 的区域,一定是 “有限个超矩形的并集”,记为 S₁, S₂, ..., Sₖ。2. 有限区域划分:尽管随机向量 Θ 是随机的,但所有可能的树分类器将 x 判定为 j 的区域(超矩形并集)种类是有限的,记为。
2025-08-17 22:47:08
1130
原创 更好的理解Model Fusion via Optimal Transport(一)
思想还是很朴素的,就是先找到相似的节点(或者说对齐)然后再合并,见下图可以很好的理解,合并两条流水线肯定需要把相同的岗位的员工放在一起。神经元是参数矩阵中承载特定计算逻辑的基本单元,其本质是一组权重参数的集合,而 “节点连接” 只是这种参数计算关系的直观简化表达。文章其实是权重合并和神经元混着使用的,所以会让我有些困惑,神经元合并是在做什么?直接平均融合的效果并不好,所以作者提出了一种 “分层软对齐+参数平均”的方法。的前提下,对齐不同模型的神经元功能,实现参数的有效融合?
2025-08-17 20:58:32
678
原创 随机森林-论文(一)
回顾下经典机器学习算法-随机森林的原文。第一部分主要介绍了作者设计随机森林的动机和受到的启发,但提到到之前的一些工作,如bagging,都是作者本人完成的。Leo Breiman 利奥·布雷曼基于这些研究,作者定义随机森林为一种由树结构分类器集合组成的分类器,其中是独立同分布的随机向量,每棵树都为输入 x 的最受欢迎类别投一票。
2025-08-16 22:55:00
1095
原创 恢复系统反复提示遇到未知问题,反复重启无效
然后黑框内输入regedit打开注册表下面路径HKLocal machine/SYSTEM/SETUP/修改完之后全部关闭再次点击ok,会进入系统安装的界面,此时等待结束后,就能够正常进入系统了。/ChildCompletion修改 “setup.exe”将 1 改成 3。确实可以正常操作,额外补充一些图方便大家对照错误。出现错误画面时,按 SHIFT+F10。
2025-08-16 22:46:37
411
原创 模型合并论文-Loss Surfaces, Mode Connectivity, and Fast Ensembling of DNNs
损失曲面(Loss Surfaces):指深度神经网络(DNNs)的损失函数在权重空间中的几何表现。由于 DNNs 包含数百万参数,损失曲面具有高度非凸性,且局部最优解、鞍点的数量极多,甚至随参数数量呈指数级增长。其几何特性(如连接性、平滑性)直接影响模型训练效率和泛化能力。模式连接性(Mode Connectivity):指深度神经网络的局部最优解(“模式”)之间存在简单曲线(文中是多边形链、贝塞尔曲线),这些曲线上的训练损失和测试精度几乎恒定,即能在保持高性能的同时连接不同模式。
2025-08-16 14:40:58
1160
原创 Docx文件的读写操作逻辑
docx 是 Microsoft Office 2007 及以上版本采用的文档格式,其本质是一个基于 XML 的压缩包,而非传统的二进制文件(如旧版的.doc 格式)。是最核心的文件,文档中的文字、段落、表格、列表等内容都以 XML 标签的形式存储在其中。用编程语言操作word的格式设置实在是不方便,所以检索下了docx的操作逻辑,感觉也可以跳过python 库 直接操作拆分后的文件。docx 文件的底层结构:ZIP 压缩包 + XML 文件。将docx 文件的后缀改为。
2025-08-15 21:22:08
285
原创 多模态大模型--数据源角度
部分数据输入、输出较为新颖的文章检索了差不多250篇(5页)文章,基本上只要是基于开源的Llama、Qwen或者其他VL模型等,最终都会回到图像或者序列编码上,多模态回归到双模态。也有人基于Transformer或者其他设计独立的结构,但基本符合Encoder-Decoder的范式。
2025-08-15 17:01:36
789
原创 Using co-sharing to identify use of mainstream news for promoting potentially misleading narratives
使用共同分享来识别主流新闻是否用于宣传潜在的误导性叙述》, 1-18.
2025-08-15 15:34:00
693
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1