
机器学习与统计学习
文章平均质量分 72
理论
naca yu
拧过螺丝,焊过板子的AI调参侠,对多模态融合感知有浓厚兴趣,交流请看文章-置顶,欢迎友好探讨各类问题
展开
-
多模态信息中的神经网络集成学习方式(个人笔记-持续更新)
Gradient Boosting原创 2022-04-29 22:48:03 · 3083 阅读 · 0 评论 -
78行完成健康云核酸统计(OCR自动识别并导出excel文件)
基于paddlepaddle的paddleocr库简单写了一款能够批量识别ocr图片并生成excel统计信息的小脚本原创 2022-04-09 23:04:07 · 1562 阅读 · 0 评论 -
A Survey on Vision Transformer(视觉注意力机制的前沿与作用机制分析综述-持续更新)
注意力前沿工作机制原创 2022-03-15 17:37:30 · 4925 阅读 · 2 评论 -
机器学习-归纳偏好(西瓜书系列1)
每一种算法都带有一种归纳偏好,归纳偏好,可以理解为算法对于某种假设的偏好,这种偏好可以体现为线性回归模型对于模型线性的假设偏好等。奥卡姆剃刀原理关于归纳偏好,对于一个数据,模型有许多的归纳偏好,也就是有许多的假设,那么如何进行归纳假设的选择呢,一般性的原则就是:最简单原则-奥卡姆剃刀原理,也就是使模型的结构尽量简单,这也是《统计学习》中提到的结构风险最小化。简单有什么好处呢,其中之一就是具有良好的泛化性,如果结构过于复杂,会产生过拟合的现象。NFL(没有免费的午餐)如图,见详情可见原创 2021-12-23 22:53:20 · 2558 阅读 · 1 评论 -
视觉Transformer开山之作:Vision Transformer(ViT)论文解读与复现
介绍了VIT的结构及其复现原创 2021-12-17 23:30:08 · 6883 阅读 · 2 评论 -
深度学习中对tensor向量进行维度调整的常用方法总结reshape()、transpose()、unsqueeze()
在炼丹日常,很多模型为了保持tensor的计算便利和维度统一(例如resnet)会涉及到很多的维度转换,这时候很容易就绕晕,在参加飞浆的transformer课程中,学习了很多灵活变化维度的方法,这些方法能够让我们减少相当一部分的维度转换的复杂度。下面逐个介绍常用的维度转换方法:reshape方法:维度重整简单的reshape方法我们就不进行介绍,主要介绍reshape中-1的灵活运用,我们可以轻松的避免一些计算。import paddleimport paddle.nn as nn原创 2021-12-16 22:16:49 · 9687 阅读 · 3 评论 -
MMD(最大最小距离)与均值聚类的K_Means算法实现与性能比较
文章目录一. MMD算法简介与实现1.1 MMD算法简介1.2 算法实现1.2.1 算法1.2.2 程序1.3 算法性能二. 均值聚类算法简介与实现1.1 均值聚类算法简介1.2 算法实现1.2.1 算法1.2.2 程序sklearn简单实现手动实现1.3 算法性能三. 两类算法性能比较一. MMD算法简介与实现1.1 MMD算法简介 MMD(最大最小距离算法)最大最小距离法是模式识别中一种基于试探的类聚算法,它以欧式距离为基础,取尽可能远的对象作为聚类中心。因此可以避免K-m原创 2021-11-17 22:47:43 · 4890 阅读 · 4 评论 -
深蓝学院目标检测课程Detectron中train.py的模型无法下载问题
深蓝学院pycharm中,在配置好环境后,原创 2021-11-15 11:09:34 · 3497 阅读 · 0 评论