
科研Python相关
文章平均质量分 91
小记科研Python相关
passion_up
总有人间一两风,填我十万八千梦。用于记录日常,欢迎交流。WeChat:flames_-
展开
-
最全最细机器学习笔记__吴恩达
吴恩达《Machine Learning》精炼笔记完整版,研一自用版,如果对大家有用,那我也很高兴,一起进步。原创 2024-09-23 18:11:31 · 2746 阅读 · 2 评论 -
7.9K star!免费解锁Cursor Pro功能,这个开源神器太强了!
项目采用Python开发,最新版本已支持Cursor 0.48.x,累计获得7.9K星标,被开发者誉为"AI编程加速器"。"无需付费即可畅享AI编程神器Cursor的Pro功能,支持Windows/macOS/Linux全平台!原创 2025-04-27 23:09:39 · 413 阅读 · 0 评论 -
什么是端到端end-to-end?
端到端范式的本质是让模型从 “执行者” 变为 “决策者”,人类只需定义 “输入” 和 “目标”,中间的感知、推理、决策全由模型自主完成。这一变革推动了 AI 从 “专项工具” 向 “通用智能” 演进,但也对数据、算力和可解释性提出了更高要求。原创 2025-03-16 10:24:10 · 632 阅读 · 0 评论 -
Machine Learning: 十一大基本机器学习算法
十大基本机器学习算法原创 2025-03-12 12:41:38 · 2601 阅读 · 0 评论 -
使用深度学习来实现图像超分辨率 综述!
基于深度学习的超分辨率也被应用到其它特定领域的应用中,而且表现出色。该模型通过在不同尺度上对输入低分辨率图像与高分辨率参考图像中的相似图像块进行全局的搜索与迁移,上述过程可以很好地通过高分辨率的参考图像中的高频纹理对输入低分辨率图像进行表达,进而得到非常真实的超分辨率结果。如图10所示,当用户插入一张低分辨率的图像时,会自动触发 Design Ideas 模块,一旦用户确认使用图像超分辨率技术进行图像增强,原始的低分辨率图像将立即被一张高分辨率的图像所替代,整个过程耗时极低,实际效果却有着很大的提升。原创 2025-01-05 11:42:54 · 2223 阅读 · 0 评论 -
强化学习第二天:Q-learning从理论到实践
强化学习讨论的问题是一个。原创 2025-01-01 12:21:02 · 1310 阅读 · 0 评论 -
Stable Diffusion 万字长文详解稳定扩散模型
Stable Diffusion 是 Diffusion 扩散模型中最先进的模式(Diffusion 有一些早期版本,比如: 原始Diffusion、Latent Diffusion它采用了更加稳定、可控和高效的方法来生成高质量图像。在生成图像的质量、速度和成本上都有显著的进步,因此该模型可以直接在消费级显卡上实现图像生成,可达至少 512*512 像素的图像。最新的 XL 版本可以在 1024*1024 像素的级别上生成可控的图像,生成效率也比以往的 Diffusion 扩散模型提高了30倍。原创 2024-12-28 10:57:24 · 3537 阅读 · 7 评论 -
强化学习第1天:强化学习概述
强化学习是机器学习中一种独特的存在,以其独特的思想逐渐发展为一门独立的学科,强化学习适用的场景是:一个学习主体根据环境做出不同的决策,得到相应的奖励与惩罚来改进决策 它既不是监督学习也不是无监督学习,从这段描述中也可以看出,它不适合用来进行回归或者聚类等任务了解了什么是强化学习学习了强化学习的基本概念通过一个简单示例直观感受了强化学习的基本流程学习了将图片动画化的技术。原创 2024-12-27 10:29:11 · 923 阅读 · 0 评论 -
L0、L1与L2范数、核范数+范式
L0、L1与L2范数、核范数 norm原创 2024-12-10 11:45:05 · 2555 阅读 · 2 评论 -
超分辨率入门
插值法通过在图像原有的像素周围插入新像素来加大图像的尺寸,并给这些像素赋值,从而恢复图像内容,达到提高图像分辨率的效果。基于重构的超分辨算法,通常是用多幅在同一场景下拍摄的低分辨率图像作为输入,然后对这些图像的频域或空域关系进行分析,通过引入先验信息对重建过程进行指导和约束,进而重建得到单张高分辨率图像。基于学习的超分辨率方法,通常是利用大量的训练数据,通过学习低分辨率图像和高分辨率图像之间的映射关系,预测低分辨图像中丢失的高频细节信息,从而生成超分辨图像。基于浅层学习的方法主要包括。防止其图像质量下降。原创 2024-12-04 10:33:40 · 559 阅读 · 0 评论 -
使用YOLOv5进行王者荣耀目标检测
使用YOLOv5进行王者荣耀目标检测_自学1.0原创 2024-11-18 20:11:58 · 2565 阅读 · 0 评论 -
多任务学习概述+Vision Transformer+多模态
MTL多任务学习概述+ Vision Transformer+ 多模态学习的一些笔记原创 2024-11-22 16:58:16 · 1451 阅读 · 0 评论 -
循环神经网络 Recurrent Neural Network RNN | LSTM
RNN 是一种死板的逻辑,越晚的输入影响越大,越早的输入影响越小,且无法改变这个逻辑。LSTM 做的最大的改变就是打破了这个死板的逻辑,而改用了一套灵活了逻辑——只保留重要的信息。通过上面的例子,我们已经发现,短期的记忆影响较大(如橙色区域),但是长期的记忆影响就很小(如黑色和绿色区域),这就是 RNN 存在的短期记忆问题。以此类推,前面所有的输入都对未来的输出产生了影响,大家可以看到圆形隐藏层中包含了前面所有的颜色。:翻译工作也是典型的序列问题,词的顺序直接影响了翻译的结果。原创 2024-11-11 16:40:01 · 1372 阅读 · 0 评论 -
数据增强 Data Augmentation
数据增强(Data Augmentation)是一种技术,通过对现有数据进行各种变换和处理来生成新的训练样本,从而增加数据集的多样性和数量。 这些变换可以是几何变换、颜色变换、噪声添加等,使模型在训练过程中能够见到更多种类的数据,从而提升模型的泛化能力和鲁棒性。原创 2024-11-23 17:11:55 · 452 阅读 · 0 评论 -
Softmax函数 + 为什么用temperature?
Sigmod函数是Softmax函数的一个特例,Sigmod函数只能用于预测值为0或1的二元分类。Softmax是一种激活函数,它可以将一个数值向量归一化为一个概率分布向量,且各个概率之和为1。将(−∞,+∞)范围内的数值映射成为一个(0,1)区间的数值,一个(0,1)区间的数值恰好可以用来表示概率。softmax函数的输出是与输入具有相同维度的向量,每个元素的范围为0到1。原创 2024-11-20 10:29:24 · 719 阅读 · 0 评论 -
残差网络resnet--概念、作用、原理、优缺点及示例代码+vgg介绍
残差连接是一种直接将输入信息传递到后续层的方式,它使得网络的层可以学习到输入和输出之间的 “残差”。较小的卷积核 可以减少参数数量,增加网络深度,提高网络的非线性表达能力,同时也更容易训练和优化。2014年ImageNet图像分类大赛的亚军,冠军是GoogleNet,而resnet是2015年的冠军。,其输出可以表示为输入加上一个残差函数,即y=F(x)+x,其中 x是输入, F(x)是残差函数。ResNet 在图像分类任务上表现出色,能够准确地将图像划分到不同的类别中。是许多模型中的主干网络。原创 2024-11-08 12:46:10 · 1884 阅读 · 0 评论 -
GPT + Transformer + LSTM + Attention
Transformer 用自注意力 + 并行计算重塑序列处理,GPT 将其推向文本生成极致,但其 “智能” 本质是 token 模式的统计拟合,与人类具身智能存在本质鸿沟原创 2024-10-22 08:00:00 · 726 阅读 · 0 评论 -
XGBoost算法模型
XGBoost算法小计原创 2024-10-15 12:04:54 · 956 阅读 · 0 评论 -
BERT模型
BERT是一种预训练的语言模型。它基于 Transformer 架构。Transformer 主要由多头注意力(Multi - Head Attention)机制和前馈神经网络(Feed - Forward Neural Network)组成。多头注意力机制能够让模型同时关注输入序列的不同部分,从而捕捉到丰富的语义信息;前馈神经网络用于对每个位置的特征进行进一步处理。BERT 采用了无监督的预训练方式,有两种预训练任务。原创 2024-11-22 19:09:05 · 426 阅读 · 0 评论 -
SVM模型(多kernel)和SVC类
支持向量机的基本思想是在特征空间中找到一个最优的分类超平面,使得不同类别的样本尽可能地被分开,并且离超平面的距离尽可能远。在深度学习中,图像通常以张量的形式表示,其中第一维通常表示批量大小(这里为 1,表示单个图像),后面三维分别表示通道数、图像高度和图像宽度。通过查看每一层的输出形状,我们可以了解数据在网络中的变化过程,以及每一层对数据的具体影响。,可选值有 'linear'(线性核)、'poly'(多项式核)、'rbf'(径向基函数核,高斯核)、'sigmoid'(Sigmoid 核)等。原创 2024-11-04 11:49:04 · 1226 阅读 · 0 评论