自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 【Opencv+Yolo】Day2_图像处理

本文介绍了计算机视觉中常用的图像处理技术:1) 图像梯度计算(Sobel、Scharr和Laplacian算子);2) Canny边缘检测方法(包括高斯滤波、梯度计算、非极大值抑制和双阈值检测);3) 图像金字塔(高斯金字塔和拉普拉斯金字塔);4) 图像轮廓检测(使用findContours函数和不同检索模式)。文章详细说明了各算法的原理、参数设置及实现步骤,并提供了Python代码示例,帮助理解这些技术在边缘检测和图像分析中的应用。

2025-05-27 23:59:35 854

原创 【Opencv+Yolo】_Day1图像基本处理

本文摘要:介绍了OpenCV图像处理的基本操作,涵盖图像读取、视频处理、颜色通道提取、边界填充、数值计算、图像平滑、腐蚀膨胀、开闭运算等核心方法。重点包括:1)图像基础操作(读取、显示、保存);2)视频帧处理和ROI截取;3)六种边界填充方式;4)四种平滑滤波技术;5)形态学操作(腐蚀、膨胀及梯度运算);6)开闭运算及礼帽/黑帽变换。通过代码示例演示了各算法的实际应用场景,为计算机视觉基础处理提供了完整的操作指南。

2025-05-26 17:04:01 1135

原创 Bert+Transformer原理简介总结

文章主要介绍了自然语言处理(NLP)中的两个关键技术:Attention机制和Transformer模型,以及基于Transformer的BERT模型。首先,Attention机制解决了旧模型如LSTM在处理长句子时的梯度消失问题,通过允许模型在生成输出时聚焦于输入序列的相关部分。接着,Transformer模型通过自注意力机制和多头注意力机制,实现了对输入序列的并行处理,提高了处理长序列数据的效率和效果。最后,BERT模型利用Transformer的编码器机制,通过掩码语言模型和下一句预测任务进行预训练,

2025-05-18 10:52:00 981

原创 AlexNet+VGG+GoogleNet+ResNet原理简短总结

AlexNet是一种经典的卷积神经网络(CNN)结构,通过多层卷积、ReLU激活函数和池化操作提取图像特征。其核心公式M=(N-F+2p)/S+1用于计算输出特征图的大小,其中N为输入尺寸,F为滤波器大小,p为填充,S为步幅。AlexNet包含5个卷积层和3个全连接层,逐步将输入图像转换为低维特征向量,保留语义信息。VGG和GoogLeNet进一步优化了CNN结构:VGG采用3x3卷积核和2x2池化,增加非线性;GoogLeNet通过Inception模块并行使用不同大小的卷积核,提升表现力并减少计算量。R

2025-05-17 11:45:28 1031

原创 【Pytorch】小土堆自学日记(九)

介绍了梯度下降和优化器的官方文档及具体使用

2024-07-30 11:11:57 395 1

原创 【Pytorch】小土堆自学日记(八)

第一部分介绍了非线性激活中常用的模型(relu和sigmoid),第二部分完成了线性层的介绍和代码实践以及第三部分搭建小模型的实战训练

2024-07-24 11:27:27 438

原创 【Pytorch】小土堆自学日记(七)

介绍了conv2d的具体操作和池化的具体操作

2024-07-21 20:32:21 994

原创 【Pytorch】小土堆自学日记(六)

主要学习了nn.Modules和一些卷积操作的参数

2024-07-18 19:54:45 584

原创 【Pytorch】小土堆自学日记(五)

以扑克牌为例。

2024-07-18 13:19:10 366

原创 【Pytorch】小土堆自学日记(四)

(下载慢复制下载链接,复制到迅雷)

2024-07-17 18:25:11 447

原创 【Pytorch】小土堆自学日记(三)

Transform.py是一个文件/工具箱,totensor、resize这些class就是其中的工具;一般就是拿。

2024-07-13 20:52:11 1034

原创 【Pytorch】小土堆自学日记(二)

''''''参数使用:tag (str): 图表标题img_tensor (torch.Tensor, numpy.ndarray, or string/blobname): 图像的数据类型global_step (int): 记录标量的全局步数,通常用于表示训练过程中的时间点walltime (float):不常用dataformats (str):图像数据类型的特殊说明(C是通道;H是高度;W是宽度)

2024-07-11 19:13:21 451

原创 【Pytorch】小土堆自学日记(一)

1.pycharm console验证。

2024-07-08 18:14:37 1031

原创 吴恩达机器学习笔记DAY-7(自用版)

某些机器学习库可能在后端使用这种复杂方法求解w&b,但对于大多学习算法,梯度下降提供了更好的方法完成工作。参数:①向量w=[w1,w2,w3,...... wn]: 第i个训练示例(实际上是有各种因素的列表,比如下图中第二行方框)①回顾:之前更多的是一个特征x(例如房屋的大小->预测房屋的价格)速度慢(feature>10000):第i个训练样例中的第j个特征(列表中的一个值)........卧室数量,层数,房屋年龄等。以前单维度:f(x)=wx+b。多元线性回归:f(x)=

2024-07-04 23:20:24 633

原创 吴恩达机器学习笔记DAY-6(自用版)

①梯度下降:不仅用于线性回归,还用于训练一些先进的神经网络模型,也被成为深度学习模型。②梯度下降是一种可用于尝试最小化任何函数的算法,不仅仅是最小化。线性回归的成本函数。③事实证明,梯度下降适用于更一般的函数,

2024-07-02 18:22:52 1286

原创 吴恩达机器学习Day-5(自用版)

Objective目的:minimizeJ(w,b)

2024-07-01 16:18:39 563

原创 吴恩达机器学习Day-4(自用版)

J是衡量平方误差有多大的成本函数,因此选择最小化这些平方误差的w,使他们尽可能小,才能为我们提供一个好的模型。

2024-04-30 23:09:30 459 1

原创 吴恩达机器学习DAY-3(自用版)

在分类模型中:只有少量可能的输出(ps:区分猫狗),因此存在一组离散的,有限的可能输出(predicts categories && small number of possible outputs)在这个未分级的实验中,您可以看到线性回归模型是如何在代码中定义的,并且您可以看到显示模型对给定w和b的选择的一些数据的拟合程度的图表。您还可以尝试不同的w和b值,看看它是否改善了对数据的拟合。f的工作是采用新的输入x和输出进行估计和预测y-hat(y-hat是对y的估计或预测,y指代真训练集中的真实值);

2024-04-14 10:54:11 1037 1

原创 吴恩达机器学习DAY-2(自用版)

聚类算法是一种无监督算法,获取没有标签的数据并且尝试自动将他们分组到集群中。

2024-04-07 11:24:46 511

原创 吴恩达机器学习DAY-1(自用版)

①Arthur Samuel:没有直接对问题进行显式编程的情况下,让 计算机拥有学习能⼒的研究领域(跳棋程序)(选B)②机器学习算法一般来说可以分为两大类:-监督学习(Supervised Learning)-使用较多,快速发展-无监督学习(Unsupervised Learning)

2024-04-06 21:04:11 555 1

吴恩达机器学习自用笔记与实验室代码

吴恩达的机器学习十分好入门,并且易懂。是机器学习入门的非常好的课程。在学习他的课程时,结合代码笔记和pdf学习是十分重要的,也可以帮助快速理解老师讲的内容。

2024-07-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除