- 博客(20)
- 收藏
- 关注
原创 【Opencv+Yolo】Day2_图像处理
本文介绍了计算机视觉中常用的图像处理技术:1) 图像梯度计算(Sobel、Scharr和Laplacian算子);2) Canny边缘检测方法(包括高斯滤波、梯度计算、非极大值抑制和双阈值检测);3) 图像金字塔(高斯金字塔和拉普拉斯金字塔);4) 图像轮廓检测(使用findContours函数和不同检索模式)。文章详细说明了各算法的原理、参数设置及实现步骤,并提供了Python代码示例,帮助理解这些技术在边缘检测和图像分析中的应用。
2025-05-27 23:59:35
854
原创 【Opencv+Yolo】_Day1图像基本处理
本文摘要:介绍了OpenCV图像处理的基本操作,涵盖图像读取、视频处理、颜色通道提取、边界填充、数值计算、图像平滑、腐蚀膨胀、开闭运算等核心方法。重点包括:1)图像基础操作(读取、显示、保存);2)视频帧处理和ROI截取;3)六种边界填充方式;4)四种平滑滤波技术;5)形态学操作(腐蚀、膨胀及梯度运算);6)开闭运算及礼帽/黑帽变换。通过代码示例演示了各算法的实际应用场景,为计算机视觉基础处理提供了完整的操作指南。
2025-05-26 17:04:01
1135
原创 Bert+Transformer原理简介总结
文章主要介绍了自然语言处理(NLP)中的两个关键技术:Attention机制和Transformer模型,以及基于Transformer的BERT模型。首先,Attention机制解决了旧模型如LSTM在处理长句子时的梯度消失问题,通过允许模型在生成输出时聚焦于输入序列的相关部分。接着,Transformer模型通过自注意力机制和多头注意力机制,实现了对输入序列的并行处理,提高了处理长序列数据的效率和效果。最后,BERT模型利用Transformer的编码器机制,通过掩码语言模型和下一句预测任务进行预训练,
2025-05-18 10:52:00
981
原创 AlexNet+VGG+GoogleNet+ResNet原理简短总结
AlexNet是一种经典的卷积神经网络(CNN)结构,通过多层卷积、ReLU激活函数和池化操作提取图像特征。其核心公式M=(N-F+2p)/S+1用于计算输出特征图的大小,其中N为输入尺寸,F为滤波器大小,p为填充,S为步幅。AlexNet包含5个卷积层和3个全连接层,逐步将输入图像转换为低维特征向量,保留语义信息。VGG和GoogLeNet进一步优化了CNN结构:VGG采用3x3卷积核和2x2池化,增加非线性;GoogLeNet通过Inception模块并行使用不同大小的卷积核,提升表现力并减少计算量。R
2025-05-17 11:45:28
1031
原创 【Pytorch】小土堆自学日记(八)
第一部分介绍了非线性激活中常用的模型(relu和sigmoid),第二部分完成了线性层的介绍和代码实践以及第三部分搭建小模型的实战训练
2024-07-24 11:27:27
438
原创 【Pytorch】小土堆自学日记(三)
Transform.py是一个文件/工具箱,totensor、resize这些class就是其中的工具;一般就是拿。
2024-07-13 20:52:11
1034
原创 【Pytorch】小土堆自学日记(二)
''''''参数使用:tag (str): 图表标题img_tensor (torch.Tensor, numpy.ndarray, or string/blobname): 图像的数据类型global_step (int): 记录标量的全局步数,通常用于表示训练过程中的时间点walltime (float):不常用dataformats (str):图像数据类型的特殊说明(C是通道;H是高度;W是宽度)
2024-07-11 19:13:21
451
原创 吴恩达机器学习笔记DAY-7(自用版)
某些机器学习库可能在后端使用这种复杂方法求解w&b,但对于大多学习算法,梯度下降提供了更好的方法完成工作。参数:①向量w=[w1,w2,w3,...... wn]: 第i个训练示例(实际上是有各种因素的列表,比如下图中第二行方框)①回顾:之前更多的是一个特征x(例如房屋的大小->预测房屋的价格)速度慢(feature>10000):第i个训练样例中的第j个特征(列表中的一个值)........卧室数量,层数,房屋年龄等。以前单维度:f(x)=wx+b。多元线性回归:f(x)=
2024-07-04 23:20:24
633
原创 吴恩达机器学习笔记DAY-6(自用版)
①梯度下降:不仅用于线性回归,还用于训练一些先进的神经网络模型,也被成为深度学习模型。②梯度下降是一种可用于尝试最小化任何函数的算法,不仅仅是最小化。线性回归的成本函数。③事实证明,梯度下降适用于更一般的函数,
2024-07-02 18:22:52
1286
原创 吴恩达机器学习Day-4(自用版)
J是衡量平方误差有多大的成本函数,因此选择最小化这些平方误差的w,使他们尽可能小,才能为我们提供一个好的模型。
2024-04-30 23:09:30
459
1
原创 吴恩达机器学习DAY-3(自用版)
在分类模型中:只有少量可能的输出(ps:区分猫狗),因此存在一组离散的,有限的可能输出(predicts categories && small number of possible outputs)在这个未分级的实验中,您可以看到线性回归模型是如何在代码中定义的,并且您可以看到显示模型对给定w和b的选择的一些数据的拟合程度的图表。您还可以尝试不同的w和b值,看看它是否改善了对数据的拟合。f的工作是采用新的输入x和输出进行估计和预测y-hat(y-hat是对y的估计或预测,y指代真训练集中的真实值);
2024-04-14 10:54:11
1037
1
原创 吴恩达机器学习DAY-1(自用版)
①Arthur Samuel:没有直接对问题进行显式编程的情况下,让 计算机拥有学习能⼒的研究领域(跳棋程序)(选B)②机器学习算法一般来说可以分为两大类:-监督学习(Supervised Learning)-使用较多,快速发展-无监督学习(Unsupervised Learning)
2024-04-06 21:04:11
555
1
吴恩达机器学习自用笔记与实验室代码
2024-07-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人