自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(86)
  • 收藏
  • 关注

原创 S7.1YOLO

YOLO系列目标检测算法发展综述 本文系统梳理了YOLO系列目标检测算法的发展历程和技术演进。从YOLO v1将检测问题转化为回归问题的创新设计,到v2引入BatchNorm和Multi-Scale训练提升性能,再到v3采用多尺度特征融合和Logistic分类器改进小物体检测。YOLO v4通过数据增强、DropBlock正则化、损失函数优化(CIoU)和网络结构改进(CSPNet、注意力机制)等技术创新显著提升检测精度。最新YOLO v5则侧重工程实践优化。文章详细分析了各版本网络架构、损失函数设计特点,

2025-11-22 21:52:05 690

原创 S·6.1模型的部署

模型部署是将训练好的机器学习模型投入实际应用的过程,主要包括导出模型、部署到生产环境、测试验证和持续监控等步骤。常见的部署方式包括云端API服务、嵌入式设备、边缘计算、移动端以及FPGA/GPU硬件加速等,需根据场景需求选择合适方案。此外,文章对比了Python三大Web框架Django(功能全面但复杂)、Pyramid(灵活高性能但社区小)和Flask(轻量易用但功能有限)的特点,为开发者提供技术选型参考。

2025-11-21 23:18:52 767

原创 P3.7计算机视觉

dlib是一个开源的C++/Python库,提供机器学习、计算机视觉和图像处理工具。与OpenCV相比,dlib在人脸检测方面具有更好的非正面人脸和遮挡处理能力,但检测小脸效果较差。本文介绍了dlib的安装方法,并给出了人脸检测、关键点定位(68点)、轮廓检测和疲劳检测等应用代码示例。其中疲劳检测通过计算眼睛纵横比(EAR)实现,当EAR<0.3时触发警告。dlib还支持表情识别,通过分析嘴宽与脸颊宽度的比例变化来判断微笑状态。这些功能可应用于驾驶员监控、课堂状态检测等场景。

2025-09-26 18:17:49 758

原创 大模型-LLM-large language model

本文介绍了大模型本地化部署与微调的相关工具和技术。主要内容包括:1)Ollama开源工具,支持本地快速运行大模型;2)大模型参数概念解析,如8B表示80亿参数;3)Unsloth训练加速项目,可显著提升微调效率;4)OpenWebUI交互界面,提供离线模型管理功能;5)Docker容器技术,简化部署流程;6)HuggingFace平台及其Transformers库,支持多种NLP任务。这些工具共同构成了大模型开发部署的完整技术生态。

2025-09-23 12:03:31 1081

原创 O3.6opencv

本文介绍了OpenCV中三种常用的人脸识别算法及其实现方法。LBPH算法通过局部二值模式直方图提取特征,对光照和旋转变化具有鲁棒性;EigenFaces算法基于PCA主成分分析,通过降维保留主要特征信息;FisherFaces算法采用LDA线性判别分析,能更好地区分不同类别。文章详细说明了每种算法的核心原理、实现步骤和代码结构,包括数据准备、模型训练、预测识别等关键环节,并提供了完整的Python代码示例。三种算法各有特点,其中LBPH实现简单且不受光照影响,EigenFaces通过PCA降维处理,而Fis

2025-09-23 11:51:36 1210

原创 NLP---自然语言处理

摘要:本文探讨了自然语言处理中的关键方法。首先分析统计语言模型的局限性,指出其存在参数爆炸和忽略词间关联的问题,提出词嵌入(Word Embedding)作为解决方案,通过神经网络将高维稀疏词向量压缩为低维稠密表示。其次介绍了循环神经网络(RNN)及其改进模型LSTM/GRU,重点阐述其记忆机制和门控结构如何解决长距离依赖问题。最后以情感分析项目为例,说明文本数据预处理方法,包括词向量长度设定、序列填充裁剪等技术要点。全文系统梳理了从基础词表示到复杂序列建模的核心技术路线。

2025-09-21 18:19:11 987 1

原创 O3.6opencv风格迁移和人脸识别

本文介绍了基于OpenCV的图像风格迁移和人脸检测技术。在风格迁移部分,通过预训练模型将输入图片转换为特定艺术风格(如糖果、星空等),详细说明了图像预处理、模型加载、前向传播和结果后处理的完整流程。在人脸检测部分,展示了静态图片和实时视频中的人脸及微笑检测方法,包括Haar级联分类器的使用、参数调整原理以及检测结果的标注显示。两套系统均采用模块化设计,代码结构清晰,具备较强的可扩展性,可根据需要更换不同风格的模型或人脸检测分类器。

2025-09-17 21:18:34 1214

原创 O3.4 opencv摄像头跟踪

这篇文章介绍了基于OpenCV的实时文档扫描与目标跟踪技术,主要包括两个核心功能:1) 文档扫描系统通过摄像头实时检测文档并矫正为矩形视图;2) 目标跟踪系统使用CSRT算法实现实时物体追踪。系统采用轮廓检测、透视变换等技术实现文档矫正,支持手动框选目标进行跟踪。文章详细解析了图像预处理、轮廓检测、光流估计等关键算法,并提供了完整的Python实现代码。该系统适用于办公自动化、视频监控等场景,具有实时性强、准确度高等特点。

2025-09-15 23:24:51 2715 2

原创 O3.4 opencv图形拼接+答题卡识别

pythonimport cv2导入numpy和cv2库,分别用于数值计算和图像处理。定义ANSWER_KEY字典,存储正确答案。

2025-09-13 21:47:32 1434

原创 O3.3 opencv指纹识别

本文介绍了指纹识别与验证的Python实现方案,包含三个核心功能模块:1.指纹识别系统:通过SIFT特征提取和FLANN匹配器计算指纹匹配点数量,实现指纹库检索与身份识别(代码片段一);2.指纹验证系统:采用相似技术进行1:1比对,设定500个匹配点阈值判断验证结果(代码片段二);3.匹配点可视化:在匹配指纹对上标记特征点并绘制连线,直观展示匹配结果(代码片段三)。系统使用OpenCV库实现图像处理,通过关键点检测、描述符计算和最近邻匹配完成指纹特征比对,具备身份识别、验证和结果可视化功能。

2025-09-12 21:54:58 1304

原创 O3.2 opencv高阶

本文介绍了三种图像处理技术:直方图均衡化、透视变换和特征检测。直方图均衡化通过均匀化像素值分布增强图像对比度,使用OpenCV的cv2.equalizeHist函数实现。透视变换通过四点定位实现图像矫正,包括轮廓检测、最大轮廓提取和透视变换三个步骤。特征检测部分介绍了Harris角点检测和SIFT特征提取,分别用于检测图像角点和提取尺度不变特征。这些方法在图像增强、文档矫正和目标识别等计算机视觉任务中具有重要应用价值。

2025-09-11 22:58:26 989

原创 O3.1 opencv高阶

摘要:本文介绍了图像处理中的三个核心技术:模板匹配、图像金字塔和直方图分析。模板匹配部分展示了如何实现带旋转功能的模板匹配,通过旋转模板图像(np.rot90)提升匹配准确率。图像金字塔部分详细讲解了高斯金字塔的下采样(cv2.pyrDown)和上采样(cv2.pyrUp)操作,以及拉普拉斯金字塔用于图像复原的方法。直方图分析则演示了如何计算灰度图和彩色图的像素分布(cv2.calcHist),并利用掩膜实现局部区域分析。三个技术模块相互支撑,形成完整的图像处理流程,适用于特征提取、对象匹配等实际应用场景。

2025-09-10 20:44:53 1083 2

原创 S 3.5深度学习--卷积神经网络--代码

本文介绍了使用迁移学习实现食物分类的代码实现。通过加载预训练的ResNet18模型,冻结底层参数并替换全连接层,构建了一个新的分类模型。然后定义了数据预处理流程、数据集类和数据加载器,并设置了训练和测试过程。代码展示了如何利用迁移学习技术,通过微调预训练模型来适应新任务,显著减少训练时间和计算资源需求。最后进行模型训练和测试,记录准确率和损失值来评估模型性能。

2025-09-07 20:58:26 417

原创 S 4.1深度学习--自然语言处理NLP--理论

本文介绍了统计语言模型和神经语言模型的区别与联系。统计语言模型存在维度灾难和忽略词间联系的缺陷,而神经语言模型通过词嵌入技术将高维词表示压缩为低维向量(如300维),有效解决了这些问题。重点讲解了Word2Vec的两种模型:CBOW(通过上下文预测当前词)和Skip-Gram(通过当前词预测上下文),并提供了CBOW模型的PyTorch实现代码,包括数据预处理、模型构建、训练过程和词向量保存方法。通过神经网络训练得到的词向量能够捕捉词语间的语义关系,为自然语言处理任务提供更有效的特征表示。

2025-09-07 20:54:21 1272

原创 S 3.4深度学习--卷积神经网络--代码

本文介绍了深度学习中三种关键技术:学习率调整、迁移学习和ResNet网络。1. 学习率调整部分详细讲解了PyTorch提供的多种学习率调整策略,包括有序调整(StepLR、MultiStepLR等)、自适应调整(ReduceLROnPlateau)和自定义调整(LambdaLR),并提供了代码实现示例。2. 迁移学习部分阐述了其概念和步骤,包括预训练模型选择、参数冻结、新层训练和微调等过程。3. ResNet网络部分解释了其残差结构设计原理,解决了深层网络中的梯度消失和退化问题,给出了网络实现代码。全文通过

2025-09-04 23:29:43 896

原创 S 3.3深度学习--卷积神经网络--代码

本文介绍了基于PyTorch的食品图像分类模型实现过程,主要包括三个部分:1) 数据预处理模块,通过自定义Dataset类实现图像路径读取和标签处理;2) 数据增强模块,使用transforms构建包含随机旋转、翻转、颜色变换等操作的预处理流程;3) 模型构建与训练模块,实现了一个包含三层卷积和全连接层的CNN网络,并定义了训练和测试函数。整体流程采用数据增强提升模型泛化能力,通过Adam优化器进行参数优化,最终在测试集上评估模型性能。代码结构清晰,详细注释了各模块功能,为图像分类任务提供了完整的实现方案。

2025-09-04 08:49:03 911

原创 S 3.2深度学习--卷积神经网络--代码

本文介绍了一个基于PyTorch的卷积神经网络(CNN)实现,用于MNIST手写数字分类任务。主要内容包括: 数据准备:使用torchvision加载MNIST数据集,包括60000个训练样本和10000个测试样本,每个样本为28×28的灰度图像,并进行批处理(64样本/批)。 模型架构:构建了一个3层CNN网络,包含卷积层、ReLU激活和池化操作,最后接全连接层输出10个类别。输入图像经过多次特征提取和尺寸缩减,最终展平后进行分类。 训练过程:使用交叉熵损失函数和Adam优化器(学习率0.0005),在1

2025-08-28 15:29:42 842

原创 S 3.1深度学习--卷积神经网络

卷积神经网络(CNN)通过卷积层、池化层和全连接层实现图像识别。卷积层使用滤波器提取特征,池化层降采样压缩数据,全连接层完成分类。典型CNN模型包括LeNet、AlexNet、VGGNet等。李飞飞创建的ImageNet数据集为CNN发展奠定基础。CNN模拟人眼视觉原理,具有平移不变性,能有效处理RGB图像,通过多个卷积核提取不同层次特征,最终实现图像分类。

2025-08-27 15:37:14 1036

原创 S 2.2深度学习--PyTorch代码框架

本文展示了使用PyTorch实现MNIST手写数字识别的完整流程。主要内容包括:1)数据准备,使用torchvision加载MNIST数据集并转换为张量;2)构建神经网络模型,包含两个隐藏层和ReLU激活函数;3)训练过程,采用交叉熵损失和SGD优化器进行参数更新;4)测试评估,计算准确率等指标。文章还讨论了改进方案,如使用Adam优化器替代SGD、分析不同激活函数特性等。代码实现了数据加载、模型定义、训练测试等核心功能模块,并提供了详细的注释说明各步骤原理。

2025-08-26 08:44:55 1055

原创 S 2.1深度学习--PyTorch原理框架

本文介绍了PyTorch深度学习框架的基本使用流程。首先对比了CPU和GPU的架构差异,重点讲解了GPU显存参数的意义。接着详细说明了PyTorch安装步骤,包括CUDA环境配置和版本选择。然后以MNIST手写数字识别为例,演示了数据集的下载、加载和可视化方法,解释了DataLoader的分批处理机制。最后介绍了神经网络模型的搭建过程,展示了一个包含输入层、隐藏层和输出层的全连接网络实现,并说明了前向传播流程和激活函数的使用。全文涵盖了PyTorch从环境配置到模型构建的完整实践流程,适合深度学习初学者参考

2025-08-24 18:12:36 1035

原创 S 1.1深度学习——理论

神经网络的本质:通过参数与激活函数来拟合特征与目标之间的真实函数关系。但在一个神经网络的程序中,不需要神经元和线,本质上是矩阵的运算,实现一个神经网络最需要的是线性代数库。深度学习 (DL, Deep Learning) 是机器学习 (ML, Machine Learning) 领域中一个新的研究方向。神经网络:是由大量的节点(或称 “神经元”)和之间相互的联接构成。每两个节点间的联接都代表一个对于通过该连接信号的加权值,称之为。每个节点代表一种特定的输出函数,称为。绿色的圈是隐含层,化简得到下面的式子。

2025-08-22 21:13:31 999

原创 O1.3 open-cv计算机视觉

本文介绍了图像形态学处理和边缘检测的关键技术。在图像形态学部分,详细讲解了腐蚀、膨胀、开运算、闭运算等基本操作,以及梯度运算、顶帽和黑帽变换等进阶应用。边缘检测部分重点阐述了Sobel、Scharr、Laplacian算子和Canny算法的原理与实现,包括梯度计算、非极大值抑制和双阈值处理。此外,还介绍了轮廓检测方法,包括轮廓查找、绘制和特征提取,以及模板匹配技术。这些技术在图像处理、计算机视觉等领域具有广泛应用,能够有效提取图像特征、识别物体边界和形状。

2025-08-22 20:52:45 643

原创 机器学习--数据清洗—(续篇)

本文摘要: 该代码实现了矿物数据分类的完整机器学习流程。首先对原始数据进行预处理,包括删除异常类别、缺失值检测、标签编码和Z标准化。然后采用随机森林算法进行缺失值填充,通过训练集数据预测并填充测试集缺失值。接着使用SMOTE算法解决样本不均衡问题,并保存处理后的数据集。最后实现了6种分类算法(逻辑回归、随机森林、SVM、AdaBoost、朴素贝叶斯和XGBoost)进行矿物类型预测,通过网格搜索优化参数,并评估各模型的召回率和准确率等指标。所有结果保存为JSON格式文件,便于后续分析和比较不同填充方法与分类

2025-08-20 23:33:45 1270

原创 机器学习--数据清洗

本文构建了一个智能矿物识别系统的数据处理流程,重点解决数据清洗和缺失值填充问题。首先对矿物数据进行预处理,包括异常值处理、标准化和数据集划分。针对数据缺失问题,提出了6种填充方法:完整数据保留、均值填充、中位数填充、众数填充、线性回归和随机森林预测,并采用按矿物类别分别填充的策略。同时使用SMOTE算法处理样本不均衡问题。最终将处理后的数据保存为训练集和测试集,为后续矿物分类模型训练奠定数据基础。整个流程完整覆盖了数据清洗、特征处理和样本均衡等关键环节。

2025-08-17 22:54:27 2940

原创 机器学习--PCA降维

简单来说:指定整数,表示要降维到的目标,【比如 10 维的数据,指定 n_components=5,表示将 10 维数据降维到 5 维】如果为小数,表示累计方差百分比。所谓白化,就是对降维后的数据的每个特征进行归一化,让方差都为 1.对于 PCA 降维本身来说,一般不需要白化。将一组 N 维向量降为 K 维(K 大于 0,小于 N),其目标是选择 K 个单位(模为 1)正交基,使得原始数据变换到这组基上后,各字段两两间协方差为 0,而字段的方差则尽可能大(在正交的约束下,取最大的 K 个方差)

2025-08-17 11:13:56 1267

原创 O2.1 计算机视觉Open-CV

本文介绍了图像处理中的边界填充、图像运算、阈值处理和平滑处理等核心操作。边界填充通过cv2.copyMakeBorder()实现多种边缘扩展方式;图像运算展示了三种加法融合方法及其效果差异;阈值处理演示了五种二值化技术对灰度图像的分割效果;平滑处理则比较了均值、高斯、中值等滤波方法对椒盐噪声的去除效果。最后通过视频处理实例,展示了如何对视频流实时添加噪声并应用中值滤波进行平滑处理。这些技术广泛应用于图像增强、特征提取和计算机视觉任务中。

2025-08-14 21:19:52 1422 2

原创 NLP—词向量转换评论学习项目分析

本文介绍了使用scikit-learn的CountVectorizer将文本数据转换为词频矩阵的方法。通过统计词频实现文本向量化,使模型能够处理自然语言数据。示例代码演示了如何设置ngram_range参数(1-3词组合)和max_features参数(限制为6个最高频特征),并展示了稀疏矩阵、特征词列表和词频数组三种输出形式。该方法适用于NLP任务的特征提取,可将文本转换为适合贝叶斯等分类模型处理的数值矩阵。

2025-08-12 23:36:26 1356

原创 NLP—词向量转换评论学习项目分析真实案例

摘要:本文介绍了一个基于贝叶斯算法的中文评论分类模型构建过程。首先通过爬虫获取真实用户评论数据,包括差评和优质评价两类。使用jieba进行中文分词处理,并移除停用词。将文本数据转换为词向量表示,采用CountVectorizer将文本转换为数字特征,保留4000个最高频词特征。为文本数据添加标签(差评为1,优质评价为0),分割训练集和测试集。最终构建贝叶斯分类模型,实现了对评论质量的自动判别。整个流程包括数据预处理、特征工程和模型构建三个关键环节,为文本分类任务提供了完整的技术实现方案。

2025-08-12 23:36:20 1132

原创 NLP---IF-IDF案例分析

本文介绍了一个《红楼梦》文本处理流程,包含两个主要任务:1. 文本分割:通过Python脚本自动将《红楼梦》原文按章回分割,使用正则表达式匹配回目并过滤无关内容,生成按序号命名的分章文件。2. 文本预处理:对分割后的章节进行中文分词处理,加载《红楼梦》专属词库提升分词准确性,并过滤停用词,最终生成可供TF-IDF等算法处理的文本文件。整个过程实现了从原始文本到结构化数据的自动化处理,为后续文本分析提供了基础。

2025-08-10 21:08:25 725

原创 NLP——TF-IDF算法

摘要:本文介绍了TF-IDF(词频-逆向文档频率)算法原理及其Python实现。TF-IDF通过计算词频(TF)和逆向文档频率(IDF)的乘积来评估词语重要性,能有效过滤常见词、突出关键特征。演示代码使用sklearn的TfidfVectorizer处理文本数据,包括:1)读取语料;2)构建TF-IDF矩阵;3)词汇表映射;4)结果可视化(通过pandas DataFrame);5)特定文本的特征词排序。实验显示该方法能自动识别文档中的显著性词语,如示例中"document"等词因高TF

2025-08-10 15:22:34 984

原创 机器学习——DBSCAN

本文介绍了DBSCAN密度聚类算法的原理、参数调优及实现过程。DBSCAN通过定义核心对象、E邻域和密度可达等概念,能够发现任意形状的聚类并识别噪声点。文中详细说明了Python中sklearn.cluster.DBSCAN的参数设置,包括eps邻域半径、min_samples最小样本数等关键参数的影响。同时提供了完整的代码实现,包括数据预处理、DBSCAN模型训练、轮廓系数评估等步骤,并对比了KMeans与DBSCAN在真实数据集上的表现。最后通过标签对齐方法解决了聚类标签与真实标签的映射问题,采用分类指

2025-08-10 13:06:33 1442

原创 K-Means 聚类

K-Means聚类算法摘要 本文介绍了K-Means聚类算法的核心原理、参数设置和Python实现。K-Means是一种无监督学习算法,通过迭代计算样本与质心距离实现数据聚类。重点参数包括n_clusters(聚类数)、init(初始化方法)和max_iter(最大迭代次数)。文章详细解析了scikit-learn中KMeans类的参数配置,并提供了完整的Python实现代码,包括数据读取、轮廓系数评估和可视化。通过实例演示了如何寻找最优K值,并使用轮廓系数评估聚类效果。代码展示了从数据预处理到模型训练、评

2025-08-08 23:12:04 1235

原创 O1.4 Opencv-管理图片

本文展示了使用OpenCV进行图像处理的三个示例:1) 在图片指定区域添加随机像素值;2) 将一张图片的切片复制到另一张图片上;3) 调整图片尺寸。代码使用cv2.imread()读取图片,通过数组操作修改图像内容,并用cv2.imshow()显示结果。这些操作演示了OpenCV处理图像的基本方法,包括像素操作、区域复制和尺寸调整功能。

2025-08-07 19:18:03 262

原创 O1.3Opencv颜色通道

本文介绍了使用OpenCV处理图像颜色通道的三种方法:1)分离显示单通道图像;2)将指定通道设为0;3)合并分离的通道。通过cv2.split()函数可以分离BGR通道,使用cv2.merge()能重新合并通道。代码演示了如何单独显示各通道、屏蔽特定通道颜色,以及将分离的通道重新合并为完整图像,最后通过cv2.imshow()显示处理结果。这些操作为图像处理中的通道操作提供了基础实现方法。

2025-08-07 15:58:56 234

原创 O1.2 Opencv

本文介绍如何使用OpenCV处理视频文件。代码演示了两种视频处理方式:1)读取并调整视频尺寸为640x480;2)将视频转为灰度显示(目前注释掉)。两种方法都通过循环读取视频帧,使用cv2.imshow()显示处理结果,按ESC键可退出播放。关键步骤包括:VideoCapture打开视频、检查是否成功打开、读取帧、调整大小/转换灰度、显示帧、释放资源。注意灰度转换代码当前被注释,如需使用需取消注释并修改resize参数。

2025-08-07 15:10:10 287

原创 O1.1计算机视觉-OpenCV

本文介绍了使用OpenCV进行图像处理的三个基本操作:1) 读取并显示图像,获取图像属性(形状、数据类型、大小);2) 将彩色图像转换为灰度图像并保存;3) 对图像进行切片操作,提取感兴趣区域。每个操作都包含了完整的Python代码示例,展示了如何通过cv2.imread()、cv2.imshow()等函数实现基本的图像处理功能,并输出图像的相关属性信息。这些操作涵盖了图像处理中的基础步骤,包括读取、显示、转换和区域提取等常用功能。

2025-08-07 12:44:09 471

原创 MYSQL

本文摘要: MySQL数据库系统教程涵盖了数据库基础概念、安装配置、SQL语言及查询操作。主要内容包括:1)关系型与非关系型数据库的区别,MySQL的历史与特点;2)数据库服务器、数据库与表的层级关系,创建删除操作;3)数据类型与约束机制,如数值、字符串、日期类型及主键、外键等约束;4)SQL语言基础,包括DDL、DML、DCL和DQL分类;5)查询操作详解,涵盖WHERE条件筛选、ORDER BY排序、GROUP BY分组及LIMIT限制等核心功能。教程通过语法示例和实际应用场景,系统讲解MySQL数据库

2025-08-06 21:56:04 1077

原创 Linux——Shell编程

Shell是一种命令语言和程序设计语言,它既是用户与Linux系统交互的桥梁,也支持变量定义、流程控制等编程特性。本文详细介绍了Shell基础语法,包括变量定义与使用、参数传递、字符串操作、数组、运算符、输入输出命令(echo/printf/read)以及test条件测试。重点讲解了Shell流程控制语句(if/for/while/case等)和函数定义方法,并深入解析输入输出重定向机制,涵盖标准输出/错误重定向、文件描述符合并及/dev/null的特殊用途。通过丰富的代码示例,系统性地展示了Shell脚本

2025-08-06 21:04:54 934

原创 Linux——静态网络,创建用户

本文介绍了Linux系统网络配置和用户管理的基本操作。网络配置部分包括:设置静态IP、修改网络脚本文件、重启网络服务、测试网络连通性以及关闭防火墙等操作。用户管理部分涵盖:创建新用户、设置密码、切换用户、修改用户属性和创建用户组等命令。文章还提供了使用国内镜像源安装Jupyter Notebook的方法,以及查看系统用户和组信息的技巧。这些操作均为Linux系统管理员常用的基础维护命令,适用于CentOS/RHEL等基于systemd的发行版。

2025-08-06 19:23:55 293

原创 机器学习——SVM

没有构建曲线的方法实现数据的分类。原来数据在2维平面, 将数据通过映射到3维空间,然后用屏幕分割。桌上有两种颜色的球,要求用一根棍分开它们,尽量在放更多球之后仍然适用。nn神经网络也就是深度学习会有弯曲的曲线构成,后面说神经网络。1所有的训练数据集的点,离公式最近的数据。2在 w 为何值的情况是的 y 最大。最小二乘法是求极值的无约束条件。3.为什么学习SVM?2.怎么学习SVM?1.SVM 是什么?算完后会有距离的结果。四·SVM最难的部分。

2025-08-06 14:57:30 373

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除