自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

我是个好人呀,O(∩_∩)O

我真的是个好人呀,(●ˇ∀ˇ●)

  • 博客(260)
  • 收藏
  • 关注

原创 【Python从入门到精通】--佛主保佑

这段代码注释以趣味性的"佛祖保佑"符文开头,表达了程序员对代码稳定运行的期望。核心内容包括:作者信息(gyp)、时间戳(2024-10-21)、文件路径(C/SString.c)、联系方式(13438784965),并注明该代码为自学用途。其中"永不宕机永无BUG"的祈愿语和独特的ASCII艺术符文,展现了程序员在严谨编码之外幽默风趣的一面。整段注释既包含了必要的技术信息,又通过创意形式缓解了编程压力。

2025-09-02 15:40:29 142

原创 【计算机常识】--上传项目到Github

本文介绍了使用GitHub和Git进行版本控制的基本流程。首先指导用户在GitHub创建新仓库,然后详细说明本地Git仓库的初始化、分支切换、远程仓库绑定等操作步骤。文章还提供了常见问题(如连接失败)的解决方法,并建议使用SSH协议提高安全性。最后讲解了如何通过添加文件、提交更改和推送代码完成项目上传。整个流程涵盖了从创建到上传的完整版本控制操作,适合开发者快速掌握GitHub的基本使用方法。

2025-07-10 17:34:36 618

原创 【人工智能agent】--docker本地部署dify教程

Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。 非技术人员:不懂编程、对大模型不太懂,也可以使用DIFY2、功能介绍 由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agen

2025-04-23 10:57:39 19174 10

原创 【大模型:多模态LLM】--1.视觉大模型介绍

本文摘要:课程主要介绍大模型技术发展与应用,适合具备深度学习基础(熟悉CNN/Transformer和PyTorch框架)的学习者。内容涵盖:1)大模型演变历程,从BERT到ChatGPT的重要模型及其特点;2)视觉大模型架构,包括数据输入、主干网络和统一感知解码器;3)基础大模型与传统AI的区别,强调其"一模万事通"的通用性优势,可适应多任务并降低开发成本。课程配套B站教程,适合对计算机视觉和大模型感兴趣的开发者。

2025-11-03 20:27:30 1003

原创 【深入浅出PyTorch】--8.2.PyTorch生态--PyTorchVideo、torchtext、torchaudio

摘要:本文介绍了PyTorch生态系统中三大领域专用工具包:PyTorchVideo、torchtext和torchaudio。PyTorchVideo是Meta推出的视频理解深度学习库,提供Model Zoo(包含I3D、SlowFast等SOTA模型)、多模态支持和移动端优化。torchtext专注于NLP任务处理,包含Field对象定义、数据集构建、词汇表创建和迭代器生成等功能,支持BLEU等评测指标。torchaudio提供语音处理工具,涵盖音频I/O、特征提取(如MFCC)、常用数据集(Libri

2025-11-03 19:29:04 639

原创 【深入浅出PyTorch】--8.1.PyTorch生态--torchvision

本文介绍了PyTorch生态系统及其在计算机视觉领域的应用。主要内容包括:1. PyTorch生态系统概述,包含torchvision等官方库和第三方工具包,提供数据加载、模型构建、训练优化等功能。2. torchvision核心组件详解:- datasets:涵盖图像分类、目标检测等任务的常用数据集- transforms:提供数据预处理和增强方法- models:包含预训练模型如ResNet、MobileNet等- ops:实现NMS、RoIAlign等视觉专用操作- utils:提供图像拼接、可视化工

2025-11-03 17:06:23 1177

原创 【大模型:RAG】--CLIP模型实现多模态检索

OpenAI提出的CLIP模型是多模态领域的突破性工作,通过对比学习实现图像与文本的跨模态对齐。该模型将传统图像分类任务转化为图文匹配问题,支持零样本推理,无需微调即可应用于新类别。CLIP采用双编码器架构,使用4亿互联网图文对进行预训练,通过对比损失函数拉近匹配的图文向量距离。实验显示其零样本性能可媲美有监督模型,在30+下游任务中表现优异,尤其在非自然图像上迁移能力突出。不过CLIP也存在处理抽象任务能力有限、测试数据分布偏移时性能下降等局限。该技术为后续DALL·E2、StableDiffusion等

2025-10-30 20:37:09 1043

原创 【深度学习:理论篇】--一文彻底搞懂对比学习:原理、方法与应用

摘要:对比学习是一种自监督学习方法,旨在从无标注数据中学习有效表示。其核心思想是通过构造相似/不相似样本对,使相似样本在投影空间距离相近,不相似样本相距较远。SimCLR作为典型对比学习模型,通过复合图像增强构建正负样本,采用双塔结构(Encoder+Projector)和InfoNCE损失函数进行训练。关键创新包括:1)验证复合增强的有效性;2)引入Projector结构提升特征质量。对比学习需防止模型坍塌(所有样本映射到同一点),常见方法包括使用负样本、对比聚类、非对称网络等。实验表明,对比学习模型能有

2025-10-30 17:58:04 1273

原创 【计算机常识】--解决网页禁止复制的问题

本文介绍了三种突破网页防复制限制的方法:1)通过开发者工具查看源码获取文字内容;2)禁用JavaScript解除复制限制;3)在控制台输入命令输出纯文本。这些方法适用于合法学习用途,但可能影响动态网页显示效果,获取的文本需自行整理格式。

2025-10-23 18:54:02 458

原创 【大模型:微调】--五个最流行的大模型微调框架

摘要: 本文系统介绍了五种主流大模型微调框架:1)LLaMA-Factory(可视化界面、全场景支持、兼容80%开源模型);2)HuggingFace Transformers+PEFT(全模态覆盖、30万+社区模型库);3)KilnAI(低代码平台、团队协作、本地隐私优先);4)Unsloth(零精度损失的训练加速,显存降低39%-65%);5)DeepSpeed(微软开发的分布式引擎,支持千亿参数训练)。各框架优劣势鲜明:LLaMA-Factory和KilnAI适合快速迭代,Unsloth专注效率提升,

2025-10-23 17:36:10 1065

原创 【大模型:微调】--一文掌握大模型微调的8种方法

大模型微调技术概述 大模型训练分为预训练和微调两个阶段:预训练使模型掌握语言基础知识,微调则针对特定任务优化模型性能。微调方法主要分为全面微调(调整所有参数)和参数高效微调(PEFT)两大类。 PEFT技术显著降低了计算成本,包括: LoRA:通过低秩矩阵调整关键权重 QLoRA:结合4位量化的LoRA改进 适配器微调:插入小型神经网络模块 前缀/提示微调:添加可训练提示向量 P-Tuning系列:利用LSTM动态生成提示 最新进展如LoRA+MoE结合了混合专家架构,进一步提升了参数效率。这些技术使大模型

2025-10-21 20:46:14 1338

原创 【大模型:知识图谱】--GraphRAG基本原理+实战

本文介绍了基于知识图谱的检索增强生成技术GraphRAG,这是一种解决大模型幻觉问题、提升输出可靠性的创新方案。文章首先阐述了GraphRAG的技术原理,包括知识图谱构建(实体关系抽取、社区检测等)和智能检索(全局搜索与局部搜索)两个核心阶段。接着详细说明了从文本到知识图谱的完整流程,包括索引构建和查询处理。最后通过西游记文本的实战案例,展示了GraphRAG的具体应用,包括环境部署、知识图谱构建和可视化呈现。该技术通过结构化知识表示和推理能力,显著提升了复杂知识场景下的问答质量。

2025-10-20 19:03:17 1030

原创 【深入浅出PyTorch】--7.2.PyTorch可视化2

TensorBoard是一款强大的深度学习可视化工具,能够实时监控训练过程中的各项指标。它支持模型结构可视化、训练曲线绘制、参数分布分析等功能,通过简单的代码即可实现数据记录和网页端展示。文章详细介绍了TensorBoard的安装配置、基本使用方法,包括模型结构可视化、图像数据展示、连续变量跟踪等操作。同时针对服务器环境提供了多种远程访问方案,帮助研究人员更好地分析和优化模型。此外,文章还简要介绍了云端可视化工具wandb,支持实验记录和结果共享。这两种工具的结合使用,能够显著提升深度学习实验的效率和可解释

2025-10-16 21:31:51 1128

原创 【Bug:docker】--Docker国内镜像源加载失败

Docker镜像拉取失败的解决方案 由于Docker Hub在中国大陆被屏蔽,直接拉取镜像会出现连接超时等问题。解决方法包括: 配置国内镜像源(如DaoCloud、中科大等镜像地址) 修改daemon.json文件并重启Docker服务 常见错误包括: 连接超时(Client.Timeout exceeded) 请求被取消(request canceled) 镜像不存在(需确认镜像名称正确) 注意事项: 拉取前务必在Docker Hub官网确认镜像是否存在 测试hello-world镜像可用于验证基础功能

2025-10-15 21:42:07 939

原创 【深入浅出PyTorch】--7.1.PyTorch可视化1

摘要:本文介绍了PyTorch中可视化神经网络结构的工具torchinfo,以及CNN模型的可视化方法。针对深度神经网络结构复杂难以调试的问题,torchinfo提供了比直接print更详细的网络层信息、参数量统计等可视化功能。在CNN可视化部分,文章详细讲解了卷积核可视化、特征图可视化(使用Hook技术)、类激活图(CAM)等三种方法,并介绍了快速可视化工具FlashTorch的使用。这些可视化技术有助于理解CNN的工作原理,提高模型的可解释性,为模型优化提供依据。通过本文的学习,读者可以掌握CNN模型各

2025-10-14 17:03:52 919

原创 【Python从入门到精通】--Pycharm增加内存

PyCharm常提示内存不足导致卡顿,可通过两种方法解决:1)调整IDE内存至8192MB(2的幂次方):在帮助→更改内存设置中修改;2)启用内存监控:视图→外观→状态栏微件→勾选内存显示器,重启后即可查看实时内存使用情况。这些操作可优化IDE性能,缓解运行卡顿问题。

2025-10-14 11:18:45 671 1

原创 【深入浅出PyTorch】--6.2.PyTorch进阶训练技巧2

文章摘要: 本文介绍了深度学习中的三个重要工具和技术:1) timm库的使用,这是一个扩展的计算机视觉预训练模型库,包含1689个模型,支持安装、查询和修改模型参数;2) 半精度训练技术,通过torch.cuda.amp实现显存优化;3) imgaug数据增强库的应用,包含多种图像增强方法并支持批量处理。此外还介绍了argparse超参数管理方法,通过config.py模块化参数设置。这些技术可提升模型训练效率和泛化能力,适用于计算机视觉任务中的模型微调、显存优化和数据增强场景。

2025-10-13 20:31:05 1199

原创 【深入浅出PyTorch】--6.1.PyTorch进阶训练技巧1

本文介绍了PyTorch中三个关键技巧:1.自定义损失函数,包括DiceLoss、FocalLoss等非官方损失函数的实现方法;2.动态调整学习率策略,详细解析了官方提供的12种scheduler及其适用场景;3.模型微调技术,重点讲解了迁移学习中冻结参数、替换输出层等核心方法。这些技巧能有效解决深度学习中的特定问题,如小数据集训练、模型收敛优化等,并提供了完整的代码实现示例。通过灵活组合这些方法,可以显著提升模型性能,特别适用于细粒度图像分类等实际任务。

2025-10-11 18:11:54 651

原创 【深入浅出PyTorch】--5.PyTorch模型的定义、修改、保存和读取

本文系统介绍了PyTorch中模型定义的三种方式:Sequential、ModuleList和ModuleDict。Sequential适用于简单顺序结构,ModuleList提供灵活层管理,ModuleDict支持按名称访问模块。文章以U-Net为例,展示了如何通过模块化构建复杂网络,包括DoubleConv、Down、Up等核心组件的实现。此外,还详细讲解了模型修改方法,如替换层、添加输入输出,以及在不同单卡/多卡环境下模型保存与加载的最佳实践,包括如何处理权重字典中的"module&quot

2025-10-10 18:06:13 932

原创 【深入浅出PyTorch】--上采样+下采样

本文系统介绍了上采样和下采样的概念与作用。下采样通过最大池化、平均池化或带步长卷积降低特征图尺寸,减少计算量并提取高层语义信息,常用于编码器。上采样通过插值法或转置卷积增大特征图尺寸,恢复空间分辨率,常用于解码器或分割任务。PyTorch中实现方式包括nn.MaxPool2d、nn.AvgPool2d、nn.Upsample(支持多种插值模式)和nn.ConvTranspose2d(可学习上采样)。针对不同任务需求,推荐使用特定组合,如分割任务建议使用双线性插值+align_corners=True。

2025-10-10 17:20:34 1295

原创 【深入浅出PyTorch】--4.PyTorch基础实战

ResNet残差神经网络通过引入"快捷连接"解决了深层网络训练中的退化问题,突破了神经网络层数限制。文章详细解析了梯度消失/爆炸问题,对比了传统缓解方法,并阐述了ResNet的残差学习机制如何通过保持梯度无损路径来提升训练效果。代码实现部分展示了BasicBlock和Bottleneck两种结构的模块化设计,以及ResNet18至ResNet152的搭建方法。此外,文章还以FashionMNIST数据集为例,演示了完整的图像分类流程,包括数据加载、模型构建、训练验证及结果可视化。通过残差

2025-10-09 17:43:49 1155

原创 【深度学习:基础篇】--1.5.前向+反向+参数更新

反向传播是神经网络训练的核心机制,通过链式法则计算梯度并更新参数。主要步骤包括:前向传播计算输出和损失,反向传播从输出层逐层计算梯度(如分类任务中输出层梯度为预测值与真实标签之差),最后使用优化器更新参数。该过程在自动微分框架中实现,通过计算图高效完成梯度计算和参数优化。

2025-10-09 11:29:35 539

原创 【深入浅出PyTorch】--3.2.PyTorch组成模块2

本文介绍了PyTorch中深度学习模型训练的关键技术:权重初始化、损失函数、训练验证流程及优化算法。针对权重初始化,详细讲解了torch.nn.init模块提供的多种初始化方法及其适用场景;在损失函数部分,重点分析了交叉熵损失等常用函数;训练验证环节展示了模型不同状态下的标准流程;最后深入解析了优化器基类Optimizer的工作原理及SGD等优化算法的实现。文章通过代码示例演示了各技术的实际应用,为深度学习实践提供了系统性的技术指导。

2025-10-08 18:24:23 1105

原创 【深入浅出PyTorch】--3.1.PyTorch组成模块1

本文介绍了机器学习和深度学习任务的标准流程,重点对比了二者的实现差异。机器学习流程包括数据预处理、模型选择与配置、训练与评估三阶段。深度学习在此基础上增加了批处理数据加载、模块化神经网络构建、GPU加速等特性。文章详细讲解了PyTorch实现的关键步骤:数据加载(Dataset/DataLoader)、模型构建(nn.Module)、网络层设计(卷积/池化等)以及经典网络实现(LeNet/AlexNet)。特别强调了PyTorch如何通过模块化设计支持深度学习任务,包括设备管理、自定义层实现和训练流程的组织

2025-09-29 21:14:15 1258

原创 【深入浅出PyTorch】--2.PyTorch基础知识

本文介绍了PyTorch的核心基础知识和并行计算技术。主要内容包括: 张量基础:解释了张量的概念、创建方法(如随机初始化、全零矩阵等)和基本操作(加法、索引、维度变换等),以及广播机制。 自动微分(autograd):详细说明了PyTorch的自动求导机制,包括梯度追踪、反向传播和计算图结构。 并行计算:对比了DataParallel和DistributedDataParallel两种多GPU训练方式,重点介绍了DDP的实现方法和优势。 文章还涵盖了CUDA加速训练的基本使用方法,包括单卡和多卡训练的实现细

2025-09-29 18:11:34 836

原创 【深入浅出PyTorch】--1.PyTorch简介和安装

PyTorch是由MetaAI开发的流行深度学习框架,凭借简洁的API设计和活跃的社区支持,在学术界和工业界广受欢迎。本文介绍了PyTorch的发展历程、优势特点、安装步骤及学习资源。PyTorch具有代码调试方便、文档完善、扩展库丰富等优势,安装过程涵盖显卡检测、版本选择和验证。文章还推荐了Awesome-pytorch-list、官方文档、Pytorch-handbook等优质学习资源,以及李沐老师的"动手学深度学习"课程,为初学者提供了全面的学习路径。

2025-09-29 15:49:44 1043

原创 【大模型:知识图谱】--7.Neo4j数据库的导入和导出

本文介绍了Neo4j数据库的导入导出方法。低版本使用neo4j-admin dump命令导出,5.x版本改为neo4j-admin database dump命令,需指定导出路径和数据库名。导入时使用load命令,源文件名需与数据库名一致。导入后需在前端用cypher创建同名数据库才能显示。Neo4j Desktop软件版可通过界面直接导入导出,选择源文件即可,注意数据库名不能重复。

2025-09-24 21:36:46 1121

原创 【知识图谱:实战篇】--搭建医药知识图谱问答系统

本文介绍了一个医疗知识图谱系统的构建与应用流程。该系统以疾病为中心,从垂直医疗网站爬取数据,构建了包含7类实体(疾病、症状、药品、食物等)约4.4万个节点和11类关系约30万条边的知识图谱。系统实现了基于知识图谱的自动问答功能,支持症状查询、疾病成因、治疗方案等18类医疗问题的智能回答。整个流程包括数据获取、实体关系抽取、知识图谱构建和问答系统开发四个主要模块,并提供了完整的代码实现。该系统可为医疗信息查询提供结构化支持,后续可结合大模型增强问答效果。

2025-09-24 20:26:22 1125

原创 【从零开始的大模型原理与实践教程】--第五章:动手搭建大模型LLaMA2

本文介绍了如何实现和训练一个基于LLaMA2架构的大语言模型。主要内容包括: 模型实现部分: 定义了ModelConfig类存储超参数 构建了RMSNorm归一化层 实现了LLaMA2Attention模块,包含分组查询注意力和旋转位置嵌入 构建了MLP模块和DecoderLayer 最终组装成完整的Transformer模型 分词器训练: 使用BPE算法训练了一个SubwordTokenizer 支持特殊token如对话标记 实现了多种分词方法对比 模型训练: 准备预训练和SFT数据集 实现了预训练和微调

2025-09-22 21:22:20 692

原创 【从零开始的大模型原理与实践教程】--第四章:大语言模型

本文介绍了大语言模型(LLM)的发展历程、核心能力及训练方法。LLM是参数规模达数十亿至数千亿、在海量语料上预训练的自然语言处理模型,以GPT-3和ChatGPT为里程碑,展现出超越传统预训练模型的涌现能力、上下文学习、指令遵循和逐步推理四大核心能力。LLM训练包括三个阶段:预训练(Pretrain)赋予基础语言能力,监督微调(SFT)实现指令对齐,人类反馈强化学习(RLHF)确保输出符合人类价值观。此外,文章还对比了不同训练策略和优化方法,如DPO作为RLHF的低成本替代方案。LLM正推动NLP领域从&q

2025-09-19 16:23:57 1036

原创 【大模型:知识库管理】--深度学习实现以图找图

摘要:本文介绍了一个基于图像特征提取和相似度比较的图片搜索系统,支持多种应用场景。该系统采用ResNet50提取2048维图像特征,使用Milvus向量数据库实现高效相似性搜索,支持IVF_FLAT和HNSW等索引方法。前端通过Gradio构建交互界面,支持图片索引和相似图片搜索功能。系统具有广泛的应用价值,包括版权验证、产品识别、图像数据库管理等。技术实现包含图像预处理、特征提取、向量存储和相似度匹配等核心模块,通过Docker部署Milvus数据库确保系统可扩展性。项目代码已开源在GitHub。 关键词

2025-09-18 15:40:40 1143

原创 【人工智能agent】--dify实现文找图、图找文、图找图

摘要:本文介绍了一种基于Dify平台的多模态知识库解决方案,通过文本描述实现图片检索功能。方案分为三部分:1)知识库构建:将图片与文字描述存入Word文档,利用Dify自动存储图片;2)文找图工作流:通过条件分支判断用户输入类型,使用知识检索和大模型提取目标图片;3)图找文/图找图流程:先通过视觉大模型生成图片描述,再用描述检索知识库,最后进行相似性分析或地质解释。该方案巧妙规避了Dify不支持图片向量化的限制,通过文本描述实现图片的多模态检索功能。

2025-09-17 17:06:31 1082

原创 【从零开始的大模型原理与实践教程】--第三章:预训练语言模型

Transformer模型是NLP领域的重大突破,其核心架构包括Encoder-Only(如BERT)、Decoder-Only(如GPT)和Encoder-Decoder(如T5)三种主流路线。BERT通过MLM和NSP任务实现双向语义理解,GPT采用CLM任务专注于文本生成,T5则统一任务为文本到文本转换。随着模型规模扩大,GPT-3展现出涌现能力,开启大语言模型时代。后续发展的LLaMA和GLM等模型进一步优化架构和训练策略,推动NLP技术向通用人工智能迈进。这些模型共同构成了从预训练到微调的完整技术

2025-09-12 16:59:29 1168

原创 【从零开始的大模型原理与实践教程】--第二章:Transformer架构

本文系统介绍了Transformer模型的核心组件和实现原理。首先阐述了注意力机制的计算公式及其在自然语言处理中的优势,包括并行计算能力和长期依赖关系捕捉能力。然后详细讲解了自注意力、掩码自注意力和多头注意力等变体的工作原理。接着剖析了Transformer的Encoder-Decoder结构,包括前馈神经网络、层归一化和残差连接等关键技术。最后提供了完整的Transformer模型实现代码,涵盖Embedding层、位置编码和模型整体架构。文章通过具体示例和代码片段,帮助读者深入理解Transformer

2025-09-11 16:15:45 709

原创 【论文写作】--网络与信息安全顶刊顶会

网络与信息安全顶刊顶会

2025-09-09 16:48:12 887

原创 【从零开始的大模型原理与实践教程】--第一章:NLP基础概念

大模型原理与实践教程

2025-09-09 15:57:37 1253

原创 【前端:Html】--5.进阶:APIs

本文介绍了HTML5中的四项关键技术:1)地理定位API通过getCurrentPosition()方法获取用户位置,需用户授权且支持HTTPS安全连接;2)拖放功能通过draggable属性、ondrag事件和dataTransfer对象实现元素交互;3)本地存储包括localStorage(永久存储)和sessionStorage(会话存储),容量更大且不传输至服务器;4)Web Workers和SSE技术,前者用于后台运行脚本避免页面阻塞,后者实现服务器向浏览器的单向实时数据推送。这些技术均需考虑浏览

2025-09-04 16:11:42 721

原创 【docker】--1.基础教程(架构+安装)

Docker是一个开源的容器化平台,主要用于应用程序的开发、交付和运行。其核心优势在于将应用与基础设施分离,实现快速软件交付和部署。主要应用场景包括Web应用打包发布、自动化测试、CI/CD流程、服务部署等。Docker架构包含镜像(模板)、容器(运行实例)和仓库(镜像存储)三个基本概念。安装过程可通过配置国内镜像源加速,并提供镜像加速服务优化下载速度。通过简单的"docker run"命令即可运行容器化应用,如输出"Hello world"。Docker的轻量级特性

2025-09-02 15:37:11 1053

原创 【前端:Html】--4.进阶:媒体

HTML多媒体技术指南 本文介绍了HTML中多媒体的基本概念和使用方法。主要内容包括: 视频元素<video>的使用,包括控制属性、自动播放和JavaScript操作方法 音频元素<audio>的嵌入方式 插件技术的演变,包括<object>和<embed>元素的使用 YouTube视频的嵌入方法,包括自动播放设置 文章提供了实用的代码示例,并解释了多媒体元素的基本属性和工作原理,帮助开发者掌握网页中多媒体内容的嵌入技术。

2025-09-01 20:44:14 964 3

原创 【前端:Html】--3.进阶:图形

本文介绍了HTML中的两种图形绘制技术:Canvas和SVG。Canvas使用JavaScript在网页上绘制像素图形,适合游戏开发等需要频繁重绘的场景,但文本渲染能力较弱且不支持事件处理。SVG则是基于XML的矢量图形,支持缩放不失真和事件处理,适用于地图等复杂图形展示,但性能不如Canvas。文章详细展示了两种技术的使用方法,包括绘制基本图形、文本、图像以及渐变效果等示例代码,并对比了它们的优缺点和应用场景。

2025-08-12 21:09:51 721

3.1 机器学习-线性回归

3.1 机器学习-线性回归

2024-10-28

SMSSpam.txt

数据集

2024-10-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除