
人工智能学习进阶
文章平均质量分 91
笔者学习的专业是人工智能,基于自身的学习历程和网络的海量资源,决定着手更新一个人工智能的学习系列,记录个人的学习心得和历程。
終不似少年遊*
Python、人工智能、计算机视觉、RAG、NLP、深度学习、机器学习、云计算、数据结构与算法等。
展开
-
【CV2】计算机视觉的图像处理库
cv2.add()输入图像尺寸和通道数必须相同,使用cv2.resize来实现,cv2.resize中的dsize参数是指目标图像的大小,其格式应为 (宽度, 高度)途径:生成一张`掩膜`,把图像中需要去掉(或者说,变成黑色)的像素点标记为0、把图像中需要保留的像素点标记为`“1”``cv2.add`用于两个图像的逐像素加法操作,或者一个图像与一个标量的加法操作,与直接使用 + 运算符不同,它提供了。- 其余区域的像素都与`(0, 0, 0)`做`and`操作,像素值变成`(0, 0, 0)`原创 2025-05-11 22:49:43 · 712 阅读 · 0 评论 -
【Diffusion】在华为云ModelArts上运行MindSpore扩散模型教程
最近对生成模型非常感兴趣,尤其是扩散模型(Diffusion Models),它在图像生成等领域取得了显著成果。为了深入理解扩散模型的原理和实现,我选择在华为云的ModelArts平台上运行MindSpore官方提供的扩散模型教程。希望通过这次实践,能够掌握扩散模型的基本架构、训练过程以及生成图像的原理。原创 2025-05-11 22:43:08 · 1020 阅读 · 0 评论 -
MindSpore框架学习项目-ResNet药物分类-模型优化
通过这个用ResNet50进行对中药材的种类及品阶进行12分类的项目,学习mindspore AI框架的使用和深度学习任务的一般流程,熟悉如何通过深度学习的方式来拟合数据,处理生产生活中的问题,为AI赋能的时代贡献点滴实践。原创 2025-05-10 10:56:29 · 530 阅读 · 0 评论 -
MindSpore框架学习项目-ResNet药物分类-模型评估
通过这个用ResNet50进行对中药材的种类及品阶进行12分类的项目,学习mindspore AI框架的使用和深度学习任务的一般流程,熟悉如何通过深度学习的方式来拟合数据,处理生产生活中的问题,为AI赋能的时代贡献点滴实践。原创 2025-05-10 10:53:53 · 1182 阅读 · 0 评论 -
MindSpore框架学习项目-ResNet药物分类-模型训练
通过这个用ResNet50进行对中药材的种类及品阶进行12分类的项目,学习mindspore AI框架的使用和深度学习任务的一般流程,熟悉如何通过深度学习的方式来拟合数据,处理生产生活中的问题,为AI赋能的时代贡献点滴实践。原创 2025-05-10 10:35:34 · 1168 阅读 · 0 评论 -
MindSpore框架学习项目-ResNet药物分类-构建模型
通过这个用ResNet50进行对中药材的种类及品阶进行12分类的项目,学习mindspore AI框架的使用和深度学习任务的一般流程,熟悉如何通过深度学习的方式来拟合数据,处理生产生活中的问题,为AI赋能的时代贡献点滴实践。原创 2025-05-09 23:41:11 · 1043 阅读 · 0 评论 -
MindSpore框架学习项目-ResNet药物分类-数据增强
通过这个用ResNet50进行对中药材的种类及品阶进行12分类的项目,学习mindspore AI框架的使用和深度学习任务的一般流程,熟悉如何通过深度学习的方式来拟合数据,处理生产生活中的问题,为AI赋能的时代贡献点滴实践。原创 2025-05-09 23:35:56 · 1653 阅读 · 0 评论 -
强化学习的一些概念
微调完成后,在推理阶段,可以选择动态加载 LoRA 适配器(即使用原始权重矩阵W加上更新后的Delta W = AB进行计算 ),或者将低秩矩阵与原始权重矩阵合并W'=W + AB',合并后的模型推理速度与原始模型一致,且只需要保存合并后的权重。专用性强:适用于 单一任务或固定场景。假设原始模型中有一个权重矩阵W(维度为d×k ),在 LoRA 中,对权重矩阵的更新量Delta W进行分解,将其表示为两个低秩矩阵A(维度为d×r)和B(维度为r×k )的乘积,即Delta W = AB ,其中。原创 2025-05-04 22:41:08 · 863 阅读 · 0 评论 -
transfomer网络构建
对自注意力层的输出应用交叉注意力层和第二个残差连接:self.residual_connections[1](x, lambda x: self.cross_attention_block(x, encoder_output, encoder_output, src_mask)),交叉注意力层中,查询来自解码器当前层的输入,键和值来自编码器的输出,src_mask 用于屏蔽源序列中填充位置的信息。decode 方法:对目标序列进行嵌入和位置编码:tgt = self.tgt_embed(tgt);原创 2025-05-04 22:37:03 · 1010 阅读 · 1 评论 -
深度学习语音识别
Conformer:在Transformer中嵌入卷积模块(如Convolution Module),利用CNN提取局部声学特征,同时保留自注意力的全局建模能力。技术演进主线:从CTC的序列对齐,到注意力机制的上下文建模,再到Conformer的全局-局部特征融合,语音识别逐步向高效、高精度、低延迟方向发展。RNN-T:在CTC基础上引入预测网络(语言模型)和联合网络,允许每帧生成多个符号,支持实时流式识别(如语音助手)。CTC:早期端到端模型的代表,解决了输入输出序列对齐问题,但缺乏语言模型支持。原创 2025-04-19 10:46:11 · 514 阅读 · 0 评论 -
国产之光DeepSeek架构理解与应用分析04
DeepSeek-V3通过多Token预测、免负载均衡MOE、高效注意力缓存等核心技术,实现了训练效率、推理速度与生成质量的全面提升。其创新点不仅体现在算法设计上,更通过工程优化(如并行化、缓存策略)解决了大规模模型部署的实际瓶颈,为工业级应用提供了新的标杆。原创 2025-04-19 10:40:57 · 1140 阅读 · 0 评论 -
国产之光DeepSeek架构理解与应用分析03
DeepSeek通过其创新的架构设计,为人工智能的发展贡献了显著价值。首先,它引入了多Token预测机制,提高了模型在处理复杂数据时的效率和准确性。其次,DeepSeek的MOE架构无需负载均衡,简化了模型训练流程,降低了计算资源的消耗。最后,通过结合KV Cache的MLA技术,DeepSeek显著提升了推理速度,使得AI应用在实时性要求高的场景下更具可行性。这些创新不仅推动了AI技术的进步,也为行业提供了新的解决方案和思路。原创 2025-04-18 11:17:44 · 847 阅读 · 0 评论 -
deepseek的transformer模块和旋转位置编码
DeepSeek通过其创新的架构设计,为人工智能的发展贡献了显著价值。首先,它引入了多Token预测机制,提高了模型在处理复杂数据时的效率和准确性。其次,DeepSeek的MOE架构无需负载均衡,简化了模型训练流程,降低了计算资源的消耗。最后,通过结合KV Cache的MLA技术,DeepSeek显著提升了推理速度,使得AI应用在实时性要求高的场景下更具可行性。这些创新不仅推动了AI技术的进步,也为行业提供了新的解决方案和思路。原创 2025-04-18 11:15:11 · 852 阅读 · 0 评论 -
国产之光DeepSeek架构理解与应用分析
在机械电子工程产业中,人工智能的加持可用于故障诊断、生产流程优化、产品设计辅助等方面,比如通过分析设备数据预测故障,或优化生产线调度提高效率,提高生成效率、降低人员作业的安全风险。对于人工智能大模型当下的发展阶段,如何落地,并在横向领域发挥出作用成为越来越被关注的话题,笔者的朋友提出了几个问题:DeepSeek的用处除了在信息库里提取提问者需要的有效信息外还有别的功能吗?在车身焊接环节,基于深度学习的视觉系统(如YOLOv5)检测焊点质量,误检率低于0.5%,较传统光学检测效率提升5倍。原创 2025-01-31 21:11:30 · 23580 阅读 · 60 评论 -
国产之光DeepSeek架构理解与应用分析02
DeepSeek通过其创新的架构设计,为人工智能的发展贡献了显著价值。首先,它引入了多Token预测机制,提高了模型在处理复杂数据时的效率和准确性。其次,DeepSeek的MOE架构无需负载均衡,简化了模型训练流程,降低了计算资源的消耗。最后,通过结合KV Cache的MLA技术,DeepSeek显著提升了推理速度,使得AI应用在实时性要求高的场景下更具可行性。这些创新不仅推动了AI技术的进步,也为行业提供了新的解决方案和思路。原创 2025-04-18 11:10:29 · 1479 阅读 · 0 评论 -
【NLP解析】多头注意力+掩码机制+位置编码:Transformer三大核心技术详解
Transformer模型为何能横扫NLP领域?关键在于多头注意力、掩码机制和位置编码这三大核心技术。本文用通俗语言+生活案例,带你理解它们的原理与设计逻辑原创 2025-04-12 14:45:07 · 1501 阅读 · 0 评论 -
【NLP必知必会】注意力机制与自注意力机制详解:从原理到优缺点对比
在自然语言处理(NLP)中,注意力机制(Attention Mechanism)和自注意力机制(Self-Attention)是两大“神器”,它们让模型像人类一样动态关注重点信息。本文通过生动案例和通俗语言,带你彻底搞懂它们的原理、计算流程,以及与RNN的对比!原创 2025-04-12 11:52:43 · 737 阅读 · 0 评论 -
从Attention机制到Transformer02
在当今数字化浪潮中,自然语言处理(NLP)携手大模型,正引领着人工智能的全新变革。NLP 作为理解与生成人类语言的核心技术,正借助大模型的强大算力与海量数据,实现质的飞跃。从精准翻译到智能创作,从复杂问答到情感分析,它们正重塑人机交互的未来。本专栏将聚焦于 NLP 与大模型的前沿动态、技术剖析及实战应用,带你领略这一领域的无限魅力与潜力,共同见证语言智能的蓬勃发展原创 2025-04-11 11:37:56 · 477 阅读 · 0 评论 -
从Attention机制到Transformer
在当今数字化浪潮中,自然语言处理(NLP)携手大模型,正引领着人工智能的全新变革。NLP 作为理解与生成人类语言的核心技术,正借助大模型的强大算力与海量数据,实现质的飞跃。从精准翻译到智能创作,从复杂问答到情感分析,它们正重塑人机交互的未来。本专栏将聚焦于 NLP 与大模型的前沿动态、技术剖析及实战应用,带你领略这一领域的无限魅力与潜力,共同见证语言智能的蓬勃发展。原创 2025-04-11 11:35:48 · 756 阅读 · 0 评论 -
操作系统、虚拟化技术与云原生及云原生AI简述
操作系统作为基础,直接管理计算机硬件与软件资源。虚拟化技术的出现,打破了物理设备的限制,通过资源抽象实现了多租户共享,为云计算的发展奠定了基础。云原生则借助容器、Kubernetes 等技术,构建起动态、弹性的分布式系统,加速了应用的开发与部署。而云原生 AI 将云原生技术与人工智能深度融合,既发挥了云原生在资源管理、部署等方面的优势,又借助 AI 提升了云原生系统的智能化水平,在互联网、金融、医疗等多个领域展现出广阔的应用前景。原创 2025-04-04 12:38:52 · 1162 阅读 · 0 评论 -
大模型微调-lora微调
在传统的模型微调中,尤其是大型预训练模型,对所有参数进行更新需要巨大的计算资源和时间成本。而 LoRA 的思路是冻结预训练模型的原始权重,不直接对其进行更新,而是在模型的某些层(常见于 Transformer 模型的自注意力层和前馈网络层 )中引入低秩矩阵来实现微调。原创 2025-03-26 16:37:57 · 975 阅读 · 0 评论 -
强化学习与神经网络结合(以 DQN 展开)
强化学习(Reinforcement Learning, RL)是机器学习的一个分支,旨在让智能体(Agent)通过与环境的交互学习最优策略,以最大化长期累积奖励。其核心思想是 “试错 - 反馈”,智能体在环境中通过不断尝试动作,根据环境反馈的奖励调整行为,最终学会在不同状态下选择最优动作。原创 2025-03-26 16:15:45 · 1156 阅读 · 0 评论 -
强化学习的常用策略浅析
强化学习是ai agent开发的主要原理,智能体通过于环境的交互学习一些策略,作为指导工作的依据,本篇浅析常用的算法:DDPG、DPPO、simply_PPO、discrete_DPPO原创 2025-03-23 21:15:56 · 960 阅读 · 0 评论 -
强化学习的一些概念
强化学习(Reinforcement Learning, RL)是机器学习的一个分支,旨在让智能体(Agent)通过与环境的交互学习最优策略,以最大化长期累积奖励。其核心思想是 “试错 - 反馈”,智能体在环境中通过不断尝试动作,根据环境反馈的奖励调整行为,最终学会在不同状态下选择最优动作。原创 2025-03-16 23:44:43 · 1321 阅读 · 0 评论 -
机器视觉的发展
介绍机器视觉算法由机器学习模型向深度学习的演进原创 2025-03-12 08:45:55 · 1047 阅读 · 0 评论 -
机器学习的一些数学知识
人工智能领域的一些数学原理原创 2025-03-07 20:37:50 · 721 阅读 · 0 评论 -
项目8:信用违约预测-集成学习
本实验主要使用Python进行数据预处理、数据分析,使用Matplotlib做可视化分析,使用过采样方法平衡正反例数据,使用随机森林建模,使用网格搜索来寻找最优参数组合。违约预测问题面临着所需数据维度多、正负样本严重不均衡等问题,在实际应用上,可以多搜集各类维度的特征,多尝试过采样、欠采样,也可以尝试使用无监督学习、深度神经网络等。针对二分类问题,可使用的算法有逻辑回归、朴素贝叶斯、支持向量机、树模型等。将数据集作3:1的划分,按照标签比例做分层抽样,分出训练集和测试集,观察每个数据集中正负样本数量。原创 2025-02-23 15:11:47 · 368 阅读 · 0 评论 -
综合使用pandas、numpy、matplotlib、seaborn库做数据分析、挖掘、可视化项目
使用 pandas 拷贝一份数据集,命名为 df,取 'price (USD)' 为标签 y, 其他为特征集合 X,删除 X 中无关特征,只保留:'inches', 'battery', 'ram (GB)', 'weight (g)', 'storage (GB) 等特征,统计 name 特征中包含 'pro' 或 'max' 的样本,新建布尔特征 'has_pro_or_max'。并且在该函数中,调用接口进行划分 80% 数据为训练集,20% 数据为测试集,函数的返回值为训练集和测试集的特征和标签。原创 2025-03-06 10:35:01 · 1274 阅读 · 0 评论 -
迁移学习简述
迁移学习的核心在于利用已有知识解决新问题,通过复用预训练模型的通用特征提取能力,显著降低新任务的训练成本并提升模型性能。原创 2025-03-04 14:19:03 · 565 阅读 · 0 评论 -
基础工具常用api汇总(机器学习)
本文包括机器学习领域常用第三方库的常用API,先做汇总,没有代码演示原创 2025-03-03 21:43:45 · 894 阅读 · 0 评论 -
词向量与词嵌入
训练方式有 DBOW(类似于 Skip-gram 模型,直接用文档向量预测上下文单词)和 DM(类似于 CBOW 模型,预测中心词,文档向量参与捕捉全局语义信息)。它通过学习词的上下文信息来生成词向量,主要基于两种训练模式:连续词袋模型(Continuous Bag-of-Words,CBOW)和跳字模型(Skip-Gram)。假设给定一个长度为C的上下文窗口,模型会使用上下文窗口内的所有词(不包括中心词)作为输入,经过神经网络的计算,预测出中心词。中的模型训练,实现对新闻类别的自动划分。原创 2025-02-22 20:46:49 · 561 阅读 · 0 评论 -
NLP-RNN-LSTM浅析
双向LSTM;LSTM 应用到双向RNN 中;双向 LSTM-CRF;双向 LSTM-CNNs;双向 LSTM-CNNS-CRF;原创 2025-02-20 23:31:54 · 1017 阅读 · 0 评论 -
循环神经网络RNN原理与优化
绕循环神经网络(RNN)、注意力机制(Attention)以及相关模型(如 LSTM、Transformer、BERT、GPT 等)在深度学习中的应用展开,介绍了其原理、结构、算法流程和实际应用场景。本篇重点放在RNN和LSTM原创 2025-02-20 22:22:08 · 1231 阅读 · 0 评论 -
机器翻译中的编码器、自注意和解码器
例如,将 query 的形状从 (batch_size, hidden_size) 扩展为 (batch_size, 1, hidden_size),使其能够与 values 的时间维度对齐。GRU 的输出 output 的形状为 (batch_size, 1, dec_units),需要通过 tf.reshape 重塑为 (batch_size, dec_units),以便输入全连接层。注意力权重的形状为 (batch_size, max_length, 1),表示每个时间步的注意力权重。原创 2025-02-19 18:26:53 · 1007 阅读 · 0 评论 -
TexTCNN
TextCNN 是一种经典的文本分类模型,其核心思想是将卷积神经网络应用于文本数据,通过提取局部特征实现高效的文本分类任务。TextCNN 在情感分析、推荐系统、语义匹配等领域有广泛的应用,具有高效性、局部特征提取能力和灵活性等优势。原创 2025-02-18 12:24:37 · 1222 阅读 · 0 评论 -
cv2库的使用及图像预处理02
这段代码展示了如何使用 OpenCV 的 cv2.equalizeHist 函数对灰度图像进行直方图均衡化处理,并通过 Matplotlib 显示原始图像、均衡化后的图像以及它们的直方图。直方图均衡化是一种增强图像对比度的技术,通过调整图像的灰度分布,使其直方图接近均匀分布。直方图均衡化是一种增强图像对比度的方法,通过调整图像的灰度分布,使输出图像的直方图接近均匀分布。图像以灰度模式读取(cv2.imread(r'lenna.png', 0)),返回的是单通道的灰度图像。原创 2025-02-18 11:01:49 · 1133 阅读 · 0 评论 -
cv2库的使用及图像预处理01
OpenCV(Open Source Computer Vision Library)是一个开源的计算机视觉和图像处理库,广泛用于图像和视频处理、特征检测、目标识别等领域。HSV 是一种常用的色彩空间,它将颜色表示为三个分量:色调(Hue)、饱和度(Saturation) 和 明度(Value)。作为图像处理领域的标准测试图像,Lena图像为研究者提供了一个共同的参考点,便于在相同的条件下比较不同算法的性能。Lena图像具有丰富的频率信息,既有低频的平滑区域,也有高频的纹理和细节。原创 2025-02-18 08:59:11 · 1263 阅读 · 1 评论 -
vscode环境搭建
在VSCode中,打开设置,搜索“Python: Auto Activate Environments”,确保该选项已勾选。键,输入并选择“Python: Select Interpreter”,然后选择你刚刚创建的虚拟环境。:运行安装包,确保勾选“Add Python to PATH”选项,然后按照提示完成安装。打开VSCode,点击左侧的扩展图标,搜索并安装“Python”扩展。:运行安装包,按照提示完成安装。:运行安装包,按照提示完成安装。:如果尚未安装,可以使用命令。找到正确的安装命令。原创 2025-02-13 23:36:48 · 1266 阅读 · 0 评论 -
集成学习算法简述
返回的可视化结果比较了两种决策边界,左图是单个决策树,右图是500个决策树组成的bagging集成,均在make_moon数据集上训练完成。每个学习器可以使用这部分数据来进行评估(原始的是对每个训练子集提取部分作为测试集,或者使用交叉验证),这样可以用来训练每个学习器的训练数据就变多了。max_features=1.0, #构建每个基学习器时从原始特征集中抽取的特征比例(如果为浮点数)、数量(如果为整数)或根据某些策略(如 'auto'、'sqrt'、'log2')选择。如果为 1.0,则使用全部特征。原创 2025-02-10 18:13:52 · 895 阅读 · 0 评论 -
语义分割简述
strides为步幅;使用TensorFlow的conv2d_transpose,输入一张28x28的图像,卷积核尺寸4x4,输出通道数5,输入通道数3,设置步幅为2,padding为"SAME",输出形状为1x56x56x5。:网络越深效果越好,FPN效果好,sigmoid优于softmax,RoI Align提升效果,特别是AP75,Mask分支采用CNN效果好,每个类预测mask更好。:使用DarkNet-53作为骨干网络,并添加特征金字塔,增强小目标检测能力,使用3个尺度的特征图进行多尺度检测。原创 2025-02-06 13:17:53 · 528 阅读 · 0 评论