人工智能任务集合
文章平均质量分 94
本专栏总结了人工智能124种任务大集合,任务集合主要包括4大类:自然语言处理(NLP)、计算机视觉(CV)、语音识别、多模态任务。
微学AI
人工智能高级研发者,优快云博客专家,名校硕士学历毕业,拥有15项AI领域发明专利,主攻深度学习实战案例、机器学习实战案例、大模型实战项目,研究方向包括:深度学习应用技巧,Pytorch搭建模型,机器学习经典模型,计算机视觉,自然语言处理,知识图谱,大模型实战(包括:ChatGLM、通义千问、deepseek、LLaMA等开源模型的微调技巧、Qlora微调、提示词工程、思维链、RAG技术、LangChain框架、MCP,多智能体应用项目、大模型私有化部署)。项目主要运用于医疗健康、政府文档、教育、金融、物理学、企业管理等领域。接收代码定制研发,毕业设计,合作v: shenqiang0601
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
AI大模型中系统化的KV Cache加速方案,减少KV Cache显存占用的优化方法
LLM的推理加速已成为当前AI领域的重要研究方向,而KV Cache优化是其中最关键的环节。KV Cache作为自回归模型推理时的中间缓存机制,存储了历史token的Key和Value向量,显著减少了重复计算,但同时也带来了显存占用高、计算效率受限等问题。针对这些问题,近年来出现了多种优化方法,包括参数共享技术(如MQA、GQA)、量化技术、分页注意力机制以及核融合等,这些方法通过不同的技术路径实现了KV Cache的显存占用降低与计算效率提升。**综合多种优化方法形成系统化的KV Cache加速方案,能够原创 2025-05-16 17:23:03 · 1531 阅读 · 0 评论 -
大模型的实践应用41-天气预测与分析决策系统:Qwen3(32B)+langchain框架+MCP(大模型上下文协议)+RAG+传统算法
大家好,我是微学AI,今天给大家介绍一下大模型的实践应用41-Qwen3(32B)+langchain框架+MCP(大模型上下文协议)+RAG+传统算法研发天气预测与分析决策系统。本项目构建一个基于大模型Qwen3(32B)、LangChain框架、MCP协议、RAG技术以及传统算法的天气预测与分析决策系统。该系统通过多源数据融合、混合推理模式和智能工具调用,实现从数据采集到决策输出的全流程智能化,解决传统天气预测系统数据碎片化、处理效率低、服务同质化和决策支持弱的痛点,为公众、农业、交通等不同行业提供精准原创 2025-05-12 16:04:04 · 1114 阅读 · 0 评论 -
大模型的实践应用39-Qwen3(72B)+langchain框架+MCP(大模型上下文协议)+RAG+传统算法等研发数学教学管理与成绩提升系统
在2025年AI技术快速发展的背景下,大模型在教育领域的应用潜力巨大。本文介绍了基于通义千问Qwen3(72B)大模型、LangChain框架、MCP协议和RAG技术,结合传统算法研发的数学教学管理与成绩提升系统。该系统通过整合Qwen3的数学推理和代码生成能力,构建了一个智能化教学管理平台,能够精准分析学生问题、动态生成个性化教学路径、自动评估学习效果,并支持多模态交互。系统采用分层架构设计,包括数据层、知识库层、模型层和应用层,通过MCP协议实现模型与外部工具的协同工作,显著提升了数学教学效率和学生成绩原创 2025-05-09 15:30:27 · 496 阅读 · 0 评论 -
人工智能任务24-AI学习中的模型训练中稀疏化参数与稀疏损失函数,以及实战项目应用
大家好,我是微学AI,今天给大家介绍一下人工智能任务24-AI学习中的模型训练中稀疏化参数与稀疏损失函数,以及实战项目应用。原创 2025-05-06 19:22:45 · 865 阅读 · 0 评论 -
人工智能任务23-将DeepSeek-V3的混合专家(MoE)、多头潜在注意力(MLA)、多Token预测(MTP)、FP8训练讲透了
DeepSeek - V3是一个基于MoE(混合专家)架构的大型语言模型,其总参数量达到了6710亿,在处理每个token时能够激活370亿参数。与一些传统的单模型架构相比,MoE架构允许模型在不同的任务或数据模式下灵活调用不同的专家子模型,而传统单模型架构相对固定,难以针对多样化任务高效分配计算资源。原创 2025-02-20 15:07:42 · 1915 阅读 · 0 评论 -
人工智能任务25-NL2SQL的应用-长上下文模型在处理NL2SQL任务时,相较于传统模型,有哪些显著的优势
本文通过利用Google Gemini-1.5-Pro的长上下文处理能力,在NL2SQL任务中实现了显著性能提升(如BIRD基准测试达到67.41%执行准确率),证明长上下文LLM可通过完整数据库模式、用户提示、列样本值、合成示例和自校正机制有效克服语义模糊性,且不会因大量无关信息导致性能下降。尽管增加上下文规模会线性增加延迟和计算成本,但研究为长上下文在NL2SQL中的应用提供了新范式参考文献:https://arxiv.org/abs/2501.12372。原创 2025-02-26 17:11:51 · 1126 阅读 · 0 评论 -
主流大语言模型:GPT4o、 OpenAI o1、Gemini 2.0 Pro、Claude 3.5 sonnet、Llama3、DeepSeek R1、Kimi K1.5的介绍与部署
GPT4o 是由 OpenAI 推出的先进大语言模型,它集成了文本、视觉和音频能力,为生成性和会话 AI 体验树立了新标准。该模型在多模态融合方面表现出色,能够处理复杂的输入和输出任务。例如,它可以接受文本和图像输入,生成详细的描述或解决方案。在性能方面,GPT4o 的上下文窗口长度达到了 100 万 tokens,支持 35 种语言,这使其在处理长文本和多语言任务时具有显著优势。其推理速度也得到了优化,响应时间缩短至 320 毫秒,接近人类对话速度,这使得它在实时交互场景中表现出色。原创 2025-03-30 20:16:59 · 1587 阅读 · 0 评论 -
人工智能任务24-天文领域的超亮超新星能源机制结合深度神经网络的研究方向
超亮超新星(Superluminous Supernovae,SLSNe)是近十几年内发现的一类极为特殊的超新星,其光度能够达到普通超新星光度的数十倍甚至上百倍。这里的光度简单来说就是超新星发光的强度。超亮超新星由于其极高的亮度,在很远的距离就可能被观测到,这使得它有成为研究宇宙学的探针的潜力。不过,传统的能源模型,像56Ni衰变模型,很难合理地解释超亮超新星这么高的光度。这就凸显出研究超亮超新星能源机制的重要性与必要性。原创 2025-02-21 15:10:18 · 1409 阅读 · 0 评论 -
人工智能任务22-Deepseekv3原理架构中的数学公式,通过高度概括实现快速入门
大家好,我是微学AI,今天给大家介绍一下Deepseekv3原理架构中的数学公式,通过高度概括实现快速入门。DeepSeek-V3 是一种基于 Mixture-of-Experts (MoE) 架构的大规模语言模型,结合多项创新技术实现高效训练和推理。以下是其基本原理和核心数学公式的总结原创 2025-02-19 18:00:00 · 1381 阅读 · 0 评论 -
人工智能任务21-AI大模型架构背后的数学原理和数学公式,基于Transformer架构的数学公式有哪些?
大家好,我是微学AI,今天给大家介绍一下大模型架构大部分是基于Transformer架构的研发出来的,背后的数学原理涉及线性代数、概率论、优化理论等。以下是关键数学原理和公式的详细说明及示例。原创 2025-01-17 17:31:56 · 2344 阅读 · 0 评论 -
人工智能任务21-飞蛾火焰优化算法(MFO)在深度学习中的应用
大家好,我是微学AI,今天给大家介绍一下人工智能任务21-飞蛾火焰优化算法(MFO)在深度学习中的应用。飞蛾火焰优化算法(Moth-Flame Optimization, MFO)是一种受自然界中飞蛾向光源趋近行为启发的新型群体智能优化算法。在自然界中,飞蛾使用一种称为“横侧定位”的策略来保持直线飞行,即它们会相对于月亮或星星保持一个恒定的角度飞行。然而,当遇到人造光源时,这种机制会导致飞蛾以螺旋路径逐渐靠近光源。原创 2025-02-14 16:02:38 · 1099 阅读 · 0 评论 -
人工智能任务20-利用LSTM和Attention机制相结合模型在交通流量预测中的应用
大家好,我是微学AI,今天给大家介绍一下人工智能任务20-利用LSTM和Attention机制相结合模型在交通流量预测中的应用。交通流量预测在现代城市交通管理中是至关重要的一环,它对优化交通资源分配以及提升道路通行效率有着不可忽视的意义。在实际生活场景中,我们每天都会面临交通出行的问题,比如上下班高峰期道路的拥堵情况。以北京这样的大型城市为例,城市交通流量数据呈现出明显的时间序列特性,而且受到多种复杂因素的影响。像天气状况(晴天、雨天、雾天等)会影响驾驶员的视线和道路的摩擦力,进而影响车速和车流量;原创 2025-01-15 12:35:59 · 1176 阅读 · 0 评论 -
人工智能任务19-基于BERT、ELMO模型对诈骗信息文本进行识别与应用
随着信息技术的快速发展,电话通讯已成为日常生活中不可或缺的一部分。然而,伴随而来的电信诈骗问题也日益严重,给个人和社会带来了巨大的损失。为了有效应对这一挑战,自然语言处理(Natural Language Processing, NLP)技术被广泛应用于诈骗电话的自动识别系统中。本文将对基于多种NLP模型的诈骗电话识别进行总体介绍,并探讨BERT、ELMO等前沿模型在该领域的应用前景。原创 2025-01-14 13:58:52 · 1971 阅读 · 0 评论 -
人工智能任务18-关于基于AGI和大模型技术下养老服务高质量发展解决方案项目,以及实现代码过程实战
随着人工智能(AI)的快速发展,特别是近年来通用人工智能(Artificial General Intelligence, AGI)与大模型技术的进步,它们在各行各业的应用前景变得越来越广阔。本章节旨在介绍AGI及大模型的基本概念和发展历程,并探索这些先进技术如何能够为养老服务带来革命性的改变。AGI是指一种理论上具备人类水平智能的人工智能系统,它不仅能在特定任务上表现出色,还拥有学习新技能、适应新环境的能力。理想状态下的AGI应该可以理解并处理任何给定的任务,无需预先编程。大模型。原创 2024-11-05 17:16:45 · 1255 阅读 · 0 评论 -
人工智能任务17-关于GNN与GCN建模流程实例,包括GNN与GCN的原理,完整的代码实现过程
图神经网络(Graph Neural Networks, GNNs)是一种能够直接处理图结构数据的深度学习模型。这类模型特别适合于那些天然具有复杂相互连接的数据集,比如社交网络中的用户关系、分子结构中不同原子间的化学键等。在近年来的人工智能研究领域里,GNN 已经成为了分析和理解这些非欧几里得空间内信息传递模式不可或缺的技术之一。图神经网络是指一类基于图论的机器学习架构,其设计目的是为了从节点特征以及边(即节点之间的连接)上提取有用的信息。原创 2024-11-01 15:49:22 · 1352 阅读 · 0 评论 -
人工智能任务16-关于图神经网络框架Pytorch_geometric实战应用,并给出详细代码实现过程
随着深度学习技术的发展,针对非欧几里得数据(例如图结构数据)的研究变得越来越重要。在这样的背景下,PyTorch Geometric (简称) 应运而生,作为一个基于 PyTorch 的扩展库,它专注于提供高效且易于使用的工具来实现图神经网络(GNNs)。本节将对进行全面介绍,涵盖其适用的 Python 版本范围、安装方式及与其它相关库的关系等内容。在深入探讨之前,有必要先简单了解一下什么是图神经网络。原创 2024-11-01 15:35:46 · 2169 阅读 · 0 评论 -
人工智能任务15-文本转向量的过程、Embedding 模型的介绍、并给出原理和代码样例
在当今信息爆炸的时代,处理和理解海量文本数据变得越来越重要。为了使计算机能够更有效地处理自然语言,研究人员开发了一种技术——将文本转化为向量(即数值向量)。这一过程不仅极大地促进了自然语言处理(NLP)领域的发展,也为其他相关领域如信息检索、情感分析等提供了强大的支持。本文的第一部分旨在介绍文本转向量的基本概念及其重要性,并探讨其在多个应用中的广泛作用。文本转向量是指通过特定算法或模型将一段文本转换为固定长度的数字数组的过程。原创 2024-10-29 16:01:29 · 2576 阅读 · 0 评论 -
人工智能任务14-基于大模型的Milvus向量数据库的背景与实战应用,计算与索引机制,Python代码实现
随着大数据和人工智能技术的发展,如何高效地存储、索引和管理大规模向量数据成为了一个亟待解决的问题。传统的数据库系统,特别是关系型数据库,在处理结构化数据方面表现优秀,但对于非结构化数据尤其是由机器学习模型生成的嵌入向量的支持却显得力不从心。正是在这样的背景下,Milvus于 2019 年诞生了,它是一个专门设计用于存储、索引以及检索大量高维向量数据的开源向量数据库。通过对 Milvus 向量数据库工作原理的全面剖析,我们了解到它不仅提供了强大的向量化数据处理能力,还具备灵活的扩展性和优异的性能表现。原创 2024-10-24 10:07:36 · 2415 阅读 · 0 评论 -
人工智能任务13-AI大模型推理的详细过程和推理优化技术,以及代码实战样例
近年来,随着计算能力的显著提升与算法的不断进步,人工智能领域迎来了一个重要的转折点——大规模预训练模型(通常简称为大模型)的发展。这些模型以其卓越的表现力在自然语言处理、图像识别等多个领域取得了令人瞩目的成就。本文旨在为读者提供关于大模型如何执行其核心任务之一——推理(inference)的全面理解,特别是聚焦于基于Transformer架构的大规模语言模型。AI大模型推理是利用大型预训练模型执行自然语言处理任务的过程,其核心在于Transformer架构的注意力机制。原创 2024-10-25 15:54:41 · 4961 阅读 · 0 评论 -
人工智能任务12-AI大模型生成音乐的原理与实现方式的研究,对大模型生成流行音乐进行了深入思考
随着人工智能技术的发展,尤其是在自然语言处理(NLP)、计算机视觉等多个领域的突破之后,深度学习技术也开始被广泛应用于音乐创作领域。这一变革不仅激发了人们对AI创造力的新一轮探索热情,同时也为传统音乐产业带来了前所未有的机遇与挑战。本章节将从总体上介绍当前基于大模型的音乐生成技术状态,包括其基本概念、主流应用案例以及对整个音乐界造成的影响等方面。大模型生成音乐是指利用深度神经网络等复杂算法架构来模仿人类作曲家的思维方式和创作风格,从而自动创作出具有较高艺术价值的新颖旋律或完整曲目。原创 2024-10-18 11:32:16 · 3866 阅读 · 0 评论 -
人工智能任务11-Nvidia 系列显卡大解析 B100、A40、A100、A800、H100、H800、V100 该如何选择,各自的配置详细与架构详细介绍,分别运用于哪些项目场景
在当今高速发展的科技领域,尤其是人工智能、图形渲染、科学计算等行业,高性能计算的需求日益增长,而Nvidia作为图形处理器(GPU)领域的领头羊,其系列显卡成为了众多专业人士与爱好者的首选。本部分旨在为读者提供一个全面的Nvidia系列显卡选择的概览,深入探讨为何深入解析这些显卡至关重要,以及正确选择显卡对于提升工作效率和优化项目成本的意义。在深入探讨 NVIDIA B100 显卡之前,有必要明确其市场定位——专为数据中心设计的高效能计算(HPC)与人工智能(AI)加速器。原创 2024-10-14 15:43:52 · 6846 阅读 · 0 评论 -
人工智能任务10-基于Langchain框架下Prompt工程调教大模型(LLM)[输入输出接口、提示词模板与例子选择器的协同应用
Prompt 工程作为人工智能领域的一项关键技术,在大型语言模型(LLMs)的应用中扮演着至关重要的角色。尤其是在Langchain框架的背景下,其重要性更是被提升到了新的高度。本文旨在深入浅出地解析Langchain框架下的Prompt工程,探讨其核心概念、架构地位,以及它如何与LLM的输入输出接口、提示词模板、例子选择器共同构建起一个高效、灵活的文本生成生态系统。原创 2024-10-12 17:08:24 · 1291 阅读 · 0 评论 -
人工智能任务9-文本语义检索系统的搭建过程,涵盖了召回、排序以及Milvus召回系统、短视频推荐等相关内容
在信息爆炸的数字化时代,有效、快速地从海量数据中获取所需信息成为一项至关重要的能力。文本语义检索系统正是在此背景下应运而生的关键技术,它通过深入理解文本的含义而非简单匹配关键词,极大地提升了信息检索的准确性和效率。本文将深入探讨文本语义检索系统的概念、重要性及其与传统检索系统的本质区别,并阐述其在多场景应用中的价值。Milvus 是一款专为大规模向量数据设计的分布式搜索引擎,支持PB级数据存储与毫秒级检索速度。它提供了灵活的API接口,便于开发者集成到现有系统中,实现高效的向量相似性搜索。原创 2024-10-11 09:12:49 · 1470 阅读 · 0 评论 -
人工智能任务8-利用Langchain开发框架研发智能体Agent的过程,以及相关应用场景
随着人工智能技术的迅速发展,人类社会对智能化解决方案的需求日益增长,特别是在信息处理、决策支持和自动化作业等领域。传统AI系统往往侧重于单一任务的优化,如图像识别、语音转文字等,但在面对复杂多变的任务环境时,其适应性和泛化能力显得捉襟见肘。这种背景下,复合型、可解释性强、能跨领域学习的智能体(agent)成为研究与应用的新热点。langchain(语言链)技术就是在这样的需求推动下应运而生的。除了问答,LangChain还便于开发其他类型的应用,比如文档摘要生成。原创 2024-09-27 17:33:10 · 2102 阅读 · 0 评论 -
人工智能任务7-计算机视觉必备模型YOLO系列模型的知识点,提供YOLOv1-v8模型结构与代码实例
计算机视觉作为人工智能领域的一个重要分支,近年来取得了飞速的发展,而目标检测作为其基础且关键的任务之一,更是吸引了众多研究者的关注。在这片技术热土上,YOLO(You Only Look Once)系列模型以其创新的设计理念和卓越的性能表现,成为了目标检测领域的明星算法,广泛应用于监控、自动驾驶、图像识别等多个场景。通过上述代码样例,我们不仅展示了如何加载YOLO系列的不同版本模型,还演示了如何进行基本的目标检测操作。原创 2024-09-25 15:10:29 · 2818 阅读 · 0 评论 -
面试题:在AI模型训练过程中前向传播与反向传播的计算量比较情况
大家好,我是微学AI,今天给大家介绍一下面试题:在AI模型训练过程中前向传播与反向传播的计算量比较情况。反向传播和前向传播是神经网络训练过程中的两个重要步骤。本文将探讨它们之间的计算量关系,并分析影响这一关系的主要因素。原创 2024-12-30 10:58:51 · 1310 阅读 · 0 评论 -
人工智能任务6-基于FAISS数据库的应用:向量数据库的搭建与中文文本相似度搜索
本文通过一个具体的例子展示了如何使用FAISS向量数据库进行中文文本相似度搜索的过程。这种方法不仅能够有效地处理大量文本数据,还能够快速地找到与给定查询最相似的句子。这对于诸如搜索引擎、推荐系统等领域有着广泛的应用前景。随着技术的不断发展,我们可以预见未来将会有更多高效的算法和技术被开发出来,以应对日益增长的数据处理需求。同时,结合深度学习等先进技术,我们有望进一步提高文本相似度搜索的准确性和效率。见未来将会有更多高效的算法和技术被开发出来,以应对日益增长的数据处理需求。原创 2024-08-27 15:44:53 · 1781 阅读 · 0 评论 -
人工智能任务5-高级算法工程师需要学习哪些课程与掌握哪些能力
大家好,我是微学AI,今天给大家介绍一下人工智能的任务5-高级算法工程师需要学习哪些课程,需要掌握哪些能力。高级算法工程师需要掌握的算法模型有:人脸检测模型MTCNN,人脸识别方法Siamese network、center loss、softmax loss、L-softmax loss、A-softmax loss、AM-softmax loss、Arc-softmax loss(arc face loss)原创 2024-06-05 17:06:12 · 1339 阅读 · 0 评论 -
人工智能任务4-读懂YOLOv5模型的几个灵魂拷问问题,深度理解 YOLOv5模型架构
大家好,我是微学AI,今天给大家介绍一下人工智能任务4-读懂YOLOv5模型的几个灵魂拷问问题,深度理解 YOLOv5模型架构。YOLOv5是一种高效且精确的目标检测模型,由ultralytics团队开发。它采用了轻量级的网络结构,能够在保持高性能的同时降低计算复杂度。模型由三个主要部分组成:骨干网络、特征金字塔网络和检测头,分别负责提取多尺度特征、进一步处理特征以及进行目标检测。在训练过程中,YOLOv5采用多种优化策略以提高性能。该模型适用于多种应用场景,并且可以轻松部署到实际应用中。原创 2024-01-12 18:30:11 · 1969 阅读 · 1 评论 -
人工智能任务3-读懂BERT模型的几个灵魂拷问问题,深度理解 BERT模型架构
大家好,我是微学AI,今天给大家介绍一下人工智能任务3-读懂BERT模型的几个灵魂拷问问题,深度理解BERT模型架构。BERT是一种基于Transformer模型的预训练语言模型。它由Google在2018年开发,旨在解决自然语言处理领域中的各种任务,如情感分析、问答系统、命名实体识别等。BERT模型在预训练阶段,BERT使用大量的无标记文本数据来训练一个深度的双向Transformer编码器。这个编码器能够同时考虑左侧和右侧的上下文信息,从而更好地理解句子中的单词之间的关系。原创 2024-01-10 15:40:49 · 1801 阅读 · 0 评论 -
人工智能任务2-读懂Transformer模型的十个面试灵魂拷问问题,深度理解Transformer模型架构
大家好,我是微学AI,今天给大家介绍一下人工智能任务2-读懂Transformer模型的十个灵魂拷问问题,深度理解Transformer模型架构。Transformer模型是一种基于自注意力机制的神经网络架构,被广泛用于自然语言处理任务中,如机器翻译、文本分类、情感分析等。下面的文章我将介绍十个关于Transformer模型的灵魂拷问问题。原创 2024-01-08 17:37:51 · 902 阅读 · 1 评论 -
人工智能任务1-【NLP系列】句子嵌入的应用与多模型实现方式
大家好,我是微学AI,今天给大家介绍一下人工智能任务1-【NLP系列】句子嵌入的应用与多模型实现方式。句子嵌入是将句子映射到一个固定维度的向量表示形式,它在自然语言处理(NLP)中有着广泛的应用。通过将句子转化为向量表示,可以使得计算机能够更好地理解和处理文本数据。原创 2023-08-14 18:26:01 · 1962 阅读 · 1 评论 -
【人工智能124种任务大集合】-集齐了自然语言处理(NLP),计算机视觉(CV),语音识别,多模态等任务
大家好,我是微学AI,今天给大家介绍一下人工智能124种任务大集合,任务集合主要包括4大类:自然语言处理(NLP)、计算机视觉(CV)、语音识别、多模态任务。原创 2023-08-13 18:25:36 · 3466 阅读 · 1 评论
分享