AI和机器学习、深度学习的关系
深度学习和机器学习关系可以参考神经网络文章:神经网络学习笔记,深度学习依赖于多层神经网络结构。AI大模型是深度学习发展到一定程度的产物,进而出现了热门方向如:自然语言处理NLP和计算机视觉CV。
学习方向
最直观的方向:数据挖掘开始,到模型训练,最终制作出一个有趣的原型
整理:
基本知识学习
监督学习
给算法提供带有标签的数据(比如根据图片认动物种类),让它从中学习模式,并能对新数据进行预测。
非监督学习不需要预先知道结果,而是通过数据本身的结构来发现信息。
当数据标签/标注成本过高时,产生了半监督学习的概念,先使用标注数据来学习基本模式,然后通过这些学到的知识去理解和标注未标注的数据
自监督学习是一种无监督学习的特殊形式,模型通过从未标注数据中自我生成标签来进行训练。
强化学习不需要标签的输入输出对,也无需对非最优解进行精确纠正,关键在于寻找探索和利用已知的平衡。
强化学习
强化学习有点像玩游戏。算法尝试不同的行动以获得最高分数(奖励)。通过不断地试错和从环境中得到反馈,玩家逐渐学会做出最佳决策。
常见算法
线性回归、逻辑回归、决策树、支持向量机、K均值聚类
大模型相关
OpenAI是一家致力于研究、开发友好人工智能(AI)的非营利组织,最为人所知的是其在自然语言处理领域的工作,特别是创建了强大的语言模型系列,如GPT。
大模型,特别是在自然语言处理(NLP)领域的大规模预训练模型,是基于深度学习的神经网络结构,通常具有大量的参数(从数亿到数千亿不等)。这些模型通过在大量未标注的数据上进行无监督或自我监督学习来获得通用的语言表示能力。
transformer架构
完全摒弃了以往序列处理任务(如机器翻译)中常用的递归神经网络(RNN)和卷积神经网络(CNN),而是基于自注意力机制(self-attention mechanism)。这使得Transformer在处理长序列时具有显著的优势,并且能够并行化训练,大大提高了训练效率。
LLM关键技术解析
LLM大型语言模型几大关键技术:
预处理、监督更新、人类反馈
rag&embedding
检索生成、判断相似度
langchain
LangChain 是一个用于构建和部署语言模型应用的框架,它旨在简化开发者将大型语言模型(LLMs)集成到实际应用中的过程。通过提供一系列工具和库,LangChain 支持从数据准备、模型微调、API 集成到最终部署的全流程开发。此外,它还特别关注于优化对话系统和自然语言处理任务的表现。