机器学习
机器学习是人工智能的核心分支,通过算法让计算机从数据中学习规律并做出预测或决策。主要分为三类:
- 监督学习:利用标注数据训练模型,如分类(图像识别)和回归(房价预测)。常见算法包括线性回归、决策树、支持向量机(SVM)。
- 无监督学习:从无标注数据中发现模式,如聚类(客户分群)和降维(PCA)。典型算法有K-means、DBSCAN。
- 强化学习:通过与环境交互学习最优策略,如AlphaGo。核心框架包括马尔可夫决策过程(MDP)和Q-learning。
神经网络
神经网络模拟人脑神经元结构,由输入层、隐藏层和输出层组成,通过权重调整实现非线性映射。
- 前馈神经网络(FNN):数据单向传播,适用于简单分类任务。
- 反向传播算法:通过梯度下降优化权重,公式为:
\( \Delta w_{ij} = -\eta \frac{\partial E}{\partial w_{ij}} \)
其中 \( \eta \) 是学习率,\( E \) 是损失函数。
深度学习
深度学习基于多层神经网络,可自动提取高阶特征。典型架构包括:
- 卷积神经网络(CNN):用于图像处理,通过卷积核捕捉局部特征,如ResNet、VGG。
- 循环神经网络(RNN):处理序列数据(文本、语音),LSTM和GRU解决了长程依赖问题。
自然语言处理(NLP)
NLP实现计算机对人类语言的理解与生成,关键技术包括:
- 词嵌入:Word2Vec、GloVe将词语映射为向量。
- Transformer:基于自注意力机制,BERT和GPT的核心架构。公式中注意力权重计算为:
\( \text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V \)
大模型
大模型指参数量巨大的预训练模型,如GPT-3(1750亿参数)、PaLM(5400亿参数)。特点包括:
- 零样本/小样本学习:无需微调即可完成任务。
- 多模态能力:CLIP结合图像与文本,DALL·E生成图像。
智能体工作流
智能体(Agent)通过感知-决策-执行循环完成任务,常见框架:
- 分层控制:高层规划(目标分解)与底层执行(动作控制)结合。
- 多智能体系统(MAS):协作或竞争,如自动驾驶中的车辆协同。
以上领域相互交叉,例如大模型依赖深度学习与NLP技术,智能体工作流可能集成强化学习。下面我会不定期更新各个人工智能领域的学习内容和笔记,希望对大家的人工智能学习起到帮助。
1039

被折叠的 条评论
为什么被折叠?



