前言:
博主有意愿考研,在了解了复试面试的时候面试老师可能会问到机器学习和深度学习这方面的知识后,就想整理一下相关的知识,毕竟我也不是专学这方面的,作为了解和课外学习知识积累。
目录
强化学习(Reinforcement Learning, RL)
一、机器学习(Machine Learning, ML)
1. 定义
机器学习是让计算机通过数据自动学习规律,并利用这些规律对未知数据进行预测或决策的技术。其核心是从数据中提取特征,构建模型。
➤ 通俗理解:
就像教小孩认猫狗——给他看100张标记好的猫狗照片(数据),他总结出“猫有尖耳朵,狗鼻子长”(规律),以后看到新照片就能猜对(预测)。
2. 关键概念
-
训练数据与测试数据:数据集通常分为训练集(用于模型学习)和测试集(用于评估模型性能)。
-
特征工程:人工提取数据的关键特征(如统计特征、文本特征等),直接影响模型效果。
-
模型泛化能力:模型在未见数据上的表现,避免过拟合(Overfitting)或欠拟合(Underfitting)。
➤ 通俗解释:
-
训练/测试数据:好比学车时,教练场练车是训练集,路考是测试集。
-
特征工程:就像分辨西瓜好坏,人工教模型看“纹路颜色、敲击声”(特征),而不是让它自己瞎猜。
-
过拟合:考试前只背题库答案(训练数据全对),但遇到新题就错;欠拟合:连题库都没背熟(模型太简单)。
3. 主要分类
监督学习(Supervised Learning)
输入数据带有标签(Label),模型学习输入到输出的映射。
-
典型算法:
-
回归:线性回归、决策树回归(预测连续值,如房价)。
-
分类:逻辑回归、SVM、随机森林(预测类别,如垃圾邮件)。
-
➤ 例子:老师给你带答案的习题集(标签数据),你通过做题总结解题套路(模型)。
无监督学习(Unsupervised Learning)
输入数据无标签,模型发现数据中的隐藏模式。
-
典型算法:
-
聚类:K-Means(把相似用户分组)。
-
降维:PCA(把100个特征压缩成3个主要特征)。
-
➤ 例子:给你一堆没标签的动物照片,模型自己发现“长耳朵一类,短耳朵一类”(聚类)。
强化学习(Reinforcement Learning, RL)
智能体通过与环境交互学习最优策略,以最大化奖励。
-
典型算法:Q-Learning、DQN。
-
应用:游戏AI(如AlphaGo)。
➤ 例子:训练小狗做动作,做对了给零食(奖励),它慢慢学会最佳策略。
二、深度学习(Deep Learning, DL)
1. 定义
深度学习是机器学习的一个子领域,通过多层神经网络模拟人脑的层次化特征学习。其核心是自动从原始数据中提取高层次特征。
➤ 通俗解释:
-
传统ML像手工做菜(人工选特征),DL像全自动炒菜机(直接扔进食材,机器自己决定先炒肉还是先放盐)。
-
“深度”=网络层数多,像剥洋葱一样一层层提取特征(如图像:像素→边缘→纹理→物体部分→整体)。
2. 核心特点
-
深度神经网络:多个隐藏层(如CNN的卷积层、全连接层)。
-
端到端学习:输入原始数据(如图像像素),直接输出结果,省去人工特征工程。
-
大数据依赖:需要海量数据和GPU计算。
➤ 例子:
-
传统ML识别猫:人工告诉模型“看胡须和耳朵形状”。
-
DL识别猫:直接喂10万张猫图,模型自己学会“第一层看边缘,第二层看眼睛,第三层看整体”。
3. 常见网络结构
卷积神经网络(CNN)
-
特点:用卷积核扫描图像,提取局部特征(如边缘、纹理)。
-
应用:人脸识别、医学影像分析。
➤ 类比:
-
卷积核像“放大镜”,聚焦图片的一小块区域(如3x3像素),滑动检查每个局部。
循环神经网络(RNN)
-
特点:处理序列数据(如文本、语音),有记忆功能。
-
改进模型:LSTM、GRU(解决长序列遗忘问题)。
➤ 例子:
-
预测句子下一个词时,RNN会记住前面出现的“我爱吃___”(可能是“苹果”)。
Transformer
-
核心:自注意力机制(Self-Attention),并行处理序列数据。
-
典型模型:BERT、GPT。
➤ 类比:
-
读句子时,模型自动标红重点词(如“猫追老鼠”中的“老鼠”更重要)。
三、机器学习 vs 深度学习
对比维度 | 机器学习 | 深度学习 |
---|---|---|
数据需求 | 小/中规模数据有效 | 需要大规模数据 |
特征工程 | 依赖人工特征提取 | 自动学习特征 |
计算资源 | CPU即可 | 需要GPU/TPU加速 |
可解释性 | 较强(如决策树) | 较弱(“黑盒”问题) |
典型应用 | 结构化数据(表格、统计) | 非结构化数据(图像、文本、语音) |
➤ 一句话总结:
-
ML:小数据+人工调教(适合表格数据/简单任务)。
-
DL:大数据+自动学习(适合图像/语音/复杂任务)。
四、认识GPU/TPU(了解)
1. GPU(图形处理器)
-
原本用途:处理电脑游戏的图形渲染(比如王者荣耀的画质)。
-
为什么用于深度学习:
-
深度学习需要大规模并行计算(比如同时处理100张图片),而GPU有上千个小核心,适合这种“简单但量大”的任务。
-
对比CPU:CPU只有几个核心,适合复杂逻辑(比如操作系统),但算力不足。
-
关键特点
-
并行计算快:比如训练人脸识别模型,GPU能同时处理大量图像数据。
-
通用性强:既能玩游戏,又能跑深度学习(常用品牌:NVIDIA的Tesla、RTX系列)。
-
缺点:功耗较高,价格贵(一块高端GPU可能要几万元)。
例子
-
你用CPU训练一个猫狗分类模型可能需要1周,用GPU可能只要1小时。
2. TPU(张量处理器)
-
谷歌专门为深度学习设计的芯片,名字里的“张量”(Tensor)就是深度学习中的核心数据结构(比如图片、文字在计算机里都表示为张量)。
-
目标:比GPU更快、更省电地跑深度学习模型。
关键特点
-
专精深度学习:砍掉了GPU的图形渲染功能,全部算力留给AI任务。
-
速度快:针对矩阵乘法(深度学习核心运算)优化,比同代GPU快几倍。
-
缺点:通用性差,基本只能跑谷歌的TensorFlow框架。
例子
-
谷歌用TPU训练AlphaGo,节省了大量时间和电费。
3. 对比总结
维度 | GPU | TPU |
---|---|---|
设计初衷 | 图形渲染 + 通用计算 | 专为深度学习优化 |
核心数量 | 上千个小核心(适合并行) | 定制化核心(效率更高) |
通用性 | 强(游戏、AI、科学计算都能用) | 弱(主要支持TensorFlow) |
代表厂商 | NVIDIA(如A100、H100) | 谷歌(如TPU v4) |
4. 显卡 vs GPU 的关系
-
GPU:是显卡的“大脑”,专门负责图形和数学计算的芯片(可以理解成显卡里的CPU)。
-
显卡:是插在电脑里的一个硬件,包含GPU+其他部件(比如显存、散热风扇、电路板等)。
5. 为什么深度学习要用GPU/TPU?
因为深度学习要处理海量数据(比如几百万张图片),GPU的并行计算能力能让训练速度提升几十倍。TPU是谷歌专门为深度学习定制的芯片,比GPU更快更省电,但通用性较差。
6. CPU不能做深度学习吗?
CPU也能做,但它的核心少,适合处理复杂逻辑(比如操作系统)。深度学习的计算是‘简单但量大’(比如同时算几万次乘法),GPU/TPU的上千个小核心就像‘蚂蚁军团’,比CPU的‘几个壮汉’更高效。
五、应用场景
-
机器学习:
-
信用卡欺诈检测(逻辑回归)。
-
推荐系统(协同过滤)。
-
-
深度学习:
-
自动驾驶(CNN处理摄像头数据)。
-
医疗影像分析(分割肿瘤区域)。
-
➤ 记忆技巧:
-
面试被问应用时,用“结构化数据用ML,非结构化用DL”回答:
-
ML:银行预测贷款风险(表格数据)、推荐系统(用户历史行为)。
-
DL:语音助手(音频)、CT影像识别(图片)、ChatGPT(文本)。
-
六、挑战与未来
-
机器学习:特征工程耗时、模型泛化能力有限。
-
深度学习:数据与算力需求高、可解释性差。
-
趋势:
-
小样本学习(Few-shot Learning)。
-
自监督学习(Self-Supervised Learning)。
-
多模态模型(如CLIP结合图像与文本)。
-
➤ 高频考点:
-
可解释性:DL的“黑盒”问题(医生不敢用AI看病,因为不知道它怎么诊断的)。
-
趋势:小样本学习(如医疗数据少时如何训练)、多模态(GPT-4同时处理文字和图片)。