Python3玩转儿 机器学习(3)

本文介绍了机器学习的主要分类,包括监督学习、非监督学习、半监督学习和增强学习。通过实例说明了每种学习方式的应用场景,并列举了监督学习中的典型算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Python3玩转儿 机器学习(3)

机器学习算法可以分为:

  • 监督学习
  • 非监督学习
  • 半监督学习
  • 增强学习

监督学习:给机器的训练数据拥有“标记”或者“答案”,例如:

我们需要告诉机器左边的画面是一只狗,而右边的照片是一只猫。同理对于MNIST数据集,给机器图像信息后还应该附上标记信息,如图所示:

运用监督学习的场景举例:

  • 图像已经拥有了标定信息
  • 银行已经积累了一定的客户信息和他们信用卡的实用信息
  • 医院已经积累了一定的病人信息和他们最终确诊是否患病的情况
  • 市场积累了房屋的基本信息和最终成交的金额
  • ......

此课程中学习的大部分算法属于监督学习算法

  • K近邻
  • 线性回归和多项式回归
  • 逻辑回归
  • SVM
  • 决策树和随机森林

非监督学习:给机器训练数据没有任何“标记”或者“答案”

聚类分析:对没有“标记”的数据进行分类

非监督学习一个非常重要的作用就是对数据进行降维处理。

  • 特征提取:信用卡的信用评级和人的胖瘦无关?无关的特征丢掉
  • 特征压缩:PCA

降维处理的意义:方便可视化

非监督学习还可以进行异常检测

如图所示:图中两个红点明显与其他点脱离,如果它们同属与一种数据,我们可以将这两个点归类为异常,将其去除。当突然图中为二维点,在高维中我们会使用相应的算法剔除异常数据。

半监督学习:一部分数据有“标记”或者“答案”,另一部分没有

相对监督学习,更常见的是各种原因产生的标记缺失的半监督学习。

通常都先使用无监督学习手段对数据做处理,之后使用监督学习手段作模型的训练和预测。

 

增强学习:根据周围环境的情况,采取行动,根据采取行动的结果,学习行动方式。

 

 

监督学习和半监督学习是基础。

posted @ 2018-04-22 10:20 饕客 阅读( ...) 评论( ...) 编辑 收藏
### 模拟退火算法中的误差分析 模拟退火算法作为一种随机搜索技术,在求解复杂优化问题时表现出色,但在实际应用中也会遇到一定的误差。这些误差主要来源于以下几个方面: - **初始温度设置不当**:如果初始温度过高,则接受较差解的概率较大;反之则可能导致过早收敛到局部最优解[^1]。 - **冷却速率不合理**:较快的降温速度可能会使系统未能充分探索状态空间而陷入局部极值;较慢的速度虽然有助于提高全局搜索能力,但也增加了计算成本和时间消耗[^3]。 - **邻域结构设计缺陷**:不合适的邻居定义方式会影响新解产生的质量以及遍历整个可行区域的能力,从而影响最终结果的质量[^4]。 为了有效减少上述因素带来的误差并提升模拟退火算法性能,可采取如下措施: #### 改进策略一:自适应调整参数 引入动态机制来自动调节关键参数如起始温度T0、终止温度Tf 和冷却因子α等。例如基于当前迭代次数或已访问节点数目来自适应改变这些值,使得早期阶段能够更广泛地探索解空间而在后期逐渐聚焦于优质候选解附近[^5]。 ```python def adaptive_cooling_schedule(iteration, max_iterations): T_start = 1000 # 初始高温 alpha = 0.98 # 冷却系数 if iteration < max_iterations * 0.2: return T_start / (iteration + 1)**0.5 elif iteration >= max_iterations * 0.8: return T_start * (alpha**(max_iterations - iteration)) else: return T_start * (alpha**iteration) ``` #### 改进策略二:混合其他启发式方法 结合遗传算法(GA)、粒子群优化(PSO)或其他元启发式算法共同作用,利用各自优势互补以改善整体效果。比如先用GA快速定位大致范围再转交SA精调细节位置,或者反过来先粗犷后精细的方式交替执行两种操作直至满足停止准则为止。 #### 改进策略三:增强型邻域搜索 采用更加灵活多样的移动模式构建新的试探方向集,确保每次更新都能朝着有利于降低能量的方向前进而不至于过分局限在某些特定路径上打转儿。这可以通过增加扰动强度或是变换坐标轴来进行尝试性跳跃实现更大尺度上的跃迁可能性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值