机器学习的学习方式主要包括以下几种:
1.监督式学习
在监督式学习中,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果。学习过程包括建立预测模型,将预测结果与“训练数据”的实际结果进行比较,不断调整预测模型,直到模型的预测结果达到预期的准确率。常见的应用场景包括分类问题和回归问题,常见算法有逻辑回归和反向传播神经网络[1]。
2.强化学习
在强化学习中,输入数据作为对模型的反馈,模型必须对此立即作出调整。常见的应用场景包括动态系统以及机器人控制等。常见算法包括Q-Learning以及时间差学习[1]。
3.非监督式学习
在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。常见的应用场景包括关联规则的学习以及聚类等。常见算法包括Apriori算法以及k-Means算法[1]。
4.半监督式学习
在半监督式学习中,输入数据部分被标识,部分没有被标识。这种学习模型可以用来进行预测,但模型首先需要学习数据的内在结构以便合理地组织数据来进行预测。应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,如图论推理算法或拉普拉斯支持向量机等[1]。
5.在线学习与离线学习
在线学习是指学习过程按顺序处理数据,模型生成后即可投入运行,随着更多训练数据的到来,模型将不断更新。离线学习则是整个训练数据必须在模型训练时可用,只有训练完成后才能将模型用于预测[3]。
6.增量学习与减量学习
增量学习是指学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。减量学习则是抛弃“价值最低”的保留的训练样本[3]。
7.主动学习与直推学习
主动学习指的是学习算法可以主动地提出一些标注请求,将一些经过筛选的数据提交给专家进行标注。直推学习则假设未标记的数据就是最终要用来测试的数据,学习的目的就是在这些数据上取得最佳泛化能力[3]。
8.迁移学习
迁移学习是指一种学习对另一种学习的影响,它广泛地存在于知识、技能、态度和行为规范的学习中。任何一种学习都要受到学习者已有知识经验、技能、态度等的影响,只要有学习,就有迁移。
以上各种学习方式都有各自的特点和适用场景,选择合适的学习方式对于提高机器学习模型的性能至关重要。