自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 从零开始学AI——16

完结撒花~本章我们开始强化学习的内容,强化学习 (Reinforcement Learning, RL) 是机器学习的一个分支,致力于研究智能体 (Agent) 如何通过与一个动态环境的直接交互来学习一个最优策略,以使其获得的累积奖励 的某个长期度量达到最大化。此交互过程在离散时间步 t=0,1,2,…t = 0, 1, 2, \ldotst=0,1,2,… 上展开:智能体的决策会直接影响其后续所处的状态和接收到的奖励,因此存在延迟回报的现象。这意味着智能体的目标并非简单地最大化某一时刻的瞬时奖励 Rt+

2025-09-22 21:29:28 916

原创 从零开始学AI——15

恋人不行真好看吧在之前的学习中我们的模型大多数都是黑箱模型:我们不知道模型内部到底做了什么运算得到的答案,于是我们希望可以得到一种解释性强的模型,这就是规则学习解决的问题。我们自然需要定义什么是规则及其组件,规则一般还被分为两类:命题规则和一阶规则序贯覆盖是一种常见的规则学习方法,它采用分治策略,将复杂的整体学习任务分解为多个较简单的子问题。该方法每次只学习一条规则,并通过迭代逐步完善,具体过程如下:通过上述步骤,我们得到一个有序规则集。在进行预测时,新样本会按该规则集的顺序逐一检验,第一个匹配前提条件的规

2025-09-15 21:56:12 647

原创 从零开始学AI——14

感觉理论学的太多了,该做点实践操作一下了在我们之前学习的基于概率的模型中,进行预测时会涉及三类变量集合:需要推断的目标变量集合 YYY、可观测到的变量集合 OOO,以及其他相关变量集合 RRR。无论模型采用生成式形式 P(Y,R,O)P(Y,R,O)P(Y,R,O) 还是判别式形式 P(Y,R∣O)P(Y,R|O)P(Y,R∣O),最终都需要得到我们关心的条件概率分布 P(Y∣O)P(Y|O)P(Y∣O)。为了得到这个分布,必须消除变量集合 RRR 的影响。具体来说,这要求我们对 RRR 中的所有变量执行求

2025-09-06 16:51:47 1033

原创 从零开始学AI——13

我们希望从图中学习到一个映射函数。

2025-08-20 21:46:48 584

原创 从零开始学AI——12.2

上半部分在上一篇上一节我们讨论了有限假设空间的情况,现在将假设空间扩展到无限维的情形。考虑一个最简单的二分类任务,通常使用超平面将样本空间划分为两部分,每个超平面对应一个假设hhh。这样的假设有多少个呢?显然存在无限多个,即∣H∣=∞|\mathcal{H}|=\infty∣H∣=∞。根据上一节的推导公式(无论是否可分),这意味着需要无限多的训练样本,但这与实际情况不符。因此可以得出结论:对于无限维假设空间,上一节得到的边界公式不再适用。为了处理无限假设空间的问题,VC维理论提出了新的思路:给定mmm个数据

2025-08-06 21:13:08 589

原创 从零开始学AI——12.1

……说我字数太多,分两部分本章比较理论,主要说的是凭什么相信机器学习,他为什么能给出一个好的结果:本质是研究泛化误差问题我们先假设有一个样本集D={(x1,y1),…,(xm,ym)}D =\{(x_{1},y_{1}),\dots,(x_{m},y_{m})\}D={(x1​,y1​),…,(xm​,ym​)},其中所有样本都是独立同分布地从分布D\mathcal{D}D中采样得到的。这里每个xix_{i}xi​属于输入空间X\mathcal{X}X,每个yiy_{i}yi​属于输出空间Y\mathcal

2025-08-06 21:12:05 758

原创 从零开始学AI——11

感觉看的越来越水,有点想快点到深度学习了在上一章的讨论中,我们探讨了通过数学变换实现数据降维的方法。然而,降维其实还存在一种更为直接的方式,那就是简单地舍弃部分数据维度(即属性)。这个想法初看可能显得不太合理,但经过仔细思考就会发现其实际可行性:在现实世界的数据采集中,我们获得的样本属性通常存在以下两个典型问题:在特征选择过程中,当缺乏领域知识时,我们需要考虑所有可能的特征子集,然而这是不可行的。比如设原始样本空间的维度d=30d=30d=30时,需要遍历230−12^{30}-1230−1个子集,算不了。

2025-08-02 13:34:00 637

原创 从零开始学AI——11

感觉看的越来越水,有点想快点到深度学习了在上一章的讨论中,我们探讨了通过数学变换实现数据降维的方法。然而,降维其实还存在一种更为直接的方式,那就是简单地舍弃部分数据维度(即属性)。这个想法初看可能显得不太合理,但经过仔细思考就会发现其实际可行性:在现实世界的数据采集中,我们获得的样本属性通常存在以下两个典型问题:在特征选择过程中,当缺乏领域知识时,我们需要考虑所有可能的特征子集,然而这是不可行的。比如设原始样本空间的维度d=30d=30d=30时,需要遍历230−12^{30}-1230−1个子集,算不了。

2025-07-10 21:01:19 656

原创 从零开始学AI——10

学习的时候脑子抽了把内积和距离混淆了一段时间,希望都改过来了吧本章我们要讨论两个核心内容:降维和度量学习。对于降维,其核心思想是将高维稀疏的样本空间映射到维度更低但更稠密的样本空间中。这种方法的主要目的是为了解决维度灾难问题,即在高维空间中数据点之间的距离计算、模型训练等任务会变得极其困难(我们之前在核方法中已经接触过类似的概念)。对于度量学习,其动机在于传统的闵氏距离可能过于僵硬,无法适应不同数据分布或任务需求。因此,我们可以通过数据驱动的方式学习一个更合适当前数据的距离度量,使得相似样本之间的距离更小,

2025-06-22 17:17:59 929

原创 从零开始学AI——9

集成学习是一种通过结合多个学习器来提升模型性能的方法,主要分为同质集成和异质集成。同质集成使用同一种算法生成基学习器,而异质集成则使用多种算法生成组件学习器。集成学习的关键在于个体学习器的高精度和差异性,以扬长避短。集成学习方法可分为Boosting和Bagging两大类。Boosting通过迭代训练,逐步提升弱学习器为强学习器,典型代表是AdaBoost。Bagging和随机森林则通过并行生成多个模型,减少方差,提升模型稳定性。集成学习的核心问题是如何生成并结合个体学习器,以达到降低泛化误差的目的。

2025-06-07 00:39:34 861

原创 从零开始学AI——8

集成学习是一种通过结合多个学习器来提升模型性能的方法,主要分为同质集成和异质集成。同质集成使用同一种算法生成基学习器,而异质集成则使用多种算法生成组件学习器。集成学习的关键在于个体学习器的高精度和差异性,以扬长避短。集成学习方法可分为Boosting和Bagging两大类。Boosting通过迭代训练,逐步提升弱学习器为强学习器,典型代表是AdaBoost。Bagging和随机森林则通过并行生成多个模型,减少方差,提升模型稳定性。集成学习的核心问题是如何生成并结合个体学习器,以达到降低泛化误差的目的。

2025-05-17 14:21:13 707

原创 从零开始学AI——7

五一节狠狠耍了几天,所以学的有些不太认真,哈哈。最后EM算法如果看不太懂的话我建议可以跳过,如果不想跳的话可以动手算算就清楚了。

2025-05-05 19:38:15 901

原创 从零开始学AI——6

本节是支持向量机,想起我室友当初毕设就和这个有关。

2025-04-26 14:13:17 744

原创 从零开始学AI——5

我们再来看权重梯度的计算我们的目标是求得。

2025-04-19 12:03:20 652

原创 从零开始学AI——4

最近天气变化好快,笔记开头的时候还穿羽绒服,发布的时候已经穿单件了,有点难崩。

2025-04-11 16:31:10 806

原创 从零开始学AI——3

速度下来了,感觉找到了一个舒适的学习速度。还是欢迎各位大佬指正本章主要说明了什么是线性模型以及在回归、分类任务中如何应用线性模型。线性模型是机器学习中最基础且应用最广泛的模型之一。线性代数作为数学中最成熟的工具之一,因其简单性和普适性,成为建模时的首选方法。模型定义给定一个由 个属性描述的示例 xi=(xi1,xi2,…,xid)\mathbf{x}_i = (x_{i1}, x_{i2}, \dots, x_{id})xi​=(xi1​,xi2​,…,xid​),线性模型通过以下线性函数进行预测:f

2025-04-05 23:33:56 778

原创 从零开始学AI——2

比我想得要难得多……主要是数理统计基本都忘光了……写的也比较乱,希望大家能斧正我的问题。当我们训练出一个模型之后,我们自然希望它能够在新的数据上也有良好的表现,这个能力被称为泛化,我们把模型在新数据上的误差称为泛化误差。泛化误差小的模型自然是我们更喜欢的模型,他也说明了模型的泛化能力强,本章主要介绍了用什么标准来评估模型的泛化误差如何可靠的计算评估能力值并进行比较在模型训练中,因为训练集和算法的不同,学习可能发现的规律过少(欠拟合)也可能发现了只有这些数据集才存在的规律(过拟合)。既然过拟合是无法完全避免

2025-03-29 16:31:44 817

原创 从零开始学AI——1

最近总算有想法回到学习上来,这次就拿AI开刀吧。本系列叫从零开始学AI不是骗人的,我对AI的了解几乎就是道听途说,所以起了这么一个标题,希望学完从0变1(?此外,我应该不会特别关注代码实现上的内容,因为我对python也是一窍不通。本笔记为学习周志华老师《机器学习》(西瓜书)的个人学习记录,内容基于个人理解进行整理和再阐述。由于理解可能存在偏差,欢迎指正。引用模块说明:在笔记中,我会使用引用模块来补充或细化本节内容的部分表述。这些内容通常是对某些概念的进一步解释或澄清,在理解主要内容时可以作为。

2025-03-23 23:46:29 498

原创 MyBatis源码·一——jdbc与mybatis的简单示例

文章目录JDBC示例MyBatis示例JDBCJDBC(Java Database Connectivity)是Java语言和关系型数据库交互的一种规范。JDBC提供了一套完整的API用于连接、访问数据库,并返回sql执行对应的结果。本系列主要研究MyBatis源码,JDBC我们仅做一个使用示例,对MyBatis起一个引导作用,并不会对其底层做研究。示例导入相应的jar包<dependency> <groupId>mysql</groupId>

2022-01-27 18:52:33 1543

原创 MyBatis源码探究:序

MyBatis

2021-12-27 17:14:01 347

原创 springboot将LocalDateTime转为时间戳

springboot将LocalDateTime转为时间戳springboot在启动的时候会自动给我们注入一个objectMapper。但是这个objectMapper并没有对LocalDateTime类进行特殊的序列化处理,当我想将其转为时间戳的时候,只能自己实现一个序列化类,并将需要转换的实体类字段上添加注解@JsonSerialize(using = LocalDateTimeSerialize.class)public class LocalDateTimeSerialize extends

2021-09-29 17:26:46 1955 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除