- 博客(10)
- 收藏
- 关注
原创 【InternLM】入门岛:Python 基础知识
用到第三方包debugpy,listen是监听端口,wait-for-client等待连接上才发起debug流程,./myscript.py是debug文件。ge: 第一个词,hello,因为没有出现过,所以记一个次数。这种方式的好处是可以直接在命令行添加参数。发起debug server的命令。安装debugpy包。
2024-08-04 18:39:04
323
原创 【InternLM】入门岛:Linux基础知识+InternStudio 关卡
1]【Linux前置基础知识】https://www.bilibili.com/video/BV1FS421d7yg/?[2] 【Linux+InternStudio 关卡】: https://github.com/InternLM/Tutorial/blob/camp3/docs/L0/Linux/readme.md。复制登录命令和密码,在vs code里面操作。在powershell里面输入命令。命令安装gradio依赖包。回到开发机平台添加密钥。在开发机平台创建了一个。这样就可以在本地访问。
2024-08-01 23:22:51
301
原创 【西瓜书】第六章 支持向量机
原始样本空间可能并不存在能划分两类样本的超平面,需要把样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分。距离超平面最近的几个训练样本点使得上式成立,被成为“支持向量”(support vector),两个异类支持向量到超平面的距离之和为。能将训练样本分开的划分超平面有很多,应该找到位于两类训练样本“正中间”的划分超平面,使得划分超平面离两个类别样本的间隔达到最大。“核函数的选择”成为支持向量机的最大变数,如果核函数选择的不合适,意味着将样本映射到了一个不合适的特征空间。
2024-07-07 14:57:44
916
原创 【西瓜书】第五章 神经网络
M-P神经元模型”:在这个模型中,神经元接收到来自几个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接(connection)进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“激活函数”(activation function)处理以产生神经元的输出。[3] 谢文睿 秦州 贾彬彬.机器学习公式详解第2版[M].人民邮电出版社,2023.感知机与多层网络 感知机是一种简单的二分类模型,由输入层、权重和阈值组成。[2] 周志华.机器学习[M].清华大学出版社,2016.
2024-07-05 00:49:14
446
原创 【西瓜书】第四章 决策树
剪枝(pruning)是决策树学习算法应对“过拟合”的主要手段,过拟合的产生原因是为了尽可能的正确分类训练样本,有时可能会造成决策树的分支过多,训练样本学的“太好”了,以致于分训练集自身的一些特点当作所有数据都具有的一般性质而导致过拟合。随着划分过程的不断进行,希望决策树的分支节点所包含的样本尽可能属于同一类别,即节点的“纯度”(purity)越来越高。一个大的信息熵数减去一个小的条件熵,条件熵越小,说明使用该属性进行划分可以使正负样本比例纯度越高,增加的信息熵,也就是信息增益越大。
2024-07-01 20:36:42
1954
原创 【西瓜书】第三章 线性判别分析
LDA 的一个关键目标是在降维的同时保持类间距离最大化而类内距离最小化。它通过投影的方式实现这一目标,选择一个方向(即投影轴),使得在该方向上不同类别的数据点尽可能地分开。JwTSbwwTSwwJwTSwwwTSbw这个比值被称为损失函数,LDA 的目标是找到能够使该损失函数最小的权重向量www拉格朗日乘子法。
2024-06-28 23:47:59
1906
原创 【西瓜书】第三章 线性回归:一元线性回归 / 多元线性回归
机器学习三要素1.模型:根据具体问题,确定假设空间2.策略:根据评价标准,确定选取最优模型的策略(通常会产出一个“损失函数”)3.算法:求解损失函数,确定最优模型。
2024-06-22 19:35:33
782
原创 【西瓜书】第一、二章
样本是标明各个特征取值的“特征向量”来表示,向量又有向量所在的空间,所以表示样本的特征向量所在的空间叫样本空间。用测试集上的判别效果来估计模型在实际使用时的泛化能力,而把训练数据另外划分为训练集和验证机,基于验证集上的性能来进行模型选择和调参。假设空间:数据作为训练集可以有多个假设空间,在不同的假设空间中都有可能学得能够拟合训练集得模型。数据量越大,模型效果越好;标记:机器学习想要学习的样本在某个方面的潜在的规律,“标记”就是该方面的信息。标记空间:标记所在的空间称为“标记空间”或“输出空间”,写作花体。
2024-06-19 23:49:21
835
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人