- 博客(27)
- 收藏
- 关注
原创 Meta Learning
训练资料作为输入LOSS取决于训练任务,每个任务中有训练资料与测试资料在元学习中需要考虑多个任务 例如分类过task1的表现后,再看task2的表现最后的loss=l1l_1l1l2l_2l2得到总体的loss在传统机器学习任务中,我们一般使用训练集的误差作为最终loss而在元学习中我们使用测试集误差作为loss经过训练后我们学到了学习的算法这时候我们使用学习的算法 进行测试将其使用在测试任务,将测试任务的训练资料放进去进行学习。
2024-05-21 15:17:29
425
原创 PF滤波?
本文是对于原文的学习与部分的转载粒子滤波是在目标跟踪中常用的一种方法非线性条件下,贝叶斯滤波面临一个重要的问题是状态分布的表达与积分式的求解由前面章节中的分析可以得知,对于一般的非线性系统,解析求解的途径是行不通的在数值近似方法中,蒙特卡洛方针是一种最为通用与有效的方法粒子滤波就是建立在蒙特卡罗仿真基础之上的,它通过利用一组带权值的系统状态采样来近似状态的统计分布。由于蒙特卡罗仿真方法具有广泛的适用性,由此得到的粒子滤波算法也能适用于一般的非线性/非高斯系统。
2024-04-20 22:44:47
1074
原创 Sora训练营打卡
Sora是openAI最新发布的视频生成模型,所发布的内容较之前的视频生成模型在各方面都有了很大的提高,不仅在视频生成上视频的长度得到了增长,达到了60s,还拥有了很高的真实性,相比于之前容易变形的生成内容,可以说是有了非常巨大的进步,甚至还能够生成多角度多机位视频,支持任意比例视频,将两个视频丝滑的融合在一起,这是之前的视频生成模型都到达不了的高度杨老师PPT里所讲解能力如下TeText-to-video: 文生视频Image-to-video: 图生视频。
2024-02-29 23:36:51
316
原创 书生浦语大模型训练营第二节
本次学习了模型demo的部署在这几个demo前学习的必备技能就是模型的下载,其余都是linux的使用了,当然还有配置本地端口。
2024-01-09 14:31:47
415
原创 LLM理论到实践
语言模型的目标就是建模自然语言的概率分布词汇表 V 上的语言模型,由函数 P(w1w2...wm) 表示,可以形式化 地构建为词序列 w1w2...wm 的概率分布,表示词序列 w1w2...wm 作为一个句子出现的可能性大小。由于联合概率 P(w1w2...wm) 的参数量十分巨大,直接计算 P(w1w2...wm) 非常困难。
2024-01-07 23:00:19
914
1
原创 书生·浦语大模型实战营
经过以上的介绍,我们了解到书生浦语拥有完整的大模型开发以及从模型到应用开发的整套流程提供给开发者学习开发,也让本人对本次的训练营的成果有很大的期待。
2024-01-05 21:20:29
417
1
原创 CLIP论文笔记——Learning Transferable Visual Models From Natural Language Supervision
一个强大的无监督训练模型通过NLP来的监督信号得到迁移学习进行图片与文字的配对实现监督的信号,解决了需要打标签进行训练的限制,增强了模型的泛化能力。
2023-11-25 17:17:28
1068
1
原创 极大似然估计与交叉熵
这个损失函数通常被称为交叉熵损失,能够表示出不确定性程度,比较直观的反应分类损失,使用交叉熵还因为它有一个特性是其他损失函数不容易替代的,就是交叉熵更强烈的惩罚错误的输出。如果有非常错误的输出,它的值就会变化很大,反馈很强,并且导数更大。主要用于度量同一个随机变量X的预测分布Q与真实分布P之间的差距,反映的是困难程度。所以在分类问题中只需要将对数前乘上值即可,乘以对应值的概率以求得损失。极大似然估计简单是一种通过观察结果来求条件的方式。我们使用极大似然估计法,求对数似然来作为损失函数。
2023-10-07 20:06:17
128
1
原创 数据挖掘上分笔记
subsample——》指定采样出 subsample * n_samples 个样本用于训练弱学习器。gamma——》指定叶节点进行分支所需的损失减少的最小值,默认值为0。设置的值越大,模型就越保守。eval_metric——》用于指定评估指标,可以传递各种评估方法组成的list。max_depth——》指定树的最大深度,默认值为6,合理的设置可以防止过拟合。colsample_bytree——》构建弱学习器时,对特征随机采样的比例。min_child_weight——》指定孩子节点中最小的样本权重和。
2023-08-09 20:43:32
87
1
原创 数据挖掘竞赛上分技巧
通过观察这些特征获得基础信息 并且使用模型所在意的情况也不一样(比如XGBoost lgbm 不用处理缺失值)特征过多时可能会造成过拟合,一般超过一千个特征时进行特征筛选,以获得更好的效果。例如填写地址 不填写地址本身也是一种特征。还有错误值处理 不同情况下或者比赛下 对于其处理有所不同。筛选更好的特征有助于模型效果更好,减少噪声对结果的影响。在当今比赛中竞争激烈,需要将多个模型进行融合。count编码 比如用数字代表商品火热程度。过滤异常特征与过滤高相关特征。
2023-07-29 22:07:50
139
1
原创 解读baseline与lightgbm学习
pandas—>用作数据处理lightgbm—>模型sklearn.metrics.mean_absolute_error—>mae计算函数sklearn.model_selection.train_test_split—>数据集拆分工具tqdm—>进度条工具。
2023-07-27 20:34:43
158
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人