- 博客(8)
- 收藏
- 关注
原创 Datawhale 组队学习-提示词毒性分析的一些思考
依托大语言模型的构造能力,生成各种提示词对ShieldLM-7B-internlm2进行攻击,同时让改模型能返回一种危险程度,而不是简单的只给出安全或者不安全,这样将2分类问题,升级为求差异最大问题。最近参加Datawhale 组队学习活动,并参加了提示词毒性分析的实践。该实践的背景是,用户可能可能通过输入有毒的提示词,让系统生成包含色情、暴力、非法等有毒图片,为此期待参与者能对100条有毒的提示词进行改写使得其能骗过ShieldLM-7B-internlm2,让其认为经过改变的提示词是安全的提示词;
2024-10-15 23:06:45
152
原创 Datawhale X 李宏毅苹果书 AI夏令营 入门学习(5)
假设有一个模型的输入是一个人的身高、体重以及年龄,假设身高的范围(0.8米~2.2米),体重(60斤~300斤),年龄的范围(10虽~80岁),当我们针对这样的数据训练模型时会发现身高相对另外两个变量的变化较小,而体重的变化可能是最大的。此时可能面临的问题是模型会受到体重的影响更大,实际的训练曲线地形图可能如下。
2024-09-03 22:09:14
499
原创 Datawhale X 李宏毅苹果书 AI夏令营 入门学习(4)
机器学习模型的效果与模型的选择直接相关,恰当的模型能契合问题域的大部分输入与输出关系。
2024-09-03 21:40:26
532
原创 Datawhale X 李宏毅苹果书 AI夏令营 入门学习(3)
众所周知,学习率是模型训练中的超参数,是炼丹中必须解决的问题。传统的学习率是一个固定值,这有一个明显的问题,当学习率过大会导致模型在损失函数的峡谷之间来回横跳,使得训练过程无法收敛,而过小的损失函数则会导致模型训练过程过于漫长,由于每次更新的步幅较小,使得模型会难以在相对较少的次数完成训练。为此,基于可变的自适应学习率技术被提出。
2024-08-31 23:26:20
207
原创 Datawhale X 李宏毅苹果书 AI夏令营 入门学习(2)
基础的线性模型输出是一条直线,无法有效模拟复杂的曲线,于是引入一群Hard Sigmod函数,这类函数的特点是,小于阈值时输出是某固定值,大于该阈值后为向上斜线,继续超过另一阈值时为另一个固定值,通过一组不同的此类函数,通过将基础线性模型数据作为Hard Sigmod函数的输入,就可以组合成复杂的曲线。用于描述原始问题的属性,通过特定的训练、测试数据集实现模型的训练,获得最后的参数w和b。这样的模型是比较易于理解的,但也有一定的问题,并不是所有的显示问题都表现为明显的线性关系,使得模型受到一定的限制。
2024-08-31 22:52:40
164
原创 Datawhale X 李宏毅苹果书 AI夏令营 入门学习(1)
梯度下降的方法本质是沿着损失函数L的梯度方向更新模型的参数(假设为w),使得该损失函数尽可能的小,使得所得的模型参数组成的模型能尽可能的学习训练数据的数据分布,并在由验证数据集的参数获得尽可能贴近真实结果的输出。为此,可以通过改进的方法,为参数变化中增加一个动量,如模拟一个由高处下落的小球,它在更新过程之中如获得了动量,在惯性的加持下,当遇到梯度为0的区域时,它还能继续的往前冲,如此就有可能进入全局最小值。其中,v是历史梯度的指数加权平均,α是动量因子,控制历史梯度的权重大小。
2024-08-27 22:52:32
241
原创 解决Ubuntu Nvidia-smi的错误“NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver”
头天晚上刚训练完,为了快速关机,直接按了电源键将Ubuntu直接关机(之前一直都是使用shutdown命令关机,这样默认会在1分钟之后才关机),次日开机发现nvidia-smi命令失效了,错误如下,而且重启计算机无法解决。但nvcc -V的命令依然是有效的,度娘了好几个方法,最后发现最好用的是如下方法: 安装dkms(Dynamic Kernel Module Support)将系统存在的驱动版本号添加-v 之后随后熟悉的界面有回来了 。我是在关闭python训练任务之后,立即强制关
2022-06-26 10:13:52
4369
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人