- 博客(13)
- 收藏
- 关注
原创 Hexo博客显示图片和公式
truetest.md但是,实操时还是无法显示,查阅后可能与路径设置有关,即上述插入时需要设置为绝对路径。但还是不行,遂问了kimi,kimi推荐我直接使用html语言如下:styletext-aligncenter;heightauto;</相当于我们不需要用插件将markdown语法转换为html语言,我们直接在md文件中使用html语言。这时终于能在博客中显示出图片了。
2025-04-03 11:57:12
337
原创 Linux安装Comsol
在linux系统中安装comsol和在win中有所不同,接下来从下载压缩包,解压,创建文件夹,挂载,安装等步骤讲解如何在linux系统中安装一个comsol。
2025-03-31 15:03:03
566
3
原创 Linux入门:从安装到环境搭建
Linux 是一个基于 Unix 的开源操作系统,由 Linus Torvalds 在 1991 年首次发布。它是一种类 Unix 系统,意味着它具有与 Unix 相似的功能和特性,但与 Unix 不同的是,Linux 是免费且开源的,允许用户自由地使用、修改和分发。
2025-03-24 14:29:11
806
原创 从反向传播到梯度检查点(gradient checkpoint)
激活值,顾名思义就是激活函数的输出值。在深度神经网络中,一般都有很多层,每一层的的本质是一个线性变换,也就是矩阵乘法。为了引入非线性,我们在线性变换的输出上再套一个激活函数,这样最终的输出相比于层的输入就是非线性的。于是每一层的数学公式即为:O = act(x * w + b),这里的O即为激活值。梯度检查点是一种在显存受限场景下非常有用的优化技术,特别适用于训练大规模模型。然而,它需要在显存节省和计算开销之间进行权衡。
2025-03-07 20:22:13
839
原创 Huggingface微调入门:废话文学分类
Huggingface是一家美国公司,致力于帮助更多的人可以快捷方便的使用大模型。它提供了很多方便的API接口,可以让我们方便快捷的调用保存在其网站上的模型,一个很形象的比喻是huggingface是大模型领域的淘宝。Huggingface上有针对多种任务的模型可供使用,本次调用一款在中文数据集上训练的bert模型,数据集使用我自制的废话文学数据集。本文适用于huggingface小白,阅读本文可以帮助你熟悉利用自己的数据微调一个大模型的代码流程。
2024-12-23 17:34:30
659
原创 本地使用大模型:Ollama+open-webui+AnythingLLM(Windows+linux)
随着大模型的发展,大量的开源模型可以被直接使用。大模型的使用可以选择在云端或者在本地,如果本地存储空间尚可,而且模型需求不是很大的话,我们可以选择在本地部署一个大模型来使用。针对特定的任务需求,进一步在本地去微调我们的大模型。我在windows和linux上都尝试了一遍,这里记录一下过程。
2024-12-17 10:12:08
1744
原创 vscode 远程连接卡在下载服务器步骤
我们需要手动下载这个vscode-server, 首先需要找到commit_id, 即下载哪个版本。这是再用vscode远程连接服务器,就可以连接成功了。设置commit_id 变量,方便后续使用。将下载的文件解压到刚创建的文件夹,下载vscode-server。最后再将解压后的文件内容,放在。
2024-11-17 20:52:02
2179
原创 git连接github重命名密钥
第一次按照网络上的教程连接成功了,但是我想自定义密钥名字,故重新生成了一队密钥,期间遇到一些问题,正确步骤如下:解释:将公钥添加到github这条命令会启动 SSH 代理并设置环境变量,使得当前终端会话能够与 SSH 代理通信。成功启动后,你会看到类似以下的输出:Agent pid 12345添加私钥到ssh代理连接成功!!
2024-11-17 20:11:48
294
原创 反向传播在做什么?线性回归模型的建立
初学神经网络,对于反向传播的理解一直不是很深刻,但读到一篇帖子并编程跑了一下后忽然豁然开朗,故记录在此提示:以下是本篇文章正文内容,下面案例可供参考简单阐述了反向传播,记录了线性回归模型。
2023-10-18 21:18:06
233
1
原创 卷积的数学定义,图像理解及背后的意义
为什么要卷积,卷积是什么,卷积的意义,为什么要有卷积层,激活层,池化层,以及为什么这些层的作用是这样的。正如这位答主举得例子,如果输入信号f(tao)给到某个系统中,会按照某中规律进行衰减,这个衰减因子就是g(tao),由于输入是连续的,所以我们计算某一时刻的输出时,就不能单纯的用这一时刻的输入乘以衰减因子g(tao),因为这一时刻之前的输入在输出端的影响虽然衰减了,但还是存在的,即此时刻的输出是此时刻之前的输入和此时刻的输入的累加。具体的例子的话可以举两个,一个是信号分析中的例子,一个是图像处理的例子。
2023-10-16 17:13:04
222
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人