- 博客(60)
- 收藏
- 关注
原创 rust 构建自己的库和模块
通过命令行生成测试代码,其实就是一个调用rust库的二进制文件,这里我们设计库实现 和 两个函数。生成的目录结构生成自己的库生成简单库通过命令行生成自己的库文件:生成的目录结构在 中添加内容编译库修改 的项目的配置文件 ,在 中添加库的路径修改 代码,调用这两个函数:方法二 先声明,再使用运行结果在库中增加模块直接修改 lib.rs 文件修改 中的 文件重新编译后库后,在 中执行 可以看到结果——与上次运行结果相同。在 目录下创建一个新的文件,命名为
2024-07-17 15:38:24
1179
原创 Jupyter远程服务器设置
使用python编辑器或者vim 在遇到输入错误需要重新输入的时候,会感觉很别扭,尤其是在 for 循环等中。而 jupyter 可以实现文本编辑并运行的效果,对我而言提高了效率。因为 jupyterlab中包含jupyter notebook, 所以启动jupyterlab,则同时也启动了jupyter notebook.在命令行输入 jupyter notebook就可以开启服务了。但我们一般希望Jupyter Notebook在后台运行,所以可以输入以下命令。
2024-07-08 12:39:49
563
原创 拼音字符串相似度
语音识别出的结果并不一定是我们想要的汉子,例如:“张三” &“张叁”。所以如何判断识别出的结果是我们想要的,一种方法就是用到拼音的模糊比较。
2024-07-08 12:00:00
1012
原创 whisper.cpp 学习笔记
whisper 是基于 OpenAI 的自动语音识别(ASR)模型。他可以识别包括英语、普通话等在内多国语言。
2024-05-27 18:35:32
2878
原创 makefile学习笔记
Makefile是一个用于构建软件的文件,其中包含了一系列规则和命令。本文讲述了makefile 的通用介绍:执行过程、概念、变量以及函数等。重点介绍了层次化的 Makefe 的两种编写方式,并配有实际可运行的Makefile的示例。
2024-05-06 20:50:14
670
原创 llama.cpp部署
训练完成之后,模型的参数就固定了,这时候就可以使用模型进行推理,对外提供服务。llama.cpp 主要解决的是推理过程中的性能问题。计算类 Python 库的优化手段之一就是使用 C 重新实现,这部分的性能提升非常明显。另外一个是量化,量化是通过牺牲模型参数的精度,来换取模型的推理速度。llama.cpp 提供了大模型量化的工具,可以将模型参数从 32 位浮点数转换为 16 位浮点数,甚至是 8、4 位整数。除此之外,llama.cpp 还提供了服务化组件,可以直接对外提供模型的 API。
2024-03-24 21:32:48
4253
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人