- 博客(10)
- 收藏
- 关注
原创 wsl2占用多余空间释放
wsl2中文件占用空间后,删除文件,仍会占用C盘空间不释放。1.停止wsl如果不是stop状态,则再执行wsl --shutdown命令2.压缩磁盘。
2025-02-08 10:55:22
274
原创 微调模型导入ollama
找到服务器上已经下载的qwen2.5模型,然后导出Modelfile文件。1.llama.cpp程序下载及环境配置。2.制作新的Modelfile。1.旧Modelfile导出。将对应行改为gguf文件位置。3.导入ollama。
2025-01-08 14:48:28
638
原创 不同主机ollama模型迁移
下载模型后在模型存储路径对模型进行打包,我的模型存储路径为默认路径,也就是/usr/share/ollama/.ollama/models。在终端输入如下命令,对文件进行打包,打包后获得blobs.tar和glm4.tar。完成上述操作后,进行查看模型是否迁移成功。将tar上传至目标主机目录,并进行解压。将模型文件以及配置文件移动到指定目录下。在有网络的主机下载模型。
2024-12-20 13:58:17
2404
原创 安装docker版本ollama
由于服务器在docker pull ollama/ollama时会卡住,首先通过wsl下载并导出ollama的docker镜像包。1.由于服务器本身有非docker版的ollama,因此先用命令停止。注:如果原服务器已配置低版本的docker版本ollama,请先删除。此处-v后面紧跟的路径需要根据实际路径地址来进行映射。4.加载镜像成功后,输入如下命令进行查看。2.使用docker镜像构建容器。3.在终端运行以下命令加载镜像。1.上传tar包到指定服务器。2.进入tar包所在文件夹。
2024-12-20 09:17:17
3673
3
原创 graphrag+ollama+xinference实战部署
进行到此处之后ragtest文件夹下会生成output文件夹,更改其中settings.yaml中的模型配置。进入前端页面,将本地模型转化为xinference可调用的embedding模型。将导出后的Modelfile加上上述一行,增强模型的上下文能力。1.下载下图中模型对环境中在线模型路径进行离线化。2.对环境中对于的在线模型路径进行修改。1.xinference安装。
2024-09-12 08:43:47
719
原创 将anaconda环境迁移至docker
基于此镜像创建的docker,anaconda默认安装位置为/opt/conda,首先需要做的是将docker内anaconda环境与docker外一致。#~/.bashrc系统配置文件也要修改,需要与docker外的 ~/.bashrc配置一致。#基于镜像创建一个名为dockerceshi的docker。我的新目录是/home/anaconda3,下面都以此举例。#修改新目录下的anaconda下的一些文件。#修改所移动环境的配置,本文中为yolov8。#复制anaconda目录到新目录。
2024-05-23 08:52:01
327
原创 nebulagraph部署及可视化工具安装
即使 Nebula Graph 数据库与 Studio 部署在同一台机器上,用户也必须在 Host 字段填写这台机器的本机 IP 地址,而不是 127.0.0.1 或者 localhost。如果已启用身份验证,但是未创建账号信息,用户只能以 GOD 角色登录,必须填写 root 及对应的密码 nebula。如果已启用身份验证,同时又创建了不同的用户并分配了角色,不同角色的用户使用自己的账号和密码登录。:根据 Nebula Graph 的身份验证设置填写登录账号和密码。#下载合适版本的nebula。
2024-05-22 17:18:30
1124
2
原创 mysql数据库相关指令
INSERT INTO case_school(id,xm,zy,sfcd,cdyy) VALUES ( ‘01’,‘小刚’,‘学生’, ‘1’, ‘晚起’);
2024-02-23 13:28:56
395
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人