自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 wsl+docker+dify部署

官网:https://www.docker.com/products/docker-desktop/ ,下拉,点击“Download Docker Desktop”,选择“Download for Windows-AMD64”。前往链接https://learn.microsoft.com/zh-cn/windows/wsl/install-manual?找到此处,直接选择需要的版本下载,这里我选择的是ubuntu 22.04LTS。访问https://hub.docker.com/signup注册。

2025-08-20 17:44:38 770

原创 pytorch安装时配置镜像源的方法和一些常见用的镜像源网址籍验证pytorch的命令

print("CUDA Version:", torch.version.cuda) # 输出 CUDA 版本。print(torch.cuda.is_available()) # 检查是否支持 GPU。如果输出为 True,则表示 GPU 可用。使用 Conda 安装 PyTorch。3. 上海交通大学镜像。

2025-08-05 17:21:29 597

原创 LLaMA-Factory微调加离线部署用ollama本地运行

第四步:运行ollama,输入“ollama list”,可以看到已安装列表中有self_model了,输入“ollama run self_model:latest”即可开始对话(此时即使把原本的gguf文件删除,也不影响Ollama运行这个大模型)。,创建自己的用户名,点击购买通道,购买免费的,复制authtoken,购买完成后下载linux系统的安装包,上传到实例中,新开个命令窗口输入。进入页面后,加载模型,加载数据,微调,微调结束后导出合并后导出文件,导出的文件夹为。

2025-03-14 16:34:14 1153

原创 deepseek+本地知识库构建

9、在聊天提示框中,输入提示词,默认是英文的提示词,你要修改成中文,不然回答的可能混有英文,其他设置默认,然后点击update workspace,等待workspace成功。好了,经过上面的操作,实现了anythingllm与本地deepseek联动,接下了验证一下,点击创建的工作区,输入你是,他给出回答,代表已经成功。5、到达这一步,需要第一个建立工作区的名字,你可以根据需要自己写一个,或者随便填(因为到了工作页面中,还可以再改),点击下一步。7、点击你刚刚创建的工作区,在右侧出现个齿轮图标,点击。

2025-02-19 21:16:23 582

原创 ollama安装路径更改——deepseek本地部署

10、重启完毕后,进入ollama官网,选择model,找到deepseek模型,根据你的电脑配置选择合适的模型-复制ollama run deepseek-r1:1.5b,win+r输入cmd进入命令行,粘贴等待下载。9、选择环境变量中的系统环境变量,新建-》输入OLLAMA_MODELS,位置粘贴你刚刚新命名的ollamaimagers位置-确定-应用,然后重启电脑。6、安装完成后,ollama下载的模型还是默认安装到c盘,这时候还需要进行其他操作完整模型下载的更改。2、选择Windows版本,下载。

2025-02-17 21:41:11 1778

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除