- 博客(11)
- 收藏
- 关注
原创 关于vscode如何使用ssh连接远程服务器
同样的方法,同样的步骤,同样的配方,只不过是在云端而已。以上命令省略了 -f 参数,因此,运行上面那条命令后会让你输入一个文件名,用于保存刚才生成的 SSH key 代码,推荐使用默认(直接按回车),我这里输入cs_16.因为我要连接超算平台的16分区,好记一点。ok值得注意的是,我们一般深度学习都不会在这里跑哈,这里是获取不到gpu资源的,所以你要自己去写run.sh的脚本,去申请gpu资源。这里直接复制完整命令就可以了。之后会弹出需要保存ssh配置文件,选择一个地方保存就行,这个不大,直接默认就行。
2025-03-14 18:39:34
1097
原创 从零开始!在 Windows 上安装与配置 Dify
这篇博客将详细介绍如何在 Windows 系统上部署 Dify,适合零基础用户。从 Docker 和 WSL 的安装配置开始,逐步指导用户设置 Git、Docker 环境以及 Dify 配置文件,解决可能遇到的端口冲突等问题,最终完成 Dify 的启动和测试。通过简明易懂的步骤,帮助用户在本地成功运行 Dify,实现模型供应商配置,让 Dify 项目在 Windows 平台上顺利上线。
2024-10-27 10:30:24
42155
56
原创 如何将SafeTensors模型转换为GGUF格式
在这篇文章中,我将指导你如何将Hugging Face的SafeTensors模型转换为GGUF格式,以便在ollama平台上运行。这个过程包括克隆llama.cpp仓库、设置Python环境、安装依赖包,以及执行转换脚本。
2024-10-20 11:00:37
9560
5
原创 如何在ollama上运行Hugging Face的大语言模型
在这篇博客中,我们将探讨如何在ollama平台上运行Hugging Face的大语言模型。ollama是一个强大的工具,它允许我们轻松地部署和运行大型语言模型。以下是详细的步骤,帮助你从零开始,到成功运行模型。
2024-10-19 12:43:12
7095
原创 如何在本地部署Ollama大模型并使用Python进行简单访问
本文介绍了如何在本地部署Ollama大模型平台,并使用Python进行API调用。首先,从官网下载并安装Ollama,然后通过设置环境变量更改模型保存路径。安装后,通过命令行验证安装成功,并从模型库中选择并下载所需模型。接着,启动Ollama的服务器模式,并使用Python的`requests`库向服务器发送请求,获取响应。文中提供了详细的Python代码示例,展示了如何构建请求数据、发送POST请求并打印响应内容。通过这些步骤,用户可以轻松地在本地部署和使用Ollama大模型。
2024-10-18 20:17:38
7691
3
原创 使用java批量重命名
例如:事情是这样的,我在某壁纸网站抓取了一大堆的壁纸,但是抓取下来的壁纸的比例不是很搭我的电脑,所以我就想用我微薄的知识来删除那些我不想要的图片,以及重命名
2023-02-03 22:59:37
786
原创 JAVA控制语句
JAVA控制语句的学习1、选择语句 选择语句一般为:“如果……就……,否则……”if - else 语句 使用方法:if ( 表达式 ){ 语句 1 }else{ 语句 2 }表达式结果为布尔型,ture执行语句1;false执行语句2if - else if 语句 使用方法:if( 表达式 1 )…语句 1else if( 表达式 2 )…语句 2……else if ( 表达式 n )…语句 nelse …语句n+1表达式1~n分别需要依次
2021-03-19 19:06:34
119
原创 Java 语言简介,下载设置jdk
Java学习笔记(1)1.1.1从C/C++到Java分别用三种语言实现摄氏温度换算为华氏温度:f=c*1.8+32(1)、c语言#include <stdio.h>#include <stdlib.h>int main(){ double ctemp,ftemp; scanf("%lf",&ctemp); ftemp=ctemp*1.8+32; printf("%lf",ftemp); return 0;}c语
2021-03-05 15:50:54
150
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人