- 博客(14)
- 收藏
- 关注
原创 tar.gz 安装 Neo4j + 配置 systemd 服务全流程
为了让 Neo4j 能够作为服务运行,并支持开机自启等功能,需要创建一个 systemd 服务文件。出于安全考虑,不要直接用 root 运行 Neo4j,创建一个专用用户来运行它。如果一切正常,你应该看到 Neo4j 已经作为 systemd 服务在运行。在正式配置为服务之前,先确认 Neo4j 能正常启动。文件中的路径,并将现有数据迁移到新路径。Neo4j 的日志文件默认存放在。Neo4j 的配置文件位于。(首次登录必须修改密码)。,你可以根据需要进行修改。
2025-09-09 14:58:06
485
原创 primp在没法联网服务器安装
如果无网服务器上已安装了其他 Python 包,可能会出现依赖冲突。建议在安装前检查现有环境,必要时创建虚拟环境。:在传输文件时,确保文件没有损坏。:确保无网服务器上的 Python 版本为 3.10,且。:确保下载的 wheel 包兼容 GLIBC 2.28。的 MD5 或 SHA256 校验和,确保一致性。:在无网服务器上操作时,可能需要管理员权限(使用。:只下载二进制包,避免源码包触发编译。:对应 Python 3.10。(✅ 兼容你的 glibc)。文件拷贝到无网服务器。:将下载的文件存放到。
2025-08-14 16:55:03
359
原创 使用vllm加载的qwq,构建一个“意图参数补全系统”
系统基于一个强大的语言模型(LLM),通过 OpenAI 的 API 进行调用。这些参数将决定模型的调用路径和使用的模型版本。(使用时候替换成自己的模型)为了验证系统的功能,我们设计了一个简单的交互程序。用户可以通过自然语言描述他们的查询意图,系统会逐步提取参数,并在必要时提示用户补充信息。方法通过系统提示,引导语言模型从用户输入中提取指定的参数,并以 JSON 格式返回。这个类封装了与语言模型的交互逻辑,以及参数提取、更新和状态管理的功能。方法负责将用户输入和系统提示发送给语言模型,并获取模型的响应。
2025-06-14 15:06:15
355
原创 [特殊字符] 使用 vLLM + OpenAI 接口并行调用 QWQ-32B 模型:高效推理实战指南
首先,我们需要初始化 OpenAI 客户端,指定本地 vLLM 服务的地址。我们将逐步分析代码的每一部分,确保你能够理解并将其应用到自己的项目中。包含了多个用户角色的问题,vLLM 会在底层一次性调度多个推理任务,并并行生成多个结果。这些问题是并行推理的核心,我们将一次性将它们发送给模型。最后,我们遍历返回的结果,并打印每个问题对应的答案。:你可以使用自己训练的模型,或者从 Hugging Face 转换好的模型。即便处理了 3 个问题,总耗时也不到 3 秒,大大优于逐个请求的串行方式。
2025-05-23 15:59:40
773
原创 Nginx 配置自定义目录加载文件与服务部署详解
在http {}块中,我们需要添加一行代码,让 Nginx 知道除了默认的配置文件加载路径外,还有一个额外的自定义目录需要加载配置文件。假设我们希望加载目录下的所有.conf文件,可以在这行代码的作用是让 Nginx 在启动或重新加载配置时,也会去目录下寻找并加载.conf文件。这样一来,我们就可以在这个目录下自由地添加和管理自定义的配置文件,而不用担心会干扰到 Nginx 的默认配置,使得整个配置管理更加清晰、灵活。接下来,我们需要为自定义配置文件准备一个专属的目录。执行以下命令来创建这个命令会确保。
2025-05-23 15:51:25
832
原创 如何在其他电脑上访问 WSL 上的项目:启用端口转发的详细指南
在 Windows 搜索栏中输入“PowerShell”,右键点击“Windows PowerShell”,选择“以管理员身份运行”。在 PowerShell 中运行以下命令,将 WSL 的端口映射到 Windows 的端口上。打开 Windows 终端(Terminal),然后选择你的 WSL 发行版(如 Ubuntu)。在 Windows 系统中,打开命令提示符(CMD),运行以下命令。如果一切配置正确,你将能够看到运行在 WSL 上的项目。在这个例子中,WSL 的 IP 地址是。
2025-05-19 14:18:19
1086
原创 使用 vllm 本地加载 qwq 模型实现流式对话查看工具调用(Function Calling)
tools = [{"description": "获取指定地点的当前天气","description": "城市和省份,例如:'San Francisco, CA'"},"unit": {},}]定义了一个名为tools的列表,其中包含了一个工具的定义。这个工具是一个函数,名为,用于获取指定地点的当前天气。定义了该函数的参数,包括location(地点)和unit(温度单位),并指定了这些参数的类型和描述。
2025-05-14 15:37:30
1095
原创 离线服务器 Docker 安装
如果能够正常输出 Docker 的版本信息以及运行状态等信息,说明 Docker 已经成功安装并运行在目标服务器上。这个服务文件定义了 Docker 服务的启动、重启等行为,确保它能够在系统启动时自动运行。将下载好的文件拷贝到移动硬盘,然后将移动硬盘插入目标服务器,将文件复制到。通常情况下,解压后的文件已经自带了执行权限,但执行这个命令可以确保权限正确。通过以上步骤,即使在无法联网的服务器上,也能顺利完成 Docker 的安装。在联网设备的终端中,执行以下命令将文件拷贝到目标服务器的。
2025-05-12 17:45:39
1200
原创 联网与离线Ubuntu服务器间Conda环境迁移全攻略
迁移后,在离线机器上:项目放在任意路径使用来激活通过以上步骤,你就可以轻松地将Conda环境从联网的Ubuntu服务器迁移到离线的Ubuntu服务器,并在离线服务器上顺利运行你的代码。希望这篇文章能够对你有所帮助,让你在实际工作中更加高效地完成任务。
2025-05-12 16:54:22
1451
1
原创 OpenWebUI 上使用Vllm部署的模型
通过上述步骤,你已经成功:使用 vLLM 部署并启动了模型。通过 OpenWebUI 配置了与 vLLM 服务的连接。验证了模型是否成功加载。使用 Python 代码与模型进行了交互。
2025-04-07 15:34:43
2778
原创 windows上用vllm docker容器部署大语言模型
通过以上步骤,你可以从拉取镜像开始,完整地运行 VLLM 容器、加载本地模型,并使用 Python 脚本与模型进行对话。如果请求成功,从返回的 JSON 数据中提取模型的回答,并将其添加到消息列表中,以便后续对话。如果模型加载成功,返回的 JSON 数据中会包含模型的详细信息,包括模型的 ID。是 VLLM 的启动参数,用于指定加载的模型路径和张量并行大小。是 VLLM 提供的 API 接口,用于获取已加载的模型信息。以下是完整的 Python 脚本,用于与模型进行对话。
2025-04-03 11:03:27
3197
2
原创 windows上Milvus的docker安装
在安装过程中,确保勾选“启用 WSL 2 支持”选项,以便使用 Windows Subsystem for Linux (WSL 2)。是示例版本号,请根据需要替换为您要安装的 Milvus 版本。如果下载失败,可能是网络原因或链接有误,请检查链接的合法性,适当重试。该命令会在后台启动 Milvus 服务,可能需要等待片刻,直到所有容器成功启动。如果连接成功,则表示 Milvus 已正确安装并正在运行。的容器正在运行,表示 Milvus 启动成功。powershell复制。powershell复制。
2025-04-01 18:38:30
1753
原创 ubuntu测试cuda是否能稳定运行
在 Ubuntu 系统上编写和运行 CUDA 程序的过程与在其他 Linux 系统上类似。以下是详细的步骤,帮助你在 Ubuntu 上编写、编译和运行一个简单的 CUDA 程序。)创建一个 CUDA 程序文件。是 NVIDIA CUDA 编译器。是你的 CUDA 源代码文件。指定输出的可执行文件名为。
2025-04-01 10:48:30
359
原创 CUDA Toolkit安装
请确保你的网络连接正常,并检查链接是否正确。这一步确保了在安装 CUDA 时,系统会优先选择 NVIDIA 官方提供的软件源。通过以上步骤,你应该能够成功安装 CUDA Toolkit 12.6。更新系统的软件包列表,以确保系统能够识别新添加的 CUDA 软件源。这一步会将 CUDA Toolkit 的软件源添加到你的系统中。这个文件包含了 CUDA Toolkit 的安装脚本和依赖项。这一步是为了确保系统能够信任 NVIDIA 的软件源。文件,该文件用于设置软件源的优先级。安装完成后,运行以下命令验证。
2025-04-01 10:41:57
3534
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅