给linux服务器安装serve时遇到的问题

文章介绍了在部署Vue项目时如何全局安装serve,以及遇到npm版本问题、权限问题和命令找不到的解决方案,包括添加软链到环境变量,确保serve命令可用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2023年4月17日

我想将vue项目部署在服务器中,根据这篇文章的指引,来到了全局安装serve的环节

sudo npm i -g serve

安装时可能会遇到的错误:

      1.npm版本太低。我使用了16.19.0,可以成功安装serve(19.x.x版本太高了服务器不支持:(

      2.没有权限,请加sudo

      3.sudo:npm找不到命令,添加软链,请将路径换为自己的node命令的安装路径

sudo ln -s /usr/local/bin/node /usr/bin/node
sudo ln -s /usr/local/bin/npm /usr/bin/npm


sudo ln -s <自己的node/npm命令的路径> /usr/bin/{npm或node}

安装完成后,使用serve命令,会提示command not found

此时需要将serve命令所在位置添加到环境变量中(有点类似上述第3点)

先使用下面的命令,获取npm全局安装目录中的bin文件夹

npm bin -g

得到结果如下,发现npm也提示你,bin不在环境变量内,即不在命令搜索路径中。

/usr/local/node/node-v16.19.0-linux-x64/bin

npm ERR! bin (not in PATH env variable)

 (一般来说,各种可执行程序、命令,都是在bin目录下)

进入bin目录可以发现,serve确实其中,也可以正常使用

$ cd /usr/local/node/node-v16.19.0-linux-x64/bin
$ ls
corepack  node  npm  npx  serve
$ ./serve

   ┌──────────────────────────────────────────┐
   │                                          │
   │   Serving!                               │
   │                                          │
   │   - Local:    http://localhost:3000      │
   │   - Network:  http://1xx.xx.x.xx7:3000   │
   │                                          │
   └──────────────────────────────────────────┘

下面就是最后一步了,给serve添加软链,添加到已经在搜索路径里的目录(添加环境变量太麻烦了,不如直接添加软链)

sudo ln -s /usr/local/node/node-v16.19.0-linux-x64/bin/serve /usr/bin/serve

完成!

添加到/usr/local/bin应该也行,我没试。

### 下载和部署 AnythingLLM 模型 要在 Linux 服务器上下载并部署 AnythingLLM 模型,可以按照以下方法操作: #### 准备工作 确保服务器安装必要的依赖项以及支持 GPU 的环境(如果计划使用 GPU 加速)。可以通过运行 `nvidia-smi` 来验证 NVIDIA 驱动程序是否正常工作[^1]。 #### 安装 Ollama 平台 Ollama 是一个轻量级平台,用于管理和运行大型语言模型。以下是其安装命令: ```bash curl -fsSL https://ollama.ai/install.sh | sh ``` 此脚本会自动检测操作系统并完成 Ollama 的安装过程[^2]。 #### 获取 AnythingLLM 模型文件 AnythingLLM 提供了一个便捷的安装脚本来简化模型获取流程。执行以下命令以下载最新版本的模型及其相关资源: ```bash curl -fsSL https://cdn.anythingllm.com/latest/installer.sh | bash ``` 该脚本将从官方 CDN 地址拉取预训练权重和其他必要组件到指定目录下[^3]。 #### 启动服务 一旦模型被成功加载至本地磁盘,则可通过启动 Ollama API 接口来访问它: ```bash ollama serve & ``` 这将在后台开启 HTTP RESTful API 支持,默认监听端口号为 11434。 #### 测试连接 为了确认一切设置无误,可尝试发送简单的查询请求给新建立的服务实例: ```python import requests response = requests.post( url="http://localhost:11434/api/generate", json={"model": "anythingllm", "prompt": "Hello, world!"} ) print(response.json()) ``` 以上代码片段展示了如何通过 Python 脚本调用刚刚配置好的 LLM 实例,并返回生成的结果字符串。 --- ### 注意事项 - 如果遇到网络问题无法顺利下载,请检查防火墙规则或者更换镜像源地址。 - 对于生产环境中使用的解决方案建议进一步优化性能参数调整策略。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值