- 博客(4)
- 收藏
- 关注
原创 Ollama跨域配置:实现客户端通过API访问服务器端部署的Ollama服务
Ollama 默认在本地运行,不对外提供服务,这会导致在服务器端部署的模型无法被用户通过API的形式访问到。要允许外部设备访问 Ollama 服务,需要让 Ollama 服务监听所有网络接口,而不仅仅是本地回环地址。
2025-02-28 18:12:46
1176
原创 Docker镜像离线部署
先从github下载项目,命令行定位至项目的docker-compose.yml 文件所在路径,使用 docker-compose pulll 命令下载 docker-compose.yml 文件中定义的所有镜像。(6)在离线服务器上运行 docker-compose:确保离线服务器上已经安装了 docker-compose。(5)将 docker-compose.yml 文件复制到离线服务器:确保 docker-compose.yml 文件也在离线服务器上。(4)在离线服务器上加载 Docker 镜像。
2024-06-26 18:15:05
3393
原创 Windows使用Ollama对LLM进行本地部署
Ollama开启后端服务的默认端口是11434,在OpenAI库中调用需要加后缀/v1,如:http://localhost:11434/v1。注意:模型默认是Q4_0量化的,若要指定其他规格的模型,需在左边的下拉框中选择,然后使用右边变化后的ollama运行语句。目前有很多LLM开发工具和平台,在支持使用在线模型api导入的同时,也支持Ollama部署的本地模型,如LobeHub。,左边是模型选择下拉框,右边是ollama命令行中对应的模型运行语句,里面包含正确的模型标准名称。
2024-06-20 11:24:55
1730
原创 Ubuntu安装配置ElasticSearch和Kibana 8.13.4
sudo docker cp 容器:/usr/share/kibana/config/kibana.yml /home/qzk/es/kibana.yml。sudo docker cp /home/qzk/es/kibana.yml 容器:/usr/share/kibana/config/kibana.yml。https://192.168.146.128:9200,输入用户名、密码,若成功会显示容器的name。1.添加自动重启选项,增加该选项后,若服务器重启后 Kibana 容器也将自动启动。
2024-06-05 18:04:26
798
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人