自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 Ollama跨域配置:实现客户端通过API访问服务器端部署的Ollama服务

Ollama 默认在本地运行,不对外提供服务,这会导致在服务器端部署的模型无法被用户通过API的形式访问到。要允许外部设备访问 Ollama 服务,需要让 Ollama 服务监听所有网络接口,而不仅仅是本地回环地址。

2025-02-28 18:12:46 1176

原创 Docker镜像离线部署

先从github下载项目,命令行定位至项目的docker-compose.yml 文件所在路径,使用 docker-compose pulll 命令下载 docker-compose.yml 文件中定义的所有镜像。(6)在离线服务器上运行 docker-compose:确保离线服务器上已经安装了 docker-compose。(5)将 docker-compose.yml 文件复制到离线服务器:确保 docker-compose.yml 文件也在离线服务器上。(4)在离线服务器上加载 Docker 镜像。

2024-06-26 18:15:05 3393

原创 Windows使用Ollama对LLM进行本地部署

Ollama开启后端服务的默认端口是11434,在OpenAI库中调用需要加后缀/v1,如:http://localhost:11434/v1。注意:模型默认是Q4_0量化的,若要指定其他规格的模型,需在左边的下拉框中选择,然后使用右边变化后的ollama运行语句。目前有很多LLM开发工具和平台,在支持使用在线模型api导入的同时,也支持Ollama部署的本地模型,如LobeHub。,左边是模型选择下拉框,右边是ollama命令行中对应的模型运行语句,里面包含正确的模型标准名称。

2024-06-20 11:24:55 1730

原创 Ubuntu安装配置ElasticSearch和Kibana 8.13.4

sudo docker cp 容器:/usr/share/kibana/config/kibana.yml /home/qzk/es/kibana.yml。sudo docker cp /home/qzk/es/kibana.yml 容器:/usr/share/kibana/config/kibana.yml。https://192.168.146.128:9200,输入用户名、密码,若成功会显示容器的name。1.添加自动重启选项,增加该选项后,若服务器重启后 Kibana 容器也将自动启动。

2024-06-05 18:04:26 798 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除