
LLM
文章平均质量分 52
有时.不昰沉默
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Dify集成ollama
因为ollama是本地运行的,而dify是运行在docker中的,ollama默认只有127.0.0.1可访问。dify采用dockercompose,提前准备好docker(找好可用的镜像源,非常重要)docker配置文件,没有就新建:/etc/docker/daemon.json。不要写127.0.0.1,因为dify在docker里,ollama在本机。dockercompose期间会下载镜像,一定要配置好镜像源。普遍的都是阿里云、网易的源,但24年06月后就大多不可用了。原创 2025-01-18 13:36:31 · 3453 阅读 · 2 评论 -
ubuntu 2004安装ollama使用大模型
linux系统,官网使用shell脚本方式下载方式缓慢,网上有单独下载脚本然后修改地址的做法,但不一定每个版本都适用。此前为了能配置在dify中,搜索教程提示配置ollama.service;启动后访问localhost:11434,浏览器展示如下即启动成功。点进选好的模型后可看到运行(首次执行会自动下载)命令。官网提供许多可使用的大模型qwen、llama。但我配置后,再次查看下载的模型列表为空了;安装位置不用理会,直接复制执行即可。到此为至就可以和大模型对话了。),下载后找到文件解压即可。原创 2025-01-18 13:18:56 · 384 阅读 · 0 评论