部署步骤
网上有很多参考资料,这里就不写了,主要是记录问题
问题记录
1. RAGFlow添加模型时设置的URL无法连接
这里用Ollama+Docker部署,因为是在虚拟机中调用,所以要先加一个环境变量OLLAMA_HOST,保证局域网内可访问,然后将本机IP:11434作为套接字输入到模型url配置中,接着就报如图所示的错误。
解决
URL改成http://host.docker.internal:11434
2. 聊天模型输出的Token过短
添加模型的时候有一个最大token数可以设置,但是在聊天的时候发现输出的内容依然很短,后续的回答直接被截断了。
解决
需要在聊天助理的设置中设置最大token数才有效