
非docker安装open-webui连接ollama实现deepseek本地使用,集成其他openai模型,常见启动报错问题解决。
事实上本人win10系统使用python3.12版本下载open-webui都没有成功,所以保守起见用python3.11版本比较稳妥。启动之后会根据huggingface.co联网下载一些模型,如果没有科学上网会出现报错,不过不影响,看到最后能出现端口显示即说明成功。注意: 如何 ollama和 open-webui不在同一台机器上或修改了ollama的默认端口,需要设置如下环境变量。config.py的路径在安装的conda虚拟环境的openwebui下面。启动open-webui。
