记录AIGC开发过程踩坑记录(mixlab/app、ollama)

        背景:部门来了AIGC绘画的需求,我果断选择了comfy ui,本身对stable-diffusion兼容性就不错,尤其最近我痴迷于“json个性化配置”的神秘魔力。comfy ui的工作流方式增加了AI绘图的可用性。

        但是我很懒。所以我不想用HTTP请求一条条地通过JSON数据获取进度和结果。此时comfy ui中的mixlab作者就给了我很大的启发。我靠,大佬直接把comfy ui工作流输入输出写出来,这不无敌了吗?舒服了舒服了。

GitHub - shadowcz007/comfyui-mixlab-nodes: Workflow-to-APP、ScreenShare&FloatingVideo、GPT & 3D、SpeechRecognition&TTSWorkflow-to-APP、ScreenShare&FloatingVideo、GPT & 3D、SpeechRecognition&TTS - shadowcz007/comfyui-mixlab-nodesicon-default.png?t=O83Ahttps://github.com/shadowcz007/comfyui-mixlab-nodes可是mixlab/app是用Python写的前端服务,与我们Node人不兼容。因此我想到直接用iframe嵌套进来,当Comfy UI启动的时候,直接嵌入我开发好的前端页面,真的是非常comfy。下面就是mixlab/app页面和ollama的踩坑过程了。


问题一:mixlab/app 图片上传失败原因

        解答:作者使用了http以及https协议,开启了2个端口的服务,crypto这个类在http协议的网站中是没有的,只能升级为https协议,要不就加密失败。

问题二:资源不够的情况下,我使用统一电脑部署https服务,结果遇到了前端的CORS报错。

        解答:看你的请求类型,一般都是使用OPTIONS中 add_header  "Access-Control-Allow-Origin"中设置为"$http_origin"或者 "*",然后返回204,添加methods和headers为 “*”。这样可以解决一部分问题。

问题三:在同一电脑上部署nginx代理服务和ollama服务时,options显示204,但是get或者post显示200(没错,就是200还报错)或403错误。

        解答:这种情况下大部分是由于nginx中的if语句中post添加的header有错误,最常见错误,"Access-Control-Allow-Origin"与 location 代码块冲突等(仅是推测)。因此在实际部署时,尽量不使用“*”通配符而是“$http_origin”,另外如果是出现了多个源的"Access-Control-Allow-Origin"跨域错误,那应该是if语句和上文产生了冲突。(Nginx这方面我还不熟练,但我觉得真的垃圾,几乎没报错信息 只有如403报错码)。另外就是always关键词可以覆盖部分配置,我理解为重载了(极少有人遇到)。

       还有一种403的错误是由于无法取得代理地址的访问权限,比如说ollama。以下为系统环境变量中的设置:

OLLAMA_HOST0.0.0.0:9197开放IP端口
OLLAMA_MODELSD:\modelsollama模型位置,适合离线部署
OLLAMA_ORIGINS*使用统配符,没查过资料,估计是ollama对于API调用的来源控制。

总之好使了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值