level=error msg="Running error: context loading failed: failed to load program with go/packages

博客介绍了开启Go Module的解决方法,涉及Go语言开发中的模块管理相关内容,为开发者提供开启Go Module的指引。
部署运行你感兴趣的模型镜像

您可能感兴趣的与本文相关的镜像

GPT-SoVITS

GPT-SoVITS

AI应用

GPT-SoVITS 是一个开源的文本到语音(TTS)和语音转换模型,它结合了 GPT 的生成能力和 SoVITS 的语音转换技术。该项目以其强大的声音克隆能力而闻名,仅需少量语音样本(如5秒)即可实现高质量的即时语音合成,也可通过更长的音频(如1分钟)进行微调以获得更逼真的效果

PS C:\Users\FMR> set OLLAMA_HOST=http://127.0.0.1:11434 >> ollama serve >> time=2025-08-08T21:13:44.739+08:00 level=INFO source=routes.go:1304 msg="server config" env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_CONTEXT_LENGTH:4096 OLLAMA_DEBUG:INFO OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://0.0.0.0:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:D:\\ollamaModels OLLAMA_MULTIUSER_CACHE:false OLLAMA_NEW_ENGINE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:1 OLLAMA_ORIGINS:[chrome-extension://* http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://* vscode-file://*] OLLAMA_SCHED_SPREAD:false ROCR_VISIBLE_DEVICES:]" time=2025-08-08T21:13:44.755+08:00 level=INFO source=images.go:477 msg="total blobs: 5" time=2025-08-08T21:13:44.755+08:00 level=INFO source=images.go:484 msg="total unused blobs removed: 0" time=2025-08-08T21:13:44.755+08:00 level=INFO source=routes.go:1357 msg="Listening on [::]:11434 (version 0.11.4)" time=2025-08-08T21:13:44.755+08:00 level=INFO source=gpu.go:217 msg="looking for compatible GPUs" time=2025-08-08T21:13:44.755+08:00 level=INFO source=gpu_windows.go:167 msg=packages count=1 time=2025-08-08T21:13:44.755+08:00 level=INFO source=gpu_windows.go:214 msg="" package=0 cores=6 efficiency=0 threads=6 time=2025-08-08T21:13:45.584+08:00 level=INFO source=gpu.go:612 msg="Unable to load cudart library C:\\Windows\\system32\\nvcuda.dll: symbol lookup for cuCtxCreate_v3 failed: \xd5Ҳ\xbb\xb5\xbdָ\xb6\xa8\xb5ij\xcc\xd0\xf2\xa1\xa3\r\n" time=2025-08-08T21:13:45.595+08:00 level=INFO source=gpu.go:377 msg="no compatible GPUs were discovered" time=2025-08-08T21:13:45.596+08:00 level=INFO source=types.go:130 msg="inference compute" id=0 library=cpu variant="" compute="" driver=0.0 name="" total="7.9 GiB" available="2.4 GiB" time=2025-08-08T21:13:45.596+08:00 level=INFO source=routes.go:1398 msg="entering low vram mode" "total vram"="7.9 GiB" threshold="20.0 GiB"
最新发布
08-09
你提供的日志非常关键,我们来**逐条分析**: --- ## 🧾 日志关键信息分析 ### ✅ 你运行了以下命令: ```powershell set OLLAMA_HOST=http://127.0.0.1:11434 ollama serve ``` 但日志中显示: ``` msg="Listening on [::]:11434 (version 0.11.4)" ``` 这意味着: ## ❌ OLLAMA_HOST 设置 **未生效!** 虽然你设置了 `OLLAMA_HOST=http://127.0.0.1:11434`,但 Ollama 实际监听的仍然是 IPv6 地址 `[::]:11434`,不是你指定的 IPv4 地址。 --- ## 🔍 原因分析 ### 1. `OLLAMA_HOST` 环境变量未生效 你运行的命令是: ```powershell set OLLAMA_HOST=http://127.0.0.1:11434 ollama serve ``` 这在 PowerShell 中是**临时设置环境变量**的方式,但可能: - Ollama 没有正确读取这个环境变量 - Ollama 的配置被硬编码或被默认值覆盖 --- ### 2. 日志中还显示: ```log msg="server config" env="map[... OLLAMA_HOST:http://0.0.0.0:11434 ...]" ``` 这说明:**Ollama 实际使用的 `OLLAMA_HOST` 是 `http://0.0.0.0:11434`**,不是你设置的 `http://127.0.0.1:11434`。 也就是说: ## ❌ 你设置的 `OLLAMA_HOST` 被忽略了! --- ## ✅ 解决方案 ### ✅ 方法 1:使用管理员权限运行 PowerShell 并设置环境变量 有时候环境变量在非管理员模式下无法正确传递。 ```powershell # 以管理员身份运行 PowerShell,然后执行: $env:OLLAMA_HOST = "http://127.0.0.1:11434" ollama serve ``` --- ### ✅ 方法 2:使用 `--host` 参数(如果支持) 有些版本的 Ollama 支持命令行参数: ```powershell ollama serve --host 127.0.0.1:11434 ``` 如果报错说不支持这个参数,说明你的版本不支持。 --- ### ✅ 方法 3:直接访问 IPv6 地址 `[::1]` 既然服务监听在 `[::1]:11434`,你可以用 IPv6 地址访问: ```powershell curl http://[::1]:11434/api/tags ``` 如果这个能访问,说明服务只监听 IPv6。 --- ### ✅ 方法 4:强制监听 `0.0.0.0`(IPv4 + IPv6) ```powershell $env:OLLAMA_HOST = "http://0.0.0.0:11434" ollama serve ``` 然后访问: ```powershell curl http://127.0.0.1:11434/api/tags ``` --- ## ✅ Python 调用方式(确保 host 设置正确) ```python import ollama client = ollama.Client(host='http://127.0.0.1:11434') response = client.chat(model='llama3', messages=[ {'role': 'user', 'content': '你好,我是谁?'} ]) print(response['message']['content']) ``` --- ## 🛠️ 示例:完整流程(PowerShell 管理员权限) ### 终端 1:运行服务 ```powershell $env:OLLAMA_HOST = "http://127.0.0.1:11434" ollama serve ``` 或: ```powershell $env:OLLAMA_HOST = "http://0.0.0.0:11434" ollama serve ``` ### 终端 2:检查监听状态 ```powershell netstat -ano | findstr :11434 ``` 输出应为: ``` TCP 0.0.0.0:11434 0.0.0.0:* LISTENING 12345 ``` 或: ``` TCP 127.0.0.1:11434 0.0.0.0:* LISTENING 12345 ``` ### 终端 2:访问服务 ```powershell curl http://127.0.0.1:11434/api/tags ``` --- ## ❗ 常见问题总结 | 问题 | 原因 | 解决方法 | |------|------|-----------| | `Listening on [::]:11434` 但设置了 `OLLAMA_HOST=127.0.0.1` | 环境变量未生效 | 使用 `$env:OLLAMA_HOST` 设置 | | `curl: Failed to connect to 127.0.0.1:11434` | Ollama 实际监听 IPv6 | 使用 `curl http://[::1]:11434` | | `Get-NetTCPConnection` 找不到监听 | 服务未真正绑定 | 使用 `netstat` 替代检查 | | WSL 与 Windows 网络隔离 | 不同系统访问失败 | 统一使用 WSL 或 Windows 环境 | --- ##
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值