【解决方法】ollama在powershell或者cmd运行时乱码报错

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

现象

运行ollama run xxxx时,无论是powershell还是cmd都是乱码最后输出一句Error: The parameter is incorrect.

解决方法

原因:powershell和cmd版本太旧了!
用最新版或者用其它终端,比如vscode的终端就能正常使用了。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

<think>我们正在使用中文回答问题,并且需要按照要求提出3-5个相关问题。 用户询问如何详细安装LangChain,并提醒安装过程中避坑。 我们将分步骤详细说明安装过程,并指出可能遇到的坑及解决方法。 注意:用户的环境是Windows 11,已经部署了Ollama和DeepSeek14b。 我们将使用Python环境,因此需要确保Python已经正确安装。 最后,按照要求,在末尾提出3-5个相关问题,以“§§相关问题§§”开头。</think>### LangChain安装详细指南及避坑提醒 以下步骤基于您的Win11系统(AMD 5800X + RTX 3080 Ti),使用Python环境部署LangChain: #### 安装步骤(逐行执行): 1. **安装Python(必避坑)** - 下载Python 3.10+(推荐3.10.9):[官网链接](https://www.python.org/downloads/) - **避坑**:安装务必勾选 `Add Python to PATH`,否则后续命令无法识别 - 验证安装: ```bash python --version # 应显示3.10.x pip --version # 确保pip版本>20.0 ``` 2. **创建虚拟环境(强推荐)** ```bash python -m venv langchain_env # 创建隔离环境 langchain_env\Scripts\activate # 激活环境(CMD/PowerShell) ``` **避坑**:若报错“无法加载脚本”,需以管理员身份运行: ```powershell Set-ExecutionPolicy RemoteSigned -Scope CurrentUser # PowerShell执行 ``` 3. **安装LangChain核心包** ```bash pip install langchain ``` **避坑**:若遇`ERROR: Could not build wheels`: - 先安装C++生成工具:[Visual Studio Build Tools](https://visualstudio.microsoft.com/visual-cpp-build-tools/) - 勾选“C++桌面开发”和“Windows 10 SDK” 4. **集成Ollama(关键步骤)** ```bash pip install ollama ``` 测试DeepSeek14b连接: ```python from langchain.llms import Ollama llm = Ollama(model="deepseek14b") # 首次运行会自动下载模型(约7GB) print(llm("你好")) # 应返回中文响应 ``` **避坑**: - 若Ollama报`ConnectionError`:检查Ollama服务是否在后台运行(任务管理器→进程) - 显存不足:在Ollama启动命令添加`--num-gpu 40`(3080Ti约12GB显存) 5. **安装扩展工具链(按需选装)** ```bash pip install langchain-experimental # 实验性功能 pip install python-dotenv # 环境变量管理 pip install pandas # 数据分析必备 ``` #### 验证安装成功 创建`test_agent.py`: ```python from langchain.agents import initialize_agent from langchain.llms import Ollama from langchain.tools import Tool llm = Ollama(model="deepseek14b", temperature=0.3) tools = [Tool(name="计划生成", func=lambda x: llm(f"生成工作计划:{x}"))] agent = initialize_agent(tools, llm, agent="structured-chat-react-description") print(agent.run("帮我规划明天的设备维护任务")) ``` 运行:`python test_agent.py` ✅ 成功标志:输出结构化工作计划且无报错 #### 常见故障排除表 | 故障现象 | 解决方案 | |---------------------------|-----------------------------------| | `DLL load failed` | 重装Microsoft Visual C++ 2019 Redist | | `torch.cuda.OutOfMemory` | 添加`--num-gpu 35`限制显存用量 | | Ollama响应慢 | 任务管理器关闭无关GPU进程 | | 中文输出乱码 | 代码开头添加`# -*- coding: utf-8 -*-` | > **关键提醒**:所有操作在虚拟环境中进行,避免污染系统Python!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值