这是我上课的教案,给学生搭建自己的开发环境。共享到这里吧。
步骤1:检查环境
python --version
conda list
步骤2:安装Python
注意:如果没有安装python,参考以下步骤,如果已经按转,忽略此步骤
首先在官网下载对应操作系统的版本:
https://www.python.org
在Windows下安装,很好的参考链接:
https://blog.youkuaiyun.com/thefg/article/details/128601410
感谢博主
注意:
Python需要安装包到计算机磁盘根目录或英文路径文件夹下,即安装路径不能有中文。
步骤3:Anaconda3的安装配置
到官网 https://www.anaconda.com/products/individual 选择适合自己系统的 64 位安装包,注意选择 Python3 以上的版本。

注意:1、提交一下自己的邮件,到邮件里找到下载连接
2、安装时记得勾选Add Anaconda to my PATH environment variable
添加到环境变量中。
安装完成后打开cmd
,输入conda
回车出现如下信息,即为安装成功。
感谢原博主,参考链接:
https://blog.youkuaiyun.com/m0_61869253/article/details/132294681
步骤4:在新的环境,建立LangChain开发环境
1、进入新的虚拟环境
conda create --name langchain
conda activate langchain
2、安装Numpy、scipy matplotlib(可选)
安装
pip3 install numpy pandas scipy matplotlib -i https://pypi.tuna.tsinghua.edu.cn/simple
3、安装scikit-learn(可选)
pip3 install scikit-learn -i https://pypi.tuna.tsinghua.edu.cn/simple
python3 -m pip show scikit-learn #核查安装情况
4、安装jupter lab
pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple jupyterlab
继续安装中文
pip3 install jupyterlab-language-pack-zh-CN
重新打开一个新的终端,启动:
jupyter-lab
5、安装 LangChain 包
打开一个新终端,进入刚才建立的名为langchain虚拟环境
pip install langchain langchain-core langchain-openai langchain-community -i \ https://mirrors.aliyun.com/pypi/simple --trusted-host mirrors.aliyun.com
6、安装LLM
(1)进入 Ollama 官网,下载适合自己系统的 Ollama 版本,运行相应的命令安装 Ollama 。
安装 Ollama
访问 Ollama 官⽹ (https://ollama.com/download)
如果太慢,可以替换:https://ollama.ruanmao.net
下载对应安装包,双击完成安装。
(2)在安装 Ollama 后,运行 Ollama ,在 Ollama 官网的模型库中选择自己喜欢的 LLM 。
(3)打开命令行终端,执行相应命令下载和运行模型。
我们的使用千问的1.8B模型或者DeepSeek1.5B模型进行演示和学习。执行以下命令通过 Ollama 加载和运行模型。
#千问模型
ollama run qwen:1.8b
或者
ollama pull qwen:1.8b
#DeepSeek模型
ollama run deepseek-r1:1.5b
或者
ollama pull deepseek-r1:1.5b
安装过程如图:
备注:出现success,就成功安装了
如果想尝试在本地模拟 GPT 接口,则执行下方命令复制模型并自定义名字(这里自定义为" gpt -3.5- turbo ")。
ollama cp qwen:1.8b gpt-3.5-turbo
执行以下命令查看运行中的模型。
ollama list
则输出模型列表,例子如下:
¥¥¥ 安装开发环境成功! $$$
步骤5:测试
在命令行终端中执行以下命令,进入 Python 环境。
python3
然后执行:
import langchain
# 获取版本号
print(f"LangChain版本号: {langchain.__version__}")
LangChain版本号: 0.3.23
# 获取安装路径
import site
print(f"安装路径: {site.getsitepackages()[0]}/langchain")
import langchain_ollama # 测试模块是否可导入
print(langchain_ollama.__version__) # 输出版本号
0.3.0(我的安装,大家应该也是)
(^D退出python)
继续测试,可以使用下面的代码,测试本地部署的DeepSeek模型,名字deepseek-r1:1.5b
from dotenv import load_dotenv
from langchain_core.messages import HumanMessage
from langchain_community.chat_models import ChatOllama
# 加载.env文件的环境变量(Ollama不需要API_KEY,此步可保留但非必须)
load_dotenv()
# 创建本地Ollama模型实例
model = ChatOllama(
model="deepseek-r1:1.5b", # Ollama模型名称
base_url="http://localhost:11434", # Ollama服务地址
temperature=0.8
)
# 调整消息格式(Ollama兼容OpenAI格式)
messages = [
{"role": "system", "content": "把下面的语句翻译为英文。"},
{"role": "user", "content": "今天天气怎么样?"}
]
# 调用模型
response = model.invoke(messages)
print(response.content)
执行结果如下,类似:
<think>
好,我现在需要帮助用户将中文句子翻译成英文。用户的查询是“今天天气怎么样?”首先我要确定这句话的正确翻译。
“今天天气怎么样?”这句话表达的是天气状况的描述,所以对应的英文应该是“How is the weather today?”。“How”表示疑问,“the weather”指的是天气情况,“today”指代当前时间。
接下来我要检查是否有更准确或标准的英文表达。考虑到中文通常使用口语化的表达方式,所以用“今天天气怎么样?”是合适的。
然后我要确保翻译的语法正确,句子结构通顺,没有遗漏任何信息。用户的需求是准确传达原句的意思,所以需要保持语义准确。
最后,我确认没有使用任何不正确的词汇或标点符号,确保整个翻译看起来自然流畅。这样处理后,用户的英文对话应该既准确又自然。
</think>
How is the weather today?
如果要获取依赖项(需安装pipdeptree)
pip install pipdeptree
pipdeptree --packages langchain
如果ollama没有启动,执行命令
ollama serve
复制过来发现图要重新再传,等有空再说吧。