# 探索 Llama.cpp:在 LangChain 中运行 Llama-Cpp-Python 的指南
## 引言
随着大规模语言模型(LLM)的普及,越来越多的开发者希望在本地环境中运行这些模型以克服API调用的限制。本篇文章将介绍如何使用 `llama-cpp-python`,一个用于 `llama.cpp` 的 Python 绑定库,在 LangChain 中进行推理。
## 主要内容
### 1. Llama-Cpp-Python的安装
#### CPU 使用
要使用CPU进行安装,执行以下命令:
```bash
%pip install --upgrade --quiet llama-cpp-python
GPU 使用(BLAS 后端)
Llama.cpp 支持多种 BLAS 后端。您需要使用 FORCE_CMAKE=1
强制使用 cmake 安装。
!CMAKE_ARGS="-DLLAMA_CUBLAS=on" FORCE_CMAKE=1 pip install llama-cpp-python
Apple Silicon 上的 Metal GPU
对于苹果芯片的用户,支持 Metal 框架:
!CMAKE_ARGS="-DLLAMA_METAL=on" FORCE_CMAKE=1 pip install llama-cpp-python
Windows 上的安装
在 Windows 上安装需要通过源码编译: