LLM powered development for VSCode 技术文档
llm-vscode LLM powered development for VSCode 项目地址: https://gitcode.com/gh_mirrors/ll/llm-vscode
1. 安装指南
1.1 安装步骤
- 打开 Visual Studio Code。
- 进入扩展市场,搜索
llm-vscode
。 - 点击安装按钮,等待安装完成。
1.2 配置 HF API Token
- 打开 VSCode 命令面板 (
Cmd/Ctrl+Shift+P
)。 - 输入
Llm: Login
并执行。 - 输入你的 Hugging Face API Token。
2. 项目的使用说明
2.1 功能概述
- 代码补全:支持 "ghost-text" 代码补全,类似于 Copilot。
- 模型选择:可以通过 HTTP 请求进行代码生成,支持 Hugging Face Inference API 或自定义 HTTP 端点。
- 上下文窗口适配:确保提示信息大小适配上下文窗口,使用
tokenizers
计算 token 数量。 - 代码归属:按
Cmd+shift+a
检查生成的代码是否在 The Stack 中。
2.2 使用步骤
- 打开 VSCode,安装并配置
llm-vscode
扩展。 - 在编辑器中编写代码,扩展会自动提供代码补全建议。
- 按
Cmd+shift+a
检查代码归属。
3. 项目API使用文档
3.1 请求结构
请求体结构如下:
const inputs = `{start token}import numpy as np\nimport scipy as sp\n{end token}def hello_world():\n print("Hello world"){middle token}`
const data = { inputs, ...configuration.requestBody };
const model = configuration.modelId;
let endpoint;
switch(configuration.backend) {
// cf URL construction
let endpoint = build_url(configuration);
}
const res = await fetch(endpoint, {
body: JSON.stringify(data),
headers,
method: "POST"
});
const json = await res.json() as { generated_text: string };
3.2 URL 构造
- 根据后端类型,构建请求 URL。
- 如果没有设置 URL,默认使用 Hugging Face 的默认 URL。
- 可以通过
llm.disableUrlPathCompletion
选项禁用 URL 路径自动补全。
4. 项目安装方式
4.1 安装依赖
- 克隆
llm-ls
仓库:git clone https://github.com/huggingface/llm-ls
- 构建
llm-ls
:cd llm-ls && cargo build
- 克隆
llm-vscode
仓库:git clone https://github.com/huggingface/llm-vscode
- 安装依赖:
cd llm-vscode && npm ci
4.2 配置开发环境
- 在 VSCode 中打开
Run and Debug
侧边栏,点击Launch Extension
。 - 在新窗口中,设置
llm.lsp.binaryPath
为llm-ls
二进制文件路径。 - 关闭窗口并重启扩展。
通过以上步骤,您可以成功安装并配置 llm-vscode
扩展,开始使用 LLM 驱动的开发环境。
llm-vscode LLM powered development for VSCode 项目地址: https://gitcode.com/gh_mirrors/ll/llm-vscode
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考