大模型——环境配置

1.安装Anaconda

2.打开Anaconda Powershell Prompt,创建环境

conda create --name chatgpt python=3.9 -y

3.激活环境

conda activate chatgpt

4.安装所需python库

pip install -q python-dotenv
pip install -q openai
pip install -q langchain

5.获取并配置OpenAI API key

进入OpenAi官网

点击API login,登录自己的账号

选择API,点击API密钥,点击创建新的密钥,创建Openai API key,复制密钥,并以以下形式OPENAI_API_KEY="your_key"保存到.env文件中,.env文件存储在项目根目录中。

6.然后用以下代码进行测试,同时用于后续引用Openai api

import os
import openai
from dotenv import load_dotenv, find_dotenv
def get_openai_key():
    _ = load_dotenv(find_dotenv())
    return os.environ['OPENAI_API_KEY']

openai.api_key = get_openai_key()

结果如下,即成功

### 配置VSCode以支持大模型开发环境 #### 安装必要的扩展 为了使 Visual Studio Code (VSCode) 支持大模型开发,安装特定的扩展程序是必不可少的一部分。对于 Python 开发而言,Python 扩展提供了 IntelliSense、linting、调试等功能的支持[^1]。而对于集成像 DeepSeek 这样的大模型工具,则需额外安装能够调用这些服务的插件或通过 API 接口实现连接[^2]。 #### 设置本地与云端混合架构 构建一个高效的开发环境涉及创建一种既能利用本地资源又能访问云上更强大计算能力的方法。具体来说,在 VSCode 中可以采用如下方式来搭建: - **本地处理简易查询**:当面对较为简单的代码逻辑或是小型数据集时,可以直接依赖于已部署在个人计算机上的较小规模预训练模型(如 DeepSeek R1-7B),这有助于减少延迟并保护隐私敏感的数据[^3]。 - **远程执行复杂任务**:针对那些需要更多算力的任务——比如大规模机器学习训练或者复杂的自然语言处理作业,则应该将请求发送到性能更强的服务端进行运算,并等待结果回传给客户端显示出来。 #### 实现自动化的流程控制 为了让整个过程更加流畅无缝隙,可以通过定义 JSON 文件中的 launch.json 或 tasks.json 来自动化上述提到的不同类型的请求路径选择机制;也可以考虑编写自定义脚本用于判断当前操作属于哪一类情况从而决定下一步动作的方向。 ```json { "version": "0.2.0", "configurations": [ { "name": "(local) Launch Program with Simple Query", "type": "python", "request": "launch", "program": "${file}", "console": "integratedTerminal" }, { "name": "(remote) Execute Complex Task via Cloud API", "type": "python", "request": "launch", "program": "./path_to_script/cloud_api_call.py", // 假设有一个专门用来发起API请求的py文件 "args": ["arg1", "arg2"], "console": "externalTerminal" } ] } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值