PyCharm 接入 DeepSeek 完整版教程来了!

该文章已生成可运行项目,

DeepSeek-V3

DeepSeek-V3是一个拥有671B参数的MoE模型,吞吐量每秒达60 token,比上一代V2提升3倍;在数学代码性能上,堪比国外大模型Claude 3.5 Sonnet。

接下来,我们把DeepSeek接入到PyCharm中,并利用其能力辅助我们进行代码开发。

效果演示

首先来看一下效果。

我们可以直接选中代码,并对代码段进行解释。

我们也可以通过选中代码,对代码进行修改。

创建API Key


首先进入DeepSeek官网,官网链接如下

https://www.deepseek.com/

点击API开放平台:

点击左侧“API Keys”,点击创建 API key,输出名称为“AI 代码提示”,也可以使用其它自定义的名称。

点击“创建",一定要记录此处的 API key,可以先将 API key 复制在其它地方。

在PyCharm中下载Continue插件


打开PyCharm,打开文件->设置->插件,搜索“Continue”,点击安装。

等待插件安装完毕后,点击“应用”,插件安装成功。

配置Continue


插件安装成功后,在右侧的标签栏中,会显示一个Continue的标签,我们点击即可进入,随后点击设置按键,如下图。

点击后,文本编辑区将会弹出配置文件。

我们对配置文件进行修改,将内容替换为下面的内容:

{`  `"completionOptions": {`    `"BaseCompletionOptions": {`        `"temperature": 0.0,`        `"maxTokens": 256`    `}`  `},`  `"models": [`    `{`      `"title": "DeepSeek",`      `"model": "deepseek-chat",`      `"contextLength": 128000,`      `"apiKey": "REDACTED",`      `"provider": "deepseek",`      `"apiBase": "https://api.deepseek.com/beta"`    `}`  `],`  `"tabAutocompleteModel": {`    `"title": "DeepSeek Coder",`    `"model": "deepseek-coder",`    `"apiKey": "REDACTED",`    `"provider": "deepseek",`    `"apiBase": "https://api.deepseek.com/beta"`  `},`  `"customCommands": [`    `{`      `"name": "test",`      `"prompt": "{`    `{`    `{ input }}}\n\nWrite a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.",`      `"description": "Write unit tests for highlighted code"`    `}`  `],`  `"contextProviders": [`    `{`      `"name": "diff",`      `"params": {}`    `},`    `{`      `"name": "folder",`      `"params": {}`    `},`    `{`      `"name": "codebase",`      `"params": {}`    `}`  `],`  `"slashCommands": [`    `{`      `"name": "share",`      `"description": "Export the current chat session to markdown"`    `},`    `{`      `"name": "commit",`      `"description": "Generate a git commit message"`    `}`  `]``}

修改时将会弹出提示,点击确定。

随后,我们将两处apiKey替换为先前保存的API key。

保存文件后,即可开始使用。

恭喜你完整地学完了教程,给你点赞 👍


如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

本文章已经生成可运行项目
### 如何在 PyCharm接入和使用 DeepSeek 大语言模型 要在 PyCharm 中成功接入并使用 DeepSeek 的大语言模型,可以通过以下方式完成: #### 1. 安装必要的插件 为了使 DeepSeek 能够无缝集成到 PyCharm 开发环境中,建议安装支持 AI 编程辅助功能的相关插件。例如,“Proxy AI” 插件可以帮助开发者更便捷地调用外部 API 或本地运行的大模型服务[^1]。 对于具体操作步骤如下: - 打开 PyCharm 并进入 `File -> Settings`。 - 寻找 `Plugins` 部分,在线搜索 “Proxy AI”,点击安装按钮即可完成安装过程[^1]。 另外也可以考虑其他类似的插件比如 CodeGPT,它不仅界面友好而且完全免费提供给用户使用[^2]。 #### 2. 下载与配置 DeepSeek R1 推理模型 由于 DeepSeek 已经将其高性能推理模型 R1 进行了开源处理,因此可以直接获取该版本用于个人项目开发当中[^2]。以下是关于如何设置此部分的一些指导原则: ##### a) 获取预训练权重文件 前往官方 GitHub 页面或者其他可信渠道下载对应平台架构下的二进制格式参数文件(.bin),这些资料包含了构建整个神经网络所需的一切必要信息。 ##### b) 准备依赖库环境 确保 Python 解释器已经正确设置了所需的第三方扩展包列表,通常情况下可能涉及到 torch、transformers 等主流框架的支持[^3]。可以利用 pip 命令快速安装缺失组件: ```bash pip install torch transformers ``` ##### c) 加载自定义模型至内存中 编写一段简单的初始化脚本加载刚才提到过的 .bin 文件内容,并实例化 Transformer 类型对象以便后续查询请求能够被正常解析执行。下面给出了一段示范代码片段作为参考依据之一: ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("path/to/your/model/directory") model = AutoModelForCausalLM.from_pretrained("path/to/your/model/directory", trust_remote_code=True) def generate_text(prompt): inputs = tokenizer.encode(prompt, return_tensors="pt").to('cuda') outputs = model.generate(inputs, max_length=50) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return result ``` 注意这里假设 GPU 可供加速运算之用;如果不是,则应移除 `.to('cuda')` 行以适应 CPU 场景需求[^3]。 #### 3. 整合插件与模型 当以上准备工作完成后,最后一步就是让两者之间建立起有效的通信机制。这往往取决于所选用的具体插件类型及其文档说明中的指示事项来决定实际做法差异较大。不过一般而言都会涉及修改某些 JSON/YAML 样式的全局选项或者局部函数调用来指定目标地址端口等细节参数指向我们刚刚部署完毕的服务实例位置^。 通过这样的流程安排之后,理论上就可以享受到由 DeepSeek 提供的强大自然语言理解能力所带来的便利之处啦! ---
评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值