IntelliJ IDEA快速接入LLMs大模型API

IntelliJ IDEA快速接入LLMs大模型API

时隔很久没写文章,这次记录下自己在使用Spring AI来接入大模型的方式。由于2024年7月之后OpenAI,Google gemini很多大公司开始了限制中国区访问,这也让我在实验过程中浪费了很多时间。本次选用了百度文心一言的千帆大模型进行实验。对于简单的测试效果速度还是可以接受的,同时最重要的是,可以调通!

一、创建个人API Key

1.1 登录智能云

https://cloud.baidu.com/?from=console
在这里插入图片描述

1.2 搜索“千帆大模型服务与开发平台ModelBuilder”

在这里插入图片描述

1.3 选择应用接入 -》 创建应用 来获得我们的

在这里插入图片描述
获取access token方式,将如下的连接替换为自己的API Key与Secret Key,并在浏览器中打开
https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=[API_Key]&client_secret=[Secret_Key]
其中的access token就是我们需要的,我们可以将其配置在自己的spring boot项目中。

二、代码示例

我们通过创建自己的spring boot 项目进行测试
spring boot 版本控制在3.0以上

导入依赖

		<dependency>
			<groupId>cn.hutool</groupId>
			<</
### 如何在本地安装和配置 CodeGPT 和 DeepSeek #### 准备工作 为了能够在本地环境中顺利运行CodeGPT插件以及连接到DeepSeek大模型,首先需要准备好DeepSeek API密钥。这一步骤涉及创建一个DeepSeek账号,并从中获得API密钥用于后续配置[^2]。 #### 安装CodeGPT插件 对于希望利用JetBrains系列IDE(如IntelliJ IDEA或PyCharm)来增强开发体验的用户来说,在线市场上可以找到名为CodeGPT的插件进行安装。如果网络条件不允许访问在线资源,则可以选择离线方式完成相同的操作。具体而言,在IDEA中可以通过其内置的插件管理功能查找并安装CodeGPT插件;而对于不具备稳定互联网接入的情况,则需按照官方提供的指导下载对应版本的ZIP文件手动加载至目标环境内[^1]。 #### 配置CodeGPT插件以支持本地DeepSeek模型 一旦成功安装了上述提到的必要组件之后,下一步就是针对所使用的特定IDE调整设置使得能够调用本地部署好的DeepSeek服务端口。当首次启动带有已安装备选LLM框架扩展的应用程序实例时,系统可能会自动提示缺少某些依赖项——此时应遵循界面指示完成相应软件包的选择与导入过程。假如之前已经完成了相关准备工作,则可以直接进入“Local LLMs”的设定页面查看当前可用选项列表[^4]。 #### 实现效果验证 最后但同样重要的是确认整个流程无误后能否正常运作。理想情况下,经过以上几步精心布置后的开发平台应当具备如下特性:不仅可以在编写代码期间实时接收到来自预训练语言模型给出的帮助建议,而且这些反馈均来源于自行搭建而非远程服务器托管的服务之上[^3]。 ```bash # 示例命令行指令,假设使用Docker容器化技术快速启动DeepSeek服务 docker run -d --name deepseek-coder -p 8000:8000 deepseek/coder ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值