LangChain4j 集成 DeepSeek 快速开始

部署运行你感兴趣的模型镜像

一、接入其他大模型

大模型排行榜:https://superclueai.com/

LangChain4j 可接入大模型:https://docs.langchain4j.dev/category/language-models

DeepSeek 是支持 OpenAI 标准的大语言模型。

二、接入 DeepSeek

2.1、获取开发参数

访问官网: https://www.deepseek.com/ 注册账号,获取 base_url 和 api_key,充值

2.2、配置开发参数

为了 apikay 的安全,建议将其配置在服务器的环境变量中。变量名自定义即可,例如
DEEP_SEEK_API_KEY

2.3、配置模型参数

DeepSeek API文档: https://api-docs.deepseek.com/zh-cn/
在 LangChain4j 中,DeepSeek 和 GPT 一样也使用了 OpenAI 的接口标准,因此也使用OpenAiChatModel 进行接入。

# DeepSeek
langchain4j.open-ai.chat-model.base-url=https://api.deepseek.com
langchain4j.open-ai.chat-model.api-key=${DEEP_SEEK_API_KEY}
# DeepSeek-V3
langchain4j.open-ai.chat-model.model-name=deepseek-chat
# DeepSeek-R1 推理模型
#langchain4j.open-ai.chat-model.model-name=deepseek-reasoner

2.4、测试

    /**
     * 整合SpringBoot
     */
    @Autowired
    private OpenAiChatModel openAiChatModel;
    @Test
    public void testSpringBoot() {
        // 向模型提问
        String answer = openAiChatModel.chat("你是谁?");
        // 输出结果
        System.out.println(answer);
    }

如下报错,重启 IDEA 就可以:

您可能感兴趣的与本文相关的镜像

Qwen3-VL-8B

Qwen3-VL-8B

图文对话
Qwen3-VL

Qwen3-VL是迄今为止 Qwen 系列中最强大的视觉-语言模型,这一代在各个方面都进行了全面升级:更优秀的文本理解和生成、更深入的视觉感知和推理、扩展的上下文长度、增强的空间和视频动态理解能力,以及更强的代理交互能力

### 集成 DeepSeek 模型到 LangChain4J LangChain4J 是一种用于构建基于大语言模型的应用程序的框架,而 DeepSeek 则是一个高性能的大规模预训练语言模型系列。为了实现两者的集成,可以遵循以下方法: #### 1. 添加依赖项 首先,在项目中引入必要的库。DeepSeek 的支持通常通过 Hugging Face 提供的 `transformers` 库完成,因此需要确保项目的 Maven 或 Gradle 文件中有这些依赖项。 以下是 Maven 中的一个示例配置: ```xml <dependency> <groupId>ai.langchain</groupId> <artifactId>langchain4j</artifactId> <version>0.9.0</version> <!-- 替换为最新版本 --> </dependency> <dependency> <groupId>org.tensorflow</groupId> <artifactId>tensorflow-core-api</artifactId> <version>2.13.0</version> <!-- 替换为兼容版本 --> </dependency> ``` 对于 Gradle 用户,则应添加如下内容: ```gradle implementation 'ai.langchain:langchain4j:0.9.0' // 替换为最新版本 implementation 'org.tensorflow:tensorflow-core-api:2.13.0' ``` #### 2. 加载 DeepSeek 模型 利用 Hugging Face 的 PEFT 工具包以及 Transformers 库,可以直接加载并微调 DeepSeek 模型[^1]。下面是一段 Java 示例代码展示如何初始化 DeepSeek 模型实例并与 LangChain4J 结合使用: ```java import ai.langchain4j.llm.huggingface.HuggingFaceLLM; import org.tensorflow.SavedModelBundle; public class DeepSeekIntegration { public static void main(String[] args) { String modelPath = "deepseek/large"; // 更改为实际路径或远程仓库名称 // 初始化 HuggingFace LLM 对象 HuggingFaceLLM llm = new HuggingFaceLLM(modelPath); // 使用 TensorFlow API 载入保存好的模型文件 (如果适用) SavedModelBundle savedModel = SavedModelBundle.load("/path/to/deepseek", "serve"); System.out.println("DeepSeek Model Loaded Successfully!"); // 测试生成文本功能 String promptText = "Explain quantum computing."; String generatedResponse = llm.generate(promptText); System.out.println(generatedResponse); } } ``` 此代码片段展示了如何设置一个基本环境来运行 DeepSeek 模型,并将其作为服务的一部分嵌入应用程序之中。 #### 3. 微调与优化 当涉及到特定领域数据集上的进一步训练时,建议采用少量样本学习策略或者参数高效微调技术(PEFT)。这不仅能够减少计算资源消耗还能加快收敛速度。 另外需要注意的是,关于存储对象读取位置的信息应当按照附录D中的查询关键字指南填写相应字段[^2],以便于后续维护管理更加便捷有效。 #### 总结 上述过程概述了在 langchain4j 上成功部署 deepseek 模型所需的关键步骤。尽管官方文档可能尚未完全覆盖这一主题,但是凭借现有工具链的支持完全可以达成目标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值