【画江湖】langchain4j - Java1.8下spring boot集成ollama调用本地大模型之问道系列(第一问)

该文章已生成可运行项目,

背景

随着 AI 大模型的兴起,许多公司希望在现有基于 Java 8 的项目中集成 AI 功能。然而,许多最新的 AI 工具和库(如:Spring AI LangChain4j)已经转向支持更高版本的 Java(如 JDK 17),这给希望在 Java 8 环境中工作的开发者带来了挑战。看网上很多都没有关于JDK8相关资料,本文将提供一个解决方案,展示如何在 Java 8 环境下,使用 Spring Boot 框架集成 LangChain4j,并通过 Ollama 调用本地大模型。

提示

好多框架现在都是基于JDK17的,如spring AI 、 LangChain4j 的 0.31.0 之后的版本将不在支持Java jdk1.8,由于AI版本的更新迭代比较频繁,这也意味着我们的项目也要紧跟时代的潮流基于17来开发。

1. 环境准备

确保你的开发环境已安装以下工具:
Java JDK 1.8:确保你的项目使用的是 Java 8。
Maven:用于项目依赖管理。
Spring Boot:用于构建应用程序。
Ollama:本地大模型服务。
deepseek-r1:1.5b:系统资源有限就按照这个模型了。

2. 安装 Ollama

首先,确保你已经安装了 Ollama。你可以从 Ollama 官网 下载并安装 Ollama。

下载并安装你选择的模型,例如 DeepSeek-r1:1.5b:

ollama run deepseek-r1:1.5b

我这window的系统 如下效果,安装我就不介绍了,大家都会。

在这里插入图片描述

3. 添加LangChain4j maven 依赖

	<dependency>
        <groupId>dev.langchain4j</groupId>
        <artifactId>langchain4j-core</artifactId>
        <version>0.31.0</version>
    </dependency>

    <dependency>
        <groupId>dev.langchain4j</groupId>
        <artifactId>langchain4j-ollama</artifactId>
        <version>0.31.0</version>
    </dependency>

这里我就省略了其他spring boot 相关依赖了

4. 给spring注入bean LangChain4j

@Configuration
public class LangChain4jConfig {

@Bean
public ChatLanguageModel chatLanguageModel() {
    return OllamaChatModel.builder()
            .baseUrl("http://localhost:11434")
            .modelName("deepseek-r1:1.5b")
            .build();
   }
}

http://localhost:11434 这是我们ollama的服务地址
deepseek-r1:1.5b 这是我们需要使用的模型
上面的这些你们自己可以写到springboot的核心配置文件里,我有点懒,就不了 只是演示下

4. 写一个Controller演示一下

@RestController
public class ChatController {
	 @Autowired
	 private ChatLanguageModel chatLanguageModel;

		@GetMapping("/chat")
		public String chat(@RequestParam(value = "message", defaultValue = "Hello") String message) {
		    return chatLanguageModel.generate(message);
		}
}

5. 演示效果

在这里插入图片描述

本文章已经生成可运行项目
### 关于 `langchain4j-ollama-spring-boot-starter` 的使用指南 #### 依赖配置 为了在项目中引入 `langchain4j-ollama-spring-boot-starter`,需按照Spring Boot启动器依赖包的命名规范,在项目的构建文件(如Maven的pom.xml或Gradle的build.gradle)里添加如下依赖: 对于 Maven 构建工具而言,应加入以下片段来声明该starter作为项目依赖[^1]: ```xml <dependency> <groupId>org.langchain4j</groupId> <artifactId>langchain4j-ollama-spring-boot-starter</artifactId> <version>{latest-version}</version> </dependency> ``` 而对于 Gradle 用户,则应在 build.gradle 文件内指定相应的依赖项: ```groovy implementation 'org.langchain4j:langchain4j-ollama-spring-boot-starter:{latest-version}' ``` 请注意替换 `{latest-version}` 为实际可用版本号。 #### 集成方式与示例应用 一旦成功导入上述依赖之后,即可利用此Starter所提供的特性简化OLLAMA服务与其他组件之间的交互逻辑。通常情况下,只需通过简单的注解就能完成大部分必要的设置工作。下面给出一个基本的应用程序入口类定义的例子,它展示了如何快速搭建起基于LangChain4J OLLAMA模块的服务端点[^3]: ```java package com.example; import org.springframework.boot.SpringApplication; import org.springframework.boot.autoconfigure.SpringBootApplication; @SpringBootApplication public class LangchainOllamaExampleApplication { public static void main(String[] args) { SpringApplication.run(LangchainOllamaExampleApplication.class, args); } } ``` 在此基础上,开发者可以进一步探索特定业务场景下的功能实现细节以及最佳实践方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值