LangChain4j 集成 Ollama 快速开始

部署运行你感兴趣的模型镜像

一、Ollama 是什么

Ollama 是一个本地部署大模型的工具。使用 Ollama 进行本地部署有以下多方面的原因:

  • 数据隐私与安全:对于金融、医疗、法律等涉及大量敏感数据的行业,数据安全至关重要。
  • 离线可用性:在网络不稳定或无法联网的环境中,本地部署的 Ollama 模型仍可正常运行。
  • 降低成本:云服务通常按使用量收费,长期使用下来费用较高。而 Ollama 本地部署,只需一次性投入硬件成本,对于需要频繁使用大语言模型且对成本敏感的用户或企业来说,能有效节约成本。
  • 部署流程简单:只需通过简单的命令 “ollama run < 模型名>”,就可以自动下载并运行所需的模型。
  • 灵活扩展与定制:可对模型微调,以适配垂直领域需求。

二、Windows 上安装 Ollama

官网: https://ollama.com/,下载对应版本,直接安装即可。

三、在 Ollama上部署 DeepSeek

(1)查看模型列表,选择要部署的模型,模型列表:https://ollama.com/search

(2)选择资源所需最小的 deepseek-r1:1.5b 做实验

b 是 billion 十亿的意思,1.5b 也就是大模型训练的参数是 15 亿。

(3)执行命令:ollama run deepseek-r1:1.5 运行大模型。如果是第一次运行则会先下载大模型

四、常用命令

五、接入 Ollama

参考文档:https://docs.langchain4j.dev/integrations/language-models/ollama

5.1、引入依赖

<!-- 接入ollama -->
<dependency>
  <groupId>dev.langchain4j</groupId>
  <artifactId>langchain4j-ollama-spring-boot-starter</artifactId>
</dependency>

5.2、配置模型参数

#ollama
langchain4j.ollama.chat-model.base-url=http://localhost:11434
langchain4j.ollama.chat-model.model-name=deepseek-r1:1.5b
langchain4j.ollama.chat-model.log-requests=true
langchain4j.ollama.chat-model.log-responses=true

5.3、创建测试用例

    /**
     * ollama接入
     */
    @Autowired
    private OllamaChatModel ollamaChatModel;
    @Test
    public void testOllama() {
        //向模型提问
        String answer = ollamaChatModel.chat("你是谁?");
        //输出结果
        System.out.println(answer);
    }

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

<think>好的,我现在需要帮用户解决如何将LangChain4j与Ollama集成的技术问题。用户可能是在寻找教程或示例代码,所以我的回答需要结构清晰,步骤明确,并提供实际的代码示例。首先,我需要回顾自己对这两个工具的了解。LangChain4j是一个Java库,用于构建基于大型语言模型(LLM)的应用程序,而Ollama是一个本地运行和部署LLM的工具,支持多种开源模型。用户想要将两者结合,可能希望在自己的Java应用中通过Ollama本地运行的模型来增强功能。接下来,我需要确认LangChain4j是否支持Ollama。根据之前的资料,LangChain4j确实有对Ollama集成支持,主要是通过自定义的OllamaApi和OllamaChatModel等类来实现。因此,我需要指导用户如何添加依赖、配置Ollama服务,并编写示例代码。然后,考虑用户可能的开发环境。需要确保他们安装了Ollama并正确运行了所需的模型,比如llama2或mistral。同时,他们的Java项目需要添加LangChain4j的Ollama依赖,比如在Maven或Gradle中配置。接下来,分步骤说明:安装Ollama、添加依赖、编写代码。每个步骤需要具体,比如安装Ollama的命令,下载模型的命令,Java代码的结构和关键类的作用。此外,示例代码需要简洁,展示如何创建模型实例并调用生成方法。可能遇到的问题包括依赖无法找到、Ollama服务未启动、模型未正确加载等,需要在注意事项中提及。此外,用户可能想了解如何调整参数或使用流式响应,这些可以作为相关问题推荐,帮助他们进一步探索。 最后,确保回答符合系统级指令:使用正确的中文,数学公式格式正确(虽然这个问题可能不涉及数学公式),结构清晰,引用必要的部分。同时生成相关问题,帮助用户深入理解。</think>### LangChain4j与Ollama集成教程 #### 1. 环境准备 - 安装Ollama服务(macOS/Linux): ```bash curl -fsSL https://ollama.ai/install.sh | sh ollama pull llama2 # 下载模型 ``` #### 2. 添加依赖 Maven配置: ```xml <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-ollama</artifactId> <version>0.31.0</version> </dependency> ``` #### 3. 基础代码实现 ```java import dev.langchain4j.model.chat.ChatLanguageModel; import dev.langchain4j.model.ollama.OllamaChatModel; public class OllamaDemo { public static void main(String[] args) { ChatLanguageModel model = OllamaChatModel.builder() .baseUrl("http://localhost:11434") .modelName("llama2") .temperature(0.9) .build(); System.out.println(model.generate("解释量子计算")); } } ``` #### 4. 流式响应处理 ```java model.generate("用中文写诗", new StreamingResponseHandler() { @Override public void onNext(String token) { System.out.print(token); } @Override public void onComplete() { System.out.println("\n生成完成"); } }); ``` #### 注意事项 1. 确保Ollama服务已启动:`ollama serve` 2. 模型名称需与本地下载的一致 3. 默认使用11434端口[^1]
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值