Ollama进阶,在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型

Ollama系列文章:
Ollama入门,一键启动本地DeepSeek大模型
Ollama入门,Ollama技术架构与原理
Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型
Ollama进阶,在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型
Ollama高手,玩转本地自定义大模型(LLM)
Ollama高手,调优Ollama环境变量,提高性能与安全性
Ollama高手,调优Ollama模型参数,提高模型输出质量


在“Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型”一文中,我们讲到了在Java、Python、Go语言项目中整合Ollama中运行的Deepseek、QWQ、LLaMA、Mistral、Gemma本地大模型服务。本文则讨论在JavaScript(包括 Node.js 和前端浏览器环境)中整合Ollama本地大模型服务。

在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型

在JavaScript(包括 Node.js 和前端浏览器环境)中依然有以下两种方式可以调用Ollama服务:
RESTful API: Ollama 提供强大的 RESTful API,使开发者能够方便地与大型语言模型进行交互。通过这些 API,用户可以发送请求并接收模型生成的响应,应用于自然语言处理、文本生成等任务。
SDK: Ollama 官方提供了ollama.js用于在JavaScript(包括 Node.js 和前端浏览器环境)项目中快速整合Ollama本地大模型服务。ollama.js是基于Ollama REST API的封装。

综合来看,根据实际项目的需要,如果需要在JavaScript(包括 Node.js 和前端浏览器环境)项目中使用Ollama本地大模型服务,可以有以下5种方法:

1、使用 fetch() 直接调用 REST API

如果你想在 前端(浏览器)Node.js 直接调用 Ollama,可以使用 fetch() 发送请求:

async function chatWithOllama(prompt) {
   
   
    const response = await fetch('http://localhost:11434/api/generate', {
   
   
        method: 'POST',
        headers: {
   
   
            'Content-Type': 'application/json'
        },
        body: JSON.stringify({
   
   
            model: 'qwq',  // 选择要使用的模型
            prompt: prompt
        })
    });

    const data = await response.json();
    console.log(data.response);  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值