Ollama系列文章:
Ollama入门,一键启动本地DeepSeek大模型
Ollama入门,Ollama技术架构与原理
Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型
Ollama进阶,在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型
Ollama高手,玩转本地自定义大模型(LLM)
Ollama高手,调优Ollama环境变量,提高性能与安全性
Ollama高手,调优Ollama模型参数,提高模型输出质量
在“Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型”一文中,我们讲到了在Java、Python、Go语言项目中整合Ollama中运行的Deepseek、QWQ、LLaMA、Mistral、Gemma本地大模型服务。本文则讨论在JavaScript(包括 Node.js 和前端浏览器环境)中整合Ollama本地大模型服务。

在JavaScript(包括 Node.js 和前端浏览器环境)中依然有以下两种方式可以调用Ollama服务:
RESTful API: Ollama 提供强大的 RESTful API,使开发者能够方便地与大型语言模型进行交互。通过这些 API,用户可以发送请求并接收模型生成的响应,应用于自然语言处理、文本生成等任务。
SDK: Ollama 官方提供了ollama.js用于在JavaScript(包括 Node.js 和前端浏览器环境)项目中快速整合Ollama本地大模型服务。ollama.js是基于Ollama REST API的封装。
综合来看,根据实际项目的需要,如果需要在JavaScript(包括 Node.js 和前端浏览器环境)项目中使用Ollama本地大模型服务,可以有以下5种方法:
1、使用 fetch() 直接调用 REST API
如果你想在 前端(浏览器) 或 Node.js 直接调用 Ollama,可以使用 fetch() 发送请求:
async function chatWithOllama(prompt) {
const response = await fetch('http://localhost:11434/api/generate', {
method: 'POST',
headers: {
'Content-Type': 'application/json'
},
body: JSON.stringify({
model: 'qwq', // 选择要使用的模型
prompt: prompt
})
});
const data = await response.json();
console.log(data.response);

最低0.47元/天 解锁文章
555

被折叠的 条评论
为什么被折叠?



