
大模型运维基础工具
文章平均质量分 74
如ollama、Cherry Studio等
alden_ygq
一枚北漂7年多的资深SRE菜鸟,专注SRE方向,专注于运维体系建设。个人宣言:先努力成就自己,再用知识成就他人。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ollama查看模型日志
为了查看Ollama的日志,可以根据操作系统的不同,使用不同的方法。原创 2025-03-03 20:33:06 · 4389 阅读 · 0 评论 -
Macos ./ollama目录说明
通过以上步骤,你可以将Ollama的模型存储路径更改为你指定的目录。请确保新的存储目录具有足够的存储空间,并且你对该目录具有读写权限。根据Shell类型,编辑对应的配置文件。: 打开终端,创建一个新的目录作为模型存储路径。如果希望更改模型的存储路径,可以通过设置环境变量。如果输出是设置的路径,则说明环境变量设置成功。确认当前使用的Shell类型。,用于存储Ollama的配置信息。重启Ollama服务以使更改生效。,则你使用的是zsh;,用于存储下载的模型。,则使用的是bash。原创 2025-02-24 14:03:32 · 2332 阅读 · 0 评论 -
Ollama API 交互
Ollama 提供了基于 HTTP 的 API,允许开发者通过编程方式与模型进行交互。本文将详细介绍 Ollama API 的详细使用方法,包括请求格式、响应格式以及示例代码。原创 2025-02-23 14:56:58 · 1370 阅读 · 0 评论 -
Ollama Python 使用
开发者还可以创建自定义客户端,来进一步控制请求配置,比如设置自定义的 headers 或指定本地服务的 URL。通过 Client,可以自定义请求的设置(如请求头、URL 等),并发送请求。'content': '你是谁?',},])我是由中国的深度求索(DeepSeek)公司开发的编程智能助手,名为DeepCoder。我主要用于回答计算机科学相关的问题和帮助解决与这些主题相关的不太清楚或困难的地方。如果你有任何关于Python、JavaScript或者其他计算机科学领域的问题,欢迎向我提问!原创 2025-02-23 14:35:12 · 1334 阅读 · 0 评论 -
Ollama Open WebUI
Open WebUI 用户友好的 AI 界面(支持 Ollama、OpenAI API 等)。Open WebUI 支持多种语言模型运行器(如 Ollama 和 OpenAI 兼容 API),并内置了用于检索增强生成(RAG)的推理引擎,使其成为强大的 AI 部署解决方案。Open WebUI 可自定义 OpenAI API URL,连接 LMStudio、GroqCloud、Mistral、OpenRouter 等。原创 2025-02-23 12:47:20 · 868 阅读 · 0 评论 -
Ollama 模型交互
通过 Modelfile 定义自定义提示词或系统指令,使模型在交互中遵循特定规则。原创 2025-02-23 12:39:33 · 559 阅读 · 0 评论 -
Ollama 基本概念
Ollama 是一个本地化的、支持多种自然语言处理(NLP)任务的机器学习框架,专注于模型加载、推理和生成任务。通过 Ollama,用户能够方便地与本地部署的大型预训练模型进行交互。原创 2025-02-23 12:29:23 · 1940 阅读 · 0 评论 -
Ollama 运行模型
Ollama 运行模型使用 ollama run 命令。原创 2025-02-23 11:52:48 · 806 阅读 · 0 评论 -
Ollama 安装
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。。我们可以根据不同的系统下载对应的包。原创 2025-02-21 20:31:39 · 832 阅读 · 0 评论 -
Ollama 简介
用户不仅可以使用 Ollama 提供的预训练模型,还可以在此基础上进行模型微调。根据自己的特定需求,开发者可以使用自己收集的数据对模型进行再训练,从而优化模型的性能和准确度。原创 2025-02-21 20:28:18 · 2199 阅读 · 0 评论 -
Ollama ModelFile(模型文件)
创建一个文本文件(如。原创 2025-02-18 18:57:18 · 2899 阅读 · 0 评论 -
ollama Modelfile 自定义模型
【代码】ollama Modelfile 自定义模型。原创 2025-02-18 18:47:44 · 254 阅读 · 0 评论 -
ollama 命令详解
ollama help [命令名称] 或 ollama --help:获取有关Ollama任何命令的帮助信息。ollama run [模型名称]:运行一个已安装的模型,执行某些任务。ollama cp [原模型名称] [新模型名称]:复制一个模型到另一个位置或给定名称的地方。ollama push [模型名称]:将本地模型推送到模型注册表中,以便他人或其他系统使用。ollama pull [模型名称]:从模型注册表中拉取一个模型到本地使用。ollama rm [模型名称]:删除一个已安装的模型。原创 2025-02-18 18:00:02 · 1155 阅读 · 0 评论 -
ollama server启动服务后如何停止
要停止 Ollama 服务器服务,取决于如何启动该服务的。原创 2025-02-18 17:33:50 · 4664 阅读 · 0 评论