Ollama常用信息

目录

常用命令

常用模型

运行模型


常用命令

输入 Ollama 命令,正常的得出命令行输出,表示已经安装成功,下面有 ollama 的常用命令:

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

常用模型

我们可以在 https://ollama.com/library 中搜索已有我们想要的模型库。以下是一些流行的模型:

模型参数尺寸执行下载
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b

这里大概列出了 LlamaMistral 以及 Gemma 我们景见的模型以及参数以及尺寸大小。由图表可以看出 Gemma 2B 模型的尺寸还是比较小的,初学者入门。

运行模型

 ollama run qwen # 运行千问大模型
因为qwen 模型对中文支持比较好,这里使用 qwen 模型进行聊天

直接使用 run 命令 + 模型名字就可以运行模型。如果之前没有下载过,那么会自动下载。下载完毕之后可以在终端中直接进行对话 qwen 模型了。

直接在终端中对话

使用 api 方式运行

 curl http://localhost:11434/api/chat -d '{
  "model": "qwen",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

api 访问的方式:模型在不断推送字段。我们需要自己处理。
<think>好的,我现在需要回答用户关于Ollama参数说明及用法的问题。首先,我应该回忆一下之前学过的Ollama相关知识,尤其是参数部分。记得Ollama是一个本地运行大型语言模型的工具,用户可以通过命令行来操作。 用户提到参考的引用里有安装和使用方法,可能需要结合这些资料。引用[1]提到了Ollama的GitHub文档,尤其是导入模型的部分。引用[2]则介绍了安装验证和基本使用方法,比如在CMD里输入命令。 接下来,我需要整理常见的Ollama参数。比如运行模型时的`run`命令,可能带有温度(temperature)、最大token数(max tokens)等参数。另外,还有列出模型、拉取模型、创建自定义模型等命令的参数。 需要确保每个参数都有对应的说明和示例,比如温度参数控制生成文本的随机性,数值范围是0到1,数值越高越随机。同时,要提醒用户这些参数如何影响模型输出,比如温度低时结果更确定,高时更具创造性。 还要注意用户可能需要了解如何查看已安装的模型,如何删除模型,以及如何自定义模型配置。例如`ollama list`列出模型,`ollama rm`删除模型,`ollama create`结合Modelfile创建自定义模型。 最后,生成相关问题,帮助用户深入理解,比如如何调整参数优化性能,不同参数的影响,如何更新或删除模型等。要确保回答结构清晰,符合用户的要求,使用中文,并正确应用引用标注。</think>### Ollama 参数说明及用法 Ollama 是一个支持本地运行大型语言模型(LLM)的工具,通过命令行参数实现模型管理和生成控制。以下是常用参数及示例说明: --- #### **1. 基础命令** - **运行模型** ```bash ollama run <模型名称> [参数] ``` 示例: ```bash ollama run llama2 --temperature 0.5 --num_ctx 2048 ``` 参数说明: - `--temperature`:控制生成文本的随机性(范围:0-1,默认 0.8)[^1] - `--num_ctx`:上下文窗口大小(最大 token 数,默认 2048) - **列出已安装模型** ```bash ollama list ``` - **拉取模型** ```bash ollama pull <模型名称> ``` 示例: ```bash ollama pull mistral ``` - **删除模型** ```bash ollama rm <模型名称> ``` --- #### **2. 高级参数** - **控制生成质量** ```bash --top_p <值> # 采样阈值(范围:0-1,默认 0.9),值越小输出越确定 --seed <值> # 设置随机种子,保证结果可复现 ``` 示例: ```bash ollama run llama2 --top_p 0.5 --seed 42 ``` - **性能优化** ```bash --num_gpu <层数> # 指定 GPU 加速的层数(需硬件支持) --num_thread <数> # 设置 CPU 线程数 ``` 示例: ```bash ollama run phi3 --num_gpu 10 --num_thread 4 ``` --- #### **3. 自定义模型配置** 通过 `Modelfile` 定义模型参数并创建自定义模型: 1. 创建 `Modelfile`: ```bash FROM llama2 PARAMETER temperature 0.3 PARAMETER num_ctx 4096 ``` 2. 构建自定义模型: ```bash ollama create <自定义模型名> -f Modelfile ``` --- #### **4. 其他实用命令** - **查看版本信息** ```bash ollama -v ``` - **启动本地服务** ```bash ollama serve ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值