要想发挥OLLAMA的真正实力🎯, 还是要与JBoltAI搭配食用才能发挥其最大价值🤑😂, JBoltAI欢迎亲的随时关注哟🤩😚~
一、Ollama简介
Ollama是一个支持在Windows、Linux和MacOS上本地运行大语言模型的工具。它具有以下特点:
-
跨平台支持:适用于多种主流操作系统。
-
丰富的模型库:涵盖1700+大语言模型,如Qwen、Llama等,可直接下载使用。
-
自定义能力强:用户可通过编写
modelfile
配置文件,自定义模型的推理参数,如temperature
、top_p
等,以调节模型生成效果。 -
多GPU加速:在多卡环境下,可设置环境变量指定特定GPU,提升推理速度。
二、Ollama安装教程
-
下载与安装
-
访问Ollama官网:Download Ollama on macOS,根据你的操作系统选择对应的版本进行下载。
-
下载完成后,直接安装即可。安装完成后,你可以在系统中找到一个类似羊驼的图标,点击即可运行。
-
-
验证安装
-
打开命令行工具(Windows用户可使用PowerShell,Mac用户可使用Terminal)。
-
输入
ollama
命令,如果安装成功,将显示Ollama的版本信息及相关命令提示。
-
三、运行大模型
-
查看可用模型
- 在命令行中输入
ollama list
,即可查看本地已下载的模型列表。
- 在命令行中输入
-
运行模型
-
使用
ollama run 模型名称
命令启动模型。例如,运行Qwen2.5的3B版本,可输入ollama run qwen2.5:3b
。 -
如果本地尚未下载该模型,Ollama会自动下载并启动。
-
-
使用模型
- 模型启动后,会进入交互界面,你可以直接输入提示词,让模型生成回答
代码调用阶段
是不是很简单~~~