一、Ollama介绍
2.1 基本介绍
Ollama是一个支持在Windows、Linux和MacOS上本地运行大语言模型的工具。它允许用户非常方便地运行和使用各种大语言模型,比如Qwen模型等。用户只需一行命令就可以启动模型。
主要特点包括:
- 跨平台支持
Windows、Linux、MacOS系统。 - 提供了丰富的模型库,包括
Qwen、Llama等1700+大语言模型,可以在官网model library中直接下载使用。 - 支持用户上传自己的模型。用户可以将
huggingface等地方的ggml格式模型导入到ollama中使用。也可以将基于pytorch等格式的模型转换为ggml格式后导入。 - 允许用户通过编写
modelfile配置文件来自定义模型的推理参数,如temperature、top_p等,从而调节模型生成效果。 - 支持多
GPU并行推理加速。在多卡环境下,可以设置环境变量来指定特定GPU。 - 强大的技术团队支持,很多模型开源不到24小时就能获得支持。
总的来说,Ollama降低了普通开发者使用大语言模型的门槛,使得本地部署体验大模型变得简单易行。对于想要搭建自己的AI应用,或者针对特定任务调优模型的开发者来说,是一个非常有用的工具。它的一些特性,如允许用户自定义模型参数,对模型进行个性化适配提供了支持。
2.2 官网
- Ollama 下载:ollama.com/download
- Ollama 官方主页:ollama.com
- Ollama 官方 GitHub 源代码仓库:github.com/ollama/olla…

二、window 安装
直接从下载页面下载相对应系统的安装程序,Windows安装程序选择Windows的安装包,点击“Download for Windows(Preview)”

下载好以后一路install 安装即可。

安装完成之后,打开一个cmd命令窗口,输入“ollama”命令,如果显示ollama相关的信息就证明安装已经成功了!

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



