Ollama |安装以及使用初级探索


本文主要是为了复现GraphRAG+LangChain+Ollama的一个项目,浅浅记录一下,在微信公众号文章看到该项目的介绍: 文章,相应的GitHub代码在这里: 代码

Ollama

简单介绍及安装配置

在这里插入图片描述

Ollama是一种用于在本地管理和部署大模型的工具。它的安装和配置参考了这些文章:第一篇第二篇第三篇
Ollama官网上下载安装包,安装时没法选盘,默认就是C盘,但模型存储位置可以通过配置环境变量换位置,增加一个系统变量OLLAMA_MODELS,将其设置为D:\Ollama。(但是我的模型下载后也没有再对应的位置,很迷…我再看看)
在这里插入图片描述

常用的一些命令

更多请参考上面的第三篇或者其他官方文档。
在这里插入图片描述

命令作用
ollama list展示本地大模型列表
ollama rm 本地模型名称删除单个本地大模型
ollama run 本地模型名启动本地模型
ollama ps查看本地运行中模型列表
ollama pull 本地/远程仓库模型名称下载或者更新本地大模型
ollama cp 本地存在的模型名 新复制模型名复制本地大模型

llama3.1:8b下载例子

在这里插入图片描述
不要忘记模型名称和指定参数规模中间的 ’ '。
模型下载中be like:
在这里插入图片描述
下载完成be like:
在这里插入图片描述

### Ollama 安装教程 对于希望在系统上部署 Ollama 的用户来说,整个过程被设计得尽可能直观和简便。为了开始安装流程,访问官方网站或指定的资源库来获取最新的安装包是必要的[^1]。 #### 准备工作 确保操作系统满足最低要求,并且拥有管理员权限以便执行安装脚本。同时确认已安装依赖项如特定版本的 Python 或其他可能提及的软件环境。 #### 下载安装 前往官方页面找到适用于当前操作系统的安装文件链接并下载。通常会提供针对不同平台(Windows, macOS, Linux)优化过的二进制文件或是源码压缩包供开发者选择。完成下载之后按照提示运行安装程序,在命令行界面下这可能是解压后直接调用 setup 脚本的形式: ```bash ./setup.sh ``` 如果选择了图形化向导,则只需跟随界面上给出的操作指引即可顺利完成设置过程。 #### 配置初始化 首次启动应用时可能会弹出一些初始配置选项让用户自定义某些参数设定;比如端口绑定、默认数据存储路径等。这些都可以依据个人喜好调整,但建议保留推荐值除非有特殊需求。 --- ### 使用指南 成功安装完毕后就可以着手探索 Ollama 提供的各项功能特性了。初次接触该工具的新手可以从文档中心入手学习基础命令语法以及如何构建第一个项目实例。 #### 基础交互 打开终端窗口输入 `ollama` 加上相应的子命令可以实现诸如查看帮助信息(`help`)、管理服务状态(`start`, `stop`)等功能。例如要查询完整的可用指令列表可键入如下命令: ```bash ollama help ``` #### 创建新工程 利用模板快速搭建属于自己的应用程序框架是一项非常实用的功能之一。通过简单的几条语句就能建立起结构化的开发起点,极大地提高了工作效率。创建一个新的工程项目可以通过下面的方式来进行: ```bash ollama create my_project_name cd my_project_name ``` 此时便可以在新建目录内继续完善代码逻辑和其他资源配置了。 #### 进阶技巧 随着熟练度提升还可以深入研究更多高级话题,像插件扩展机制、API 接口对接等方面的内容都值得进一步挖掘。查阅详细的官方手册将是掌握这些技能的最佳途径。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值