【Llama】无需GPU轻松本地部署大模型

在AI飞速发展的时代,大模型如雨后春笋拔地而起,部署大模型已不再是什么高科技操作了,只要你的电脑满足基本配置要求使用Ollama就可以轻松在本地部署模型。

使用Ollama,首先了解一下Ollama:

简介

Ollama 是一个开源的大型语言模型(LLM)服务工具,旨在简化在本地运行大语言模型的过程,降低使用门槛,使开发者、研究人员和爱好者能在本地快速实验、管理和部署最新大语言模型,如 Qwen2、Llama3、Phi3、Gemma2等。它提供了一个简洁易用的命令行界面和服务器,让你能够轻松下载、运行和管理各种开源 LLM。

Ollama的优势

  • 开源免费:Ollama及所支持的模型均开源免费,可自由使用、修改和分发。
  • 简单易用:无需复杂配置,通过几条命令即可快速启动运行。
  • 模型丰富:涵盖Llama 3、Mistral、Qwen2等众多热门开源LLM,支持一键下载切换。
  • 资源占用低:对硬件要求不高,普通笔记本电脑也能流畅运行。
  • 社区活跃:拥有庞大活跃社区,便于获取帮助、分享经验及参与模型开发。

Ollama的限制

按照官方的要求,电脑配置至少有 8 GB 可用内存来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。

如何使用 Ollama?

只需遵循以下步骤即可开始使用Ollama:

  • 安装Ollama:依据操作系统,访问Ollama官网下载并安装最新版。
  • 启动Ollama:点击Ollama应用直接启动。
  • 下载模型:前往模型仓库,选中所需模型,用ollama pull下载,如ollama pull llama3:70b。
  • 运行模型:使用ollama run启动模型,如ollama run llama3:70b。
  • 开始聊天:在终端输入问题或指令,Ollama将依模型生成回复。
  • 网络共享:在一台电脑部署模型,通过IP或服务形式共享给其他设备使用

官网

官网地址:ollama.com

进入官网看到这只可爱的羊驼那就对了。

在这里插入图片描述

文档

文档地址:github.com/ollama/olla…

官方文档托管在Github,打不开的尝试使用科学方式

注册登录

只是下载及运行模型不注册也可以,如需账号可以使用邮箱注册登录

在这里插入图片描述

模型广场

模型地址:ollama.com/library

在Ollama首页点击【Models】可以查看Ollama支持的所有模型列表。

在这里插入图片描述

点击模型即可看到模型的详细信息,包含介绍、安装方式等。

在这里插入图片描述

安装Ollama

安装包托管在Github,如果无法下载请科学上网

在Ollama官网首页点击【Download】,选择对应平台点击【Download for …】进行安装包下载

在这里插入图片描述

以Mac为例,下载完成后直接双击根据提示完成安装(安装过程很简单),点击 Move to Applications ,按照建议,将其移动到应用程序文件夹下。Ollama默认会加入启动项,不需要的直接删除即可。

点击【Next】进行安装引导,Ollama需要插入 ollama 指令到命令行(后续直接在终端使用命令行操作),点击【Install】安装,输入电脑密码,点击【Finish】完成引导。

在这里插入图片描述

启动后看到状态栏中有Ollama模型表示启动成功,接下来就可以使用Ollama运行模型了

在这里插入图片描述

下载运行模型

官方建议:至少有 8 GB 可用内存来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。

在模型广场找到想要的模型,根据自己电脑配置选择满足条件的型号进行下载。

在这里插入图片描述

以 qwen2.5:14b 为例,在终端执行命令(如果本地没有对应模型,Ollama会先执行pull拉取,拉取完成后执行run运行)

$ ollama run qwen2.5:14b

运行成功后效果如下:

在这里插入图片描述

Ollama常用命令行操作

查看帮助

有任何命令行问题,都可以通过help命令查看帮助

$ ollama --help

在这里插入图片描述

举个例子,如想了解如何运行一个模型,可以这样查看

$ ollama run --help

在这里插入图片描述

最终得知 run 指令后面需要提供模型名称

$ ollama run 模型名称                  
如:
$ ollama run qwen2.5:1.5b

命令行方式启动Ollama

$ ollama serve

查看已下载模型

$ ollama list                  
或                  
$ ollama ls

在这里插入图片描述

打印信息中 NAME 就是模型的名称

查看正在运行的模型

$ ollama ps

在这里插入图片描述

查看模型详情

$ ollama show 模型名称

在这里插入图片描述

运行模型

$ ollama run 模型名称

停止模型

$ ollama stop 模型名称

删除模型

$ ollama rm 模型名称

基本使用

开始对话

模型启动后,在命令行直接输入提示词即可与模型进行对话。

在这里插入图片描述

在VSCode中使用

Continue插件配置相对简单一些

本地Ollama启动后默认端口号为 11434,在 Continue 插件中【API Provider】选择【Ollma】,【Base URL】默认为11434可以不填,输入模型名称 qwen2.5:14b,点击【Let’s go!】完成配置

在这里插入图片描述

在这里插入图片描述

使用Chat UI

如果觉得上面方式都不适合你,也可以选择使用像ChatGPT那样的现代聊天窗口工具,目前有很多,可以使用三方的,也自己clone本地运行:

这里以 Chatbox 为例简单实用,进入官网,点击【启动网页版】

在这里插入图片描述

进入网页版聊天页面,点击左下角【Settings】,设置完成后即可用使用Chat了。

在这里插入图片描述

使用体验

本人使用是Mac mini,无GPU,3.2 GHz 六核Intel Core i7,32G运行内存,500G存储分别跑了 qwen2.5:14b、qwen2.5:7b、qwen2.5:3b、qwen2.5:0.5b,目前为止只体验了模型响应速度:

  • 终端模型:在终端直接使用模型聊天,qwen2.5:0.5b 响应速度秒回,qwen2.5:3b 响应速度较快,qwen2.5:7b 响应速度逐行,qwen2.5:14b响应速度较慢和逐词差不多
  • VS Code:在VS Code中配合 Continue 插件使用,效果体感较差,响应速度都很慢
  • ChatUI:使用不多,没有深度体验

只在VS Code + Continue中体验了qwen2.5:0.5b 的内容生成,提示到一半就死循环了,体感效果很差。

总结

使用Ollama可以轻松在本地部署模型,但是需要选择符合系统配置参数的模型,无GPU的电脑部署了较大的模型可能响应速度较慢,需要一定的忍耐度,硬件配置不是很好的小伙伴还是建议使用现有模型服务,模型真的很费存储和算力。

如何学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

全套AGI大模型学习大纲+路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

img

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值