在国产系统上部署开源大模型

部署运行你感兴趣的模型镜像

本地部署大模型的方法很多,一般选择 docker 容器部署,或者使用本地服务框架。这里介绍使用本地服务框架 Ollama 部署。

Ollama 大模型框架

Ollama 是一个新兴的大模型框架,旨在为机器学习和人工智能研究提供高效、灵活和可扩展的解决方案。随着深度学习模型的复杂性和规模不断增加,开发者和研究人员需要更强大的工具来处理大规模数据和复杂的模型架构。Ollama 正是在这种需求下应运而生的。

Ollama 的核心特点

  1. 高效计算:Ollama 采用先进的分布式计算技术,可以在多 GPU 、多节点环境中高效运行。这使得它能够处理大规模数据集和复杂的模型训练任务,大大缩短了训练时间。

  2. 灵活性:Ollama 支持多种深度学习框架,如 TensorFlow、PyTorch 等,开发者可以根据项目需要选择最合适的工具。同时,Ollama 还提供了丰富的 API 和库,方便用户进行自定义开发和扩展。

  3. 可扩展性:Ollama 具有强大的扩展能力,可以轻松应对模型和数据规模的增长。无论是初创公司的小型项目,还是大企业的大型应用,Ollama 都能提供稳定和高效的支持。

  4. 易用性:Ollama 注重用户体验,提供了简洁明了的用户界面和详细的文档说明。即使是没有深厚技术背景的用户,也可以快速上手,利用 Ollama 进行模型训练和部署。

Ollama 安装与运行

在 Deepin 系统下,安装 Ollama 非常简单,只需要如下命令:

$ curl -fsSL https://ollama.com/install.sh | sh   >>> Downloading ollama...   ######################################################################## 100.0%-=O=#  #   #   #               ######################################################################## 100.0%   >>> Installing ollama to /usr/local/bin...   请输入密码      

Ollama 默认会安装在 /usr/local/bin 目录下,安装完毕之后,可以在命令行运行 ollama,如果不知道有哪些命令,可以从 ollama help 开始:

(base) alex@alex-deepin-os:~$ ollama help   Large language model runner      Usage:     ollama [flags]     ollama [command]      Available Commands:     serve       Start ollama     create      Create a model from a Modelfile     show        Show information for a model     run         Run a model     pull        Pull a model from a registry     push        Push a model to a registry     list        List models     ps          List running models     cp          Copy a model     rm          Remove a model     help        Help about any command      Flags:     -h, --help      help for ollama     -v, --version   Show version information      Use "ollama [command] --help" for more information about a command.      

可以看到,ollama 的命令行参数和 docker 有些相似。启动一个大模型非常简单,比如我想运行 gemma2 27b 参数的大模型:

`(base) alex@alex-deepin-os:~$ ollama run gemma2:27b   pulling manifest    pulling d7e4b00a7d7a...   4% ▕█                                             ▏ 655 MB/ 15 GB` 

ollama 会自动完成模型文件的下载,容器的创建,并运行起来。ollama 本身提供了命令行交互接口。

(base) alex@alex-deepin-os:~$ ollama run gemma2   >>> Send a message (/? for help)   

此外,Ollama 还提供了和 OpenAI API 兼容的接口服务,本地服务的地址为:

http://127.0.0.1:11434

配置 UOS AI

添加 UOS AI 账号,模型类型还是选择自定义,API Key 不用填,模型名就填写 ollama 运行的大模型名,比如 gemma2,如果运行的是 gemma2 27b 版本,就填写 gemma2:27b,API 地址填写 http://127.0.0.1:11434/v1

配置完成后,在下拉框中选择刚配置的账号。

接下来就可以愉快的和 AI 对话了。

我使用的是 Google 的 Gemma2 9b 大模型,速度还挺快。

如果你想尝试其它的大模型,可以去 ollama 的模型仓库看看。

https://ollama.com/library

里面收录了很多大模型,比如 llama3、qwen2、deepseek-coder-v2 等。

小结

写到这里,是不是感觉到在 Deepin 系统上部署大模型太简单了?是的,各种服务框架的出现,让我们不用手写代码就能部署大模型,其实本地服务框架远不止 ollama,还有 FastAPI、Streamlit 等等众多框架,甚至还有更多的高级框架,如 Dify,提供的功能更多更强。让我们慢慢探索吧!

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

篇幅有限,部分资料如下:

👉LLM大模型学习指南+路线汇总👈

💥大模型入门要点,扫盲必看!
在这里插入图片描述
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。

路线图很大就不一一展示了 (文末领取)
在这里插入图片描述

👉大模型入门实战训练👈

💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉国内企业大模型落地应用案例👈

💥两本《中国大模型落地应用案例集》 收录了近两年151个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
在这里插入图片描述

👉GitHub海量高星开源项目👈

💥收集整理了海量的开源项目,地址、代码、文档等等全都下载共享给大家一起学习!
在这里插入图片描述

👉LLM大模型学习视频👈

💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
在这里插入图片描述

👉640份大模型行业报告(持续更新)👈

💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

👉获取方式:

这份完整版的大模型 LLM 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值