一分钱不花!手把手教你部署Google最强开源AI大模型Gemma教程

谷歌发布的Gemma是强大的轻量级开源模型,本文详细介绍了如何使用Ollama工具在本地部署Gemma,包括系统准备、端口设置、Ollama和open-webui部署,以及其本地运行的优势,如私密性和断网可用性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一分钱不花!本地部署Google最强开源AI大模型Gemma教程
半个多月前,谷歌搞了一波突然袭击,毫无预兆地发布了新一代AI模型Gemma,并宣称这是全球性能最强大的轻量级开源系列模型。

经过实测,虽然Gemma的使用体验不如ChatGPT-4等成熟的闭源大模型,但是本地运行模式还是有其存在的意义的,对于私密性要求较强的用户,也可以在断网的情况下本地加载运行,不用担心相关信息泄露等等。
在这里插入图片描述

介绍

Ollama:是一款能够在本地快速搭建大型模型的工具,使用户能够轻松进行模型部署和使用。

Gemma:是由谷歌开源的一种大型模型。

open-webui:是一个优秀的大型模型 Web 用户界面,简化了模型部署和管理。

开始搭建(完整视频)

第一步:前期准备

选择系统版本(短期实验可以使用腾讯云的竞价实例)

由于大型模型需要 GPU 进行运算,建议选择支持 GPU 显卡的服务器系统版本。本文选择的是 Ubuntu 22.04
在这里插入图片描述

端口问题:

注意要放开相应端口,本次实验以放开全部端口示例在这里插入图片描述
首次登录需要安装相应驱动,稍等即可
在这里插入图片描述

安装完成!

第二步:部署 Ollama

  1. 使用以下命令安装 Ollama:

    curl -fsSL https://ollama.com/install.sh | sh
    

速度可能因为网络慢一些,等待即可
在这里插入图片描述

  1. 安装完成后,编辑 Ollama 的服务配置文件:

    sudo vi /etc/systemd/system/ollama.service
    

在这里插入图片描述

在 `ExecStart=/usr/local/bin/ollama serve` 上面插入:
`Environment="OLLAMA_HOST=0.0.0.0:11434"`

在这里插入图片描述

  1. 开放 API 端口(默认端口为 11434),并重启服务器。
    在这里插入图片描述

  2. 访问 ip:11434 查看 Ollama 是否成功部署。

在这里插入图片描述

第三步:部署 Gemma

运行以下命令(这里以7b为例): ollama run gemma:7b

等待部署完成后即可开始使用 Gemma,这里是交互式使用,接下来继续安装openweb-ui

在这里插入图片描述在这里插入图片描述

第四步:部署 open-webui

可以选择新建一个终端,运行的gemma不要停

在这里插入图片描述

  1. 部署 Docker(根据不同系统安装 Docker)。

    sudo apt install docker.io
    

    在这里插入图片描述

  2. 运行以下命令安装 open-webui(请注意镜像地址,这是使用的是速度快的国内源):

    sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main
    

在这里插入图片描述

  1. 启动容器(启动之后需要稍等1-2分钟,下载必要文件):

    sudo docker run -d ghcr.nju.edu.cn/open-webui/open-webui
    

在这里插入图片描述
4. 访问 IP:3000 进入 open-webui,注册账号(第一次注册的账号默认为管理员)。
在这里插入图片描述
完美启动
在这里插入图片描述

  1. 在模型中检查 Ollama 连接状态是否成功.

在这里插入图片描述

  1. 点击头像进入管理员面板,将新用户默认改为用户(按需修改),省去用户需要审核的流程
    在这里插入图片描述

完美部署!

在这里插入图片描述

作为轻量化模型的存在8G显存即可运行7B模型,2B模型更是不需要显卡就可以流畅运行在这里插入图片描述

注意:

经过实测,虽然Gemma的使用体验不如ChatGPT-4等成熟的闭源大模型,但是本地运行模式还是有其存在的意义的,对于私密性要求较强的用户,也可以在断网的情况下本地加载运行,不用担心相关信息泄露等等。

<think>好的,用户想了解Google最新发布的开源模型Gemma 3的详细信息。首先,我需要整理手头的引用资料。根据引用3,Gemma 3被描述为高性能、轻量级的AI模型,支持多语言和复杂任务,性能超过DeepSeek-V3,成为全球第二强的开源模型。而引用1提到谷歌的策略转变,通过Gemma开源领域竞争,同时闭源追赶OpenAI。引用2和4则涉及下载和配置Gemma 3的步骤,比如从Hugging Face等平台获取,以及如何激活模型进行测评。 接下来需要将这些信息组织成结构清晰的回答。首先介绍Gemma 3的基本情况,包括定位、性能和技术亮点。然后说明其应用场景,比如单GPU部署和多语言支持。之后可以讨论谷歌的开源策略变化,引用1中的内容说明他们希望用Gemma开源领域竞争,同时闭源模型追赶OpenAI。接着需要提到如何获取和部署Gemma 3,引用2和4提供了下载来源和配置步骤,但用户可能更关注关键点而非详细步骤,所以可以简要提及平台和基本流程。 另外,用户可能需要了解Gemma 3与其他模型的比较,比如Meta的Llama和Mistral,引用1提到这三者形成开源三巨头,因此需要对比各自的优势。最后,生成相关问题时要考虑用户可能感兴趣的后续问题,比如性能对比、部署方法、商业应用限制等。 需要确保回答符合格式要求,使用正确的中文表达,数学公式用$...$,独立公式用$$...$$。但当前内容中没有涉及数学公式,所以可能需要。过,如果有技术参数部分可能需要,但根据引用资料,暂时需要。 检查是否有遗漏的信息点,比如Gemma 3支持的硬件环境(单GPU/TPU)、多语言能力、模型规模(7B参数,如引用4中的gemma-7b-it)等。引用3提到轻量级,适用于单GPU或TPU部署,这些都需要涵盖。 最后,确保引用标识正确对应,引用1、3讨论策略和性能,引用2、4涉及下载配置。注意要混淆引用来源,正确标注在相应的内容后面。</think>### Google 开源模型 Gemma 3 详细介绍 #### 1. **模型定位与性能** Gemma 3 是 Google 最新推出的高性能开源模型,定位为轻量级 AI 模型,专为单 GPU 或 TPU 部署设计[^3]。其核心优势包括: - **性能领先**:在同等参数规模下,Gemma 3 的综合能力超越 DeepSeek-V3,成为全球第二强的开源模型(仅次于 Meta 的 Llama 3)。 - **多任务支持**:擅长处理复杂推理、数学计算和多语言任务(支持英语、中文、西班牙语等)。 - **高效部署**:针对资源有限场景优化,可运行于消费级 GPU 或云端单卡环境。 #### 2. **技术亮点** - **架构优化**:基于 Google 自研的 Pathways 系统,融合稀疏化训练和动态计算图技术,提升推理效率。 - **轻量化设计**:提供 2B(20 亿参数)和 7B(70 亿参数)版本,其中 7B 版本(如 `gemma-7b-it`)在多项基准测试中表现优异[^4]。 - **开源生态兼容**:支持通过 Hugging Face、Kaggle 等平台直接下载,并与主流 AI 框架(如 TensorFlow、PyTorch)集成[^2]。 #### 3. **谷歌的开源策略转变** Gemma 3 的发布标志着 Google开源与闭源领域的双轨战略: - **开源竞争**:通过高性能小模型(Gemma)与 Meta 的 Llama、欧洲 Mistral 争夺开源市场主导权[^1]。 - **闭源追赶**:同时研发超大规模闭源模型,目标对标 OpenAI 的 GPT-4。 #### 4. **应用场景** - **边缘计算**:适用于移动设备、物联网终端等低功耗场景。 - **垂直领域微调**:企业可利用 Gemma 3 快速构建客服、代码生成等定制化模型。 - **学术研究**:提供透明可修改的代码,助力算法创新。 #### 5. **获取与部署** - **下载渠道**:从 Hugging Face、Ollama 或 Kaggle 获取模型权重与配置文件。 - **快速启动**:通过 Colab 或本地环境加载模型,使用示例代码进行推理测试(需激活模型权限)[^4]。 ```python # Hugging Face 示例代码(需安装 transformers 库) from transformers import AutoTokenizer, AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained("google/gemma-7b-it") tokenizer = AutoTokenizer.from_pretrained("google/gemma-7b-it") input_text = "解释量子计算的基本原理" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0])) ```
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值