3分钟部署自己独享的Gemini

3分钟部署自己独享的Gemini

在前面的几篇文章中,分别介绍了Gemini Pro的发布和Gemini Pro API的详细申请步骤,那么今天给大家分享的是如何快速搭建一个属于自己的Gemini 。


1️⃣ 准备工作

  1. 科学网络环境
  2. Github账号和Vercel账号
  3. Gemini Pro API Key(申请步骤详情参考我往期文章)
  4. 域名(可选,有网络环境可忽略)

2️⃣ Gemini Pro Chat 项目地址

项目地址:https://github.com/babaohuang/GeminiProChat

目前此项目已有1.5k

Untitled


3️⃣ Gemini Pro Chat 项目部署步骤

1. 部署项目到Vercel

打开项目地址,往下翻找到**Deploy**快捷部署按钮,点击部署

Untitled

2. 创建Git仓库

项目部署至Vercel时,会同步创建一个 Git 仓库,仓库名可命名为你喜欢的。

Untitled

3. 设置环境变量

进入地址:https://makersuite.google.com/app/apikey 获取你的 API Key

Untitled

在下方推荐环境变量处输入你的API Key,然后点击Deploy部署即可

NameValue
GEMINI_API_KEY你申请的 Gemini Pro API Key

Untitled

稍等几分钟,我们就能看到已经成功部署了,有撒花特效

Untitled

4. 访问项目

点击Continue to Dashboard访问进入仪表盘,点击Visit即可访问部署好的项目

Untitled

5. 域名绑定

由于某些原因Vecel在国内直接访问受限制,所以我们可以购买一个域名进行绑定实现国内访问。

依次点击SettingDomains输入域名Add

ufNHqVduO3.png

在域名商处添加DNS记录进行解析,等待DNS解析完成即可通过域名直接访问项目。

已经自己有域名的推荐使用二级域名,例如我的是:gemini + xxxxx.com

chrome_9JjCxAd17u.png

chrome_NTQfuc6YGE.png

以上就是全部部署步骤,赶快部署一个你自己的Gemini吧!!!


4️⃣ Gemini Pro Chat 使用

  1. 通过Gemini Pro Chat 项目的Vercel域名或者自己绑定的域名进行访问
  2. 聊天框输入文本后Send即可立即使用,支持32k上下文
  3. 免费用户有每分钟60条的限制

Untitled


5️⃣ 参考文章

以上就是通过Gemini Pro Chat项目部署属于自己的Gemini的详细部署步骤。如果您觉得这篇文章对您有所帮助,欢迎收藏转发和分享。
如果您有任何想法和建议,请随时在评论区留言。您的反馈对我来说非常重要,我会认真倾听并不断改进我的文章内容。
同时,如果您想第一时间获取我的最新文章和动态,您还可以搜索关注我的博客公众号
再次感谢您的支持和关注,期待与您在未来的文章中再次相遇!

### 本地部署 Gemini 模型的方法 #### 宝贵资源与工具 为了实现 Google 的 Gemini 大模型在本地环境中的部署,可以利用一些开源项目以及特定的技术栈完成这一目标。例如,在 GitHub 上存在多个社区开发的项目支持 Gemini 模型的本地化操作[^1]。 #### 参数配置与界面搭建 通过访问 `hjandlm/Streamlit_Gemini_Visual` 这一仓库,可以获得关于 Gemini 模型可视化的具体指导。此项目的重点在于提供了一个基于 Streamlit 构建的交互式前端应用,允许用户选择不同的 Gemini 模型变体并调整其参数设置。以下是该过程的一个简化版本: ```python import streamlit as st st.title('Gemini Model Visualization') model_type = st.selectbox( 'Select a Gemini model:', ('gemini-pro', 'gemini-standard') ) if st.button('Run'): st.write(f'You selected {model_type}') ``` 上述代码片段展示了如何构建一个简单的用户界面用于选取所需的 Gemini 版本。 #### Web UI 实现简易对话功能 另一个值得注意的是由 babaohuang 开发的最小化网络用户接口 (`Minimal web UI`) ,它能够快速启动 Gemini Pro 聊天服务[^2]。该项目同样依赖于 Python Flask 或 FastAPI 来创建 RESTful API 接口供客户端调用。 #### 使用 Ollama 平台管理多类 LLMs 尽管主要讨论的是 Gemini 模型,但也可以参考其他大型语言模型(LLMs)如 Llama 系列的部署流程作为借鉴[^3]。Ollama 提供了一种统一的方式来管理和运行多种预训练好的人工智能模型,包括但不限于 Meta 的 Llama 和 Alpaca 。一旦安装好 Ollama 后端服务器,则可通过命令行轻松加载新的模型文件。 #### 下载与执行 Gemma AI 对于希望完全脱离云端限制的情况,还可以考虑按照专门针对 Gema AI 设计的教学指南来进行独立安装[^4]。这通常涉及以下几个方面的工作: - 获取官方发布的源码包及其配套的数据集; - 准备足够的硬件计算能力以满足推理需求; - 根据文档指示逐步编译程序直至成功启动服务进程; 最终效果将是拥有一套完整的、能够在个人电脑或者专用服务器上正常工作的 Gemini 应用解决方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MatrixWave

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值