国内免代理免费使用Gemini大模型实战

谷歌的Gemini API 为开发者提供了具体的免费额度,允许将Gemini模型集成到自己的应用程序中。
模型可访问范围:开发者可以免费调用 Gemini 2.5 Pro 模型及其轻量级版本 Gemini 2.5 Flash 6。
标准免费额度:通过在 Google AI Studio 获取 API 密钥,每位开发者可以获得慷慨的免费使用额度。这包括每天 300,000 个 Token(包括提示和响应)以及每分钟 60 个请求的速率限制 。

一、免费申请Gemini API密钥

注册google账号就可以免费申请Gemini API密钥。
申请地址 https://aistudio.google.com/
申请密钥

有了Gemini API密钥后就可以调用API使用Gemini 大模型的能力了。
国内上网环境无法直接使用Gemini API,本文介绍能够免代理使用Gemini的方法。

二、使用openai-gemini

1、在github上找到openai-gemini

openai-gemini 是一个 serverless 的代理项目,用于将 Gemini API 转换为 OpenAI API 。
项目地址:https://github.com/PublicAffairs/openai-gemini
Gemini API 是免费的, 但有许多工具专门与 OpenAI API 一起使用。该项目可以将Gemini API 转换为 OpenAI API ,并且通过serverless进行调用。我们可以找个国内可以访问的免费serverless服务进行中转满足国内调用使用需求。
这里介绍将openai-gemini部署到Netlify
Netlify 是一个领先的 Web 开发平台,它专门为构建、部署和管理现代高性能网站和 Web 应用程序提供了一站式解决方案。Netlify 的核心理念是支持 Jamstack 架构(JavaScript, APIs, Markup),该架构强调将网站内容预构建为静态文件,并通过 CDN 快速分发,然后通过 API 调用动态数据和执行后端逻辑。

2、将openai-gemini部署到Netlify

Deploy to Netlify

找到"Deploy to Netlify" 点击就可以一键部署到Netlify,部署完成后Netlify会自动分配一个地址用于访问刚部署的openai-gemini的serverless服务。并且这个地址是在过国内可以正常访问的。
project overview

3、在Cherry Studio中配置和使用gemini的模型

1)在Cherry Studio中配置gemini API

通过Netlify中转访问gemini API,我们可以直接在Cherry Studio中配置通过Netlify中转访问gemini API
配置API地址为通过netlify中转的地址
API密钥为google gemini 的API Key
模型可以配置你想使用的模型 如:gemini-2.5-pro
Cherry Studio中配置API key

2)在Cherry Studio中使用gemini 的模型

在Cherry Studio中选择刚配置的gemini-2.5-pro并和它对话,可以看到gemini-2.5-pro可以流畅的输出。
在cherry Studio中使用gemini

4、在Dify中配置和使用gemini的模型

1) 在Dify中配置gemini API

通过openai-gemini将 Gemini API 转换为了 OpenAI API ,所以在dify中应该使用“OpenAI-API-compatible”的插件来配置模型。
OpenAI插件

如果没有安装“OpenAI-API-compatible”插件需先安装。在模型供应商中选择“OpenAI-API-compatible”,点击“添加模型”。
配置API地址为通过netlify中转的地址
API密钥为google gemini 的API Key
模型可以配置你想使用的模型 如:gemini 2.5 pro
配置API key

2)在Dify中使用gemini的模型

在Dify中建一个对话应用,选择刚配置好的 Gemini 2.5 Pro 模型进行对话,可以看到对话成功的调用了gemini API使用Gemini 2.5 Pro的模型进行了回复。
在Dify中使用

5、如果自己有域名可以用自己的域名来中转netlify的地址进行访问

1) 在自己的DNS中配置域名解析到netlify的地址

以我的cloud flare域名服务配置为例,在DNS中配置一个netlifygemini的子域名,解析到目标为开始netlify给的服务地址。
配置子域名

2)在netlify中配置子域名

在netlify中可以配置自己的域名对gemini API进行访问。在netlify的项目中找到“domain you already own”
在netlify中配置自己的域名

在自定义域名配置界面,输入自己的子域名,它会给出Host和Value的值,这两个值需要在自己的DNS域名服务器中配置校验。
效验信息

接下来需要在自己的DNS服务中进行配置,我以自己的cloud flare域名服务配置为例,配置如下:

3)在 Cloudflare 中添加TXT记录用于校验
  1. 登录你的 Cloudflare 账户,选择我的域名doai8.dpdns.org。
  2. 进入左侧的 “DNS” 菜单。
  3. 点击 “Add record” (添加记录) 按钮。
  4. 根据下面的表格,准确填写每一个字段:
Cloudflare 字段你需要填写的内容 (从 Netlify 截图复制)
Type (类型)TXT
Name (名称)netlify-challenge
Content (内容)4f*****************062b
TTL保持默认的 Auto 即可

添加TXT记录

4)在netify中进行验证,验证通过就可以用自己的域名访问了

在netify中进行验证,验证通过就可以用自己的域名访问了,在图中可以看到自己的子域名和netlify给的子域名。两个域名都可以用,自己的子域名的好处就是自己容易记忆。
自定义域名配好

5)用自定义域名进行gemini API接口的测试

在Cherry Studio中将API地址配置程自定义域名的地址
配置自定义域名地址
可以看到和gemini 2.5 pro 对话同样也很丝滑。
测试


作者博客:http://xiejava.ishareread.com/

资源下载链接为: https://pan.quark.cn/s/abbae039bf2a 在计算机视觉领域,实时目标跟踪是许多应用的核心任务,例如监控系统、自动驾驶汽车和无人机导航等。本文将重点介绍一种在2017年备受关注的高效目标跟踪算法——BACF(Boosted Adaptive Clustering Filter)。该算法因其卓越的实时性和高精度而脱颖而出,其核心代码是用MATLAB编写的。 BACF算法全称为Boosted Adaptive Clustering Filter,是基于卡尔曼滤波器改进的一种算法。传统卡尔曼滤波在处理复杂背景和目标形变时存在局限性,而BACF通过引入自适应聚类和Boosting策略,显著提升了对目标特征的捕获和跟踪能力。 自适应聚类是BACF算法的关键技术之一。它通过动态更新特征空间中的聚类中心,更准确地捕捉目标的外观变化,从而在光照变化、遮挡和目标形变等复杂情况下保持跟踪的稳定性。此外,BACF还采用了Boosting策略。Boosting是一种集成学习方法,通过组合多个弱分类器形成强分类器。在BACF中,Boosting用于优化目标检测性能,动态调整特征权重,强化对目标识别贡献大的特征,从而提高跟踪精度。BACF算法在设计时充分考虑了计算效率,能够在保持高精度的同时实现快速实时的目标跟踪,这对于需要快速响应的应用场景(如视频监控和自动驾驶)至关重要。 MATLAB作为一种强大的数学计算和数据分析工具,非常适合用于算法的原型开发和测试。BACF算法的MATLAB实现提供了清晰的代码结构,方便研究人员理解其工作原理并进行优化和扩展。通常,BACF的MATLAB源码包含以下部分:主函数(实现整个跟踪算法的核心代码)、特征提取模块(从视频帧中提取目标特征的子程序)、聚类算法(实现自适应聚类过程)、Boosting算法(包含特征权重更新的代
### 如何在本地环境中部署 Gemini 大模型 #### 使用 Docker 和 Docker-Compose 私有化部署 为了在本地环境中成功部署 Gemini 大模型,可以采用 Docker 及其编排工具 Docker-Compose 来实现私有化的安装过程[^3]。 首先,在计算机上需确保已正确安装并配置好 Docker 环境。接着下载官方提供的 Gemini 模型镜像文件,并创建相应的 `docker-compose.yml` 文件用于定义服务参数和服务之间的依赖关系: ```yaml version: '3' services: gemini-model: image: gcr.io/path-to-gemini-image:latest ports: - "8080:80" environment: MODEL_NAME: "gemini-large" ``` 通过上述 YAML 文件指定端口映射和环境变量设置之后,执行命令启动容器即可完成基本的部署工作: ```bash docker-compose up -d ``` 这会以后台模式运行 Gemini 模型实例,并监听主机上的特定端口号以便访问 API 接口。 对于那些不具备物理服务器资源但又希望尝试 Gemini 的开发者来说,则可以选择利用 Vercel 这样的云服务平台来进行无服务器形式下的快速搭建。不过需要注意的是,这种方式可能会受到平台本身的一些限制条件影响。 #### 基于 LMStudio 或 Ollama 工具链的选择 除了借助容器技术外,还有其他途径能够简化 Gemini 在个人电脑中的集成流程。例如,LMStudio 提供了一套完整的解决方案来帮助用户更便捷地操作该类大型预训练语言模型;而 Ollama 则专注于优化模型推理效率的同时也提供了详尽的手册指导整个项目的落地实施[^1][^2]。 无论是选用哪种方法论作为切入点去探索 Gemini 的实际应用价值,都建议事先仔细阅读相关文档资料以获取最准确的操作指南和支持信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xiejava1018

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值