现在做大模型,还有靠谱且免费的 API 接口吗?
靠谱的不免费,免费的不靠谱,鱼和熊掌不可兼得?
非也!
对于简单的指令而言,绝大部分免费的 LLM API 还是能打的,本文就给大家介绍几款,猴哥亲测好用的免费的 API 接口!
1. 免费 LLM API 汇总(持续更新中)
| 大模型 | 免费版本 | 免费限制 | 备注 | API |
|---|---|---|---|---|
| 讯飞星火大模型 | spark-lite | Tokens:总量不限;QPS:2 | 链接 | |
| 百度千帆大模型 | ERNIE-Speed-128K | RPM=60,TPM=300000 | 链接 | |
| ERNIE-Speed-8K/ERNIE-Lite-8K/ERNIE-Tiny-8K | RPM=300,TPM=300000 | |||
| 腾讯混元大模型 | hunyuan-lite | 限制并发数 5 | 链接 | |
| 智谱 AI 大模型 | glm-4-flash | 限制并发数 5 | 自带联网搜索,支持微调 | 链接 |
| 书生浦语大模型 | internlm2.5-latest | RPM=10, TPM=5000 | 需申请使用 | 链接 |
| Llama Family | Llama3-Chinese-8B-Instruct/Atom-13B-Chat | 8-22 点:RPM=20;22-次日 8 点:RPM=50 | 链接 | |
| Groq | gemma-7b-it/llama-3.1-70b等 | RPM=30, RPD=14400 | 链接 | |
| Google Gemini | gemini-1.5-flash/gemini-1.0-pro | RPM=15, TPM=100万, RPD=1500 | 链接 | |
| gemini-1.5-pro | RPM=2, TPM=3.2万, RPD=50 | |||
| text-embedding-004 | RPM=1500 | |||
| 硅基流动 | Qwen2-7B-Instruct等 | RPM=100,QPS=3 | 链接 |
- RPM:每分钟处理的请求数量;
- TPM:每分钟处理的Token数量;
- RPD:每天处理的请求数量;
- QPS:每秒内处理的请求数量;
- 并发数:系统同时处理的请求数量。
接下来,我们一起梳理下各家的 API 调用示例代码,以及如何把它们接入 OneAPI,方便集成到兼容 OpenAI 格式的应用中!
关于如何使用 OneAPI,可以围观教程:OneAPI-接口管理和分发神器。
2. 讯飞星火大模型
调用示例代码见:拒绝Token焦虑,盘点可白嫖的6款LLM大语言模型API
当然,更简洁的方式是:接入 OneAPI!
添加一个新的渠道,类型选择讯飞星火认知,模型处手动填入spark-lite。

3. 百度千帆大模型
首先,到千帆平台上开通免费的模型:https://console.bce.baidu.com/qianfan/ais/console/onlineService

然后,到应用接入中创建应用,获取API Key、Secret Key

最后,调用示例代码:
import requests
import json
API_KEY = "xxx"
SECRET_KEY = "xxx"
def get_access_token():
"""
使用 AK,SK 生成鉴权签名(Access Token)
"""
url = "https://aip.baidubce.com/oauth/2.0/token"
params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY}
return str(requests.post(url, params=params).json().get("access_token"))
url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie_speed?access_token=" + get_access_token()
payload = json.dumps({
"messages": [
{
"role": "user",
"content": "你好"
},
]
})
headers = {
'Content-Type': 'application/json'
}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
当然,更简洁的方式是:接入 OneAPI!
添加一个新的渠道,类型选择百度文心千帆,模型处只保留你开通的免费模型。

4. 腾讯混元大模型
腾讯云的产品,接入地址:https://console.cloud.tencent.com/hunyuan/start
新用户首先要开通,然后点击创建密钥,到新页面,新建密钥。
首次记得保存!后续不支持查询!

混元大模型的调用接口,鉴权非常麻烦,最好安装它的 SDK 进行使用。
当然,更简洁的方式是:接入 OneAPI!
添加一个新的渠道,类型选择腾讯混元,模型处需要手动填入hunyuan-lite。

在下面的密钥处填入你的:APPID|SecretId|SecretKey。
5. Google Gemini
Google Gemini 集成在 Google AI Studio中。
首先需要创建一个项目,然后获取 API 密钥。
API 密钥获取地址:https://aistudio.google.com/app/apikey

在 API 价格文档中,可以看到各个模型的限速详情:https://ai.google.dev/pricing

调用示例代码:
import requests
import json
# 设置请求的URL和API密钥
url = "https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-latest:generateContent"
api_key = "xxx" # 替换为你的API密钥
headers = {
"Content-Type": "application/json"
}
data = {"contents": [{"parts": [{"text": "Explain how AI works"}]}]}
response = requests.post(f"{url}?key={api_key}", headers=headers, data=json.dumps(data))
print(response.json())
如果是国内 IP,是调不通的,会报下面的错误:
{'error': {'code': 400, 'message': 'User location is not supported for the API use.', 'status': 'FAILED_PRECONDITION'}}
因此,请自行备好梯子,或在代码中加上海外 IP 的代理!
当然,更简洁的方式是:接入 OneAPI!
添加一个新的渠道,类型选择Google Gemini,模型处只保留你开通的免费模型。

6. All in One
如果你还在因适配各种 LLM 接口而苦恼,强烈推荐使用 OneAPI 管理自己的各种 LLM API!

关于如何使用 OneAPI,可以围观之前的教程:OneAPI-接口管理和分发神器
写在最后
本文盘点了几款免费又好用的 LLM API,并接入了 OneAPI 统一管理!
你要问目前这些免费的 API 中,哪个更能打?
我要说:Google 家的 gemini-pro-1.5 指令遵循最佳,没有之一!
2025最新版优快云大礼包:《AGI大模型学习资源包》免费分享**
一、2025最新大模型学习路线
一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1级别:AI大模型时代的华丽登场
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。

L2级别:AI大模型RAG应用开发工程
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3级别:大模型Agent应用架构进阶实践
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。

L4级别:大模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
二、大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

三、大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

四、大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

五、大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

388

被折叠的 条评论
为什么被折叠?



