最近把国内外各家主要的大模型API平台都用了个遍,在这里分享一下使用体验
第三方代理平台
1. openrouter:https://openrouter.ai/
模型覆盖度:支持400+模型,覆盖GPT、Claude、Gemini、Grok、Qwen、DeepSeek、Llama、Mistral等主流模型。
服务稳定性:开源模型稳定性较高,闭源模型稳定性一般,有时会被限流或者莫名其妙的报错。openrouter还有一个严重的bug是推理时间过长后会断开连接,我目前还没找到解法。
价格:和模型原厂基本一致
使用体验:使用方便,创建API key之后,可以使用OpenAI兼容方式使用。可以使用visa卡。经评论区提醒,选择一次性支付选项(one-time payment methods),可以使用微信和支付宝支付。
模型覆盖度:支持300+,覆盖GPT、Claude、Gemini、Grok、Qwen、DeepSeek等主流模型。
服务稳定性:有不同分组可选择,有的分组稳定性较好,但价格较高,有的分组稳定性差,但价格低。有的模型的后台容量有限,遇到流量高峰时可能就不可用了。
价格:取决于分组,有的分组价格可以比模型原厂低很多
使用体验:非常方便,创建API key之后,可以使用OpenAI兼容方式使用。可以使用微信或支付宝充值。虽然用户界面看起来有点山寨,但很实用。
3. DMXAPI:https://www.dmxapi.cn/
模型覆盖度:覆盖非常全,对国产模型的覆盖比PoloAI更多(如豆包、混元、文心、GLM、Kimi、Minimax),但分组比PoloAI少。
服务稳定性:整体稳定性较好。另有SSVIP独立站点提供生产级稳定服务(但我没用过这个)。
价格:总体上会比原厂低一些。
使用体验:界面和PoloAI类似,很方便。
国外云厂商
1. Google Vertex AI:https://cloud.google.com/vertex-ai/generative-ai/
模型覆盖度:支持Gemini、Claude(中国大陆和中国香港地区用户无法使用)、Llama、Mistral模型。
服务稳定性:高。(前提是能翻墙)
价格:Claude价格是原厂的一半。
使用体验:鉴权非常麻烦,需要在服务器上装一个google cloud client,配置复杂。接口不兼容openai。云控制台使用体验还可以。不支持国内主流支付方式。
2. AWS BedRock:https://aws.amazon.com/bedrock/
模型覆盖度:支持Claude(中国大陆和中国香港地区用户无法使用)、Llama、Mistral、DeepSeek等模型
服务稳定性:对普通用户限流太狠,QPM只有个位数,请求频繁一点就失败。同样要翻墙。
价格:Claude和原厂一致,Llama较便宜,DeepSeek较贵
使用体验:控制台非常难用。鉴权较麻烦。接口不兼容openai。不支持国内主流支付方式。
3. Azure AI Foudry: https://ai.azure.com/explore/models
模型覆盖度:支持OpenAI(中国大陆和中国香港地区用户无法使用)、Llama、Mistral、DeepSeek、Grok等模型
服务稳定性:未实际调用,不确定。
价格:基本和模型原厂一致。
使用体验:控制台使用还可以。不支持国内主流支付方式。
国内云厂商
1. 阿里云百炼:https://bailian.console.aliyun.com/
模型覆盖度:支持Qwen、DeepSeek、Llama等模型
服务稳定性:高
价格:和模型原厂一致。(购买流量包有优惠)
使用体验:使用很方便。支持国内主流支付方式。
2. 百度千帆:https://cloud.baidu.com/product-s/qianfan_modelbuilder
模型覆盖度:支持文心、DeepSeek、Qwen、Llama等模型
服务稳定性:高
价格:和模型原厂一致。(购买流量包有优惠)
使用体验:使用很方便。支持国内主流支付方式。
3. 火山方舟:https://www.volcengine.com/product/ark
模型覆盖度:支持豆包、DeepSeek模型
服务稳定性:高
价格:和模型原厂一致。(购买流量包有优惠)
使用体验:使用很方便。支持国内主流支付方式。
4. 硅基流动:https://cloud.siliconflow.cn/
模型覆盖度:主要是国产开源模型,包括Qwen、DeepSeek,还有很多较小众的模型,模型版本选择也比较多
服务稳定性:高,但对普通用户的TPM限额太小,很容易被限流(2025年11月13日更新:目前硅基流动对大部分模型的TPM限额已经提至40万,比之前好很多,已经不怎么遇到限流问题了)
价格:基本和模型原厂一致。
使用体验:使用很方便。支持国内主流支付方式。
总结
下表列出不同模型在不同API提供商的推荐指数:

总结:如果想使用国内的模型API,推荐使用国内云厂商提供的API服务或第三方代理平台。如果想在国内使用国外的模型API,或者想同时使用很多不同系列的模型,推荐使用第三方代理平台。如果服务器在国外,想调用国外的某个API模型,则推荐使用国外云厂商,或第三方代理平台。
写在最后:在今天,AI正在帮助企业提升效率、降低成本并加速创新。在未来的 AI 时代,人工智能将助力全球组织实现智能化目标,因此为了迎接那一天的到来,我们要提前做好准备。
986

被折叠的 条评论
为什么被折叠?



