在 AI 应用开发中,调用大语言模型的 API 费用是一笔不小的开支。尤其是个人开发者或小团队,往往只能在免费额度内精打细算。awesome-free-llm-apis 正是为解决这一痛点而生——它整理收录了 16 个提供永久免费额度的 LLM API 提供商,涵盖从 Google Gemini 到国产硅基流动的各类选择,所有接口均兼容 OpenAI SDK,零门槛迁移现有项目。

相关链接
- GitHub:https://github.com/mnfst/awesome-free-llm-apis
- Stars:857 | Forks:48
- 许可证:CC0-1.0(公共领域)
是什么
awesome-free-llm-apis 是一个由开发者 brunobuddy 维护的开源精选列表,隶属于 mnfst 组织。项目的目标很简单:把市面上所有永久提供免费额度的 LLM API 整理在一起,让开发者不必东奔西走找优惠。
和那些限时的试用 Credits 不同,这个列表里的每一个提供商都明确标注了「永久免费」——不限时间、不缩水、不套路。项目还特别标注了每个提供商的限流规则(RPM、RPD),方便你根据实际需求做技术选型。
核心功能
Provider APIs(官方 API)
这类 API 由训练或微调模型的公司直接提供,质量有保障。
| 提供商 | 免费额度 | 代表模型 |
|---|---|---|
| Cohere | 20 RPM, 1K/月 | Command A, Command R+, Aya Expanse 32B |
| Google Gemini | 5-15 RPM, 100-1K RPD | Gemini 2.5 Pro, Flash, Flash-Lite |
| Mistral AI | 1 req/s, 1B tok/月 | Mistral Large 3, Small 3.1, Ministral 8B |
| Zhipu AI(智谱) | 限额未公开 | GLM-4.7-Flash, GLM-4.5-Flash, GLM-4.6V-Flash |
Inference Providers(第三方托管)
这类平台托管各种开源权重模型,选择更灵活。
| 提供商 | 免费额度 | 代表模型 |
|---|---|---|
| Cerebras | 30 RPM, 14,400 RPD | Llama 3.3 70B, Qwen3 235B, GPT-OSS-120B |
| Groq | 30 RPM, 1K RPD | Llama 3.3 70B, Llama 4 Scout, Kimi K2(17+ 模型) |
| OpenRouter | 20 RPM, 50 RPD(付费解锁 1K) | DeepSeek R1, Llama 3.3 70B, GPT-OSS-120B(29+ 模型) |
| SiliconFlow(硅基流动) | 1K RPM, 50K TPM | Qwen3-8B, DeepSeek-R1-Distill-Qwen-7B, GLM-4.1V-9B-Thinking |
| Hugging Face | $0.10/月免费额度 | Llama 3.3 70B, Qwen2.5 72B, Mistral 7B |
| Cloudflare Workers AI | 10K neurons/天 | Llama 3.3 70B, Qwen QwQ 32B(47+ 模型) |
| GitHub Models | 10-15 RPM, 50-150 RPD | GPT-4o, Llama 3.3 70B, DeepSeek-R1 |
| LLM7.io | 30 RPM(token 可升至 120) | DeepSeek R1, Flash-Lite, Qwen2.5 Coder(27+ 模型) |
| NVIDIA NIM | 40 RPM | Llama 3.3 70B, Mistral Large, Qwen3 235B |
| Ollama Cloud | 轻度使用(5小时/7天重置) | DeepSeek-V3.2, Qwen3.5, Kimi-K2.5(17+ 模型) |
| Kluster AI | 限额未公开 | DeepSeek-R1, Llama 4 Maverick, Qwen3-235B |
统一特性
- 全系 OpenAI SDK 兼容:只需改一行 base URL 即可迁移现有代码
- 永久免费:不存在过期时间或试用截止
- 明确标注限流:RPM(每分钟请求数)和 RPD(每天请求数)一目了然
- 持续更新:最近 8 小时前刚合并了 SiliconFlow 的收录
快速上手
Python 示例(以 Groq 为例)
pip install openai
import openai
client = openai.OpenAI(
api_key="your-groq-api-key",
base_url="https://api.groq.com/openai/v1"
)
response = client.chat.completions.create(
model="llama-3.3-70b-versatile",
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)
获取 API Key
每个提供商的 API Key 申请链接都直接列在列表中,点击即可跳转:
- Groq:https://console.groq.com/keys
- OpenRouter:https://openrouter.ai/keys
- SiliconFlow:https://cloud.siliconflow.cn/account/ak
- Hugging Face:https://huggingface.co/settings/tokens
适用人群
- 个人开发者:预算有限,需要免费额度来跑 demo 或小规模项目
- AI 创业团队:在产品初期用免费额度验证 PMF,控制 API 成本
- 学生 / 研究者:做实验、写论文不需要付费订阅
- 多模型路由需求:想对比不同模型效果,OpenRouter 的模型回退机制非常实用
总结
awesome-free-llm-apis 不是一个 SDK,也不是一个 API 聚合平台——它是一份经过审核的免费资源清单。857 个 GitHub stars 证明了社区对它的认可。
对于国内用户来说,SiliconFlow(硅基流动)和Zhipu AI(智谱)是特别值得关注的两个选项,前者提供高达 1K RPM、50K TPM 的免费额度,后者则直接提供国产 GLM 系列模型。而如果你需要调用海外模型,Groq 以高速推理著称,Cerebras 则是 70B 大模型免费额度最慷慨的选择。
唯一需要注意的是:免费往往意味着限流。如果你的应用有高并发需求,建议结合使用多个提供商,或在免费额度用尽后考虑付费计划。
© 版权声明
本站部分内容源于网络收集,文章等版权归原作者所有,若需删稿请联系管理员邮箱:[email protected]
相关文章
暂无评论...