[Github发现] awesome-free-llm-apis – 永久免费的 LLM API 聚合列表

Github发现2026-03-27发布 WarpEdit
23 0 0

在 AI 应用开发中,调用大语言模型的 API 费用是一笔不小的开支。尤其是个人开发者或小团队,往往只能在免费额度内精打细算。awesome-free-llm-apis 正是为解决这一痛点而生——它整理收录了 16 个提供永久免费额度的 LLM API 提供商,涵盖从 Google Gemini 到国产硅基流动的各类选择,所有接口均兼容 OpenAI SDK,零门槛迁移现有项目。

awesome-free-llm-apis 项目截图

相关链接

是什么

awesome-free-llm-apis 是一个由开发者 brunobuddy 维护的开源精选列表,隶属于 mnfst 组织。项目的目标很简单:把市面上所有永久提供免费额度的 LLM API 整理在一起,让开发者不必东奔西走找优惠。

和那些限时的试用 Credits 不同,这个列表里的每一个提供商都明确标注了「永久免费」——不限时间、不缩水、不套路。项目还特别标注了每个提供商的限流规则(RPM、RPD),方便你根据实际需求做技术选型。

核心功能

Provider APIs(官方 API)

这类 API 由训练或微调模型的公司直接提供,质量有保障。

提供商 免费额度 代表模型
Cohere 20 RPM, 1K/月 Command A, Command R+, Aya Expanse 32B
Google Gemini 5-15 RPM, 100-1K RPD Gemini 2.5 Pro, Flash, Flash-Lite
Mistral AI 1 req/s, 1B tok/月 Mistral Large 3, Small 3.1, Ministral 8B
Zhipu AI(智谱) 限额未公开 GLM-4.7-Flash, GLM-4.5-Flash, GLM-4.6V-Flash

Inference Providers(第三方托管)

这类平台托管各种开源权重模型,选择更灵活。

提供商 免费额度 代表模型
Cerebras 30 RPM, 14,400 RPD Llama 3.3 70B, Qwen3 235B, GPT-OSS-120B
Groq 30 RPM, 1K RPD Llama 3.3 70B, Llama 4 Scout, Kimi K2(17+ 模型)
OpenRouter 20 RPM, 50 RPD(付费解锁 1K) DeepSeek R1, Llama 3.3 70B, GPT-OSS-120B(29+ 模型)
SiliconFlow(硅基流动) 1K RPM, 50K TPM Qwen3-8B, DeepSeek-R1-Distill-Qwen-7B, GLM-4.1V-9B-Thinking
Hugging Face $0.10/月免费额度 Llama 3.3 70B, Qwen2.5 72B, Mistral 7B
Cloudflare Workers AI 10K neurons/天 Llama 3.3 70B, Qwen QwQ 32B(47+ 模型)
GitHub Models 10-15 RPM, 50-150 RPD GPT-4o, Llama 3.3 70B, DeepSeek-R1
LLM7.io 30 RPM(token 可升至 120) DeepSeek R1, Flash-Lite, Qwen2.5 Coder(27+ 模型)
NVIDIA NIM 40 RPM Llama 3.3 70B, Mistral Large, Qwen3 235B
Ollama Cloud 轻度使用(5小时/7天重置) DeepSeek-V3.2, Qwen3.5, Kimi-K2.5(17+ 模型)
Kluster AI 限额未公开 DeepSeek-R1, Llama 4 Maverick, Qwen3-235B

统一特性

  • 全系 OpenAI SDK 兼容:只需改一行 base URL 即可迁移现有代码
  • 永久免费:不存在过期时间或试用截止
  • 明确标注限流:RPM(每分钟请求数)和 RPD(每天请求数)一目了然
  • 持续更新:最近 8 小时前刚合并了 SiliconFlow 的收录

快速上手

Python 示例(以 Groq 为例)

pip install openai
import openai

client = openai.OpenAI(
    api_key="your-groq-api-key",
    base_url="https://api.groq.com/openai/v1"
)

response = client.chat.completions.create(
    model="llama-3.3-70b-versatile",
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

获取 API Key

每个提供商的 API Key 申请链接都直接列在列表中,点击即可跳转:

适用人群

  • 个人开发者:预算有限,需要免费额度来跑 demo 或小规模项目
  • AI 创业团队:在产品初期用免费额度验证 PMF,控制 API 成本
  • 学生 / 研究者:做实验、写论文不需要付费订阅
  • 多模型路由需求:想对比不同模型效果,OpenRouter 的模型回退机制非常实用

总结

awesome-free-llm-apis 不是一个 SDK,也不是一个 API 聚合平台——它是一份经过审核的免费资源清单。857 个 GitHub stars 证明了社区对它的认可。

对于国内用户来说,SiliconFlow(硅基流动)Zhipu AI(智谱)是特别值得关注的两个选项,前者提供高达 1K RPM、50K TPM 的免费额度,后者则直接提供国产 GLM 系列模型。而如果你需要调用海外模型,Groq 以高速推理著称,Cerebras 则是 70B 大模型免费额度最慷慨的选择。

唯一需要注意的是:免费往往意味着限流。如果你的应用有高并发需求,建议结合使用多个提供商,或在免费额度用尽后考虑付费计划。

© 版权声明

相关文章

暂无评论

none
暂无评论...