<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LLM on Hanguangwu</title><link>https://hanguangwu.github.io/blog/en/tags/llm/</link><description>Recent content in LLM on Hanguangwu</description><generator>Hugo -- gohugo.io</generator><language>en</language><copyright>hanguangwu</copyright><lastBuildDate>Sat, 03 Jan 2026 15:34:25 -0800</lastBuildDate><atom:link href="https://hanguangwu.github.io/blog/en/tags/llm/index.xml" rel="self" type="application/rss+xml"/><item><title>Free-LLM-API-Resources</title><link>https://hanguangwu.github.io/blog/en/p/free-llm-api-resources/</link><pubDate>Sat, 03 Jan 2026 15:34:25 -0800</pubDate><guid>https://hanguangwu.github.io/blog/en/p/free-llm-api-resources/</guid><description>&lt;h1 id="free-llm-api-resources"&gt;Free LLM API resources
&lt;/h1&gt;&lt;p&gt;This lists various services that provide free access or credits towards API-based LLM usage.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;[!NOTE]&lt;br&gt;
Please don&amp;rsquo;t abuse these services, else we might lose them.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;blockquote&gt;
&lt;p&gt;[!WARNING]&lt;br&gt;
This list explicitly excludes any services that are not legitimate (eg reverse engineers an existing chatbot)&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;a class="link" href="https://github.com/cheahjs/free-llm-api-resources" target="_blank" rel="noopener"
&gt;GitHub-Repo-A list of free LLM inference resources accessible via API.&lt;/a&gt;&lt;/p&gt;
&lt;h2 id="free-providers"&gt;Free Providers
&lt;/h2&gt;&lt;h3 id="openrouter"&gt;&lt;a class="link" href="https://openrouter.ai" target="_blank" rel="noopener"
&gt;OpenRouter&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;a class="link" href="https://openrouter.ai/docs/api-reference/limits" target="_blank" rel="noopener"
&gt;20 requests/minute&lt;br&gt;50 requests/day&lt;br&gt;Up to 1000 requests/day with $10 lifetime topup&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Models share a common quota.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/google/gemma-3-12b-it:free" target="_blank" rel="noopener"
&gt;Gemma 3 12B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/google/gemma-3-27b-it:free" target="_blank" rel="noopener"
&gt;Gemma 3 27B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/google/gemma-3-4b-it:free" target="_blank" rel="noopener"
&gt;Gemma 3 4B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/nousresearch/hermes-3-llama-3.1-405b:free" target="_blank" rel="noopener"
&gt;Hermes 3 Llama 3.1 405B&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/meta-llama/llama-3.1-405b-instruct:free" target="_blank" rel="noopener"
&gt;Llama 3.1 405B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/meta-llama/llama-3.2-3b-instruct:free" target="_blank" rel="noopener"
&gt;Llama 3.2 3B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/meta-llama/llama-3.3-70b-instruct:free" target="_blank" rel="noopener"
&gt;Llama 3.3 70B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/mistralai/mistral-7b-instruct:free" target="_blank" rel="noopener"
&gt;Mistral 7B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/mistralai/mistral-small-3.1-24b-instruct:free" target="_blank" rel="noopener"
&gt;Mistral Small 3.1 24B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/qwen/qwen-2.5-vl-7b-instruct:free" target="_blank" rel="noopener"
&gt;Qwen 2.5 VL 7B Instruct&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/alibaba/tongyi-deepresearch-30b-a3b:free" target="_blank" rel="noopener"
&gt;alibaba/tongyi-deepresearch-30b-a3b:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/allenai/olmo-3-32b-think:free" target="_blank" rel="noopener"
&gt;allenai/olmo-3-32b-think:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/allenai/olmo-3.1-32b-think:free" target="_blank" rel="noopener"
&gt;allenai/olmo-3.1-32b-think:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/arcee-ai/trinity-mini:free" target="_blank" rel="noopener"
&gt;arcee-ai/trinity-mini:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/cognitivecomputations/dolphin-mistral-24b-venice-edition:free" target="_blank" rel="noopener"
&gt;cognitivecomputations/dolphin-mistral-24b-venice-edition:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/deepseek/deepseek-r1-0528:free" target="_blank" rel="noopener"
&gt;deepseek/deepseek-r1-0528:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/google/gemma-3n-e2b-it:free" target="_blank" rel="noopener"
&gt;google/gemma-3n-e2b-it:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/google/gemma-3n-e4b-it:free" target="_blank" rel="noopener"
&gt;google/gemma-3n-e4b-it:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/kwaipilot/kat-coder-pro:free" target="_blank" rel="noopener"
&gt;kwaipilot/kat-coder-pro:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/mistralai/devstral-2512:free" target="_blank" rel="noopener"
&gt;mistralai/devstral-2512:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/moonshotai/kimi-k2:free" target="_blank" rel="noopener"
&gt;moonshotai/kimi-k2:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/nex-agi/deepseek-v3.1-nex-n1:free" target="_blank" rel="noopener"
&gt;nex-agi/deepseek-v3.1-nex-n1:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/nvidia/nemotron-3-nano-30b-a3b:free" target="_blank" rel="noopener"
&gt;nvidia/nemotron-3-nano-30b-a3b:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/nvidia/nemotron-nano-12b-v2-vl:free" target="_blank" rel="noopener"
&gt;nvidia/nemotron-nano-12b-v2-vl:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/nvidia/nemotron-nano-9b-v2:free" target="_blank" rel="noopener"
&gt;nvidia/nemotron-nano-9b-v2:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/openai/gpt-oss-120b:free" target="_blank" rel="noopener"
&gt;openai/gpt-oss-120b:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/openai/gpt-oss-20b:free" target="_blank" rel="noopener"
&gt;openai/gpt-oss-20b:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/qwen/qwen3-4b:free" target="_blank" rel="noopener"
&gt;qwen/qwen3-4b:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/qwen/qwen3-coder:free" target="_blank" rel="noopener"
&gt;qwen/qwen3-coder:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/tngtech/deepseek-r1t-chimera:free" target="_blank" rel="noopener"
&gt;tngtech/deepseek-r1t-chimera:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/tngtech/deepseek-r1t2-chimera:free" target="_blank" rel="noopener"
&gt;tngtech/deepseek-r1t2-chimera:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/tngtech/tng-r1t-chimera:free" target="_blank" rel="noopener"
&gt;tngtech/tng-r1t-chimera:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/xiaomi/mimo-v2-flash:free" target="_blank" rel="noopener"
&gt;xiaomi/mimo-v2-flash:free&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://openrouter.ai/z-ai/glm-4.5-air:free" target="_blank" rel="noopener"
&gt;z-ai/glm-4.5-air:free&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="google-ai-studio"&gt;&lt;a class="link" href="https://aistudio.google.com" target="_blank" rel="noopener"
&gt;Google AI Studio&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;Data is used for training when used outside of the UK/CH/EEA/EU.&lt;/p&gt;
&lt;table&gt;&lt;thead&gt;&lt;tr&gt;&lt;th&gt;Model Name&lt;/th&gt;&lt;th&gt;Model Limits&lt;/th&gt;&lt;/tr&gt;&lt;/thead&gt;&lt;tbody&gt;
&lt;tr&gt;&lt;td&gt;Gemini 3 Flash&lt;/td&gt;&lt;td&gt;250,000 tokens/minute&lt;br&gt;20 requests/day&lt;br&gt;5 requests/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Gemini 2.5 Flash&lt;/td&gt;&lt;td&gt;250,000 tokens/minute&lt;br&gt;20 requests/day&lt;br&gt;5 requests/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Gemini 2.5 Flash-Lite&lt;/td&gt;&lt;td&gt;250,000 tokens/minute&lt;br&gt;20 requests/day&lt;br&gt;10 requests/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Gemma 3 27B Instruct&lt;/td&gt;&lt;td&gt;15,000 tokens/minute&lt;br&gt;14,400 requests/day&lt;br&gt;30 requests/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Gemma 3 12B Instruct&lt;/td&gt;&lt;td&gt;15,000 tokens/minute&lt;br&gt;14,400 requests/day&lt;br&gt;30 requests/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Gemma 3 4B Instruct&lt;/td&gt;&lt;td&gt;15,000 tokens/minute&lt;br&gt;14,400 requests/day&lt;br&gt;30 requests/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Gemma 3 1B Instruct&lt;/td&gt;&lt;td&gt;15,000 tokens/minute&lt;br&gt;14,400 requests/day&lt;br&gt;30 requests/minute&lt;/td&gt;&lt;/tr&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;h3 id="nvidia-nim"&gt;&lt;a class="link" href="https://build.nvidia.com/explore/discover" target="_blank" rel="noopener"
&gt;NVIDIA NIM&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;Phone number verification required.
Models tend to be context window limited.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt; 40 requests/minute&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://build.nvidia.com/models" target="_blank" rel="noopener"
&gt;Various open models&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="mistral-la-plateforme"&gt;&lt;a class="link" href="https://console.mistral.ai/" target="_blank" rel="noopener"
&gt;Mistral (La Plateforme)&lt;/a&gt;
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;Free tier (Experiment plan) requires opting into data training&lt;/li&gt;
&lt;li&gt;Requires phone number verification.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Limits (per-model):&lt;/strong&gt; 1 request/second, 500,000 tokens/minute, 1,000,000,000 tokens/month&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://docs.mistral.ai/getting-started/models/models_overview/" target="_blank" rel="noopener"
&gt;Open and Proprietary Mistral models&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="mistral-codestral"&gt;&lt;a class="link" href="https://codestral.mistral.ai/" target="_blank" rel="noopener"
&gt;Mistral (Codestral)&lt;/a&gt;
&lt;/h3&gt;&lt;ul&gt;
&lt;li&gt;Currently free to use&lt;/li&gt;
&lt;li&gt;Monthly subscription based&lt;/li&gt;
&lt;li&gt;Requires phone number verification&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt; 30 requests/minute, 2,000 requests/day&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Codestral&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="huggingface-inference-providers"&gt;&lt;a class="link" href="https://huggingface.co/docs/inference-providers/en/index" target="_blank" rel="noopener"
&gt;HuggingFace Inference Providers&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;HuggingFace Serverless Inference limited to models smaller than 10GB. Some popular models are supported even if they exceed 10GB.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt; &lt;a class="link" href="https://huggingface.co/docs/inference-providers/en/pricing" target="_blank" rel="noopener"
&gt;$0.10/month in credits&lt;/a&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Various open models across supported providers&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="vercel-ai-gateway"&gt;&lt;a class="link" href="https://vercel.com/docs/ai-gateway" target="_blank" rel="noopener"
&gt;Vercel AI Gateway&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;Routes to various supported providers.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt; &lt;a class="link" href="https://vercel.com/docs/ai-gateway/pricing" target="_blank" rel="noopener"
&gt;$5/month&lt;/a&gt;&lt;/p&gt;
&lt;h3 id="cerebras"&gt;&lt;a class="link" href="https://cloud.cerebras.ai/" target="_blank" rel="noopener"
&gt;Cerebras&lt;/a&gt;
&lt;/h3&gt;&lt;table&gt;&lt;thead&gt;&lt;tr&gt;&lt;th&gt;Model Name&lt;/th&gt;&lt;th&gt;Model Limits&lt;/th&gt;&lt;/tr&gt;&lt;/thead&gt;&lt;tbody&gt;
&lt;tr&gt;&lt;td&gt;gpt-oss-120b&lt;/td&gt;&lt;td&gt;30 requests/minute&lt;br&gt;60,000 tokens/minute&lt;br&gt;900 requests/hour&lt;br&gt;1,000,000 tokens/hour&lt;br&gt;14,400 requests/day&lt;br&gt;1,000,000 tokens/day&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Qwen 3 235B A22B Instruct&lt;/td&gt;&lt;td&gt;30 requests/minute&lt;br&gt;60,000 tokens/minute&lt;br&gt;900 requests/hour&lt;br&gt;1,000,000 tokens/hour&lt;br&gt;14,400 requests/day&lt;br&gt;1,000,000 tokens/day&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Llama 3.3 70B&lt;/td&gt;&lt;td&gt;30 requests/minute&lt;br&gt;64,000 tokens/minute&lt;br&gt;900 requests/hour&lt;br&gt;1,000,000 tokens/hour&lt;br&gt;14,400 requests/day&lt;br&gt;1,000,000 tokens/day&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Qwen 3 32B&lt;/td&gt;&lt;td&gt;30 requests/minute&lt;br&gt;64,000 tokens/minute&lt;br&gt;900 requests/hour&lt;br&gt;1,000,000 tokens/hour&lt;br&gt;14,400 requests/day&lt;br&gt;1,000,000 tokens/day&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Llama 3.1 8B&lt;/td&gt;&lt;td&gt;30 requests/minute&lt;br&gt;60,000 tokens/minute&lt;br&gt;900 requests/hour&lt;br&gt;1,000,000 tokens/hour&lt;br&gt;14,400 requests/day&lt;br&gt;1,000,000 tokens/day&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Z.ai GLM-4.6&lt;/td&gt;&lt;td&gt;10 requests/minute&lt;br&gt;60,000 tokens/minute&lt;br&gt;100 requests/hour&lt;br&gt;100,000 tokens/hour&lt;br&gt;100 requests/day&lt;br&gt;1,000,000 tokens/day&lt;/td&gt;&lt;/tr&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;h3 id="groq"&gt;&lt;a class="link" href="https://console.groq.com" target="_blank" rel="noopener"
&gt;Groq&lt;/a&gt;
&lt;/h3&gt;&lt;table&gt;&lt;thead&gt;&lt;tr&gt;&lt;th&gt;Model Name&lt;/th&gt;&lt;th&gt;Model Limits&lt;/th&gt;&lt;/tr&gt;&lt;/thead&gt;&lt;tbody&gt;
&lt;tr&gt;&lt;td&gt;Allam 2 7B&lt;/td&gt;&lt;td&gt;7,000 requests/day&lt;br&gt;6,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Llama 3.1 8B&lt;/td&gt;&lt;td&gt;14,400 requests/day&lt;br&gt;6,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Llama 3.3 70B&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;12,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Llama 4 Maverick 17B 128E Instruct&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;6,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Llama 4 Scout Instruct&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;30,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Whisper Large v3&lt;/td&gt;&lt;td&gt;7,200 audio-seconds/minute&lt;br&gt;2,000 requests/day&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;Whisper Large v3 Turbo&lt;/td&gt;&lt;td&gt;7,200 audio-seconds/minute&lt;br&gt;2,000 requests/day&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;canopylabs/orpheus-arabic-saudi&lt;/td&gt;&lt;td&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;canopylabs/orpheus-v1-english&lt;/td&gt;&lt;td&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;groq/compound&lt;/td&gt;&lt;td&gt;250 requests/day&lt;br&gt;70,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;groq/compound-mini&lt;/td&gt;&lt;td&gt;250 requests/day&lt;br&gt;70,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;meta-llama/llama-guard-4-12b&lt;/td&gt;&lt;td&gt;14,400 requests/day&lt;br&gt;15,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;meta-llama/llama-prompt-guard-2-22m&lt;/td&gt;&lt;td&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;meta-llama/llama-prompt-guard-2-86m&lt;/td&gt;&lt;td&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;moonshotai/kimi-k2-instruct&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;10,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;moonshotai/kimi-k2-instruct-0905&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;10,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;openai/gpt-oss-120b&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;8,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;openai/gpt-oss-20b&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;8,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;openai/gpt-oss-safeguard-20b&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;8,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;qwen/qwen3-32b&lt;/td&gt;&lt;td&gt;1,000 requests/day&lt;br&gt;6,000 tokens/minute&lt;/td&gt;&lt;/tr&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;h3 id="cohere"&gt;&lt;a class="link" href="https://cohere.com" target="_blank" rel="noopener"
&gt;Cohere&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;a class="link" href="https://docs.cohere.com/docs/rate-limits" target="_blank" rel="noopener"
&gt;20 requests/minute&lt;br&gt;1,000 requests/month&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Models share a common monthly quota.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;c4ai-aya-expanse-32b&lt;/li&gt;
&lt;li&gt;c4ai-aya-expanse-8b&lt;/li&gt;
&lt;li&gt;c4ai-aya-vision-32b&lt;/li&gt;
&lt;li&gt;c4ai-aya-vision-8b&lt;/li&gt;
&lt;li&gt;command-a-03-2025&lt;/li&gt;
&lt;li&gt;command-a-reasoning-08-2025&lt;/li&gt;
&lt;li&gt;command-a-translate-08-2025&lt;/li&gt;
&lt;li&gt;command-a-vision-07-2025&lt;/li&gt;
&lt;li&gt;command-r-08-2024&lt;/li&gt;
&lt;li&gt;command-r-plus-08-2024&lt;/li&gt;
&lt;li&gt;command-r7b-12-2024&lt;/li&gt;
&lt;li&gt;command-r7b-arabic-02-2025&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="github-models"&gt;&lt;a class="link" href="https://github.com/marketplace/models" target="_blank" rel="noopener"
&gt;GitHub Models&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;Extremely restrictive input/output token limits.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt; &lt;a class="link" href="https://docs.github.com/en/github-models/prototyping-with-ai-models#rate-limits" target="_blank" rel="noopener"
&gt;Dependent on Copilot subscription tier (Free/Pro/Pro+/Business/Enterprise)&lt;/a&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI21 Jamba 1.5 Large&lt;/li&gt;
&lt;li&gt;Codestral 25.01&lt;/li&gt;
&lt;li&gt;Cohere Command A&lt;/li&gt;
&lt;li&gt;Cohere Command R 08-2024&lt;/li&gt;
&lt;li&gt;Cohere Command R+ 08-2024&lt;/li&gt;
&lt;li&gt;DeepSeek-R1&lt;/li&gt;
&lt;li&gt;DeepSeek-R1-0528&lt;/li&gt;
&lt;li&gt;DeepSeek-V3-0324&lt;/li&gt;
&lt;li&gt;Grok 3&lt;/li&gt;
&lt;li&gt;Grok 3 Mini&lt;/li&gt;
&lt;li&gt;Llama 4 Maverick 17B 128E Instruct FP8&lt;/li&gt;
&lt;li&gt;Llama 4 Scout 17B 16E Instruct&lt;/li&gt;
&lt;li&gt;Llama-3.2-11B-Vision-Instruct&lt;/li&gt;
&lt;li&gt;Llama-3.2-90B-Vision-Instruct&lt;/li&gt;
&lt;li&gt;Llama-3.3-70B-Instruct&lt;/li&gt;
&lt;li&gt;MAI-DS-R1&lt;/li&gt;
&lt;li&gt;Meta-Llama-3.1-405B-Instruct&lt;/li&gt;
&lt;li&gt;Meta-Llama-3.1-8B-Instruct&lt;/li&gt;
&lt;li&gt;Ministral 3B&lt;/li&gt;
&lt;li&gt;Mistral Medium 3 (25.05)&lt;/li&gt;
&lt;li&gt;Mistral Small 3.1&lt;/li&gt;
&lt;li&gt;OpenAI GPT-4.1&lt;/li&gt;
&lt;li&gt;OpenAI GPT-4.1-mini&lt;/li&gt;
&lt;li&gt;OpenAI GPT-4.1-nano&lt;/li&gt;
&lt;li&gt;OpenAI GPT-4o&lt;/li&gt;
&lt;li&gt;OpenAI GPT-4o mini&lt;/li&gt;
&lt;li&gt;OpenAI Text Embedding 3 (large)&lt;/li&gt;
&lt;li&gt;OpenAI Text Embedding 3 (small)&lt;/li&gt;
&lt;li&gt;OpenAI gpt-5&lt;/li&gt;
&lt;li&gt;OpenAI gpt-5-chat (preview)&lt;/li&gt;
&lt;li&gt;OpenAI gpt-5-mini&lt;/li&gt;
&lt;li&gt;OpenAI gpt-5-nano&lt;/li&gt;
&lt;li&gt;OpenAI o1&lt;/li&gt;
&lt;li&gt;OpenAI o1-mini&lt;/li&gt;
&lt;li&gt;OpenAI o1-preview&lt;/li&gt;
&lt;li&gt;OpenAI o3&lt;/li&gt;
&lt;li&gt;OpenAI o3-mini&lt;/li&gt;
&lt;li&gt;OpenAI o4-mini&lt;/li&gt;
&lt;li&gt;Phi-4&lt;/li&gt;
&lt;li&gt;Phi-4-mini-instruct&lt;/li&gt;
&lt;li&gt;Phi-4-mini-reasoning&lt;/li&gt;
&lt;li&gt;Phi-4-multimodal-instruct&lt;/li&gt;
&lt;li&gt;Phi-4-reasoning&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="cloudflare-workers-ai"&gt;&lt;a class="link" href="https://developers.cloudflare.com/workers-ai" target="_blank" rel="noopener"
&gt;Cloudflare Workers AI&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Limits:&lt;/strong&gt; &lt;a class="link" href="https://developers.cloudflare.com/workers-ai/platform/pricing/#free-allocation" target="_blank" rel="noopener"
&gt;10,000 neurons/day&lt;/a&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;@cf/aisingapore/gemma-sea-lion-v4-27b-it&lt;/li&gt;
&lt;li&gt;@cf/ibm-granite/granite-4.0-h-micro&lt;/li&gt;
&lt;li&gt;@cf/openai/gpt-oss-120b&lt;/li&gt;
&lt;li&gt;@cf/openai/gpt-oss-20b&lt;/li&gt;
&lt;li&gt;@cf/qwen/qwen3-30b-a3b-fp8&lt;/li&gt;
&lt;li&gt;DeepSeek R1 Distill Qwen 32B&lt;/li&gt;
&lt;li&gt;Deepseek Coder 6.7B Base (AWQ)&lt;/li&gt;
&lt;li&gt;Deepseek Coder 6.7B Instruct (AWQ)&lt;/li&gt;
&lt;li&gt;Deepseek Math 7B Instruct&lt;/li&gt;
&lt;li&gt;Discolm German 7B v1 (AWQ)&lt;/li&gt;
&lt;li&gt;Falcom 7B Instruct&lt;/li&gt;
&lt;li&gt;Gemma 2B Instruct (LoRA)&lt;/li&gt;
&lt;li&gt;Gemma 3 12B Instruct&lt;/li&gt;
&lt;li&gt;Gemma 7B Instruct&lt;/li&gt;
&lt;li&gt;Gemma 7B Instruct (LoRA)&lt;/li&gt;
&lt;li&gt;Hermes 2 Pro Mistral 7B&lt;/li&gt;
&lt;li&gt;Llama 2 13B Chat (AWQ)&lt;/li&gt;
&lt;li&gt;Llama 2 7B Chat (FP16)&lt;/li&gt;
&lt;li&gt;Llama 2 7B Chat (INT8)&lt;/li&gt;
&lt;li&gt;Llama 2 7B Chat (LoRA)&lt;/li&gt;
&lt;li&gt;Llama 3 8B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3 8B Instruct (AWQ)&lt;/li&gt;
&lt;li&gt;Llama 3.1 8B Instruct (AWQ)&lt;/li&gt;
&lt;li&gt;Llama 3.1 8B Instruct (FP8)&lt;/li&gt;
&lt;li&gt;Llama 3.2 11B Vision Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.2 1B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.2 3B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.3 70B Instruct (FP8)&lt;/li&gt;
&lt;li&gt;Llama 4 Scout Instruct&lt;/li&gt;
&lt;li&gt;Llama Guard 3 8B&lt;/li&gt;
&lt;li&gt;LlamaGuard 7B (AWQ)&lt;/li&gt;
&lt;li&gt;Mistral 7B Instruct v0.1&lt;/li&gt;
&lt;li&gt;Mistral 7B Instruct v0.1 (AWQ)&lt;/li&gt;
&lt;li&gt;Mistral 7B Instruct v0.2&lt;/li&gt;
&lt;li&gt;Mistral 7B Instruct v0.2 (LoRA)&lt;/li&gt;
&lt;li&gt;Mistral Small 3.1 24B Instruct&lt;/li&gt;
&lt;li&gt;Neural Chat 7B v3.1 (AWQ)&lt;/li&gt;
&lt;li&gt;OpenChat 3.5 0106&lt;/li&gt;
&lt;li&gt;OpenHermes 2.5 Mistral 7B (AWQ)&lt;/li&gt;
&lt;li&gt;Phi-2&lt;/li&gt;
&lt;li&gt;Qwen 1.5 0.5B Chat&lt;/li&gt;
&lt;li&gt;Qwen 1.5 1.8B Chat&lt;/li&gt;
&lt;li&gt;Qwen 1.5 14B Chat (AWQ)&lt;/li&gt;
&lt;li&gt;Qwen 1.5 7B Chat (AWQ)&lt;/li&gt;
&lt;li&gt;Qwen 2.5 Coder 32B Instruct&lt;/li&gt;
&lt;li&gt;Qwen QwQ 32B&lt;/li&gt;
&lt;li&gt;SQLCoder 7B 2&lt;/li&gt;
&lt;li&gt;Starling LM 7B Beta&lt;/li&gt;
&lt;li&gt;TinyLlama 1.1B Chat v1.0&lt;/li&gt;
&lt;li&gt;Una Cybertron 7B v2 (BF16)&lt;/li&gt;
&lt;li&gt;Zephyr 7B Beta (AWQ)&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="google-cloud-vertex-ai"&gt;&lt;a class="link" href="https://console.cloud.google.com/vertex-ai/model-garden" target="_blank" rel="noopener"
&gt;Google Cloud Vertex AI&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;Very stringent payment verification for Google Cloud.&lt;/p&gt;
&lt;table&gt;&lt;thead&gt;&lt;tr&gt;&lt;th&gt;Model Name&lt;/th&gt;&lt;th&gt;Model Limits&lt;/th&gt;&lt;/tr&gt;&lt;/thead&gt;&lt;tbody&gt;
&lt;tr&gt;&lt;td&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/publishers/meta/model-garden/llama-3-2-90b-vision-instruct-maas" target="_blank"&gt;Llama 3.2 90B Vision Instruct&lt;/a&gt;&lt;/td&gt;&lt;td&gt;30 requests/minute&lt;br&gt;Free during preview&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/publishers/meta/model-garden/llama-3-1-405b-instruct-maas" target="_blank"&gt;Llama 3.1 70B Instruct&lt;/a&gt;&lt;/td&gt;&lt;td&gt;60 requests/minute&lt;br&gt;Free during preview&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td&gt;&lt;a href="https://console.cloud.google.com/vertex-ai/publishers/meta/model-garden/llama-3-1-405b-instruct-maas" target="_blank"&gt;Llama 3.1 8B Instruct&lt;/a&gt;&lt;/td&gt;&lt;td&gt;60 requests/minute&lt;br&gt;Free during preview&lt;/td&gt;&lt;/tr&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;h2 id="providers-with-trial-credits"&gt;Providers with trial credits
&lt;/h2&gt;&lt;h3 id="fireworks"&gt;&lt;a class="link" href="https://fireworks.ai/" target="_blank" rel="noopener"
&gt;Fireworks&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $1&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; &lt;a class="link" href="https://fireworks.ai/models" target="_blank" rel="noopener"
&gt;Various open models&lt;/a&gt;&lt;/p&gt;
&lt;h3 id="baseten"&gt;&lt;a class="link" href="https://app.baseten.co/" target="_blank" rel="noopener"
&gt;Baseten&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $30&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; &lt;a class="link" href="https://www.baseten.co/library/" target="_blank" rel="noopener"
&gt;Any supported model - pay by compute time&lt;/a&gt;&lt;/p&gt;
&lt;h3 id="nebius"&gt;&lt;a class="link" href="https://studio.nebius.com/" target="_blank" rel="noopener"
&gt;Nebius&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $1&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; &lt;a class="link" href="https://studio.nebius.ai/models" target="_blank" rel="noopener"
&gt;Various open models&lt;/a&gt;&lt;/p&gt;
&lt;h3 id="novita"&gt;&lt;a class="link" href="https://novita.ai/?ref=ytblmjc&amp;amp;utm_source=affiliate" target="_blank" rel="noopener"
&gt;Novita&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $0.5 for 1 year&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; &lt;a class="link" href="https://novita.ai/models" target="_blank" rel="noopener"
&gt;Various open models&lt;/a&gt;&lt;/p&gt;
&lt;h3 id="ai21"&gt;&lt;a class="link" href="https://studio.ai21.com/" target="_blank" rel="noopener"
&gt;AI21&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $10 for 3 months&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; Jamba family of models&lt;/p&gt;
&lt;h3 id="upstage"&gt;&lt;a class="link" href="https://console.upstage.ai/" target="_blank" rel="noopener"
&gt;Upstage&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $10 for 3 months&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; Solar Pro/Mini&lt;/p&gt;
&lt;h3 id="nlp-cloud"&gt;&lt;a class="link" href="https://nlpcloud.com/home" target="_blank" rel="noopener"
&gt;NLP Cloud&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $15&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Requirements:&lt;/strong&gt; Phone number verification&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; Various open models&lt;/p&gt;
&lt;h3 id="alibaba-cloud-international-model-studio"&gt;&lt;a class="link" href="https://bailian.console.alibabacloud.com/" target="_blank" rel="noopener"
&gt;Alibaba Cloud (International) Model Studio&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; 1 million tokens/model&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; &lt;a class="link" href="https://www.alibabacloud.com/en/product/modelstudio" target="_blank" rel="noopener"
&gt;Various open and proprietary Qwen models&lt;/a&gt;&lt;/p&gt;
&lt;h3 id="modal"&gt;&lt;a class="link" href="https://modal.com" target="_blank" rel="noopener"
&gt;Modal&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $5/month upon sign up, $30/month with payment method added&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; Any supported model - pay by compute time&lt;/p&gt;
&lt;h3 id="inferencenet"&gt;&lt;a class="link" href="https://inference.net" target="_blank" rel="noopener"
&gt;Inference.net&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $1, $25 on responding to email survey&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt; Various open models&lt;/p&gt;
&lt;h3 id="hyperbolic"&gt;&lt;a class="link" href="https://app.hyperbolic.xyz/" target="_blank" rel="noopener"
&gt;Hyperbolic&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $1&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;DeepSeek V3&lt;/li&gt;
&lt;li&gt;DeepSeek V3 0324&lt;/li&gt;
&lt;li&gt;Llama 3 70B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.1 405B Base&lt;/li&gt;
&lt;li&gt;Llama 3.1 405B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.1 70B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.1 8B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.2 3B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.3 70B Instruct&lt;/li&gt;
&lt;li&gt;Pixtral 12B (2409)&lt;/li&gt;
&lt;li&gt;Qwen QwQ 32B&lt;/li&gt;
&lt;li&gt;Qwen2.5 72B Instruct&lt;/li&gt;
&lt;li&gt;Qwen2.5 Coder 32B Instruct&lt;/li&gt;
&lt;li&gt;Qwen2.5 VL 72B Instruct&lt;/li&gt;
&lt;li&gt;Qwen2.5 VL 7B Instruct&lt;/li&gt;
&lt;li&gt;deepseek-ai/deepseek-r1-0528&lt;/li&gt;
&lt;li&gt;openai/gpt-oss-120b&lt;/li&gt;
&lt;li&gt;openai/gpt-oss-120b-turbo&lt;/li&gt;
&lt;li&gt;openai/gpt-oss-20b&lt;/li&gt;
&lt;li&gt;qwen/qwen3-235b-a22b&lt;/li&gt;
&lt;li&gt;qwen/qwen3-235b-a22b-instruct-2507&lt;/li&gt;
&lt;li&gt;qwen/qwen3-coder-480b-a35b-instruct&lt;/li&gt;
&lt;li&gt;qwen/qwen3-next-80b-a3b-instruct&lt;/li&gt;
&lt;li&gt;qwen/qwen3-next-80b-a3b-thinking&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="sambanova-cloud"&gt;&lt;a class="link" href="https://cloud.sambanova.ai/" target="_blank" rel="noopener"
&gt;SambaNova Cloud&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; $5 for 3 months&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;E5-Mistral-7B-Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.1 8B&lt;/li&gt;
&lt;li&gt;Llama 3.3 70B&lt;/li&gt;
&lt;li&gt;Llama 3.3 70B&lt;/li&gt;
&lt;li&gt;Llama-4-Maverick-17B-128E-Instruct&lt;/li&gt;
&lt;li&gt;Qwen/Qwen3-235B&lt;/li&gt;
&lt;li&gt;Qwen/Qwen3-32B&lt;/li&gt;
&lt;li&gt;Whisper-Large-v3&lt;/li&gt;
&lt;li&gt;deepseek-ai/DeepSeek-R1-0528&lt;/li&gt;
&lt;li&gt;deepseek-ai/DeepSeek-R1-Distill-Llama-70B&lt;/li&gt;
&lt;li&gt;deepseek-ai/DeepSeek-V3-0324&lt;/li&gt;
&lt;li&gt;deepseek-ai/DeepSeek-V3.1&lt;/li&gt;
&lt;li&gt;deepseek-ai/DeepSeek-V3.1-Terminus&lt;/li&gt;
&lt;li&gt;openai/gpt-oss-120b&lt;/li&gt;
&lt;li&gt;tbd&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="scaleway-generative-apis"&gt;&lt;a class="link" href="https://console.scaleway.com/generative-api/models" target="_blank" rel="noopener"
&gt;Scaleway Generative APIs&lt;/a&gt;
&lt;/h3&gt;&lt;p&gt;&lt;strong&gt;Credits:&lt;/strong&gt; 1,000,000 free tokens&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Models:&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;BGE-Multilingual-Gemma2&lt;/li&gt;
&lt;li&gt;DeepSeek R1 Distill Llama 70B&lt;/li&gt;
&lt;li&gt;Gemma 3 27B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.1 8B Instruct&lt;/li&gt;
&lt;li&gt;Llama 3.3 70B Instruct&lt;/li&gt;
&lt;li&gt;Mistral Nemo 2407&lt;/li&gt;
&lt;li&gt;Pixtral 12B (2409)&lt;/li&gt;
&lt;li&gt;Whisper Large v3&lt;/li&gt;
&lt;li&gt;gpt-oss-120b&lt;/li&gt;
&lt;li&gt;holo2-30b-a3b&lt;/li&gt;
&lt;li&gt;mistral-small-3.2-24b-instruct-2506&lt;/li&gt;
&lt;li&gt;qwen3-235b-a22b-instruct-2507&lt;/li&gt;
&lt;li&gt;qwen3-coder-30b-a3b-instruct&lt;/li&gt;
&lt;li&gt;qwen3-embedding-8b&lt;/li&gt;
&lt;li&gt;voxtral-small-24b-2507&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>