300+ modelos de IA. Uma URL compatível com OpenAI.
ai.hoody.com roda no seu bare metal. Troque a URL base em qualquer cliente OpenAI e seu código funciona com Claude, GPT, Gemini, Llama ou qualquer um dos 15+ provedores de inferência.
Os contêineres autenticam com tokens container-NAME — nenhuma chave de API real nas suas cargas de trabalho. Revogue um contêiner e seu acesso à IA acaba junto.
# Antes (OpenAI direto)
from openai import OpenAI
client = OpenAI(
base_url="https://api.openai.com/v1",
api_key="sk-..."
)
# Depois (Hoody AI Gateway)
from openai import OpenAI
client = OpenAI(
base_url="https://ai.hoody.com/api/v1",
api_key="container-dev-env"
)
15+ provedores de inferência. Uma API.
Geração de texto, geração de imagens, embeddings. Cada grande provedor que você teria que conectar separadamente.
Família Claude — Opus, Sonnet, Haiku
Família GPT — tiers flagship e otimizados para custo
Família Gemini via Vertex AI
Família Llama — hospedada via parceiros de inferência
Modelos de peso aberto Mistral + Mixtral
Família V3 e Coder
Alibaba Qwen — 72B e raciocínio QwQ
Família Command R mais embeddings
Família Grok — incluindo tier de visão
Modelos Sonar com fundamentação em web ao vivo
Plataforma de hospedagem para modelos de peso aberto
Inferência otimizada para modelos de peso aberto
Flux, SDXL e modelos de visão especializados
Variantes do Stable Diffusion
Mais de 300 modelos no total. Traga Seu Próprio Provedor (§5 abaixo) estende isso para chaves diretas e endpoints locais/privados. Catálogo completo na documentação.
Nenhuma chave de API real nos seus contêineres.
Cada contêiner recebe uma chave virtual vinculada ao seu nome: `container-NAME`. O token só funciona a partir da infraestrutura em que foi emitido. Exclua o contêiner — o token fica instantaneamente inútil.
Integração de IA tradicional
- —Chave de API real sk-... armazenada em variável de ambiente
- —Vazamentos persistem no histórico do git, logs, Slack
- —A rotação exige atualização coordenada em todas as cargas de trabalho
- —A revogação mata tudo que usa aquela chave
Hoody AI gateway
- —Token container-NAME emitido automaticamente na criação do contêiner
- —O token só funciona dentro do contêiner
- —Rotação = recriar o contêiner com o mesmo nome
- —Revogar contêiner = esse contêiner sumiu e sua chave também
Seguro para repasse a freelancers, projetos paralelos vibe-coded e SaaS para consumidores. O gateway roda no seu bare metal — a Hoody nunca vê seus prompts ou respostas. Zero-knowledge por arquitetura, não por política.
Intercepte toda requisição de IA. Empilhe camadas em ordem.
Roteie o gateway pelo hoody-exec para inserir middleware antes da chamada ao provedor. Faça cache barato. Injete contexto. Roteie para o modelo certo. Impeça chamadas de ferramenta destrutivas com aprovação humana. Fan out para outros agentes. Registre tudo. A ordem é um pipeline — cada camada executa antes da próxima, e você escolhe quais precisa.
1 · Cache de respostas
Hash do prompt; pule a inferência em um acerto. Camada mais barata primeiro.
2 · Injeção de contexto
Adicione system prompts da sua base de conhecimento antes da chamada.
3 · Roteamento por custo
Prompts simples → modelos mais baratos. Prompts difíceis → Claude. 40–70% de economia documentada.
4 · Interceptação de chamadas de ferramenta
Reescreva ou bloqueie chamadas de ferramentas antes de executar. Faça sandbox em escritas de arquivo.
5 · Humano no loop
Paralise ações de alto risco. Envie uma notificação. Aguarde aprovação.
6 · Cascata de agentes
Acione outro hoody-agent via HTTP. Sistemas multi-agente sem orquestrador.
7 · Log de auditoria
Cada requisição + resposta no SQLite para conformidade e depuração.
O motor de regras embutido cobre os padrões MITM comuns sem código. Desça para scripts personalizados do hoody-exec quando uma regra não se encaixa.
Traga seu próprio provedor. Opt out do keyless.
A autenticação keyless é o padrão e o caminho seguro. Mas você nunca fica preso: roteie direto para qualquer endpoint compatível com OpenAI — Ollama local, Azure OpenAI, inferência do Hugging Face, um proxy corporativo ou chaves diretas do provedor — definindo variáveis de ambiente dentro do contêiner. Este é o opt-out explícito do keyless, não um modo paralelo.
# direct provider keys
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
# point at local Ollama
OPENAI_BASE_URL=http://localhost:11434/v1
# or Azure / enterprise proxy
OPENAI_BASE_URL=https://your-proxy.internal/v1
O que você teria que montar por conta própria
LiteLLM, Portkey, OpenRouter e contas diretas de provedores cada um resolve parte do que o gateway resolve em uma única superfície rodando no seu próprio hardware.
| Necessidade | Hoody AI Gateway | Gateway comercial / DIY |
|---|---|---|
| Onde roda | suportado nativamente — Seu bare metal | Cloud do fornecedor (LiteLLM SaaS, Portkey) |
| Auth com escopo de contêiner | suportado nativamente — tokens container-NAME | Chaves de API compartilhadas + RBAC |
| Traga seu próprio provedor | suportado nativamente — Qualquer endpoint compatível com OpenAI | Principalmente sim, varia por fornecedor |
| Regras MITM + scripts | suportado nativamente — Motor de regras embutido + scripts hoody-exec | Tier pago ou proxy externo |
| Compatível com OpenAI | suportado nativamente — Sim | Sim (maioria das alternativas) |
| Precificação | suportado nativamente — 5% de markup sobre o custo do provedor | Taxas por chamada + SaaS por assento |
| Integrado com infra + carteira | suportado nativamente — Carteira única, superfície de API única | Cobrança e operações separadas |
Quando seu stack já está no LiteLLM ou OpenRouter e você não quer rodar um gateway, eles continuam sendo melhores. O Hoody AI Gateway ganha seu espaço quando você quer auth com escopo de contêiner, MITM nativo e o modelo de carteira de dois saldos — Saldo Geral financia o servidor (Stripe/cripto/banco), Saldo de IA financia o gateway, com transferências unidirecionais General → IA e uma fatura cobrindo ambos.
Claude em uma mudança de base_url.
Crie um contêiner, defina a URL base como https://ai.hoody.com/api/v1, use container-NAME como bearer. Toda biblioteca compatível com OpenAI já sabe o que fazer.
Veja também — /platform/control-plane para emissão de tokens e carteira, /platform/proxy para a camada de URL por baixo.