Pular para o conteúdo
início / platform / ai-gateway
Hoody Platform

300+ modelos de IA. Uma URL compatível com OpenAI.

ai.hoody.com roda no seu bare metal. Troque a URL base em qualquer cliente OpenAI e seu código funciona com Claude, GPT, Gemini, Llama ou qualquer um dos 15+ provedores de inferência.

Os contêineres autenticam com tokens container-NAME — nenhuma chave de API real nas suas cargas de trabalho. Revogue um contêiner e seu acesso à IA acaba junto.

300+ modelos15+ provedoresCompatível com OpenAI5% de markup
Qualquer código compatível com OpenAI

# Antes (OpenAI direto)

from openai import OpenAI

 

client = OpenAI(

base_url="https://api.openai.com/v1",

api_key="sk-..."

)

Aponte para ai.hoody.com

# Depois (Hoody AI Gateway)

from openai import OpenAI

 

client = OpenAI(

base_url="https://ai.hoody.com/api/v1",

api_key="container-dev-env"

)

início / platform / ai-gateway / provedores
O catálogo de provedores

15+ provedores de inferência. Uma API.

Geração de texto, geração de imagens, embeddings. Cada grande provedor que você teria que conectar separadamente.

AnthropicTexto

Família Claude — Opus, Sonnet, Haiku

OpenAITexto

Família GPT — tiers flagship e otimizados para custo

GoogleTexto

Família Gemini via Vertex AI

MetaTexto

Família Llama — hospedada via parceiros de inferência

MistralTexto

Modelos de peso aberto Mistral + Mixtral

DeepseekTexto

Família V3 e Coder

QwenTexto

Alibaba Qwen — 72B e raciocínio QwQ

CohereEmbed

Família Command R mais embeddings

xAITexto

Família Grok — incluindo tier de visão

PerplexityTexto

Modelos Sonar com fundamentação em web ao vivo

Together AITexto

Plataforma de hospedagem para modelos de peso aberto

Fireworks AITexto

Inferência otimizada para modelos de peso aberto

ReplicateImagem

Flux, SDXL e modelos de visão especializados

Stability AIImagem

Variantes do Stable Diffusion

Mais de 300 modelos no total. Traga Seu Próprio Provedor (§5 abaixo) estende isso para chaves diretas e endpoints locais/privados. Catálogo completo na documentação.

início / platform / ai-gateway / keyless
Auth nativa de contêiner

Nenhuma chave de API real nos seus contêineres.

Cada contêiner recebe uma chave virtual vinculada ao seu nome: `container-NAME`. O token só funciona a partir da infraestrutura em que foi emitido. Exclua o contêiner — o token fica instantaneamente inútil.

Integração de IA tradicional

  • Chave de API real sk-... armazenada em variável de ambiente
  • Vazamentos persistem no histórico do git, logs, Slack
  • A rotação exige atualização coordenada em todas as cargas de trabalho
  • A revogação mata tudo que usa aquela chave

Hoody AI gateway

  • Token container-NAME emitido automaticamente na criação do contêiner
  • O token só funciona dentro do contêiner
  • Rotação = recriar o contêiner com o mesmo nome
  • Revogar contêiner = esse contêiner sumiu e sua chave também

Seguro para repasse a freelancers, projetos paralelos vibe-coded e SaaS para consumidores. O gateway roda no seu bare metal — a Hoody nunca vê seus prompts ou respostas. Zero-knowledge por arquitetura, não por política.

início / platform / ai-gateway / mitm
Camada MITM

Intercepte toda requisição de IA. Empilhe camadas em ordem.

Roteie o gateway pelo hoody-exec para inserir middleware antes da chamada ao provedor. Faça cache barato. Injete contexto. Roteie para o modelo certo. Impeça chamadas de ferramenta destrutivas com aprovação humana. Fan out para outros agentes. Registre tudo. A ordem é um pipeline — cada camada executa antes da próxima, e você escolhe quais precisa.

seu apphoody-exec (pipeline MITM)ai.hoody.comprovedor (Anthropic, OpenAI, …)

1 · Cache de respostas

Hash do prompt; pule a inferência em um acerto. Camada mais barata primeiro.

2 · Injeção de contexto

Adicione system prompts da sua base de conhecimento antes da chamada.

3 · Roteamento por custo

Prompts simples → modelos mais baratos. Prompts difíceis → Claude. 40–70% de economia documentada.

4 · Interceptação de chamadas de ferramenta

Reescreva ou bloqueie chamadas de ferramentas antes de executar. Faça sandbox em escritas de arquivo.

5 · Humano no loop

Paralise ações de alto risco. Envie uma notificação. Aguarde aprovação.

6 · Cascata de agentes

Acione outro hoody-agent via HTTP. Sistemas multi-agente sem orquestrador.

7 · Log de auditoria

Cada requisição + resposta no SQLite para conformidade e depuração.

O motor de regras embutido cobre os padrões MITM comuns sem código. Desça para scripts personalizados do hoody-exec quando uma regra não se encaixa.

início / platform / ai-gateway / byop
Sem lock-in

Traga seu próprio provedor. Opt out do keyless.

A autenticação keyless é o padrão e o caminho seguro. Mas você nunca fica preso: roteie direto para qualquer endpoint compatível com OpenAI — Ollama local, Azure OpenAI, inferência do Hugging Face, um proxy corporativo ou chaves diretas do provedor — definindo variáveis de ambiente dentro do contêiner. Este é o opt-out explícito do keyless, não um modo paralelo.

Ambiente do contêiner — opt out do keyless

# direct provider keys

ANTHROPIC_API_KEY=sk-ant-...

OPENAI_API_KEY=sk-...

 

# point at local Ollama

OPENAI_BASE_URL=http://localhost:11434/v1

 

# or Azure / enterprise proxy

OPENAI_BASE_URL=https://your-proxy.internal/v1

Chaves diretas do provedor (bypass do gateway)Ollama local (OPENAI_BASE_URL)Azure OpenAIProxy corporativo compatível com OpenAI
início / platform / ai-gateway / vs
vs gateways de IA comerciais

O que você teria que montar por conta própria

LiteLLM, Portkey, OpenRouter e contas diretas de provedores cada um resolve parte do que o gateway resolve em uma única superfície rodando no seu próprio hardware.

NecessidadeHoody AI GatewayGateway comercial / DIY
Onde rodasuportado nativamenteSeu bare metalCloud do fornecedor (LiteLLM SaaS, Portkey)
Auth com escopo de contêinersuportado nativamentetokens container-NAMEChaves de API compartilhadas + RBAC
Traga seu próprio provedorsuportado nativamenteQualquer endpoint compatível com OpenAIPrincipalmente sim, varia por fornecedor
Regras MITM + scriptssuportado nativamenteMotor de regras embutido + scripts hoody-execTier pago ou proxy externo
Compatível com OpenAIsuportado nativamenteSimSim (maioria das alternativas)
Precificaçãosuportado nativamente5% de markup sobre o custo do provedorTaxas por chamada + SaaS por assento
Integrado com infra + carteirasuportado nativamenteCarteira única, superfície de API únicaCobrança e operações separadas

Quando seu stack já está no LiteLLM ou OpenRouter e você não quer rodar um gateway, eles continuam sendo melhores. O Hoody AI Gateway ganha seu espaço quando você quer auth com escopo de contêiner, MITM nativo e o modelo de carteira de dois saldos — Saldo Geral financia o servidor (Stripe/cripto/banco), Saldo de IA financia o gateway, com transferências unidirecionais General → IA e uma fatura cobrindo ambos.

início / platform / ai-gateway / começar
Começar

Claude em uma mudança de base_url.

Crie um contêiner, defina a URL base como https://ai.hoody.com/api/v1, use container-NAME como bearer. Toda biblioteca compatível com OpenAI já sabe o que fazer.

Catálogo de modelos

Veja também — /platform/control-plane para emissão de tokens e carteira, /platform/proxy para a camada de URL por baixo.