Más de 300 modelos de IA. Una URL compatible con OpenAI.
ai.hoody.com corre en tu bare metal. Cambia la base URL en cualquier cliente OpenAI y tu código funciona contra Claude, GPT, Gemini, Llama, o cualquiera de 15+ proveedores de inferencia.
Los contenedores se autentican con tokens container-NAME: sin claves API reales en tus cargas de trabajo. Revoca un contenedor y su acceso a la IA desaparece con él.
# Antes (OpenAI directo)
from openai import OpenAI
client = OpenAI(
base_url="https://api.openai.com/v1",
api_key="sk-..."
)
# Después (Hoody AI Gateway)
from openai import OpenAI
client = OpenAI(
base_url="https://ai.hoody.com/api/v1",
api_key="container-dev-env"
)
15+ proveedores de inferencia. Una API.
Generación de texto, generación de imágenes, embeddings. Todos los principales proveedores que de otro modo conectarías por separado.
Familia Claude — Opus, Sonnet, Haiku
Familia GPT — tiers flagship y optimizados por coste
Familia Gemini vía Vertex AI
Familia Llama — alojada vía socios de inferencia
Modelos de peso abierto Mistral + Mixtral
Familia V3 y Coder
Alibaba Qwen — 72B y razonamiento QwQ
Familia Command R más embeddings
Familia Grok — incluido el tier de visión
Modelos Sonar con grounding en web en tiempo real
Plataforma de hosting para modelos de peso abierto
Inferencia optimizada para modelos de peso abierto
Flux, SDXL y modelos de visión especializados
Variantes de Stable Diffusion
Más de 300 modelos en total. Trae tu propio proveedor (§5 abajo) extiende esto a claves directas y endpoints locales/privados. Catálogo completo en la documentación.
Sin claves API reales en tus contenedores.
Cada contenedor obtiene una clave virtual vinculada a su nombre: `container-NAME`. El token solo funciona desde la infraestructura en la que fue emitido. Elimina el contenedor: el token queda inutilizable al instante.
Integración de IA tradicional
- —Clave API sk-... real almacenada en env
- —Las filtraciones perduran en el historial de git, logs y Slack
- —La rotación requiere actualización coordinada en todas las cargas de trabajo
- —La revocación mata todo lo que usa esa clave
Hoody AI gateway
- —Token container-NAME autoemitido al crear el contenedor
- —El token solo funciona desde dentro del contenedor
- —Rotación = recrear el contenedor con el mismo nombre
- —Revocar contenedor = ese contenedor desaparece y su clave también
Seguro para handoff a freelancers, proyectos laterales y SaaS para consumidores. El gateway corre en tu bare metal: Hoody nunca ve tus prompts ni respuestas. Zero-knowledge por arquitectura, no por política.
Intercepta cada solicitud de IA. Apila capas en orden.
Enruta el gateway a través de hoody-exec para insertar middleware antes de la llamada al proveedor. Almacena en caché lo barato. Inyecta contexto. Enruta al modelo correcto. Bloquea llamadas destructivas de herramientas esperando aprobación humana. Envía a otros agentes. Registra todo. El orden es una pipeline: cada capa corre antes que la siguiente, y tú eliges cuáles necesitas.
1 · Caché de respuestas
Hashea el prompt; omite la inferencia si hay acierto. La capa más barata va primero.
2 · Inyección de contexto
Antepone system prompts de tu base de conocimiento antes de la llamada.
3 · Enrutamiento por coste
Prompts fáciles → modelos más baratos. Prompts difíciles → Claude. 40-70% de ahorro documentado.
4 · Manipulación de llamadas a herramientas
Reescribe o bloquea llamadas a herramientas antes de que se ejecuten. Sandboxea escrituras de archivos.
5 · Humano en el bucle
Pausa acciones de alto riesgo. Envía una notificación. Espera aprobación.
6 · Cascada de agentes
Dispara otro hoody-agent vía HTTP. Sistemas multi-agente sin orquestador.
7 · Log de auditoría
Cada solicitud + respuesta en SQLite para cumplimiento y depuración.
El motor de reglas integrado cubre los patrones MITM comunes con cero código. Baja a scripts de hoody-exec personalizados cuando una regla no encaja.
Trae tu propio proveedor. Sal del modo keyless.
La auth keyless es la opción por defecto y la ruta segura. Pero nunca estás encerrado: enruta directamente a cualquier endpoint compatible con OpenAI —Ollama local, Azure OpenAI, inferencia de Hugging Face, un proxy empresarial o claves directas del proveedor— estableciendo variables de entorno dentro del contenedor. Este es el opt-out explícito de keyless, no un modo paralelo.
# direct provider keys
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
# point at local Ollama
OPENAI_BASE_URL=http://localhost:11434/v1
# or Azure / enterprise proxy
OPENAI_BASE_URL=https://your-proxy.internal/v1
Lo que de otro modo tendrías que montar tú mismo
LiteLLM, Portkey, OpenRouter y cuentas directas de proveedores resuelven cada uno parte de lo que el gateway resuelve en una sola superficie corriendo en tu propio hardware.
| Preocupación | Hoody AI Gateway | Gateway comercial / DIY |
|---|---|---|
| Dónde corre | compatible de forma nativa — Tu bare metal | Nube del proveedor (LiteLLM SaaS, Portkey) |
| Auth con ámbito de contenedor | compatible de forma nativa — Tokens container-NAME | Claves API compartidas + RBAC |
| Trae tu propio proveedor | compatible de forma nativa — Cualquier endpoint compatible con OpenAI | Mayoritariamente sí, varía por proveedor |
| Reglas MITM + scripts | compatible de forma nativa — Motor de reglas integrado + scripts hoody-exec | Tier de pago o proxy externo |
| Compatible con OpenAI | compatible de forma nativa — Sí | Sí (la mayoría de alternativas) |
| Precios | compatible de forma nativa — 5% de margen sobre el coste del proveedor | Tarifas por llamada + SaaS por asiento |
| Integrado con infraestructura + monedero | compatible de forma nativa — Monedero único, superficie de API única | Facturación y operaciones separadas |
Cuando tu stack ya está en LiteLLM u OpenRouter y no quieres ejecutar un gateway, esas opciones siguen siendo mejores. El Hoody AI Gateway gana su lugar cuando quieres auth con ámbito de contenedor, MITM nativo y un único monedero que cubre infra + gasto en LLM.
Claude en un cambio de base_url.
Crea un contenedor, pon la base URL en https://ai.hoody.com/api/v1, usa container-NAME como bearer. Cada librería compatible con OpenAI ya sabe qué hacer.
Ver también — /platform/control-plane para la emisión de tokens y el monedero, /platform/proxy para la capa de URL subyacente.