Ir al contenido
inicio / platform / ai-gateway
Hoody Platform

Más de 300 modelos de IA. Una URL compatible con OpenAI.

ai.hoody.com corre en tu bare metal. Cambia la base URL en cualquier cliente OpenAI y tu código funciona contra Claude, GPT, Gemini, Llama, o cualquiera de 15+ proveedores de inferencia.

Los contenedores se autentican con tokens container-NAME: sin claves API reales en tus cargas de trabajo. Revoca un contenedor y su acceso a la IA desaparece con él.

Más de 300 modelos15+ proveedoresCompatible con OpenAI5% de margen
Cualquier código compatible con OpenAI

# Antes (OpenAI directo)

from openai import OpenAI

 

client = OpenAI(

base_url="https://api.openai.com/v1",

api_key="sk-..."

)

Apúntalo a ai.hoody.com

# Después (Hoody AI Gateway)

from openai import OpenAI

 

client = OpenAI(

base_url="https://ai.hoody.com/api/v1",

api_key="container-dev-env"

)

inicio / platform / ai-gateway / providers
El catálogo de proveedores

15+ proveedores de inferencia. Una API.

Generación de texto, generación de imágenes, embeddings. Todos los principales proveedores que de otro modo conectarías por separado.

AnthropicTexto

Familia Claude — Opus, Sonnet, Haiku

OpenAITexto

Familia GPT — tiers flagship y optimizados por coste

GoogleTexto

Familia Gemini vía Vertex AI

MetaTexto

Familia Llama — alojada vía socios de inferencia

MistralTexto

Modelos de peso abierto Mistral + Mixtral

DeepseekTexto

Familia V3 y Coder

QwenTexto

Alibaba Qwen — 72B y razonamiento QwQ

CohereEmbeddings

Familia Command R más embeddings

xAITexto

Familia Grok — incluido el tier de visión

PerplexityTexto

Modelos Sonar con grounding en web en tiempo real

Together AITexto

Plataforma de hosting para modelos de peso abierto

Fireworks AITexto

Inferencia optimizada para modelos de peso abierto

ReplicateImagen

Flux, SDXL y modelos de visión especializados

Stability AIImagen

Variantes de Stable Diffusion

Más de 300 modelos en total. Trae tu propio proveedor (§5 abajo) extiende esto a claves directas y endpoints locales/privados. Catálogo completo en la documentación.

inicio / platform / ai-gateway / keyless
Auth nativa del contenedor

Sin claves API reales en tus contenedores.

Cada contenedor obtiene una clave virtual vinculada a su nombre: `container-NAME`. El token solo funciona desde la infraestructura en la que fue emitido. Elimina el contenedor: el token queda inutilizable al instante.

Integración de IA tradicional

  • Clave API sk-... real almacenada en env
  • Las filtraciones perduran en el historial de git, logs y Slack
  • La rotación requiere actualización coordinada en todas las cargas de trabajo
  • La revocación mata todo lo que usa esa clave

Hoody AI gateway

  • Token container-NAME autoemitido al crear el contenedor
  • El token solo funciona desde dentro del contenedor
  • Rotación = recrear el contenedor con el mismo nombre
  • Revocar contenedor = ese contenedor desaparece y su clave también

Seguro para handoff a freelancers, proyectos laterales y SaaS para consumidores. El gateway corre en tu bare metal: Hoody nunca ve tus prompts ni respuestas. Zero-knowledge por arquitectura, no por política.

inicio / platform / ai-gateway / mitm
Capa MITM

Intercepta cada solicitud de IA. Apila capas en orden.

Enruta el gateway a través de hoody-exec para insertar middleware antes de la llamada al proveedor. Almacena en caché lo barato. Inyecta contexto. Enruta al modelo correcto. Bloquea llamadas destructivas de herramientas esperando aprobación humana. Envía a otros agentes. Registra todo. El orden es una pipeline: cada capa corre antes que la siguiente, y tú eliges cuáles necesitas.

tu apphoody-exec (pipeline MITM)ai.hoody.comproveedor (Anthropic, OpenAI, …)

1 · Caché de respuestas

Hashea el prompt; omite la inferencia si hay acierto. La capa más barata va primero.

2 · Inyección de contexto

Antepone system prompts de tu base de conocimiento antes de la llamada.

3 · Enrutamiento por coste

Prompts fáciles → modelos más baratos. Prompts difíciles → Claude. 40-70% de ahorro documentado.

4 · Manipulación de llamadas a herramientas

Reescribe o bloquea llamadas a herramientas antes de que se ejecuten. Sandboxea escrituras de archivos.

5 · Humano en el bucle

Pausa acciones de alto riesgo. Envía una notificación. Espera aprobación.

6 · Cascada de agentes

Dispara otro hoody-agent vía HTTP. Sistemas multi-agente sin orquestador.

7 · Log de auditoría

Cada solicitud + respuesta en SQLite para cumplimiento y depuración.

El motor de reglas integrado cubre los patrones MITM comunes con cero código. Baja a scripts de hoody-exec personalizados cuando una regla no encaja.

inicio / platform / ai-gateway / byop
Sin lock-in

Trae tu propio proveedor. Sal del modo keyless.

La auth keyless es la opción por defecto y la ruta segura. Pero nunca estás encerrado: enruta directamente a cualquier endpoint compatible con OpenAI —Ollama local, Azure OpenAI, inferencia de Hugging Face, un proxy empresarial o claves directas del proveedor— estableciendo variables de entorno dentro del contenedor. Este es el opt-out explícito de keyless, no un modo paralelo.

Entorno del contenedor — opt-out de keyless

# direct provider keys

ANTHROPIC_API_KEY=sk-ant-...

OPENAI_API_KEY=sk-...

 

# point at local Ollama

OPENAI_BASE_URL=http://localhost:11434/v1

 

# or Azure / enterprise proxy

OPENAI_BASE_URL=https://your-proxy.internal/v1

Claves directas del proveedor (saltar gateway)Ollama local (OPENAI_BASE_URL)Azure OpenAIProxy empresarial compatible con OpenAI
inicio / platform / ai-gateway / vs
vs gateways de IA comerciales

Lo que de otro modo tendrías que montar tú mismo

LiteLLM, Portkey, OpenRouter y cuentas directas de proveedores resuelven cada uno parte de lo que el gateway resuelve en una sola superficie corriendo en tu propio hardware.

PreocupaciónHoody AI GatewayGateway comercial / DIY
Dónde correcompatible de forma nativaTu bare metalNube del proveedor (LiteLLM SaaS, Portkey)
Auth con ámbito de contenedorcompatible de forma nativaTokens container-NAMEClaves API compartidas + RBAC
Trae tu propio proveedorcompatible de forma nativaCualquier endpoint compatible con OpenAIMayoritariamente sí, varía por proveedor
Reglas MITM + scriptscompatible de forma nativaMotor de reglas integrado + scripts hoody-execTier de pago o proxy externo
Compatible con OpenAIcompatible de forma nativaSí (la mayoría de alternativas)
Precioscompatible de forma nativa5% de margen sobre el coste del proveedorTarifas por llamada + SaaS por asiento
Integrado con infraestructura + monederocompatible de forma nativaMonedero único, superficie de API únicaFacturación y operaciones separadas

Cuando tu stack ya está en LiteLLM u OpenRouter y no quieres ejecutar un gateway, esas opciones siguen siendo mejores. El Hoody AI Gateway gana su lugar cuando quieres auth con ámbito de contenedor, MITM nativo y un único monedero que cubre infra + gasto en LLM.

inicio / platform / ai-gateway / start
Empezar

Claude en un cambio de base_url.

Crea un contenedor, pon la base URL en https://ai.hoody.com/api/v1, usa container-NAME como bearer. Cada librería compatible con OpenAI ya sabe qué hacer.

Catálogo de modelos

Ver también — /platform/control-plane para la emisión de tokens y el monedero, /platform/proxy para la capa de URL subyacente.