Los LLMs ya conocen HTTP. Ese es todo el sustrato.
Cada capacidad de Hoody es una llamada HTTP. Un LLM entrenado con el internet público ya conoce curl, JSON y las convenciones REST. Sin puente de SDK. Sin adaptador MCP que escribir. El agente puede operar la plataforma en su primer turno de razonamiento.
HTTP en todas partes · 100+ endpoints por contenedor · arquitectura de pares · agentes que crean agentes
El protocolo con el que los LLMs ya fueron entrenados.
Cada GPT, Claude, Gemini y Llama ha leído millones de ejemplos HTTP durante el preentrenamiento — comandos curl, endpoints REST, cuerpos JSON, códigos de estado. Conocen la gramática de forma nativa. Hoody expone la plataforma a través de esa gramática para que nada necesite ser puenteado.
Sin paso de generación de SDK
Los clientes de Hoody no necesitan un SDK. El LLM lee la spec OpenAPI o simplemente la documentación, y luego emite curl. Funciona con todos los modelos — hoy y mañana.
Los adaptadores MCP se vuelven opcionales
El cliente MCP (/platform/mcp) amplía el conjunto de herramientas del agente con servidores de terceros. Pero la propia plataforma Hoody es accesible vía HTTP puro — sin capa de traducción.
OpenAPI es el contrato
Cada servicio Kit expone /openapi.json. Los agentes leen la spec, conocen los esquemas y llaman a los endpoints. Auto-documentado por construcción.
Depuración legible por humanos
¿El agente cometió un error? Mira el curl que generó. La traza tiene el mismo formato que un operador humano escribiría a mano.
Cada contenedor da a un agente cien herramientas al llegar.
Los servicios Kit exponen ~100+ endpoints HTTP documentados por contenedor. Ejecución en terminal, operaciones de archivos, consultas SQL, automatización del navegador, despliegue de scripts, capturas de pantalla de display, notificaciones. Un agente que se conecta a un contenedor Hoody tiene acceso programático inmediato a todo lo que tiene un desarrollador humano.
Ejecutar comandos, transmitir output, capturar sesiones, exportar historial
Leer, escribir, buscar, comprimir, transferir entre 60+ backends cloud
Desplegar scripts como APIs HTTP, ejecutar con auth, cachear resultados
Consultar, mutar, introspeccionar esquemas, escrituras seguras ante concurrencia
Navegar, hacer captura de pantalla, interactuar, hacer scraping, rellenar formularios
Captura de pantalla X11, listar ventanas, observar estado de GUI
Los contenedores son pares. Los agentes se hablan directamente entre sí.
No hay orquestador central. Un agente en el contenedor A puede abrir la URL del contenedor B, leer sus archivos, correr su terminal, consultar su SQLite — mientras tenga la URL y la auth. Los sistemas multi-agente emergen del HTTP, no de una capa de coordinación encima.
Cascada de agentes
El agente A activa al agente B vía HTTP. B hace trabajo especializado y devuelve. La jerarquía emerge de la función, no de la arquitectura.
Paralelismo fan-out
El agente A crea 10 copias de una tarea en 10 contenedores. Cada uno es un agente independiente operando en aislamiento.
Cadena de revisión
El agente A escribe código. El agente B revisa abriendo los archivos de A. El agente C corre tests haciendo POST a exec.
Agentes especialistas
Un agente dedicado al trabajo en filesystem. Otro a la base de datos. Otro al navegador. Hablan por HTTP, no en proceso.
El agente no sugiere. Despliega.
Las configuraciones de agentes legacy se detienen en 'dile al humano qué ejecutar'. Los agentes de Hoody ejecutan el comando ellos mismos. El camino de fallo es rollback vía snapshot, no miedo a hacer cambios — lo que cambia para qué es realmente útil un agente.
Razonar
El agente lee, piensa, planifica — igual que cualquier bucle LLM.
Actuar
El agente hace POST a terminal / exec / files / sqlite. El comando corre en producción.
Observar
El agente lee la respuesta, el código de salida, el cambio en el filesystem, el stderr. Feedback del mundo real.
Recuperar
¿Algo se rompió? PATCH a un snapshot (/methods/data-state) hace el rollback. Seguro tomar riesgos.
Los agentes crean contenedores. Los contenedores corren agentes.
Como la creación de contenedores es un único POST HTTP, un agente puede crear nuevos contenedores bajo demanda. El sistema multi-agente es emergente — sin orquestador. Los contenedores pueden ser trabajadores de scratch de corta duración, especialistas de larga duración o cualquier cosa intermedia.
El agente decide paralelizar
La tarea es probar 10 ramas en hipótesis. El agente reconoce la oportunidad de fan-out.
POST /projects/ID/containers × 10
Diez nuevos contenedores, cada uno con su propia instancia de agente.
Despachar
Cada trabajador recibe una rama diferente. Los agentes trabajan en paralelo, reportando al contenedor padre.
Teardown
El ganador sigue corriendo. Los perdedores reciben DELETE. Costo: casi cero por contenedor desechable.
Cada llamada HTTP son futuros datos de entrenamiento.
Cuando todas las operaciones son solicitudes HTTP, todas se capturan como logs del proxy por defecto. El flujo de trabajo de un usuario se convierte en un dataset estructurado de tuplas (prompt, acción, resultado) — sin ninguna instrumentación. Esto es lo que hace la plataforma AI-native, no solo AI-compatible.
Cada acción en logs del proxy
Los logs del proxy capturan método, ruta, cuerpo (opcional), respuesta. Cada operación es trazable.
Estructurado por defecto
Las solicitudes y respuestas JSON ya tienen la forma correcta para pipelines de fine-tuning supervisado o RLHF.
Tus datos, tu entrenamiento
Los logs permanecen en tu bare metal. Hoody no ve nada a menos que exportes.
Infraestructura auto-construible
Los scripts MITM pueden generar documentación, optimizar endpoints o predecir las solicitudes más comunes siguientes a partir del historial de logs.
Dale curl a un LLM y ya sabe cómo usarlo.
Dale a tu agente una URL de contenedor Hoody y un token. Ahora puede ejecutar comandos, escribir archivos, consultar bases de datos, crear más contenedores — todo desde el protocolo con el que fue entrenado.
Ver también — /platform/ai-gateway para el lado del modelo, /platform/mcp para integración de herramientas externas, /kit/agent para el runtime del agente.