Ir al contenido
inicio / methods / ai-native
Método transversal

Los LLMs ya conocen HTTP. Ese es todo el sustrato.

Cada capacidad de Hoody es una llamada HTTP. Un LLM entrenado con el internet público ya conoce curl, JSON y las convenciones REST. Sin puente de SDK. Sin adaptador MCP que escribir. El agente puede operar la plataforma en su primer turno de razonamiento.

HTTP en todas partes · 100+ endpoints por contenedor · arquitectura de pares · agentes que crean agentes

HTTP es el SDK100+ endpoints por contenedorPar, no jerárquicoAgente = ejecutor, no sugeridor
inicio / methods / ai-native / http-language
HTTP = lenguaje de IA

El protocolo con el que los LLMs ya fueron entrenados.

Cada GPT, Claude, Gemini y Llama ha leído millones de ejemplos HTTP durante el preentrenamiento — comandos curl, endpoints REST, cuerpos JSON, códigos de estado. Conocen la gramática de forma nativa. Hoody expone la plataforma a través de esa gramática para que nada necesite ser puenteado.

Sin paso de generación de SDK

Los clientes de Hoody no necesitan un SDK. El LLM lee la spec OpenAPI o simplemente la documentación, y luego emite curl. Funciona con todos los modelos — hoy y mañana.

Los adaptadores MCP se vuelven opcionales

El cliente MCP (/platform/mcp) amplía el conjunto de herramientas del agente con servidores de terceros. Pero la propia plataforma Hoody es accesible vía HTTP puro — sin capa de traducción.

OpenAPI es el contrato

Cada servicio Kit expone /openapi.json. Los agentes leen la spec, conocen los esquemas y llaman a los endpoints. Auto-documentado por construcción.

Depuración legible por humanos

¿El agente cometió un error? Mira el curl que generó. La traza tiene el mismo formato que un operador humano escribiría a mano.

inicio / methods / ai-native / endpoints
Endpoints por contenedor

Cada contenedor da a un agente cien herramientas al llegar.

Los servicios Kit exponen ~100+ endpoints HTTP documentados por contenedor. Ejecución en terminal, operaciones de archivos, consultas SQL, automatización del navegador, despliegue de scripts, capturas de pantalla de display, notificaciones. Un agente que se conecta a un contenedor Hoody tiene acceso programático inmediato a todo lo que tiene un desarrollador humano.

15+Terminal

Ejecutar comandos, transmitir output, capturar sesiones, exportar historial

25+Files

Leer, escribir, buscar, comprimir, transferir entre 60+ backends cloud

30+Exec

Desplegar scripts como APIs HTTP, ejecutar con auth, cachear resultados

20+SQLite

Consultar, mutar, introspeccionar esquemas, escrituras seguras ante concurrencia

15+Browser

Navegar, hacer captura de pantalla, interactuar, hacer scraping, rellenar formularios

20+Display

Captura de pantalla X11, listar ventanas, observar estado de GUI

inicio / methods / ai-native / peer
Arquitectura de pares

Los contenedores son pares. Los agentes se hablan directamente entre sí.

No hay orquestador central. Un agente en el contenedor A puede abrir la URL del contenedor B, leer sus archivos, correr su terminal, consultar su SQLite — mientras tenga la URL y la auth. Los sistemas multi-agente emergen del HTTP, no de una capa de coordinación encima.

Cascada de agentes

El agente A activa al agente B vía HTTP. B hace trabajo especializado y devuelve. La jerarquía emerge de la función, no de la arquitectura.

Paralelismo fan-out

El agente A crea 10 copias de una tarea en 10 contenedores. Cada uno es un agente independiente operando en aislamiento.

Cadena de revisión

El agente A escribe código. El agente B revisa abriendo los archivos de A. El agente C corre tests haciendo POST a exec.

Agentes especialistas

Un agente dedicado al trabajo en filesystem. Otro a la base de datos. Otro al navegador. Hablan por HTTP, no en proceso.

inicio / methods / ai-native / executor
IA como ejecutor

El agente no sugiere. Despliega.

Las configuraciones de agentes legacy se detienen en 'dile al humano qué ejecutar'. Los agentes de Hoody ejecutan el comando ellos mismos. El camino de fallo es rollback vía snapshot, no miedo a hacer cambios — lo que cambia para qué es realmente útil un agente.

1

Razonar

El agente lee, piensa, planifica — igual que cualquier bucle LLM.

2

Actuar

El agente hace POST a terminal / exec / files / sqlite. El comando corre en producción.

3

Observar

El agente lee la respuesta, el código de salida, el cambio en el filesystem, el stderr. Feedback del mundo real.

4

Recuperar

¿Algo se rompió? PATCH a un snapshot (/methods/data-state) hace el rollback. Seguro tomar riesgos.

inicio / methods / ai-native / spawning
Creación de agentes

Los agentes crean contenedores. Los contenedores corren agentes.

Como la creación de contenedores es un único POST HTTP, un agente puede crear nuevos contenedores bajo demanda. El sistema multi-agente es emergente — sin orquestador. Los contenedores pueden ser trabajadores de scratch de corta duración, especialistas de larga duración o cualquier cosa intermedia.

1

El agente decide paralelizar

La tarea es probar 10 ramas en hipótesis. El agente reconoce la oportunidad de fan-out.

2

POST /projects/ID/containers × 10

Diez nuevos contenedores, cada uno con su propia instancia de agente.

3

Despachar

Cada trabajador recibe una rama diferente. Los agentes trabajan en paralelo, reportando al contenedor padre.

4

Teardown

El ganador sigue corriendo. Los perdedores reciben DELETE. Costo: casi cero por contenedor desechable.

inicio / methods / ai-native / training
Datos de entrenamiento

Cada llamada HTTP son futuros datos de entrenamiento.

Cuando todas las operaciones son solicitudes HTTP, todas se capturan como logs del proxy por defecto. El flujo de trabajo de un usuario se convierte en un dataset estructurado de tuplas (prompt, acción, resultado) — sin ninguna instrumentación. Esto es lo que hace la plataforma AI-native, no solo AI-compatible.

Cada acción en logs del proxy

Los logs del proxy capturan método, ruta, cuerpo (opcional), respuesta. Cada operación es trazable.

Estructurado por defecto

Las solicitudes y respuestas JSON ya tienen la forma correcta para pipelines de fine-tuning supervisado o RLHF.

Tus datos, tu entrenamiento

Los logs permanecen en tu bare metal. Hoody no ve nada a menos que exportes.

Infraestructura auto-construible

Los scripts MITM pueden generar documentación, optimizar endpoints o predecir las solicitudes más comunes siguientes a partir del historial de logs.

inicio / methods / ai-native / empezar
Empezar

Dale curl a un LLM y ya sabe cómo usarlo.

Dale a tu agente una URL de contenedor Hoody y un token. Ahora puede ejecutar comandos, escribir archivos, consultar bases de datos, crear más contenedores — todo desde el protocolo con el que fue entrenado.

Guía de agentes

Ver también — /platform/ai-gateway para el lado del modelo, /platform/mcp para integración de herramientas externas, /kit/agent para el runtime del agente.