LLM 已经懂 HTTP。这就是整个基底。
每项 Hoody 能力都是一次 HTTP 调用。在公开互联网上预训练的 LLM 已经知道 curl、JSON 和 REST 规范。无需 SDK 桥接,无需编写 MCP 适配器。智能体在第一个推理轮次即可操作平台。
HTTP 无处不在 · 每容器 100+ 接口 · 对等架构 · 智能体孵化智能体
LLM 已预训练的协议。
每个 GPT、Claude、Gemini 和 Llama 在预训练期间都读了数百万个 HTTP 示例——curl 命令、REST 接口、JSON 请求体、状态码。它们原生掌握了这套语法。Hoody 通过这套语法暴露平台,无需任何桥接。
无需 SDK 生成步骤
Hoody 客户端不需要 SDK。LLM 读取 OpenAPI 规范或文档,然后生成 curl。适用于所有模型——现在和未来。
MCP 适配器变为可选
MCP 客户端(/platform/mcp)通过第三方服务器扩展智能体工具集,但 Hoody 平台本身可通过纯 HTTP 访问——无需转换层。
OpenAPI 即契约
每个套件服务都暴露 /openapi.json。智能体读取规范,了解 Schema,调用接口。构造上自我文档化。
人类可读的调试
智能体犯了错误?查看它生成的 curl,追踪记录与人类操作员手写的格式完全相同。
每个容器在智能体到达时立即提供百余件工具。
套件服务每个容器暴露约 100+ 个文档化 HTTP 接口。终端执行、文件操作、SQL 查询、浏览器自动化、脚本部署、显示截图、通知。连接到 Hoody 容器的智能体立即具备人类开发者拥有的一切程序化访问能力。
执行命令、流式输出、捕获会话、导出历史
读写、搜索、压缩、在 60+ 云后端间传输
将脚本部署为 HTTP API,带认证执行,缓存结果
查询、变更、检视 Schema,并发安全写入
导航、截图、交互、抓取、填写表单
X11 截图、列出窗口、观察 GUI 状态
容器是对等体。智能体直接互相通信。
没有中央编排器。容器 A 中的智能体可以打开容器 B 的 URL,读取其文件,运行其终端,查询其 SQLite——只要有 URL 和认证。多智能体系统从 HTTP 中涌现,而非从顶层的协调层。
智能体级联
智能体 A 通过 HTTP 触发智能体 B,B 完成专项工作后返回结果。层级由功能形成,而非由架构决定。
扇出并行
智能体 A 在 10 个容器中并行分发同一任务,每个都是独立运行的智能体。
审查链
智能体 A 起草代码,智能体 B 通过打开 A 的文件进行审查,智能体 C 通过向 exec POST 来运行测试。
专业化智能体
一个智能体专注文件系统工作,一个专注数据库,一个专注浏览器。它们通过 HTTP 通信,而非进程内通信。
智能体不只是建议,它直接交付。
传统智能体设置止步于「告诉人类要运行什么」。Hoody 智能体自己执行命令。失败路径是通过快照回滚,而不是害怕做出变更——这彻底改变了智能体真正有用的场景。
推理
智能体阅读、思考、规划——与任何 LLM 循环相同。
行动
智能体向 terminal / exec / files / sqlite POST,命令在生产环境中运行。
观察
智能体读取响应、退出码、文件系统变更、stderr,获得真实世界的反馈。
恢复
出了问题?PATCH 到快照(/methods/data-state)即可回滚。可以安全地承担风险。
智能体创建容器。容器运行智能体。
因为容器创建只是一次 HTTP POST,智能体可以按需创建新容器。多智能体系统是涌现的——无需编排器。容器可以是短暂的临时工作节点、长期运行的专业化节点,或介于两者之间的任何形态。
智能体决定并行化
任务是对 10 个分支进行假设验证,智能体识别出扇出机会。
POST /projects/ID/containers × 10
创建十个新容器,每个都有独立的智能体实例。
分发
每个工作节点获得不同的分支,智能体并行工作,向父容器汇报进展。
清理
胜出者继续运行,失败者被 DELETE。成本:每个临时容器接近零。
每次 HTTP 调用都是未来的训练数据。
当所有操作都是 HTTP 请求时,它们默认都被捕获为代理日志。用户的工作流自然形成(提示词、行动、结果)元组的结构化数据集——无需任何额外埋点。这正是平台 AI 原生、而非仅仅 AI 兼容的原因。
所有操作记录在代理日志中
代理日志捕获方法、路径、请求体(可选)和响应,每个操作均可追踪。
默认结构化
JSON 请求和响应已是监督微调或 RLHF 流程所需的正确形态。
数据归你,训练归你
日志保留在裸金属服务器上,除非你主动导出,Hoody 不会看到任何内容。
自建基础设施
MITM 脚本可以从日志历史生成文档、优化接口,或预测最常见的下一请求。
给 LLM 提供 curl,它已经知道怎么用了。
将 Hoody 容器 URL 和 Token 交给智能体,它现在可以执行命令、写文件、查询数据库、创建更多容器——全部使用它预训练的协议。
另见——/platform/ai-gateway(模型层)、/platform/mcp(外部工具集成)、/kit/agent(智能体运行时)。