跳转到内容
主页 / 方法 / AI 原生
横切方法

LLM 已经懂 HTTP。这就是整个基底。

每项 Hoody 能力都是一次 HTTP 调用。在公开互联网上预训练的 LLM 已经知道 curl、JSON 和 REST 规范。无需 SDK 桥接,无需编写 MCP 适配器。智能体在第一个推理轮次即可操作平台。

HTTP 无处不在 · 每容器 100+ 接口 · 对等架构 · 智能体孵化智能体

HTTP 即 SDK每容器 100+ 接口对等,而非层级智能体 = 执行者,而非建议者
主页 / 方法 / AI 原生 / HTTP 语言
HTTP = AI 语言

LLM 已预训练的协议。

每个 GPT、Claude、Gemini 和 Llama 在预训练期间都读了数百万个 HTTP 示例——curl 命令、REST 接口、JSON 请求体、状态码。它们原生掌握了这套语法。Hoody 通过这套语法暴露平台,无需任何桥接。

无需 SDK 生成步骤

Hoody 客户端不需要 SDK。LLM 读取 OpenAPI 规范或文档,然后生成 curl。适用于所有模型——现在和未来。

MCP 适配器变为可选

MCP 客户端(/platform/mcp)通过第三方服务器扩展智能体工具集,但 Hoody 平台本身可通过纯 HTTP 访问——无需转换层。

OpenAPI 即契约

每个套件服务都暴露 /openapi.json。智能体读取规范,了解 Schema,调用接口。构造上自我文档化。

人类可读的调试

智能体犯了错误?查看它生成的 curl,追踪记录与人类操作员手写的格式完全相同。

主页 / 方法 / AI 原生 / 接口
每容器接口

每个容器在智能体到达时立即提供百余件工具。

套件服务每个容器暴露约 100+ 个文档化 HTTP 接口。终端执行、文件操作、SQL 查询、浏览器自动化、脚本部署、显示截图、通知。连接到 Hoody 容器的智能体立即具备人类开发者拥有的一切程序化访问能力。

15+Terminal

执行命令、流式输出、捕获会话、导出历史

25+Files

读写、搜索、压缩、在 60+ 云后端间传输

30+Exec

将脚本部署为 HTTP API,带认证执行,缓存结果

20+SQLite

查询、变更、检视 Schema,并发安全写入

15+Browser

导航、截图、交互、抓取、填写表单

20+Display

X11 截图、列出窗口、观察 GUI 状态

主页 / 方法 / AI 原生 / 对等
对等架构

容器是对等体。智能体直接互相通信。

没有中央编排器。容器 A 中的智能体可以打开容器 B 的 URL,读取其文件,运行其终端,查询其 SQLite——只要有 URL 和认证。多智能体系统从 HTTP 中涌现,而非从顶层的协调层。

智能体级联

智能体 A 通过 HTTP 触发智能体 B,B 完成专项工作后返回结果。层级由功能形成,而非由架构决定。

扇出并行

智能体 A 在 10 个容器中并行分发同一任务,每个都是独立运行的智能体。

审查链

智能体 A 起草代码,智能体 B 通过打开 A 的文件进行审查,智能体 C 通过向 exec POST 来运行测试。

专业化智能体

一个智能体专注文件系统工作,一个专注数据库,一个专注浏览器。它们通过 HTTP 通信,而非进程内通信。

主页 / 方法 / AI 原生 / 执行者
AI 作为执行者

智能体不只是建议,它直接交付。

传统智能体设置止步于「告诉人类要运行什么」。Hoody 智能体自己执行命令。失败路径是通过快照回滚,而不是害怕做出变更——这彻底改变了智能体真正有用的场景。

1

推理

智能体阅读、思考、规划——与任何 LLM 循环相同。

2

行动

智能体向 terminal / exec / files / sqlite POST,命令在生产环境中运行。

3

观察

智能体读取响应、退出码、文件系统变更、stderr,获得真实世界的反馈。

4

恢复

出了问题?PATCH 到快照(/methods/data-state)即可回滚。可以安全地承担风险。

主页 / 方法 / AI 原生 / 孵化
智能体孵化

智能体创建容器。容器运行智能体。

因为容器创建只是一次 HTTP POST,智能体可以按需创建新容器。多智能体系统是涌现的——无需编排器。容器可以是短暂的临时工作节点、长期运行的专业化节点,或介于两者之间的任何形态。

1

智能体决定并行化

任务是对 10 个分支进行假设验证,智能体识别出扇出机会。

2

POST /projects/ID/containers × 10

创建十个新容器,每个都有独立的智能体实例。

3

分发

每个工作节点获得不同的分支,智能体并行工作,向父容器汇报进展。

4

清理

胜出者继续运行,失败者被 DELETE。成本:每个临时容器接近零。

主页 / 方法 / AI 原生 / 训练数据
训练数据

每次 HTTP 调用都是未来的训练数据。

当所有操作都是 HTTP 请求时,它们默认都被捕获为代理日志。用户的工作流自然形成(提示词、行动、结果)元组的结构化数据集——无需任何额外埋点。这正是平台 AI 原生、而非仅仅 AI 兼容的原因。

所有操作记录在代理日志中

代理日志捕获方法、路径、请求体(可选)和响应,每个操作均可追踪。

默认结构化

JSON 请求和响应已是监督微调或 RLHF 流程所需的正确形态。

数据归你,训练归你

日志保留在裸金属服务器上,除非你主动导出,Hoody 不会看到任何内容。

自建基础设施

MITM 脚本可以从日志历史生成文档、优化接口,或预测最常见的下一请求。

主页 / 方法 / AI 原生 / 开始
开始

给 LLM 提供 curl,它已经知道怎么用了。

将 Hoody 容器 URL 和 Token 交给智能体,它现在可以执行命令、写文件、查询数据库、创建更多容器——全部使用它预训练的协议。

智能体指南

另见——/platform/ai-gateway(模型层)、/platform/mcp(外部工具集成)、/kit/agent(智能体运行时)。