300+ AI 模型。统一 OpenAI 兼容 URL。
ai.hoody.com 运行在裸金属服务器上。在任意 OpenAI 客户端中替换 base URL,代码即可访问 Claude、GPT、Gemini、Llama 或任何 15+ 推理提供商。
容器使用 container-NAME Token 进行认证——工作负载中无需真实 API 密钥。删除容器,其 AI 访问权限随即失效。
# 之前(OpenAI 直连)
from openai import OpenAI
client = OpenAI(
base_url="https://api.openai.com/v1",
api_key="sk-..."
)
# 之后(Hoody AI 网关)
from openai import OpenAI
client = OpenAI(
base_url="https://ai.hoody.com/api/v1",
api_key="container-dev-env"
)
15+ 推理提供商。统一 API。
文本生成、图像生成、嵌入。涵盖所有主流服务商,否则需逐一接入。
Claude 系列——Opus、Sonnet、Haiku
GPT 系列——旗舰版和性价比优化版
通过 Vertex AI 提供的 Gemini 系列
Llama 系列——通过推理合作伙伴托管
Mistral + Mixtral 开放权重模型
V3 及 Coder 系列
阿里 Qwen——72B 与 QwQ 推理模型
Command R 系列及嵌入模型
Grok 系列——含视觉版
带实时网络检索的 Sonar 模型
开放权重模型托管平台
开放权重模型优化推理
Flux、SDXL 及专项视觉模型
Stable Diffusion 各版本
共 300+ 个模型。通过自带服务商(下方第 5 节)可扩展至直接密钥及本地/私有端点。完整目录见文档。
容器中无需真实 API 密钥。
每个容器获得与名称绑定的虚拟密钥:`container-NAME`。该 Token 只能从其发放所在的基础设施内部使用。删除容器——Token 立即失效。
传统 AI 集成
- —真实 sk-... API 密钥存储于环境变量
- —泄漏会持续存在于 git 历史、日志、Slack 中
- —轮换需要在所有工作负载间协调更新
- —撤销会终止所有使用该密钥的服务
Hoody AI 网关
- —容器创建时自动签发 container-NAME Token
- —Token 只能从容器内部使用
- —轮换 = 用相同名称重新创建容器
- —删除容器 = 容器消失,密钥同时失效
适用于自由职业者交接、快速搭建的副项目和消费者 SaaS。网关运行在裸金属服务器上——Hoody 从不接触提示词或响应。架构层面的零知识,而非策略承诺。
拦截每次 AI 请求。按序堆叠中间层。
将网关通过 hoody-exec 路由,在服务商调用前插入中间件。低成本缓存,注入上下文,路由到合适模型,对破坏性工具调用设置人工审批关卡,分发到其他智能体,记录一切。顺序即管道——每一层在下一层之前运行,按需选择所需层级。
1 · 响应缓存
对提示词进行哈希;命中时跳过推理。最便宜的层,优先执行。
2 · 上下文注入
在调用前从知识库预置系统提示词。
3 · 成本路由
简单提示词 → 廉价模型。复杂提示词 → Claude。已记录节省 40–70%。
4 · 工具调用拦截
在工具调用执行前重写或屏蔽。沙箱化文件写入。
5 · 人工介入
暂停高风险操作。推送通知。等待审批。
6 · 智能体级联
通过 HTTP 触发另一个 hoody-agent。无需编排器的多智能体系统。
7 · 审计日志
将每次请求和响应写入 SQLite,用于合规和调试。
内置规则引擎以零代码覆盖常见 MITM 模式。当规则不适用时,回落到自定义 hoody-exec 脚本。
自带服务商。选择退出无密钥模式。
无密钥认证是默认且安全的路径。但你永不被锁定:通过在容器内设置环境变量,可直接路由到任意 OpenAI 兼容端点——本地 Ollama、Azure OpenAI、Hugging Face 推理、企业代理,或直接使用服务商密钥。这是明确的选择退出,而非并行模式。
# direct provider keys
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
# point at local Ollama
OPENAI_BASE_URL=http://localhost:11434/v1
# or Azure / enterprise proxy
OPENAI_BASE_URL=https://your-proxy.internal/v1
否则你需要自行拼凑的东西
LiteLLM、Portkey、OpenRouter 和直接服务商账户各自解决了网关在单一界面上解决的部分问题,且运行在你自己的硬件上。
| 场景 | Hoody AI 网关 | 商业网关 / 自建 |
|---|---|---|
| 运行位置 | 原生支持 — 裸金属服务器 | 供应商云(LiteLLM SaaS、Portkey) |
| 容器作用域认证 | 原生支持 — container-NAME Token | 共享 API 密钥 + RBAC |
| 自带服务商 | 原生支持 — 任意 OpenAI 兼容端点 | 大多数支持,因供应商而异 |
| MITM 规则 + 脚本 | 原生支持 — 内置规则引擎 + hoody-exec 脚本 | 付费方案或外部代理 |
| OpenAI 兼容 | 原生支持 — 是 | 是(大多数替代方案) |
| 定价 | 原生支持 — 在服务商成本基础上加收 5% | 按调用收费 + 按席位 SaaS |
| 与基础设施 + 钱包集成 | 原生支持 — 统一钱包,统一 API 界面 | 独立计费和运维 |
如果已在使用 LiteLLM 或 OpenRouter 且不想运行网关,那些方案仍然更合适。当需要容器作用域认证、原生 MITM 和两余额钱包模型时——通用余额资助服务器(Stripe/加密/银行),AI 余额资助网关,单向通用→AI 转账且一张发票同时覆盖基础设施 + LLM 支出——Hoody AI 网关才真正发挥价值。
改一行 base_url,接入 Claude。
创建容器,将 base URL 设为 https://ai.hoody.com/api/v1,使用 container-NAME 作为 Bearer Token。所有 OpenAI 兼容库都已知道该怎么做。
另见——/platform/control-plane(Token 签发与钱包)、/platform/proxy(底层 URL 层)。